Entenda a insegurança jurídica que a I.A generativa pode oferecer à sua empresa
O ano de 2023 foi marcado pela ascensão da Inteligência Artificial generativa. Para as grandes empresas, juntamente com todas as vantagens de economia de tempo e recursos, surgiu uma série de inseguranças relacionadas às questões legais em torno da nova tecnologia.
Os questionamentos jurídicos relacionados à inteligência artificial giram em torno da interação complexa entre uma tecnologia em rápida evolução e um arcabouço legal que pode levar anos para ser modificado. Os sistemas de IA, especialmente aqueles baseados em modelos generativos, podem realizar tarefas que sempre foram exclusivamente humanas, como escrever, pintar e tomar decisões, ações que, para o homem, estão envoltas em direitos e responsabilidades. Essa mudança levanta discussões fundamentais sobre propriedade intelectual, compliance, privacidade e considerações éticas.
Uma das pautas mais controversas diz respeito aos direitos autorais de um conteúdo gerado pela IA. O copyright pertence ao desenvolvedor da IA, ao usuário ou a IA em si possui algum direito? Por exemplo, quando uma IA cria uma ilustração, ela o faz com base em seu vasto banco de dados, “aprendendo” com imagens já existentes, produzidas por humanos. Assim, é possível que a Justiça precise decidir se essa obra pode ser protegida por direitos autorais e, em caso afirmativo, quem detém tais direitos. As atuais leis de propriedade intelectual não estão preparadas para lidar com essas questões, o que leva a uma situação de insegurança jurídica.
O caso mais marcante de litígio em torno do confronto IA e direitos autorais é o processo movido pelo The New York Times contra a OpenIA, desenvolvedora do ChatGPT. O jornal estima na casa dos bilhões de dólares o valor devido pela OpenIA pela utilização de todo o conteúdo do Times para o treinamento de sua IA generativa. Especialistas avaliam que um resultado negativo para a empresa de tecnologia pode significar o grande freio na evolução da IA nos próximos anos.
Mais recentemente, o bilionário Elon Musk também processou a OpenAI e seu CEO, Sam Altman. O motivo, no entanto, é bem diferente. Musk acusa a desenvolvedora de, ao se associar à Microsoft, estar trabalhando na criação de uma AGI (sigla em inglês para inteligência artificial geral), uma hipótese teórica que superaria as capacidades humanas (podendo prever o futuro e conversar com animais, entre outros “superpoderes”), que traria resultados catastróficos. A ação se mostra um desafio não só para a Justiça, mas para a Academia e a sociedade como um todo.
No que diz respeito à privacidade e segurança de dados, o cenário também é nebuloso. Os algoritmos por trás das plataformas de IA não são objetivos quanto ao uso de informações “imputadas” pelo usuário. Nas IAs generativas de textos, por exemplo, tudo que é digitado no campo de “conversa” passa a fazer parte da base de dados do sistema, podendo ser utilizado na produção de novos conteúdos. Diante disso, independentemente de qualquer aspecto legal, é imperativo que indivíduos e companhias jamais insiram informações sensíveis que possam alimentar cibercriminosos, detratores e concorrentes, colocando sua segurança de informação em um risco incalculável.
Do outro lado do espectro, uma informação obtida por meio de IA pode vir carregada com dados que talvez sejam considerados sigilosos. Em caso de uma situação como essa levar a um litígio, quem violou a Lei Geral de Proteção de Dados: o desenvolvedor da IA, quem recebeu a informação, quem alimentou a máquina com os dados? Uma decisão que caberá a uma Justiça com pouco ou nenhum precedente sobre o qual se debruçar.
Em outro ramo da IA, aquele voltado à tomada de decisões, as repercussões judiciais já são uma realidade concreta. No ano passado, saiu, no estado americano do Arizona, o veredito sobre a primeira morte causada por veículo autônomo. O caso aconteceu em 2018, quando um veículo semi-autônomo, uma SUV da marca Volvo, que passava por testes promovidos pela Uber, atropelou e matou uma ciclista.
No caso em questão, o termo “semiautônomo” foi fundamental para o resultado positivo da causa para a Uber, inocentada no processo. A condenação recaiu sobre Rafaela Vasquez, funcionária da empresa que estava no interior do veículo, justamente para servir como um supervisor humano e agir em caso de emergência. No momento do acidente, ela assistia a um vídeo no celular.
As empresas que lidam com IA generativa devem adotar medidas proativas para evitar problemas legais. Isso inclui revisar e fortalecer suas políticas de propriedade intelectual, buscando definir, por contrato, o mais claramente possível quem detém os direitos autorais sobre o conteúdo gerado. Além disso, devem implementar práticas sólidas de proteção de dados para garantir o consentimento do usuário e a conformidade com regulamentações de privacidade, como a LGPD.
Recentemente, houve a formação da primeira turma especializada em IA do Brasil, na Universidade Federal de Goiás (UFG). Segundo a instituição, 85% dos formandos tiveram os cursos custeados por empresas, provando que o mercado já está trabalhando para colocar em prática contingências e inovações relacionadas à inteligência artificial, entendendo que ela é uma realidade que veio para ficar.
Trabalhando em Cocriação Jurídica Corporativa com o jurídico de uma empresa, bem como áreas como comunicação interna e TI, uma assessoria judicial especializada pode ajudar na elaboração de contratos e acordos claros com desenvolvedores de IA, usuários e outras partes interessadas, estabelecendo responsabilidades e direitos de forma transparente. Ao contar com esse tipo de suporte legal, as empresas podem estar mais bem preparadas para enfrentar a insegurança jurídica relacionada à I.A generativa, reduzindo, assim, o risco de processos criminais e protegendo sua reputação e integridade no mercado.
Siga nosso Instagram: @campos.antonioliadv