segunda-feira, 12 de fevereiro de 2024

O homem e a máquina, um duelo sobre a autoria



Diferença O alemão Julian van Dieken criou uma versão de “A Rapariga do Brinco de Pérola”, de Johannes Vermeer, com recurso a uma ferramenta de inteligência artificial

 

 



Versão de “A Rapariga do Brinco de Pérola”, de J. Vermeer, criada com recurso à IA. Simon Wohlfahrt/Getty Images




 
 
Os modelos de inteligência artificial estão simplesmente a maximizar a probabilidade de nós, humanos, acharmos o seu resultado inteligível


A inteligência artificial (IA) generativa alarga a atual lei dos direitos de autor de formas imprevistas e desconfortáveis. O gabinete de direitos de autor dos Estados Unidos emitiu, recentemente, diretrizes segundo as quais os resultados da IA geradora de imagens não são passíveis de direitos de autor, a não ser que a criatividade humana tenha estado envolvida na sua criação. Mas isso deixa muitas questões: Qual é a quantidade de criatividade necessária? É o mesmo tipo de criatividade que um artista exerce com um pincel?

Outra categoria diz respeito aos textos (normalmente romances e romancistas), em que alguns argumentam que treinar um modelo em material protegido por direitos de autor é, em si mesmo, uma violação dos direitos de autor, mesmo que o modelo nunca reproduza esses textos como parte da sua produção. Mas a leitura de textos faz parte do processo de aprendizagem humana desde que a linguagem escrita existe. Embora paguemos para comprar livros, não pagamos para aprender com eles.

Como é que isto faz sentido? O que deve significar a lei dos direitos de autor na era da IA? O especialista em tecnologia Jaron Lanier dá uma resposta com a sua ideia de dignidade dos dados, que distingue implicitamente entre treinar (ou “ensinar”) um modelo e gerar resultados utilizando um modelo. A primeira deve ser uma atividade protegida, defende Lanier, considerando que a produção pode, efetivamente, infringir os direitos de autor de alguém.

Esta distinção é atrativa por várias razões. Em primeiro lugar, a atual lei dos direitos de autor protege “utilizações transformadoras... que acrescentam algo de novo” e é bastante óbvio que é isso que os modelos de IA estão a fazer. Além disso, não é como se os grandes modelos linguísticos (LLM, sigla em inglês) como o ChatGPT contenham o texto completo de, digamos, os romances de fantasia de George R. R. Martin, dos quais estão descaradamente a copiar e colar.

Em vez disso, o modelo é um enorme conjunto de parâmetros — baseados em todos os conteúdos consumidos durante o treino — que representam a probabilidade de uma palavra se seguir a outra. Quando estes motores de probabilidade produzem um soneto shakespeariano que Shakespeare nunca escreveu, isso é transformador, mesmo que o novo soneto não seja minimamente bom.

Lanier vê a criação de um modelo melhor como um bem público que serve toda a gente — mesmo os autores cujas obras são utilizadas para o treinar. Isso torna-o transformador e digno de proteção. Mas há um problema com o seu conceito de dignidade dos dados (que ele reconhece plenamente): é impossível distinguir de forma significativa entre “treinar” os atuais modelos de IA e “gerar resultados” ao estilo, por exemplo, da romancista Jesmyn Ward.

Os criadores de IA treinam modelos dando-lhes pequenos fragmentos de informação e pedindo-lhes que prevejam a palavra seguinte milhares de milhões de vezes, ajustando ligeiramente os parâmetros ao longo do processo para melhorar as previsões. Mas o mesmo processo é depois utilizado para gerar resultados, e é aí que reside o problema do ponto de vista dos direitos de autor.

Um modelo que seja incitado a escrever como Shakespeare pode começar com a palavra “To”, o que torna ligeiramente mais provável que seja seguido com “be”, o que torna ligeiramente mais provável que a palavra seguinte seja “or” — e assim por diante. Mesmo assim, continua a ser impossível ligar esse resultado aos dados de treino.

De onde veio a palavra “or”? Embora seja a palavra seguinte no famoso solilóquio de “Hamlet”, o modelo não estava a copiar “Hamlet”. Simplesmente escolheu “or” entre as centenas de milhares de palavras que poderia ter escolhido, tudo com base em estatísticas. Isto não é o que nós, humanos, reconheceríamos como criatividade. O modelo está simplesmente a maximizar a probabilidade de nós, humanos, acharmos o seu resultado inteligível.

Mas, então, como é que os autores podem ser compensados pelo seu trabalho, sempre que se justificar? Embora possa não ser possível rastrear a proveniência com os atuais chatbots de IA generativa, a história não termina aí. Desde o lançamento do ChatGPT, há cerca de um ano, os programadores têm vindo a criar aplicações com base nos modelos existentes. Muitos utilizam a geração aumentada de recuperação (RAG, sigla em inglês) para permitir que uma IA “conheça” conteúdos que não estejam nos seus dados de treino. Se precisar de gerar texto para um catálogo de produtos, pode carregar os dados da sua empresa e depois enviá-los para o modelo de IA com as instruções: “Utilizar na resposta apenas os dados incluídos neste apontamento.”

Embora a RAG tenha sido concebida como uma forma de utilizar informações proprietárias sem passar pelo processo de treino, que exige muito trabalho e computação, também cria incidentalmente uma ligação entre a resposta do modelo e os documentos a partir dos quais a resposta foi criada. Isto significa que agora temos proveniência, o que nos aproxima muito mais da concretização da visão de Lanier sobre a dignidade dos dados.

Se publicarmos num livro o software de conversão de moeda de um programador humano e o nosso modelo linguístico o reproduzir em resposta a uma pergunta, podemos atribuí-lo à fonte original e atribuir direitos de forma adequada. O mesmo se aplicaria a um romance gerado por IA escrito ao estilo do (excelente) “Sing, Unburied, Sing” de Ward.

A funcionalidade “AI-powered overview” do motor Google é um bom exemplo do que podemos esperar com as RAG. Uma vez que a Google já tem o melhor motor de busca do mundo, o seu motor de resumo deve ser capaz de responder a um pedido, executando uma pesquisa e introduzindo os principais resultados num LLM para gerar a síntese pedida pelos utilizadores. O modelo forneceria a linguagem e a gramática, mas obteria o conteúdo a partir dos documentos incluídos no apontamento. Mais uma vez, isto forneceria a proveniência em falta.

Agora que sabemos que é possível produzir resultados que respeitem os direitos de autor e compensem os autores, as entidades reguladoras têm de intervir para responsabilizar as empresas que não o façam, tal como são responsabilizadas por discursos de ódio e outras formas de conteúdo inapropriado. Não devemos aceitar a alegação dos principais fornecedores de LLM de que a tarefa é tecnicamente impossível. De facto, trata-se de mais um dos muitos desafios éticos e de modelo de negócio que podem e têm de ser ultrapassados.

Além disso, a RAG também oferece, pelo menos, uma solução parcial para o atual problema da “alucinação” da IA. Se uma aplicação (como o motor de busca Google) fornecer a um modelo os dados necessários para construir uma resposta, a probabilidade de gerar algo totalmente falso é muito menor do que quando se baseia apenas nos seus dados de treino. Assim, os resultados de uma IA podem ser mais exatos se forem limitados a fontes reconhecidamente fiáveis.

Estamos apenas a começar a ver o que é possível com esta abordagem. As aplicações RAG tornar-se-ão, sem dúvida, mais estratificadas e complexas. Mas agora que temos as ferramentas para rastrear a proveniência, as empresas de tecnologia já não têm desculpa para a desresponsabilização dos direitos de autor.

Mike Loukides e Tim O’Reilly. E-Revista Expresso, Semarário#2676, de 8 de fevereiro de 2024.    
 
 
 
A "Rapariga com brinco de pérola", de Vermeer, criada com recurso à Inteligência artificial,
pelo alemão Julian van Dieken.


Sem comentários: