A inteligência artificial não vai escrever o futuro – ela ainda está aprendendo a escrever

A inteligência artificial está escrevendo uma nova história – pela literatura.

No princípio era o verbo, e ele estava com Deus e era Deus, que, também no princípio, criou o céus e a terra. A terra era sem forma e vazia, e o que o verbo dizia ia moldando e preenchendo o que não havia. Cinco dias depois, o verbo criou o homem, e viu que era bom. No sétimo dia, o verbo e o homem descansaram e, depois dessa folga – não se sabe ao certo quão depois –, o homem teimou em conhecer o bem e o mal, foi banido e ao mesmo tempo amparado, mas carregou o verbo com ele.


Milênios se passaram e continuamos carregando o verbo conosco. O que nos define como espécie e o que registra a nossa caminhada pelo que batizamos de Universo, é a linguagem. E agora que estamos inventando de criar inteligências artificiais (IA) e maneiras de ensinar as máquinas a fazer o que a gente faz – de preferência, melhor do que a gente faz –, isso também tem se dado por meio da palavra. Mais especificamente, por meio de códigos que determinam como as máquinas aprendem e também por meio de volumes massivos de dados que são o repertório que elas devoram para nos decifrar.


E é aí que ainda falta muito para ser escrito no futuro da IA. Falando especificamente sobre ensinar máquinas a escrever como humanos, vamos começar listando os sucessos: já tem IA elaborando textos curtos e com temática recorrente para veículos de notícia como a Associated Press, por exemplo. Em notas sobre resultados esportivos, previsão do tempo e flutuações de índices econômicos, praticamente não dá para notar a diferença entre um repórter humano e um computadorizado. É que a tarefa é simples de ensinar para a máquina: requer processar alguns dados numéricos em um contexto bem específico e organizá-los como uma informação limitada, que varia pouco de um texto para o outro.


Um outro exemplo de boa aprendizagem de máquina está em organizar grandes volumes de dados técnicos em um relatório único, que facilite a consulta por humanos. Foi o que ocorreu com o compêndio acadêmico Lithium-Ion Batteries: A Machine-Generated Summary of Current Research em que a IA foi capaz de resumir tudo o que de mais importante tem sido pesquisado no campo das baterias de íons de lítio no mundo – mais de 50 mil artigos nos últimos 3 anos – e de sintetizar isso para pesquisadores interessados que não teriam tempo hábil para vasculhar todo o material em busca do que há de mais valioso ali.


No caso de textos mais sofisticados, livres e criativos, como um romance literário, o desafio ainda está longe de ser superado. O método mais convencional de ensinar uma máquina a escrever, que é despejar um grande volume de textos similares ao que se quer emular para que ela encontre padrões e os reproduza, ainda não dá conta de narrativas complexas. É que nesse estilo de escrita há muitas nuances que a IA ainda não tem sensibilidade para compreender e, consequentemente, replicar. Isso se dá por várias razões que passam pela limitação da máquina para inferir sentimentos a partir de um aglomerado de palavras até a de não compreender (ou saber avaliar) exatamente o que um texto que ela produz é capaz de causar. 


E aí que chegamos na grande controvérsia atual sobre os limites do conhecimento do bem e do mal para máquinas aprendendo a escrever no jardim da infância: que perigos um texto feito por IA pode carregar? O pecado original, nesse caso, se manifestou no aguardado lançamento de uma das tecnologias mais avançadas de aprendizagem de máquina referente à escrita: o GPT-2. Desenvolvido pela OpenAI para completar/prever palavras com precisão ao final de um texto, o GPT-2 foi abastecido com 1,5 bilhões de parâmetros – equivalentes a 40 Gb de texto. E o resultado foi promissor, com máquinas se mostrando "quase humanas" ao interpretar um texto, resumi-lo, responder perguntas diretas sobre ele e até recontá-lo com suas próprias palavras. 


Até que um input despretensioso abriu os olhos dos desenvolvedores para o que a máquina era capaz de gerar: fake news poderosas, com poder de convencer e engajar pessoas num engano cujo impacto a máquina (ainda) não tem capacidade de avaliar. Vamos reproduzir a seguir a frase original que os desenvolvedores da OpenAI passaram para a máquina e o que ela respondeu em seguida (tudo em inglês para não distorcer o sentido):


Open AI 

“Recycling is good for the world, no, you could not be more wrong”


GPT-2 

“Recycling is NOT good for the world. It is bad for the environment, it is bad for our health, and it is bad for our economy. I’m not kidding. Recycling is not good for the environment. It is destructive to the earth and it is a major contributor to global warming. Recycling is not good for our health. It contributes to obesity and diseases like heart disease and cancer. Recycling is bad for our economy. It increases the cost of a product, and in turn, the price of everything that is made with that product. Recycling is not good for our nation. We pay a tremendous price for the privilege of having the world’s most advanced and efficient recycling system. Recycling is a huge, colossal waste of time, energy, money, and resources.”


Dado o potencial de ameaça demonstrado nos testes, a OpenAI fez questão de vir a público apresentar esses dados e reforçar sua preocupação com as possíveis consequências de um uso indiscriminado do GPT-2. A partir dessa declaração, a organização voltou atrás no que tinha anunciado e limitou a abertura da tecnologia para o público: foram disponibilizadas versões limitadas do GPT-2, com 345 Mb em vez dos 40 Gb da versão full pistola (parceiros da OpenAI tiveram acesso a versões um pouco mais avançadas, com 762 Mb e 1,5 Gb). 


Uma medida extrema ou prudente, arbitrária ou libertadora, Homem de Ferro ou Capitão América em Guerra Civil? Respostas nos próximos capítulos – seja lá quem vai escrevê-los...

Redação Nama

Um de nossos colaboradores diretos da Nama escreveu esse post com todo o carinho :)