Fenômeno ganhou destaque após nova funcionalidade da Meta ser disponibilizada no WhatsApp.
Desde que passou a ser disponibilizado no WhatsApp, nesta semana, o chatbot de inteligência artificial (IA) da Meta apresentou algumas respostas erradas aos usuários. O fenômeno, intitulado alucinação ou alucinação artificial, fez com que diversos internautas criticassem o serviço nas redes sociais.
Procurada pela CNN, a big tech afirmou que, ao anunciar a nova tecnologia, já havia explicado que ela não seria perfeita, mas que está comprometida em aprimorar a sua funcionalidade.
Mas afinal, o que é alucinação artificial?
À CNN, Bruno Kawakami, especialista em segurança digital e IA, explica que o fenômeno diz respeito a uma falha estática apresentada para determinado tema ou execução.
“Ela direciona a resposta para invenções desconexas, achando que aquela seria a melhor resposta possível. Essa falha faz com que a IA invente informações irreais“.
Já a cientista da computação Nina da Hora, nome por trás do Instituto da Hora, conta que o episódio é um dos principais desafios enfrentados por sistemas de IA.
“Especialmente em tarefas que envolvem linguagem natural, como a geração de texto, na qual a IA pode oferecer uma resposta que, aparentemente, é válida e lógica, mas, na verdade, não está fundamentada em nenhuma realidade factual”, diz.
O que há por trás dos dados incorretos da IA?
Segundo Nina, há uma série de motivações para a IA alucinar, apresentando retornos errados, como:
Limitações de Treinamento: a IA é treinada em vastos volumes de texto, e a forma como ela aprende a gerar respostas não envolve entender o mundo ou verificar a verdade, mas sim reconhecer padrões em dados e prever a sequência mais provável de palavras. Isso significa que ela pode parecer confiante em sua resposta, mesmo que seja completamente inventada;
Ausência de Compreensão Real: modelos de IA como o ChatGPT não têm compreensão real dos fatos; eles são projetados para prever a próxima palavra em uma sequência com base em padrões aprendidos, e não para verificar a veracidade ou realizar uma análise lógica profunda;
Falta de Verificação de Fatos: a IA não possui mecanismos embutidos para verificar a precisão de suas respostas. Ela não checa dados de uma fonte externa ao gerar uma resposta; por isso, mesmo quando fornece uma resposta aparentemente bem fundamentada, ela pode estar errada;
Dados de Treinamento Contaminados: o modelo é treinado em dados retirados de várias fontes da internet, que podem conter informações incorretas, tendenciosas ou especulativas. A IA pode acabar replicando ou amplificando esses erros em suas respostas;
Interpretação de Perguntas Complexas: a IA pode interpretar incorretamente perguntas ambíguas, gerando respostas que não condizem com o contexto ou o significado pretendido pelo usuário.
Os profissionais também afirmam que o acúmulo de informações registradas também potencializa o fenômeno.
“A IA pode aprender com dados errados, se enviesar ou generalizar. Portanto, processar informações para a IA e achar o equilibro probabilístico, assim como categorizar corretamente informações erradas e corretas, é essencial para mitigarmos esse tipo de problema”, afirma Kawakami.
Alucinações artificiais são comuns
Apesar das consequências negativas que a alucinação pode gerar, o fenômeno é relativamente comum, especialmente em modelos de linguagem que lidam com a geração de texto complexo, explica Nina.
“Embora os avanços na área tenham reduzido a frequência desse tipo de erro, ele ainda ocorre, principalmente, em contextos que exigem precisão factual, como consultas médicas, históricas ou jurídicas”.
“São muitos dados processados e aprendidos pelas IAs, assim como são muitas as probabilidades de respostas, o que dificulta avaliarmos, monitorarmos e compreendermos todas as alternativas”, adiciona Kawakami.
As cautelas necessárias para mitigar erros ao uso da IA
Ainda que as dicas pareçam clichês, é necessário ter o radar sempre ligado para diminuir os erros associados ao uso de IA, incluindo:
Verificação Independente: sempre que possível, as respostas geradas por IA devem ser verificadas por uma fonte confiável, especialmente em contextos em que erros podem ter consequências significativas (como na saúde, nas finanças ou decisões legais);
Compreensão das Limitações: é importante reconhecer que a IA não compreende o mundo como seres humanos fazem e não tem mecanismos internos para verificar a verdade. Suas respostas são baseadas em padrões linguísticos, não em fatos confirmados;
Manter a Contextualização: fornecer à IA um contexto claro e específico ao fazer perguntas pode ajudar a reduzir o risco de respostas alucinatórias, embora não elimine o risco.
Fonte: CNN BRASIL