Dicionário elege a palavra do ano e você não faz ideia de qual seja
O que você responderia se te perguntassem qual é a palavra do ano de 2023? Acredite, poucas pessoas acertariam.
O Cambridge Diccionary elegeu a palavra do ano de 2023: “Hallucinate” ou “Alucinar”, em português. O dicionário online mais popular do mundo explicou que esse fato pouco convencional está ligado diretamente com a expansão da inteligência artificial, de robôs como o Bard e e o ChatGPT.
Leia mais: Proteja seus dados: o que você NUNCA deve guardar no seu smartphone
Segundo especialistas, a escolha da palavra se dá pelo fato de que os chatbots “alucinam”, no sentido de dar respostas erradas ou sem sentido, geralmente desvinculado daquilo que foi perguntando.
Isso resume a escolha do dicionário pela palavra ao tocar no debate das IAs: são ferramentas poderosas, mas passíveis de erros. Atualmente, o mundo aprenda lidar com sistemas desse tipo de forma segura. Mas, por que dizer que essas máquinas alucinam?
Estudos provam que as IAs “viajam na maionese”
Pesquisadores da Vectara, startup fundada por ex-funcionários do Google, mediram a frequência com que os sistemas de IA “alucinam”. Segundo a equipe, essas alucinações acontecem mais vezes do que se imagina, entre 3% e 27%.
O líder da pesquisa, Simon Hughes, disse que sua equipe solicitou que os sistemas resumissem artigos de notícias, algo simples para uma inteligência artificial (IA). No entanto, foi constatado que os chatbots inventaram informações. Ou seja, ele ainda apresenta erros considerados graves.
Quais chatbots mais “alucinam”?
O queridinho ChatGPT, da OpenAI, teve baixa taxa de alucinação, em torno de 3%. Agora, sistemas da Meta, que comanda o Instagram, Facebook e WhatsApp, o percentual girou em torno de 5%.
O sistema Claude 2, da empresa Antropic, o nível de alucinação passou dos 8%. Já o sistema Palm Chat, do Google, foi o que respondeu mais “abobrinha”, em torno de 27%.
Os números são preocupantes, não para quem enxerga essas interfaces de inteligência artificial como diversão, mas para quem recorre a elas em busca de informações sérias, como dados para documentos judiciais, ou no caso de quem procura ajuda médica por conta própria.
Por fim, estima-se que o uso descriminado e “alucinógeno” de certas inteligências artificiais pode aumentar o número de notícias falsas (fake news).