Na semana passada, o Google revelou sua maior mudança nas pesquisas em anos, apresentando novos recursos de inteligência artificial que respondem às perguntas das pessoas na tentativa da empresa de alcançar os rivais Microsoft e OpenAI.
Desde então, a nova tecnologia gerou uma ladainha de inverdades e erros – incluindo a recomendação de cola como parte de uma receita de pizza e a ingestão de pedras para obter nutrientes – deixando o Google com um olho roxo e causando furor online.
As respostas incorretas no recurso, chamado Visão Geral da IA, minaram a confiança em um mecanismo de busca ao qual mais de dois bilhões de pessoas recorrem para obter informações confiáveis. E enquanto outros chatbots de IA contam mentiras e agem de forma estranha, a reação demonstrou que o Google está sob mais pressão para incorporar com segurança a IA em seu mecanismo de busca.
O lançamento também amplia um padrão de problemas do Google com seus mais novos recursos de IA imediatamente após seu lançamento. Em fevereiro de 2023, quando o Google anunciou o Bard, um chatbot para combater o ChatGPT, ele compartilhou informações incorretas sobre o espaço sideral. O valor de mercado da empresa posteriormente caiu em US$ 100 bilhões.
Em fevereiro deste ano, a empresa lançou o sucessor de Bard, Gemini, um chatbot que poderia gerar imagens e atuar como assistente digital operado por voz. Os usuários rapidamente perceberam que o sistema se recusava a gerar imagens de pessoas brancas na maioria dos casos e desenhava representações imprecisas de figuras históricas.
A cada acidente, especialistas da indústria de tecnologia criticam a empresa por deixar a bola cair. Mas em entrevistas, analistas financeiros disseram que o Google precisava agir rapidamente para acompanhar seus rivais, mesmo que isso significasse dificuldades de crescimento.
O Google “não tem escolha neste momento”, disse Thomas Monteiro, analista do Google no Investing.com, em entrevista. “As empresas precisam avançar muito rápido, mesmo que isso inclua pular algumas etapas ao longo do caminho. A experiência do usuário terá que ser atualizada.”
Lara Levin, porta-voz do Google, disse em comunicado que a grande maioria das consultas de visão geral da IA resultaram em “informações de alta qualidade, com links para se aprofundar na web”. O resultado da ferramenta gerado por IA normalmente aparece na parte superior de uma página de resultados.
“Muitos dos exemplos que vimos eram consultas incomuns e também vimos exemplos que foram adulterados ou que não conseguimos reproduzir”, acrescentou ela. A empresa utilizará “exemplos isolados” de respostas problemáticas para refinar seu sistema.
Desde que a OpenAI lançou seu chatbot ChatGPT no final de 2022 e ele se tornou uma sensação da noite para o dia, o Google tem estado sob pressão para integrar IA em seus aplicativos populares. Mas há desafios em domar grandes modelos linguísticos, que aprendem com enormes quantidades de dados retirados da web aberta – incluindo falsidades e publicações satíricas – em vez de serem programados como software tradicional.
(O New York Times processou a OpenAI e sua parceira, a Microsoft, em dezembro, alegando violação de direitos autorais de conteúdo de notícias relacionado a sistemas de IA.)
O Google anunciou o AI Overview com alarde em sua conferência anual de desenvolvedores, I/O, na semana passada. Pela primeira vez, a empresa conectou o Gemini, seu mais recente modelo de IA em grande linguagem, ao seu produto mais importante, seu mecanismo de busca.
A visão geral do AI combina declarações geradas a partir de seus modelos de linguagem com trechos de links ativos na web. Pode citar suas fontes, mas não sabe quando essa fonte está incorreta.
O sistema foi projetado para responder perguntas mais complexas e específicas do que a pesquisa normal. O resultado, disse a empresa, foi que o público poderia se beneficiar de tudo o que a Gemini pudesse fazer, eliminando parte do trabalho de busca de informações.
Mas as coisas rapidamente deram errado e os usuários postaram capturas de tela de exemplos problemáticos em plataformas de mídia social como o X.
A AI Overview instruiu alguns usuários a misturar cola não tóxica no molho de pizza para evitar que o queijo escorregasse, uma receita falsa que parecia emprestada de um Postagem do Reddit de 11 anos pretendia ser uma piada. A IA disse a outros usuários para ingerirem pelo menos uma pedra por dia para obter vitaminas e minerais – conselho que originado em uma postagem satírica de The Onion.
Como fonte de renda da empresa, a pesquisa do Google é “a única propriedade que o Google precisa para se manter relevante/confiável/útil”, Gergely Orosz, engenheiro de software com um boletim informativo sobre tecnologia, Pragmatic Engineer, escreveu no X. “E ainda assim, exemplos de como as visões gerais da IA estão transformando a pesquisa do Google em lixo estão em toda a minha linha do tempo.”
As pessoas também compartilharam exemplos de como o Google diz aos usuários em negrito para limparem suas máquinas de lavar usando “alvejante à base de cloro e vinagre branco”, uma mistura que, quando combinada, pode criar gás cloro prejudicial. Em uma fonte menor, dizia aos usuários para limparem com um e depois com o outro.
Os usuários das redes sociais tentaram se unir com quem poderia compartilhar as respostas mais estranhas do Google. Em alguns casos, eles adulteraram os resultados. Uma captura de tela manipulada parecia mostrar o Google dizendo que um bom remédio para a depressão era pular da ponte Golden Gate, citando um usuário do Reddit. Levin, porta-voz do Google, disse que os sistemas da empresa nunca retornaram esse resultado.
A AI Overview, no entanto, lutou com a história presidencial, dizendo que 17 presidentes eram brancos e que Barack Obama foi o primeiro presidente muçulmano, de acordo com capturas de tela postadas no X.
Também disse Andrew Jackson se formou na faculdade em 2005.
Kevin Roose relatórios contribuídos.