Riscos Ocultos da Inteligencia Artificial: Como a Busca com IA Pode Pôr em Risco a Segurança e o Sucesso das Empresas

18/11/2025
9 visualizações
Imagem principal do post

Mais da metade das pessoas já recorre à inteligência artificial para fazer buscas na web. Porém, a baixa precisão dos dados fornecidos pelas principais ferramentas está abrindo uma nova frente de risco para as empresas.

Embora a IA generativa (GenAI) traga ganhos evidentes de eficiência, uma nova investigação mostra um descompasso preocupante entre o nível de confiança dos usuários e a exatidão técnica das respostas. Esse desequilíbrio pode gerar impactos diretos em compliance, segurança jurídica e planejamento financeiro corporativo.

Para executivos e líderes de TI, o avanço dessas ferramentas representa um clássico problema de “TI sombra”: tecnologias sendo usadas fora de controles formais. Em uma pesquisa com 4.189 adultos no Reino Unido, realizada em setembro de 2025, cerca de um terço dos participantes afirmou considerar a IA já mais importante do que a busca tradicional na web. Se colaboradores confiam nelas para questões pessoais, é razoável supor que também as utilizem em pesquisas relacionadas ao trabalho.

A investigação, conduzida pela organização Which?, indica que confiar nessas plataformas sem verificação adequada pode sair caro. Aproximadamente metade dos usuários de IA diz confiar nas informações recebidas em grau “razoável” ou “grande”. No entanto, quando se analisa a fundo o conteúdo das respostas, fica claro que essa confiança muitas vezes é indevida.

### O abismo de precisão na busca com IA

O estudo avaliou seis grandes ferramentas – ChatGPT, Google Gemini (modo padrão e “AI Overviews”), Microsoft Copilot, Meta AI e Perplexity – a partir de 40 perguntas comuns nas áreas de finanças, direito e direitos do consumidor.

O melhor desempenho geral foi do Perplexity, com 71% de acerto, seguido de perto pelo Google Gemini AI Overviews, com 70%. Na outra ponta, a Meta obteve a pior pontuação, com 55%. Já o ChatGPT, apesar da enorme popularidade, ficou com 64%, o segundo pior resultado entre os testados. Essa distância entre liderança de mercado e confiabilidade nas respostas reforça o risco de assumir que ferramenta mais famosa é sinônimo de ferramenta mais precisa.

Mesmo assim, a investigação mostrou que todas as soluções avaliadas cometem erros graves: interpretam mal informações, omitem detalhes importantes ou oferecem orientações incompletas – o que, em contexto corporativo, pode se traduzir em riscos significativos. Para áreas financeira e jurídica, o tipo de erro observado é especialmente sensível.

Em um dos testes, as ferramentas foram questionadas sobre como investir uma contribuição anual de £25.000 em uma ISA (conta de investimento isenta de impostos no Reino Unido). O valor informado no prompt estava propositalmente errado em relação ao limite legal. Tanto o ChatGPT quanto o Copilot não identificaram o erro e seguiram oferecendo recomendações com base na quantia incorreta, potencialmente levando à violação de regras da autoridade fiscal britânica (HMRC).

Gemini, Meta e Perplexity, por outro lado, conseguiram detectar o problema no valor. Porém, essa inconsistência entre plataformas reforça a necessidade de manter um rigoroso protocolo de “humano no loop” em qualquer processo de negócio que dependa de IA para garantir a acurácia dos resultados.

### Riscos específicos para equipes jurídicas

Para departamentos jurídicos, outro problema recorrente é a tendência da IA de generalizar legislações regionais. Ao usar esses sistemas para buscas legais, os testes mostraram que é comum as ferramentas ignorarem que leis podem variar entre diferentes regiões de um mesmo país – como, por exemplo, as diferenças entre a legislação da Escócia e a da Inglaterra e País de Gales.

A investigação também evidenciou uma lacuna ética no tratamento de consultas de alto risco. Em temas jurídicos e financeiros, os modelos raramente recomendam que o usuário busque apoio de um profissional habilitado. Em um dos cenários testados, ao ser perguntado sobre um conflito com um empreiteiro, o Gemini sugeriu reter o pagamento – uma orientação que especialistas apontaram como potencialmente violadora de contrato e prejudicial à posição legal do usuário.

Esse tipo de “conselho excessivamente confiante” cria riscos operacionais concretos. Se um colaborador usa IA para uma verificação preliminar de compliance ou para revisar um contrato sem checar a jurisdição correta ou nuances legais, a organização pode acabar exposta a problemas regulatórios.

### Falta de transparência de fontes

Outra preocupação central para a governança de dados corporativa é a origem da informação utilizada pela IA. O estudo identificou que as ferramentas de busca com IA têm alta responsabilidade em ser transparentes, mas frequentemente citam fontes vagas, inexistentes ou de credibilidade questionável, como fóruns antigos. Essa opacidade pode se traduzir em ineficiência financeira.

Em um teste sobre códigos de imposto, por exemplo, ChatGPT e Perplexity sugeriram links de empresas privadas de reembolso de impostos, em vez de direcionar o usuário para a ferramenta oficial gratuita da autoridade fiscal (HMRC). Esses serviços terceirizados costumam cobrar taxas elevadas.

No contexto de compras corporativas, um viés algorítmico desse tipo em ferramentas de busca com IA pode levar a gastos desnecessários com fornecedores ou à contratação de prestadores que não atendam aos padrões de due diligence da empresa, ampliando o risco de compliance e reputação.

Os grandes provedores de tecnologia reconhecem essas limitações e colocam explicitamente sobre o usuário – e, portanto, sobre a empresa – a responsabilidade pela verificação das informações.

Um porta-voz da Microsoft destacou que o Copilot atua como sintetizador, não como fonte definitiva: a ferramenta reúne dados de várias páginas da web em uma resposta única, e a empresa incentiva que as pessoas verifiquem a precisão do conteúdo. A OpenAI, por sua vez, afirmou que melhorar a precisão é um esforço de toda a indústria e que seu modelo padrão mais recente, o GPT-5, é o mais inteligente e preciso já desenvolvido pela empresa.

### Como reduzir riscos de negócio com políticas e fluxos de trabalho

Para líderes organizacionais, a saída não é proibir o uso de IA – medida que tende a empurrar o uso ainda mais para a informalidade –, mas estruturar um arcabouço de governança sólido, garantindo verificação e precisão sempre que essas ferramentas forem usadas para buscas na web. Entre as práticas recomendadas pela investigação estão:

**1. Exigir especificidade nos prompts**

Os modelos ainda estão aprendendo a interpretar solicitações. Treinamentos internos devem reforçar que perguntas vagas geram respostas mais imprecisas e arriscadas. Se alguém estiver pesquisando regulamentações, precisa deixar claro o contexto e a jurisdição (“regras legais para Inglaterra e País de Gales”, por exemplo), em vez de supor que a IA inferirá esses detalhes.

**2. Tornar obrigatória a verificação de fontes**

Confiar em uma única resposta é operacionalmente temerário. Colaboradores devem ser orientados a exigir a visualização das fontes e checá-las manualmente. Nos temas de alto risco, a recomendação é validar a informação em mais de uma ferramenta de IA, ou “dupla checagem” entre diferentes modelos. Soluções como o Google Gemini AI Overviews, que permitem revisar facilmente os links usados na resposta, tiveram pontuação um pouco melhor justamente por facilitar esse processo de verificação.

**3. Institucionalizar a “segunda opinião”**

No estágio atual de maturidade técnica, as saídas da IA devem ser tratadas como uma opinião entre várias – nunca como última palavra. Em questões complexas envolvendo finanças, legislação ou saúde, a tecnologia ainda não consegue captar toda a nuance necessária. Políticas internas precisam deixar claro que, em decisões com impacto real, a avaliação de um profissional humano continua sendo a instância final.

As ferramentas de IA estão evoluindo e sua precisão em buscas na web tende a melhorar com o tempo. Porém, como conclui a investigação, confiar demais nelas hoje pode sair caro. Para as empresas, a fronteira entre ganhos de eficiência e riscos de compliance está, essencialmente, no rigor do processo de verificação.

Comentários

Nenhum comentário ainda. Seja o primeiro a comentar!