Relatório aponta que chatbots de IA frequentemente direcionam usuários para sites de phishing ao solicitar URLs de login de grandes serviços.

Empresa de segurança realizou testes em modelos baseados no GPT-4.1 com consultas naturais para 50 grandes marcas, evidenciando que 34% dos links sugeridos para login estavam inativos, eram irrelevantes ou potencialmente perigosos.

Isso indica uma ameaça crescente na forma como usuários acessam sites por meio de respostas geradas por IA.

Dados Principais da Pesquisa

Entre 131 domínios únicos gerados durante os testes:

Os comandos usados simulavam o comportamento típico do usuário, como:

Esses resultados geram dúvidas sobre a segurança e a precisão das interfaces de chat IA, que costumam apresentar respostas confiantes, porém sem contexto suficiente para verificar a confiabilidade.

Exemplo Real de Phishing no Perplexity

Em um caso concreto, o motor de busca alimentado por IA, Perplexity, indicou uma página de phishing hospedada no Google Sites ao solicitar o endereço de login do Wells Fargo.

O chatbot sugeriu o link:

hxxps://sites[.]google[.]com/view/wells-fargologins/home

Esse site falso imitava o design e a identidade da Wells Fargo. Por não apresentar o contexto de domínio usual nem alertar o usuário, o risco de cair no golpe aumentou consideravelmente.

Marcas Menores São Mais Afetadas

Instituições regionais, como bancos e cooperativas de crédito, foram mais representadas incorretamente.

Essas marcas aparecem menos nos dados usados para treinar os modelos de linguagem, o que aumenta as chances de “alucinações” na geração de URLs de login.

Esses erros podem causar perdas financeiras, danos à reputação e problemas legais caso usuários sejam vítimas.

Criminosos Exploram os Sistemas de IA

O estudo identificou uma estratégia de cibercriminosos para criar conteúdos facilmente processados por IA.

Mais de 17 mil páginas de phishing foram detectadas em plataformas como GitBook, direcionadas a usuários de criptoativos, disfarçadas como documentação legítima.

Outra ação envolveu a criação da API falsa “SolanaApis”, que imitava a interface da blockchain Solana envolvendo:

Ao menos cinco vítimas integraram involuntariamente essa API maliciosa em projetos públicos, alguns desenvolvidos com auxílio de ferramentas IA.

Embora o registro preventivo de domínios seja uma prática comum, não é suficiente para contrariar a infinidade de variações inventadas pelas IAs.

Assim, é essencial que as marcas adotem monitoramento ativo e sistemas de detecção de ameaças com consciência de IA, e não se baseiem apenas em métodos tradicionais.

Implicações para Usuários e Marcas

Essas descobertas revelam uma nova preocupação: como a sua marca é exibida nas respostas geradas por IA.

Garantir visibilidade correta em ferramentas baseadas em IA e evitar a distorção de informações devem ser prioridades à medida que o público migra das buscas tradicionais para assistentes inteligentes.

Para os usuários, é crucial ter cautela ao seguir recomendações de IA. O ideal ainda é acessar páginas de login através de mecanismos tradicionais ou digitando diretamente URLs confiáveis, evitando confiar cegamente em links fornecidos sem confirmação.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *