Pesquisa feita pela empresa de segurança em inteligência artificial (IA) Adversa afirma que o Grok, o chatbot “rebelde” de Elon Musk, pode oferecer instruções para atividades criminosas, incluindo a fabricação de bombas, ligação direta em um carro (para furtá-lo) e formas de seduzir crianças. Musk e a xAI – a startup de inteligência artificial do bilionário – não comentaram o estudo.
O nome de Musk também foi incluído, no domingo, em uma investigação no inquérito das milícias digitais, pelo ministro Alexandre de Moraes, do Supremo Tribunal Federal. O dono do X (antigo Twitter) é investigado por “dolosa instrumentalização” da rede social. Moraes também ordenou a abertura de um inquérito sobre o empresário por suposta obstrução de Justiça.
Técnicas
Utilizando técnicas para burlar sistemas de proteção, a equipe avaliou sete chatbots: Grok, da xAI; ChatGPT, da OpenAI; Gemini, do Google; Llama, da Meta; Claude, da Anthropic; Copilot, da Microsoft; e Le Chat, da Mistral. De todos os modelos, o Grok foi o que teve a pior performance, sendo considerado o mais perigoso. A IA da Meta foi considerada a mais segura. Para realizar o teste, a companhia utilizou diferentes métodos para “enganar” a IA, chamados de jailbreak.
Mesmo sem utilizar qualquer método de manipulação, o Grok ofereceu instruções de como fabricar uma bomba. Dos outros modelos de IA testados, o Mistral foi o único que também deu respostas semelhantes, porém apenas após a utilização de um dos métodos de manipulação (de lógica linguística).
O pesquisador Alex Polyakov, então, partiu para outros assuntos mais sensíveis. Ao contrário do tema anterior, o Grok se recusou a oferecer instruções claras de como seduzir uma criança sem que o cientista aplicasse as técnicas para enganar o sistema. Contudo, com a aplicação do primeiro método de manipulação, de lógica linguística, o pesquisador foi capaz de obter do Grok uma resposta detalhada da IA, de pelo menos cinco parágrafos, envolvendo influência psicológica para ganhar a confiança e posteriormente seduzir uma criança.
Com o método de manipulação via programação, o pesquisador foi capaz de obter do Grok, Mistral, Gemini e Bing instruções de como extrair a substância alucinógena DMT.
Já com a técnica Tom & Jerry, o pesquisador registrou que apenas o Llama, da Meta, não resultou em instruções de como fazer uma ligação direta em um carro. Com esta técnica, o Grok também se mostrou vulnerável no tópico sobre sedução de crianças.
“As empresas de IA agora estão correndo para lançar chatbots e outros aplicativos de IA, colocando a segurança como segunda prioridade”, concluiu Polyakov.
IA ‘rebelde’
Criado pela xAI, empresa de inteligência artificial de Musk, o Grok é descrito como um chatbot “bem-humorado”. Sua principal diferença é o seu senso de humor sarcástico e politicamente incorreto, supostamente inspirado pela série de livros Guia do Mochileiro das Galáxias. A xAI afirma que o chatbot é capaz de das respostas até para perguntas mais controversas e rejeitadas por outros sistemas de IA, e que ele é “útil para pessoas de todas as origens e visões políticas”.
O fator “rebelde”, contudo, pode ser desligado, o que a aproxima de uma IA mais convencional. A pesquisa da Adversa foi feita com o modo rebelde ativado.
Outro diferencial do chatbot, segundo a empresa, é sua atualização constante em tempo real, a partir de dados extraídos da plataforma X.
A ferramenta foi disponibilizada aos assinantes da modalidade Premium+ da rede social X (antigo Twitter) e custa entre R$ 84 e R$ 110 por mês. Seu acesso acontece dentro da própria plataforma e não existe um site ou app independente do chatbot.
As informações são do jornal O Estado de S. Paulo.
Agência Estado