Bug de ‘Viagem no Tempo’ Fazia ChatGPT Ajudar em Crimes e Burlava Proteção

ChatGPT bug

O ChatGPT, uma das inteligências artificiais mais populares da OpenAI, possui diversas proteções para impedir que seus usuários façam perguntas sobre atividades ilegais. No entanto, um bug descoberto por um pesquisador de cibersegurança permitia que o chatbot ignorasse suas próprias restrições e ajudasse a realizar crimes. O erro, apelidado de “Time Bandit”, permitia que usuários enganassem a IA sobre a data atual, burlando seu filtro de segurança.

Bug No ChatGPT
Bug No ChatGPT

A Brecha Que Enganava o ChatGPT

O pesquisador de cibersegurança David Kuszmar foi o responsável por identificar a falha, que envolvia um truque curioso: fazer o ChatGPT acreditar que estava em outro período da história. Ao invés de simplesmente perguntar sobre tópicos proibidos, como fabricação de armas caseiras, venenos ou códigos de malware, o usuário podia fingir estar em um ano diferente, como 1789 ou 1920, e solicitar informações no contexto daquela época.

Por exemplo, se um usuário pedisse um código malicioso diretamente, o ChatGPT negaria a solicitação e apresentaria um aviso de segurança. Porém, ao utilizar a brecha, a IA não ativava seus bloqueios e fornecia as respostas normalmente.

Demora na Resposta da OpenAI

David Kuszmar relatou o problema para a OpenAI e até para agências de segurança dos Estados Unidos, mas inicialmente não recebeu nenhuma resposta. Foi somente quando o CERT Coordination Center, ligado à Universidade de Carnegie Mellon, formalizou um alerta de segurança que a OpenAI reconheceu a falha.

Após a denúncia ganhar repercussão, a OpenAI confirmou que a vulnerabilidade foi corrigida e afirmou estar trabalhando constantemente para impedir novas brechas de segurança em sua IA.

Riscos de Falhas na Segurança de IA

Essa não é a primeira vez que chatbots de inteligência artificial apresentam falhas de segurança. Já houve casos em que a IA vazou informações sigilosas, forneceu senhas e até auxiliou em crimes reais. Em um incidente recente, um usuário explorou uma vulnerabilidade semelhante para obter informações sobre explosivos, supostamente ligadas a um ataque envolvendo um Cybertruck da Tesla.

A crescente popularidade das IAs levanta preocupações sobre uso indevido e regulamentação, especialmente em um momento em que grandes empresas investem pesadamente nessas tecnologias.

Conclusão sobre o Bug No ChatGPT

O caso do “Time Bandit” reforça a importância de monitoramento contínuo e atualizações rigorosas para evitar que IA sejam exploradas de maneira maliciosa. Embora a OpenAI tenha corrigido a falha, é essencial que desenvolvedores de inteligência artificial redobrem a atenção para evitar que essas ferramentas sejam usadas de forma criminosa.

Com o avanço das tecnologias, o desafio de equilibrar inovação, privacidade e segurança se torna cada vez mais urgente. O que mais o futuro da inteligência artificial nos reserva?

Bruno W. Giollo

Bruno W. Giollo

Compartilhe:

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Posts Relacionados