ChatGPT: pesquisador encontra bug que permite usar programa para ataques cibernéticos
Por Nilton Cesar Monastier Kleina
23/01/2025 - 12:00•2 min de leitura
Fonte: OpenAI/Reprodução
O pesquisador de cibersegurança Benjamin Flesch descobriu uma vulnerabilidade no funcionamento do ChatGPT, o popular serviço de inteligência artificial (IA) da OpenAI. A partir de comandos simples, o chatbot pode ser usado para sobrecarregar e até derrubar outros sites.
De acordo com a publicação de Flesch no GitHub, o ChatGPT pode ser usado como fonte de um ataque de Negação Distribuída de Serviço, o famoso DDoS. Isso é possível não a partir de modificações ou a exploração do sistema, mas por meio de uma ação comum no serviço.
O bug em estão está no uso da API do ChatGPT para vasculhar outros sites, que é usada em especial para que o chatbot consiga responder perguntas sobre a página. A OpenAI não colocou um limite na quantidade de vezes que um mesmo domínio poderia ser consultado, o que significa que usuários mal intencionados poderiam repetir o mesmo endereço quantas vezes quisessem.
Ao ler o parâmetro repetido, o ChatGPT então realizava múltiplos acessos consecutivos a um site sem qualquer tipo de limite — e essa alta quantidade de solicitações a um domínio pode fazer com que uma página apresente instabilidade ou caia.
Flesch tentou contatar a OpenAI por vários canais de comunicação para formalizar a denúncia, mas não recebeu qualquer resposta da companhia. Após a publicação no GitHub para alertar desenvolvedores e matérias publicadas na imprensa internacional, a dona do ChatGPT suspendeu o recurso da API que continha o bug e desabilitou a vulnerabilidade.
- Leia também: Respostas do ChatGPT podem te fazer perder dinheiro
Ainda assim, a empresa não se manifestou sobre o caso e aparentemente nem agradeceu o pesquisador pela denúncia até o momento. É provável que o vasculhador do ChatGPT retorne em breve, agora com algum tipo de recurso que impeça acessos duplicados ou repetidos.
Vulnerabilidades no ChatGPT
A descoberta da falha no popular chatbot não é a primeira envolvendo a segurança da plataforma. O caso mais grave aconteceu no fim de 2023, quando pesquisadores descobriram que o ChatGPT às vezes revelava dados pessoais de desconhecidos a partir de prompts específicos.
A ferramenta também já é usada para melhorar ciberataques, a partir de recursos de programação para ajudar criminosos a aprimorarem códigos e ferramentas.
O serviço também possui limitações ao falar sobre temas sensíveis com o usuário: o autor da explosão de um Cybertruck da Tesla nos Estados Unidos conversou com o chatbot e fez pesquisas a partir do serviço sobre explosivos e fogos de artifício, recebendo normalmente as respostas.
Por Nilton Cesar Monastier Kleina
Especialista em Analista
Jornalista especializado em tecnologia, doutor em Comunicação (UFPR), pesquisador, roteirista e apresentador.