ChatGPT: pesquisador encontra bug que permite usar programa para ataques cibernéticos

Por Nilton Cesar Monastier Kleina

23/01/2025 - 12:002 min de leitura

ChatGPT: pesquisador encontra bug que permite usar programa para ataques cibernéticos

Fonte: OpenAI/Reprodução

O pesquisador de cibersegurança Benjamin Flesch descobriu uma vulnerabilidade no funcionamento do ChatGPT, o popular serviço de inteligência artificial (IA) da OpenAI. A partir de comandos simples, o chatbot pode ser usado para sobrecarregar e até derrubar outros sites.

De acordo com a publicação de Flesch no GitHub, o ChatGPT pode ser usado como fonte de um ataque de Negação Distribuída de Serviço, o famoso DDoS. Isso é possível não a partir de modificações ou a exploração do sistema, mas por meio de uma ação comum no serviço.

O bug em estão está no uso da API do ChatGPT para vasculhar outros sites, que é usada em especial para que o chatbot consiga responder perguntas sobre a página. A OpenAI não colocou um limite na quantidade de vezes que um mesmo domínio poderia ser consultado, o que significa que usuários mal intencionados poderiam repetir o mesmo endereço quantas vezes quisessem.

25_01_23_085415.jpg
A tela principal do ChatGPT. (Imagem: Reprodução/OpenAI)

Ao ler o parâmetro repetido, o ChatGPT então realizava múltiplos acessos consecutivos a um site sem qualquer tipo de limite — e essa alta quantidade de solicitações a um domínio pode fazer com que uma página apresente instabilidade ou caia.

Flesch tentou contatar a OpenAI por vários canais de comunicação para formalizar a denúncia, mas não recebeu qualquer resposta da companhia. Após a publicação no GitHub para alertar desenvolvedores e matérias publicadas na imprensa internacional, a dona do ChatGPT suspendeu o recurso da API que continha o bug e desabilitou a vulnerabilidade.

Ainda assim, a empresa não se manifestou sobre o caso e aparentemente nem agradeceu o pesquisador pela denúncia até o momento. É provável que o vasculhador do ChatGPT retorne em breve, agora com algum tipo de recurso que impeça acessos duplicados ou repetidos.

Vulnerabilidades no ChatGPT

A descoberta da falha no popular chatbot não é a primeira envolvendo a segurança da plataforma. O caso mais grave aconteceu no fim de 2023, quando pesquisadores descobriram que o ChatGPT às vezes revelava dados pessoais de desconhecidos a partir de prompts específicos.

A ferramenta também já é usada para melhorar ciberataques, a partir de recursos de programação para ajudar criminosos a aprimorarem códigos e ferramentas.

O serviço também possui limitações ao falar sobre temas sensíveis com o usuário: o autor da explosão de um Cybertruck da Tesla nos Estados Unidos conversou com o chatbot e fez pesquisas a partir do serviço sobre explosivos e fogos de artifício, recebendo normalmente as respostas.


Por Nilton Cesar Monastier Kleina

Especialista em Analista

Jornalista especializado em tecnologia, doutor em Comunicação (UFPR), pesquisador, roteirista e apresentador.


Veja também


Fontes