

Você pode pensar duas vezes antes de fornecer ao ChatGPT as informações do seu cartão de crédito.
A organização por trás do ChatGPT, OpenAI, publicou uma postagem no blog explicando que precisava derrubar o chatbot devido a um bug que permitia a alguns usuários não apenas ver os títulos de outro usuário de seu histórico do ChatGPT, bem como a primeira mensagem de uma nova conversão com o chatbot, mas também potencialmente expor informações relacionadas ao pagamento .
Esse bug que levanta as sobrancelhas pode soar alarmante.
Mas, na realidade, afetou apenas 1,9% dos usuários do ChatGPT Plus nas nove horas em que esteve ativo; para quem não está familiarizado, o ChatGPT Plus é a versão premium do chatbot OpenAI.
“Nas horas antes de colocarmos o ChatGPT offline na segunda-feira, alguns usuários podiam ver o nome e sobrenome de outro usuário ativo, endereço de e-mail, endereço de pagamento, os quatro últimos dígitos (apenas) de um número de cartão de crédito e cartão de crédito data de validade.
Números completos de cartão de crédito não foram expostos em nenhum momento”, explicou OpenAI. “Acreditamos que o número de usuários cujos dados foram realmente revelados a outra pessoa é extremamente baixo.”
Além de tudo isso, os usuários precisariam seguir um processo bastante complicado para realmente ver os dados expostos.
No entanto, isso serve como um aviso de que é cedo para esses chatbots de ‘IA’ e eles podem ser tão suscetíveis a violações de dados quanto os sites comuns.
Falando fora de hora
Embora o bug do ChatGPT tenha um impacto menor, as coisas poderiam ter sido muito piores.
Imagine se o ChatGPT Plus fosse amplamente utilizado, digamos, usado por corporações para cuidar de tediosas tarefas administrativas.
Esse bug poderia ter exposto todos os tipos de dados corporativos ou detalhes de pagamento de grandes empresas.
E se aproveitado por hackers oportunistas, o bug pode ser usado para causar estragos.
Agora isso é tudo teórico. Mas esse bug é um sinal de que, embora a inovação em chatbots possa avançar, ela pode prejudicar a segurança robusta e o controle de dados.
Se a Microsoft realmente limitar o acesso ao seu índice de pesquisa BIng, que pode ser usado para alimentar os chatbots, ela poderia atuar como um porteiro para o desenvolvimento do chatbot, o que poderia tornar a situação mais segura.
Mas isso pode acontecer às custas da inovação.
Em resumo, essa revolução inicial do chatbot de IA parece estar ganhando força. Mas esse bug serve como um aviso de que os desenvolvedores de bots precisam andar em vez de correr com suas IAs.