A Samsung acidentalmente vazou seus segredos para o ChatGPT – três vezes!

Parece que, como o resto do mundo, a Samsung está impressionada com o ChatGPT, mas a gigante coreana do hardware confiou no chatbot informações muito mais importantes do que o usuário médio e já foi queimada três vezes.

O potencial para chatbots de IA no mundo da codificação é significativo e a Samsung, até agora, permitia que a equipe de sua divisão de semicondutores usasse o bot da OpenAI para corrigir erros de codificação. 

Após três vazamentos de informações em um mês, espere que a Samsung cancele sua assinatura do ChatGPT Plus. 

De fato, a empresa agora está desenvolvendo sua própria IA interna para ajudar na codificação e evitar mais deslizes.

PUBLICIDADE

Um dos vazamentos supostamente diz respeito a um funcionário pedindo ao ChatGPT para otimizar as sequências de teste para identificar falhas em chips, um processo importante para uma empresa como a Samsung que pode render grandes economias para fabricantes e consumidores. 

Agora, a OpenAI está guardada em um monte de informações confidenciais da Samsung – mencionamos que a OpenAI é parceira da Microsoft?

Embora este seja um caso bastante especializado, outra instância é algo que as pessoas comuns devem ter cuidado. 

Um funcionário da Samsung pediu ao ChatGPT para transformar anotações de uma reunião em uma apresentação, um pedido aparentemente inócuo que agora vazou informações para vários terceiros. 

PUBLICIDADE

Isso é algo que todos devemos considerar ao usar o ChatGPT e o Google Bard e, com o rápido crescimento da IA, há poucos precedentes legais nos quais confiar.

Em sua Política de Privacidade (que a Samsung espera ler na íntegra), a OpenAI menciona que “quando você usa nossos Serviços, podemos coletar Informações Pessoais que estão incluídas na entrada, uploads de arquivos ou comentários que você fornece aos nossos Serviços”. 

A OpenAI também se reserva o direito de usar as informações pessoais coletadas “para fins de pesquisa” e “para desenvolver novos programas e serviços”.

 

Quão seguro é o ChatGPT?

 

A OpenAI não esconde o fato de que o ChatGPT retém os dados de entrada do usuário – afinal, é uma das melhores maneiras de treinar e melhorar o chatbot.

Embora seja improvável que a maioria de nós vaze informações confidenciais de uma empresa multibilionária, também existem preocupações individuais com a privacidade.

Os chatbots de IA cresceram tão rápido que há pouca regulamentação. 

Isso é ainda mais preocupante com as ambições da Microsoft de integrar o ChatGPT ao Office 365, uma plataforma que milhões usam no trabalho todos os dias.

Também há preocupações na UE de que o ChatGPT vá contra o GDPR e a Itália já o tenha banido completamente, embora isso tenha levado os italianos a VPNs. Por enquanto, os usuários terão que usar seu próprio julgamento e evitar divulgar qualquer informação pessoal quando puderem.

PUBLICIDADE
Assinar