A Samsung proibiu o uso do ChatGPT depois que os funcionários revelaram imprudentemente informações confidenciais ao chatbot. De acordo com a Forbes, um memorando para funcionários anunciou a restrição de sistemas de IA generativos em dispositivos de propriedade da empresa e redes internas. As informações compartilhadas com o Chat são armazenadas nos servidores da OpenAI e podem ser usadas para melhorar o modelo, a menos que os usuários desistam.
O vazamento do Samsung destacou os riscos de compartilhar informações pessoais e profissionais com chatbots de IA. O ChatGPT foi temporariamente banido na Itália até a implementação do OpenAI, uma maneira mais clara de desativar o compartilhamento de dados e as restrições de idade para usuários menores de 13 anos ou menores de 18 anos com permissão dos pais. A OpenAI também anunciou que estava trabalhando em uma versão da IA para empresas que não compartilham dados de bate-papo por padrão.
Vazamento acidental de segredos comerciais via ChatGPT
Os funcionários da Samsung acidentalmente compartilharam informações confidenciais enquanto usavam a IA para obter ajuda no trabalho. A divisão de semicondutores da Samsung permitiu que os engenheiros usassem o ChatGPT para verificar o código-fonte.
Mas o The Economist Korea relatou três instâncias separadas de funcionários da Samsung vazando involuntariamente informações confidenciais para o ChatGPT. Outro funcionário compartilhou o código com o ChatGPT e “solicitou a otimização do código”. O vazamento é um exemplo do mundo real de cenários hipotéticos com os quais os especialistas em privacidade estão preocupados.
A Política de dados do ChatGPT diz que usa dados para treinar seus modelos, a menos que você solicite a desativação. No guia de uso do ChatGPT, ele avisa explicitamente os usuários, não compartilhar informações confidenciais em conversas.