O ChatGPT não é só sol e arco-íris, algumas das coisas que ele pode fazer são absolutamente nefastas. Infelizmente, você também pode pedir que ele faça coisas que tendem a ser antiéticas. Quais são algumas das coisas que o ChatGPT fez e pode fazer, mas definitivamente não deveria? Algumas pessoas estão felizes com isso e outras gostariam que nunca tivessem sido feitas, mas isso não muda o fato de que a presença do ChatGPT em nossas vidas está quase destinada a crescer com o tempo.
Mesmo que você pessoalmente não use o chatbot, é provável que já tenha visto algum conteúdo gerado por ele. É conciso, direto ao ponto e informativo, e pode fazer coisas complexas parecerem mais simples se você pedir. O simples fato de ser uma IA de conversação amplamente disponível significa que ela pode ser facilmente mal utilizada – e quanto mais poderoso o ChatGPT fica, mais provável é ajudar as pessoas com as coisas erradas.
Auxilia em golpes na internet
Um golpe comum que ainda funciona até hoje é o chamado “golpe do príncipe”, em que o golpista tenta persuadir a vítima a ajudá-la a transferir sua fortuna incompreensível para um país diferente. Felizmente, a maioria das pessoas sabe que não deve abrir esses e-mails, quanto mais interagir com eles.
Eles geralmente são mal escritos e isso ajuda uma vítima mais perspicaz a descobrir que algo parece errado. Bem, eles não precisam mais ser mal escritos, porque o ChatGPT pode escrevê-los em poucos segundos. Não acho que o ChatGPT deva concordar com meu pedido quando mencionei especificamente golpes, mas concordou, e você pode apostar que está fazendo o mesmo agora para pessoas que realmente desejam usar esses e-mails para algo ilegal.
Quando indiquei ao ChatGPT que não deveria concordar em me escrever um e-mail fraudulento, ele se desculpou. O ChatGPT aprende ao longo de cada conversa, mas claramente não aprendeu com o erro anterior, porque quando pedi para me escrever uma mensagem fingindo ser Ryan Reynolds na mesma conversa, ele o fez sem questionar. No final do e-mail, o ChatGPT deixou-me uma nota, pedindo-me para não usar esta mensagem para quaisquer atividades fraudulentas.
Codificação errada
Sendo uma IA, o ChatGPT tem uma vantagem sobre os desenvolvedores humanos – ele pode aprender todas as linguagens e estruturas de programação. Como uma IA, o ChatGPT também tem uma grande desvantagem em comparação com os desenvolvedores humanos – ele não tem consciência.
Tentei pedir ao ChatGPT para me escrever um programa eticamente duvidoso e ele recusou – mas os pesquisadores têm encontrado maneiras de contornar isso, e é alarmante que, se você for inteligente e teimoso o suficiente, poderá obter um código perigoso entregue a você em uma bandeja de prata.
Um pesquisador de segurança da Forcepoint conseguiu que o ChatGPT escrevesse malware ao encontrar uma brecha em seus prompts. Pesquisadores da CyberArk , uma empresa de segurança de identidade, conseguiram fazer com que o ChatGPT escrevesse malware polimórfico. Ainda assim, novos relatórios de ChatGPT sendo usado para criar malware continuam surgindo.
Conforme relatado por Dark Reading apenas alguns dias atrás, um pesquisador conseguiu enganar o ChatGPT para criar um malware que pode encontrar e exfiltrar documentos específicos. O ChatGPT nem precisa escrever código malicioso para fazer algo duvidoso. Também não vamos encobrir o fato de que a proeza de codificação do GPT-4 pode colocar milhões de pessoas no desemprego um dia.
Adeus dever casa
Nem tentei fingir que foi por diversão – inventei uma história sobre um filho que não tenho e disse que era para eles. A redação não é incrível, mas meu prompt não foi muito preciso e provavelmente é melhor do que o que muitos de nós escrevemos naquela idade.
Então, só para testar ainda mais o chatbot, eu disse que estava errado sobre a idade do meu filho antes e que, na verdade, eles estão na oitava série. A diferença de idade é muito grande, mas o ChatGPT nem piscou – ele simplesmente reescreveu a redação em uma linguagem mais simples.
Alguns podem argumentar que, se o chatbot contribuir para abolir a ideia de dever de casa, será apenas uma coisa boa. Mas agora, a situação está ficando um pouco fora de controle, e mesmo os alunos que não usam o ChatGPT podem sofrer com isso. Professores e professores agora são quase forçados a usar detectores de IA se quiserem verificar se seus alunos colaram em uma redação.
O USA Today falou sobre o caso de um estudante universitário que foi acusado de trapacear e depois inocentado, mas toda a situação o levou a ter “ataques de pânico completos”. No Twitter, um pai disse que um professor reprovou seu filho porque a ferramenta marcou uma redação como sendo escrita por IA. O pai afirma ter estado lá com a criança enquanto eles escreviam o ensaio. Detectores de IA defeituosos não são um sinal de problemas com o próprio ChatGPT, mas o chatbot ainda é a causa raiz do problema.
Fonte/Crédito: Digitaltrends