Pesquisadores de segurança cibernética detalharam como a ferramenta Chat GPT AI da Open AI está sendo usada por criminosos cibernéticos para criar malware e ferramentas de hacking.
Pesquisadores de segurança cibernética detalharam como os cibercriminosos estão usando o Open AI ChatGPT Ferramenta AI para criar malware perigoso. Desde que a ferramenta ChatGPT AI foi lançada ao público no mês passado, os usuários de mídia social postaram suas experiências com ela, incluindo muitas capturas de tela mostrando como estão usando a ferramenta para escrever artigos, poemas, roteiros de filmes e muito mais. Muitos também o estão usando para escrever trechos de código, provando que o software foi desenvolvido o suficiente para fazer muitas coisas que os humanos podem fazer.
De acordo com pesquisadores de cibersegurança da Pesquisa de ponto de verificação (CPR), alguns membros de comunidades de hackers clandestinos estão usando o ChatGPT para escrever códigos maliciosos que podem ser usados para realizar ataques cibernéticos. Embora alguns desses criadores de malware sejam hackers de chapéu preto que estão usando a ferramenta para aprimorar seu código malicioso e criar malware mais sofisticado, até mesmo usuários com nenhum conhecimento ou experiência em codificação podem usar a nova ferramenta baseada em IA para criar software malicioso.
ChatGPT sendo usado para escrever malware
Os pesquisadores forneceram exemplos de como os hackers estão usando o ChatGPT para criar ferramentas de hackers maliciosas. No final de dezembro, em um tópico em um fórum de hackers clandestino não identificado, um hacker explicou como eles conseguiram criar malware para roubo de informações baseado em Python usando técnicas descritas em publicações de pesquisa. De acordo com o pôster, o malware copia documentos e imagens no sistema comprometido antes de carregá-los em um servidor operado por hackers.
Eles também revelaram que criaram um malware baseado em Java que pode baixar e executar software malicioso remotamente em sistemas comprometidos. Outro pôster afirmou que também usou o ChatGPT para escrever um script Python que, segundo eles, foi o primeiro script que eles criaram usando a ferramenta AI. De acordo com os pesquisadores do CPR, o script é projetado para criptografar e descriptografar arquivos, algo que pode ser potencialmente transformado em ransomware.
Criar código com a intenção de usá-lo para atividades ilegais é uma violação dos termos e condições da Open AI. No entanto, não parece haver nenhuma maneira de agir contra agentes mal-intencionados por enquanto, pois todos os exemplos de código compartilhados em fóruns podem ser usados de maneira benigna. Ainda assim, eles também podem ser facilmente modificados para serem usados como ransomware (ou outras formas de malware) com um pouco mais de trabalho. O ChatGPT pode ser uma ótima ferramenta para a maioria dos usuários. Mas também pode se tornar uma ferramenta perigosa nas mãos das pessoas erradas, o que é apenas um dos muitos alertas que os pesquisadores têm quando se trata da proliferação de ferramentas de IA como a OpenAI. ChatGPT e outros produtos.
Fonte: Pesquisa de ponto de verificação