Seguindo os passos do WormGPT , os agentes de ameaças estão anunciando mais uma ferramenta de inteligência artificial (IA) geradora de crimes cibernéticos, sendo ela chamada FraudGPT em vários mercados da dark web e canais do Telegram.
De acordo com o veículo de notícias The Hacker News, “Este é um bot de IA, direcionado exclusivamente para fins ofensivos, como criar e-mails de spear phishing, criar ferramentas de cracking, carding etc.”, disse Rakesh Krishnan, pesquisador de segurança da Netenrich, em um relatório publicado na terça-feira.
A empresa de segurança cibernética disse que a oferta está circulando desde pelo menos 22 de julho de 2023. O custo de assinatura para o FraudGPT é de US$ 200 por mês (ou US$ 1.000 por seis meses e US$ 1.700 por um ano).
Krishnan ainda afirma que a ferramenta pode ser usada para escrever códigos maliciosos, criar malwares indetectáveis e encontrar vazamentos e vulnerabilidades. Nesse caso, já houve mais de 3.000 vendas e análises confirmadas.
É possível notar que os fraudadores estão cada vez mais aproveitando o advento das ferramentas de IA, do tipo OpenAI ChatGPT, para inventar novas variantes adversárias. Essas são explicitamente projetadas para promover todos os tipos de atividades cibercriminosas sem quaisquer restrições.
As ferramentas disponibilizadas pelo FraudGPT aumentam o desempenho do phishing para o próximo nível, podendo atuar como uma plataforma de lançamento para montar ataques convincentes e comprometer e-mails comerciais em escala. Esse tipo de ação pode levar ao roubo de informações confidenciais e pagamentos eletrônicos não autorizados.
Portanto, é importante que as empresas de IA montem estratégias de defesa em profundidade, para que a segurança seja capaz de detectar ameaças imprevisíveis. Estratégias de precaução podem evitar que um e-mail de phishing se torne um crime mais abrangente, como o ransomware ou exfiltração de dados.