A exploração da Inteligência Artificial por hackers na Dark Web
Os hackers estão usando cada vez mais Inteligência Artificial (IA) generativa para realizar suas atividades criminosas. Uma investigação recente da Kaspersky sobre a Dark Web descobriu que o uso de IA, incluindo ferramentas generativas de IA, tornou-se comum e preocupante.
Milhares de discussões sobre o uso ilegal de IA
A Kaspersky Digital Footprint Intelligence, empresa russa de segurança cibernética, analisou a Dark Web para identificar discussões sobre o uso de IA por hackers. Os pesquisadores descobriram milhares de conversas discutindo o uso ilegal e malicioso de IA.
Em 2023, foram registradas nada menos que 3 mil discussões, com pico em março. Embora essas discussões tendam a diminuir ao longo do ano, elas continuam ativas na Dark Web.
IA ao serviço dos cibercriminosos
Essas discussões concentram-se principalmente no desenvolvimento de malware e no uso ilegal de modelos de linguagem. Os hackers estão explorando diferentes caminhos, como processar dados roubados e analisar arquivos de dispositivos infectados.
Estas trocas demonstram o interesse crescente dos hackers na IA e o seu desejo de explorar as suas capacidades técnicas, a fim de realizar atividades criminosas de forma mais eficaz.
Venda de contas ChatGPT roubadas e jailbreaks na Dark Web

Além das discussões sobre o uso de IA, a Dark Web também é um mercado próspero para a venda de contas ChatGPT roubadas. A Kaspersky identificou mais de 3.000 anúncios que vendem contas ChatGPT pagas.
Os hackers também oferecem serviços de registro automático para criar contas em massa sob demanda. Esses serviços são distribuídos por canais seguros como o Telegram.
Além disso, os pesquisadores observaram um aumento na venda de chatbots desbloqueados, como WormGPT, FraudGPT, XXXGPT, WolfGPT e EvilGPT. Essas versões maliciosas do ChatGPT estão livres de limitações, sem censura e carregadas com recursos adicionais.
Uma ameaça crescente à segurança cibernética

O uso de IA por hackers representa uma ameaça crescente à segurança cibernética. Os modelos de linguagem podem ser explorados de forma maliciosa, aumentando o número potencial de ataques cibernéticos.
É, portanto, essencial reforçar as medidas de cibersegurança para combater estas novas formas de ataques baseados na IA. Os especialistas devem permanecer vigilantes face a estes desenvolvimentos constantes e trabalhar para desenvolver estratégias eficazes para combater os cibercriminosos.