L’impatto dell’intelligenza artificiale open source sull’hacking: il punto di vista dell’FBI
I criminali informatici utilizzano sempre più l’intelligenza artificiale (AI) per potenziare le loro attività illegali. L’FBI ha avvertito che gli hacker stanno sfruttando modelli di intelligenza artificiale open source per ingannare gli utenti di Internet.
Per quanto riguarda l’intelligenza artificiale open source in Francia, Meta unisce le forze con Hugging Face e Scaleway https://t.co/esAJl9Pg2G— ZDNet.fr (@zdnetfr) 9 novembre 2023
Utilizzo dell’intelligenza artificiale da parte dei criminali informatici
I criminali informatici utilizzano chatbot basati su modelli linguistici come ChatGPT, Google Bard o Claude per facilitare le loro attività dannose. Manipolano queste IA utilizzando query precise per aggirare le misure di sicurezza.
L’FBI ha notato che i modelli di intelligenza artificiale più apprezzati dagli utenti di Internet non sono i preferiti dagli hacker.
Modelli open source, uno strumento favorito dagli hacker
Gli hacker preferiscono utilizzare modelli di intelligenza artificiale open source gratuiti e personalizzabili piuttosto che quelli controllati dalle aziende. Questi modelli sono disponibili a chiunque su Internet e possono essere utilizzati per generare contenuti illegali. Inoltre, sono più leggeri e richiedono meno potenza di calcolo, il che è un vantaggio per sviluppatori e criminali informatici.
Gli hacker utilizzano anche modelli di intelligenza artificiale personalizzati sviluppati da altri hacker. Nel dark web esistono molti chatbot progettati per generare contenuti illegali, come malware. Alcuni chatbot sono persino in grado di generare software per la falsificazione di carte di credito. Sono venduti a caro prezzo sul dark web.
I diversi usi dell’IA da parte dei criminali informatici
Gli hacker utilizzano l’intelligenza artificiale per progettare pagine di phishing che imitano l’interfaccia delle piattaforme ufficiali. Sfruttano inoltre le capacità dell’intelligenza artificiale generativa per creare virus polimorfici, rendendone più complicata la rilevazione.
I truffatori utilizzano la tecnologia deepfake per estorcere denaro alle loro vittime. Generano immagini e video falsificati, che raffigurano i loro obiettivi in situazioni compromettenti. Usano anche l’intelligenza artificiale per la clonazione della voce per manipolare le loro vittime al telefono.
Il futuro dell’intelligenza artificiale e dell’hacking
L’FBI prevede un aumento dell’uso criminale dell’intelligenza artificiale man mano che la tecnologia diventerà più ampiamente disponibile. È quindi essenziale sviluppare strategie di prevenzione e protezione per contrastarne l’uso dannoso. È necessario proteggere i modelli di intelligenza artificiale open source e implementare misure di sicurezza più solide.
L’intelligenza artificiale ha il potenziale per apportare benefici alla società in molti settori, ma è fondamentale garantirne un utilizzo responsabile ed etico.
Fonte: PCMag