Large language model sfruttati dagli hacker: la posizione di Microsoft

Gruppi legati a governi nazionali stanno già sfruttando i modelli di AI generativa per traduzioni, ricerca di informazioni, generazione di codice e di testi.

(Immagine generata dall'AI)

I cybercriminali stanno sfruttando i large language model come Gpt, modello alla base di ChatGpt, per migliorare l’efficacia dei propri attacchi e in particolare per la scrittura di codice malware e per il phishing. Diversi vendor di sicurezza informatica negli ultimi mesi hanno prefigurato questo rischio, ma ora a dirlo sono la stessa Microsoft e OpenAI, grandi protagoniste del mercato dell'AI generativa con ChatGpt e Copilot. Da una ricerca condotta dalle due aziende emergono “comportamenti compatibili con attaccanti che usano l’AI come un altro strumenti di produttività nello scenario degli attacchi”.

L’analisi si basa sugli oltre 2,5 miliardi di rilevamenti quotidiani effettuati dalle tecnologie Microsoft in cloud, oltre che sull’osservazione di oltre 300 gruppi o attori malevoli (tra cui 160 soggetti nation-state e una cinquantina di gruppi autori ransomware).

Le modalità con cui questi soggetti stanno abusando dei large language model variano, ma ci sono alcuni tratti in comune: attività di ricognizione sugli obiettivi del futuro attacco; uso dei modelli di GenAI per la scrittura o il perfezionamento di codice malware; utilizzo delle traduzioni automatiche e della generazione di testo per confezionare messaggi, per esempio nel phishing e nel social engineering.

Microsoft sottolinea che questi usi malevoli sono, in un certo senso, naturali e attesi. Negli anni, un tema conduttore nell’ecosistema cybercriminale è stato quello di “seguire le tendenze della tecnologia, in parallelo alla controparte dei difensori”, ha scritto l’azienda. “Gli attori malevoli, al pari dei difensori, guardano all’AI e anche ai large language model per potenziare la produttività e trarre vantaggio dalle piattaforme accessibili, che potrebbero far progredire i loro obiettivi e tecniche di attacco”.

I GRUPPI CYBERCRIMINALI CHE SFRUTTANO LA GENAI

Microsoft segnala, in particolare, alcuni gruppi hacker che stanno tentando di sfruttare gli Llm. Uno è Fancy Bear (anche noto come Strontium e Apt28), collettivo legato all’intelligenge militare russa, che sta utilizzando modelli di AI generativa per comprendere i protocolli di comunicazione satellitare, le tecnologie radar e parametri tecnici specifici. Attivo in questi anni con attività legate alla guerra in Ucraina, nel 2016 lo stesso gruppo ha partecipato agli attacchi di boicottaggio alla campagna elettorale di Hillary Clinton.

C’è poi Thallium, gruppo nordcoreano che ha usato gli Llm per ricercare vulnerabilità già segnalate e nomi di aziende colpite, per compilare script e per generare contenuti utili in campagne di phishing. Viene dall’Iran, invece, il collettivo noto come Cirium: ha utilizzato l'intelligenza artificiale per creare messaggi di phishing e codice in grado di sfuggire agli antivirus. Gruppi affiliati al governo cinese, infine, si stanno appoggiando all’AI per attività di ricerca, compilazione di codice, traduzione di testi e affinamento degli strumenti informatici esistenti.

LA RISPOSTA DI MICROSOFT

In risposta a questi rischi emergenti, Microsoft si è impegnata a continuare a lavorare con Mitre per integrare nell’omonimo framework e in Mitre Atlas le nuove tattiche, tecniche e procedure (Ttp) legate all’abuso dell’AI generativa. Inoltre la società di Redmond ha annunciato una serie di principi che orienteranno i suoi sforzi di mitigazione del rischio. Microsoft ha promesso di intraprendere “azioni appropriate” per smantellare le attività cybercriminali che abusino dei servizi o delle Api di intelligenza artificiale; inoltre darà pronta notifica agli eventuali altri fornitori di AI coinvolti (così che possano, in autonomia, verificare l’accaduto). L’azienda ha anche promesso di voler collaborare con le varie parti interessate per promuovere una risposta “collettiva, coerente ed efficace” ai rischi di ecosistema. Ultimo punto, la trasparenza sulle azioni intraprese contro gli attori malevoli.

Il rapporto tra intelligenza artificiale e attacchi informatici è notoriamente ambiguo, perché da un lato le tecnologie di machine learning (inclusa l’AI generativa) sono uno strumento utile in molti ambiti della difesa, ma dall’altro si prestano anche a diventare complici degli attori malevoli. Inoltre l’AI può diventare anche bersaglio di attacchi, come già accaduto anche a ChatGpt, colpito per esempio lo scorso novembre dal gruppo hacker Anonymous Sudan (quasi omonimo, ma non legato agli hacktivisti di Anonymous).

ARTICOLI CORRELATI

NEWS

Aruba Managed Kubernetes semplifica la gestione dei container

22/03/2024 di redazione

NEWS

Con Washington Dc, ServiceNow fa spazio all’AI generativa

22/03/2024 di Roberto Bonino

NEWS

Body camera Motorola Solutions al servizio di 4mila poliziotti austriaci

21/03/2024 di redazione

NEWS

Intel accelera sui chip “made in Usa”, con il supporto di Joe Biden

21/03/2024 di redazione

Le ultime notizie

NEWS

Aruba Managed Kubernetes semplifica la gestione dei container

22/03/2024 di redazione

NEWS

Con Washington Dc, ServiceNow fa spazio all’AI generativa

22/03/2024 di Roberto Bonino

NEWS

Body camera Motorola Solutions al servizio di 4mila poliziotti austriaci

21/03/2024 di redazione

NEWS

Intel accelera sui chip “made in Usa”, con il supporto di Joe Biden

21/03/2024 di redazione

IctBroadcast

Le più lette

ECCELLENZE

Migliori esperienze digitali nelle residenze per anziani di Korian

30/06/2023 di Redazione

ECCELLENZE

Un Soc automatizzato e senza più limiti per Telepass

27/06/2023 di Redazione

ECCELLENZE

Minacce esterne e interne sotto controllo per Cotonella

21/06/2023 di Redazione

ECCELLENZE

Continuità e resilienza per la settima arte

23/05/2023 di Redazione

https://www.ictbusiness.it/news/large-language-model-sfruttati-dagli-hacker-la-posizione-di-microsoft.aspx