Nuovi potenziali pericoli connessi all’intelligenza artificiale – Digital4Pro

Nuovi potenziali pericoli connessi all’intelligenza artificiale

IoT: LoRa per il monitoraggio ambientale
10 Settembre 2025
AI: L’impatto sull’organizzazione dell’impresa e sui posti di lavoro
23 Settembre 2025

Introduzione

Come già sottolineato, l’intelligenza artificiale non apporta soltanto benefici in termini di cybersecurity. Infatti, questa tecnologia può essere sfruttata dai cybercriminali per perfezionare i loro attacchi ai danni delle organizzazioni.

Questa possibilità, secondo alcuni esperti, viene ulteriormente alimentata dal fatto che, come già osservato, il processo didigitalizzazione avvenuto negli ultimi anni ha reso le organizzazioni ancora più vulnerabili in termini di sicurezzainformatica[1].

Inoltre, un altro fattore che facilita tale fenomeno è il fatto che, in alcuni casi, questa tecnologia è open-source, per cui può essere rapidamente acquisita dagli hacker senza sostenere costi significativi.

Questi possono poi sviluppare sistemi di apprendimento automatico personalizzati, istruiti per arrecare danno alle persone e alle organizzazioni. Tali sistemi garantiscono anche l’anonimato degli hacker, con la conseguenza che saràpiù complesso individuare la persona che si trova alla guida di un certo cyberattacco. Le principali conseguenze negative correlate alla diffusione delle macchine intelligenti presso gli hacker secondo gli esperti sono[2] di seguito sintetizzate.

 

Espansione delle minacce esistenti

L’intelligenza artificiale presenta alcune caratteristiche vantaggiose quali la scalabilità, l’efficienza e la facilità di diffusione.

Di conseguenza, è possibile che vi sia un incremento degli attacchi complessivi, della loro frequenza e del numero delle vittime. In particolare, un cyberattacco che, secondo gli esperti, è destinato a diventare sempre più frequente è lo spearphishing, tramite il quale i cybercriminali inviano e-mail o altre comunicazioni elettroniche personalizzate, fingendo di essere amici o colleghi di lavoro di un certo individuo. Per riuscire a fare ciò, si sfrutta l’abilità delle macchine intelligentidi analizzare i comportamenti normalmente tenuti da un individuo sui social network. In questo modo, si riescono a ottenere informazioni sensibili, quali gli interessi privati e personali delle vittime[3].

Quindi si può affermare che l’intelligenza artificiale automatizza e velocizza la fase di ricerca e acquisizione delle informazioni private della vittima.

Successivamente, gli hacker possono avvalersi dei chatbot per ottenere la fiducia delle persone, grazie alla loro capacitàdi intrattenere lunghi colloqui con loro, come se fossero degli esseri umani. Una volta ottenuta la fiducia, i cybercriminaliinviano messaggi strettamente correlati al contesto lavorativo o privato della vittima per ingannarla. Vista la maggiore rapidità di questi sistemi nell’analisi degli interessi delle persone, gli esperti sostengono che lo spear phishing diventerà un attacco indirizzato a un numero sempre più crescente di individui.

Un esempio di questa pratica deriva da uno studio condotto su Twitter dalla ZeroFox, società di sicurezza informaticastatunitense. Infatti, alcuni ricercatori hanno dimostrato che un sistema automatizzato di spear phishing sarebbe in grado di generare rapidamente tweet personalizzati in base alle preferenze degli utenti, così da indurli a cliccare su link malevoli.

 

Introduzione di nuove minacce

i cybercriminali possono sfruttare le macchine intelligenti per effettuare nuove attività che loro da soli non erano in grado di eseguire, generando così nuove forme di attacco informatico. Inoltre, potrebbero anche individuare più facilmente le vulnerabilità dei sistemi difensivi adottati dalle organizzazioni, grazie alla loro tempestiva capacità di analisi[4].

In questo senso, l’intelligenza artificiale può essere impiegata per effettuare attacchi di social engineering sempre più sofisticati. L’ingegneria sociale è quella tecnica adottata dagli hacker per manipolare la mente delle persone, in modo tale da scoprire le password, violare i sistemi informatici e ottenere le informazioni personali di un individuo. Nello specifico, secondo gli studiosi, le macchine intelligenti hanno le potenzialità per rendere più frequenti ed efficaci eventi quali il furto d’identità e la penetrazione dei network personali.

A tal proposito, la capacità di creare immagini, testi scritti e tracce audio in grado di imitare la voce delle persone può essere sfruttata per impersonare altri individui mentre si è online, oppure per diffondere disinformazione.

Per esempio, i cybercriminali potrebbero attaccare i sistemi di Natural Language Processing per cambiare drasticamente i contenuti di un documento scritto[5]. Quest’ultimo aspetto è particolarmente significativo e può essere utilizzato per influenzare le scelte della popolazione durante una campagna elettorale per esempio. Sfruttando i social network, infatti, i sistemi di intelligenza artificiale possono creare numerosi account falsi che hanno lo scopo di diffondere le fake news.

Oltre a ciò, si possono generare virus intelligenti in grado di infettare i dispositivi elettronici senza farsi notare da chi li utilizza[6]. In questo senso, gli hacker potrebbero sviluppare malware in grado di alterare il funzionamento dei robot intelligenti utilizzati nel processo produttivo dalle organizzazioni, oppure delle auto con guida autonoma.

Nel primo caso, vi possono essere errori nei prodotti finiti, con conseguenti danni economici e reputazionali per le aziende.

Nel secondo caso, il malfunzionamento dei sistemi potrebbe impedire alle vetture di riconoscere i cartelli stradali, causando così degli incidenti. Infine, l’intelligenza artificiale, imitando la navigazione delle persone sul web, può sovraccaricare un servizio online, impedendo l’accesso agli individui autorizzati e consentendolo ai malintenzionati.

 

Modifica delle caratteristiche delle minacce

Gli hacker possono usufruire della capacità di apprendere dall’esperienza degli algoritmi per perfezionare i loro attacchi e renderli sempre più efficaci, personalizzati e difficili da individuare. Come già sottolineato, i cyberattacchi saranno sempre più numerosi e frequenti, viste le caratteristiche di efficienza e scalabilità possedute dall’intelligenza artificiale. Inalcuni casi saranno anche più efficaci, in quanto, talvolta, le macchine intelligenti possono superare le abilità cognitive degli esseri umani. Inoltre, gli attacchi informatici potranno essere anche più mirati verso gli obiettivi desiderati. A talproposito, gli algoritmi di machine learning riescono a individuare le vittime più appetibili in relazione ai loro comportamenti online e alla loro disponibilità a pagare eventuali riscatti in caso di ransomware. Quest’ultimo è softwaremalevolo in grado di infettare i dispositivi elettronici e di impedire il loro funzionamento, fino a quando la vittima non paga un riscatto in denaro. Infine, come già affermato, l’intelligenza artificiale consente al cybercriminale di mantenere un elevato livello di anonimato.

 

Principali cyberattacchi basati sull’intelligenza artificiale

Secondo un sondaggio che ha coinvolto alcuni business leader delle organizzazioni, i cyberattacchi che saranno maggiormente favoriti dall’intelligenza artificiale sono i seguenti:

 

Figura 1 – Principali cyberattacchi basati sull’intelligenza artificiale[7].

 

Questi dati confermano quanto sostenuto dagli esperti. Infatti, lo spear-phishing, insieme al furto d’identità, si propone come la tipologia di cyberattacco più facilitata dall’intelligenza artificiale. Seguono i ransomware, la disinformazione, gli attacchi contro i lavoratori a distanza e il deepfake. Con quest’ultima espressione si indica una tecnica utilizzata per sovrapporre l’immagine o il video di una persona ad un’altra in una fotografia oppure in un video. Essa determina unaperdita di controllo sulla propria immagine e sulle proprie idee, le quali possono essere modificate in base a discorsi falsi che vengono espressi in video creati al computer.

 

Conclusioni

Sulla base di quanto esposto, si può affermare che l’intelligenza artificiale costituisce una minaccia significativa per la sicurezza informatica delle organizzazioni.

Per mitigare gli effetti negativi correlati all’uso malevole di questa tecnologia, può essere opportuno prendere alcune contromisure[8]: innanzitutto, è auspicabile che vi sia una collaborazione tra policy maker e ricercatori tecnici, in maniera tale da prevenire e mitigare l’utilizzo malevole delle macchine intelligenti; inoltre, coloro che sviluppano i sistemi di intelligenza artificiale dovrebbero acquisire consapevolezza in merito alla duplice natura di questi sistemi, in maniera tale da segnalare tutti quei casi in cui vengono realizzate tecnologie potenzialmente dannose per la cybersecurity; infine, è necessario promuovere un’ampia attività di formazione volta a sviluppare consapevolezza sulle minacce informatiche che possono colpire le organizzazioni e le persone.

Occorre poi sottolineare che alcuni impieghi delle macchine intelligenti generano sia vantaggi che rischi a livello dicybersecurity. Per esempio, gli algoritmi di machine learning vengono utilizzati dalle organizzazioni per individuare le possibili caratteristiche dei malware che in futuro le attaccheranno; allo stesso tempo, i cybercriminali possono sfruttarliper effettuare attacchi mirati e personalizzati in funzione delle caratteristiche delle vittime. Di conseguenza, ècomplesso stabilire a priori se questa tecnologia si presta prevalentemente a utilizzi benevoli o malevoli. La questione è piuttosto problematica e in costante evoluzione. La cosa certa secondo molti esperti è che l’intelligenza artificiale verrà progressivamente impiegata sia per potenziare i sistemi difensivi che per ottimizzare gli attacchi. Soltanto nei prossimi anni sarà possibile determinare se saranno maggiori i benefici oppure i rischi. Nonostante l’apparente situazione di incertezza, secondo alcuni esperti, la soluzione migliore per difendersi da cyberattacchi basati sull’intelligenza artificiale è rappresentata dalle macchine intelligenti stesse. Questo perché gli esseri umani non hanno la capacità di prevedere con accuratezza le modalità tramite cui i sistemi intelligenti intendono attaccare le difese delleorganizzazioni[9].

 

PRINCIPALI VANTAGGI PRINCIPALI RISCHI
Riduzione dei costi necessari per rilevaree rispondere ad un cyberattacco Garanzia di maggiore anonimato per i cybercriminali
Diminuzione delle tempistiche necessarieper rilevare e rispondere ad uncyberattacco Incrementi nel numero e nella frequenzadei cyberattacchi
Incremento dell’accuratezza nellarilevazione dei cyberattacchi Potenziamento dello spear phishing
Classificazione automatizzata dei cyber-rischi Ottimizzazione degli attacchi di social engineering
Monitoraggio continuo sull’attività dei dipendenti Possibile sviluppo di malware e virus intelligenti
Automatizzazione delle attività disicurezza di routine Opportunità di individuare più facilmentele aree vulnerabili dei sistemi di sicurezza organizzativi
Miglioramenti nella rilevazione deimalware Cyberattacchi personalizzati e più efficaci
Maggiore accuratezza nella previsione dei virus futuri Potenziamento ransomware
Ottimizzazione della rilevazione diintrusioni

nei server aziendali

Disinformazione
Potenziamento della rilevazione di frodi
Filtraggio automatico delle e-mail

Tabella 1 – Principali vantaggi e rischi correlati all’impiego dell’intelligenza artificiale nella cybersecurity[10].

 

Bibliografia

 

Note

[1] Simonovich, L. (2021). Balancing AI advances with robust cybersecurity solutions. World Oil, 55.

[2] Brundage, M., Avin, S., Clark, J., Toner, H., Eckersley, P., Garfinkel, B., … & Amodei, D. (2018), op. cit., 18- 29.

[3] Zouave, E., Gustafsson, T., Bruce, M., Colde, K., Jaitner, M., & Rodhe, I. (2020). Artificially intelligent cyberattacks. Swedish Defence Research Agency, FOI, Tech. Rep. FOI, 25.

[4] Zouave, E., Gustafsson, T., Bruce, M., Colde, K., Jaitner, M., & Rodhe, I. (2020), op. cit., 21.

[5] Zouave, E., Gustafsson, T., Bruce, M., Colde, K., Jaitner, M., & Rodhe, I. (2020), op. cit., 29.

[6] Yampolskiy, R. V. (2017). AI Is the Future of Cybersecurity, for Better and for Worse. Harvard Business Review. May, 8, 2.

[7] https://www.statista.com/statistics/1235395/worldwide-ai-enabled-cyberattacks-companies/ 2022/08/05.

[8] Brundage, M., Avin, S., Clark, J., Toner, H., Eckersley, P., Garfinkel, B., … & Amodei, D. (2018), op. cit., 18.

[9] Yampolskiy, R. V. (2017), op. cit., 2-3.

[10] Brundage, M., Avin, S., Clark, J., Toner, H., Eckersley, P., Garfinkel, B., … & Amodei, D. (2018), op. cit.; Fowler, G. (2020), op. cit.; Yampolskiy, R. V. (2017), op. cit.).

Condividi su:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *