attacchi ia generativa

L’intelligenza artificiale generativa porterà ad uno tsunami di tattiche sofisticate di social engineering e furti di identità potenziati da strumenti basati su GenAI. Lo sostiene Trend Micro nella nuova edizione di “Critical Scalability“, studio annuale che analizza il panorama della sicurezza e presenta le minacce informatiche che imperverseranno nel corso dell’anno.

“I LLM, ossia i Large Language Model, sono una tecnologia AI avanzata, incentrata sulla comprensione e sull’analisi del testo. Questi modelli, presenti in qualsiasi lingua, sono una reale e seria minaccia per la sicurezza perché eliminano tutti gli indicatori tipici del phishing, come ad esempio gli errori di formattazione o quelli grammaticali. Questo rende gli attacchi estremamente difficili da individuare” afferma Alessio Agnello, Technical Director di Trend Micro Italia. “Le imprese e le organizzazioni devono superare le tradizionali misure anti-phishing e adottare controlli di sicurezza moderni. Gli strumenti di difesa avanzati affiancano la capacità umana nel rilevare i pericoli e assicurano resilienza contro le tattiche cybercriminali di oggi”.

L’ampia disponibilità e la qualità in costante miglioramento della GenAI, insieme all’utilizzo di Generative Adversarial Networks (Gan), saranno la causa di un cambiamento epocale negli attacchi e nelle tattiche di phishing. Questa trasformazione renderà possibile la creazione di audio iper-realistici e contenuti video a basso costo, determinando una nuova ondata di truffe business email compromise (Bec), rapimenti virtuali e altro ancora.

Considerato il livello elevato del potenziale guadagno di questi attacchi, i cybercriminali saranno incentivati a sviluppare strumenti GenAI malevoli per lanciare campagne o utilizzare tool legittimi ma con credenziali rubate, nascondendo le proprie identità all’interno di vpn.

Anche i modelli di AI potrebbero essere sotto attacco. I modelli generici come GenAI e LLM sono difficili da influenzare a causa degli ampi e variegati set di dati ma i modelli di machine learning cloud- based potrebbero essere un target attraente. I dataset più specializzati su cui si basano saranno presi di mira per inquinare le informazioni attraverso diverse tecniche, dall’esfiltrazione di dati sensibili al boicottaggio dei filtri anti-frodi, per esempio. I veicoli connessi potrebbero essere nel mirino di questi attacchi. In generale, i cybercriminali potrebbero corrompere i database da cui i modelli GenAI traggono le informazioni. Compiere un attacco di questo tipo costa meno di 100 dollari.

Queste tendenze potrebbero portare a loro volta a un maggiore controllo normativo e a un impegno più elevato dell’intero settore della cybersecurity.

“L’intero settore della cybersecurity deve collaborare attivamente con i governi e le istituzioni per sviluppare policy e regolamentazioni specifiche relative all’AI e alla sicurezza” commenta Alessandro Fontana, Country Manager di Trend Micro Italia. “Come Trend Micro sosteniamo ogni giorno la pubblica amministrazione italiana e le forze dell’ordine nella lotta al cybercrime e ribadiamo il nostro impegno e la nostra disponibilità per favorire la sicurezza dell’intero sistema Paese”.

Iscriviti alla newsletter di InsurZine per restare aggiornato su tutte le ultime news e eventi Insurtech

Redazione

La Redazione di InsurZine è composta da collaboratori, influencer ed analisti, esperti del settore insurtech