
La società di sicurezza informatica Kaspersky ha provato a rispondere ad una domanda che si fanno in molti: ChatGPT, il chatbot alimentato da machine learning e intelligenza artificiale lanciato da OpenAI, sarà una minaccia per il mondo della cybersecurity?
L’azienda ha affrontato un argomento alquanto spinoso, visto che tramite l’AI sono già state realizzate porzioni di codice malevolo, potenzialmente molto pericoloso. ChatGPT non solo è in grado di spiegare concetti scientifici complessi meglio di molti insegnanti, scrivere musica e generare quasi tutti i testi in base alle richieste dell’utente, ma anche di creare codici credibili e difficilmente distinguibili da quelli scritti dagli esseri umani. Per questo motivo, i criminali informatici stanno già cercando di applicare questa tecnologia agli attacchi di spear-phishing.
Cosa sono gli attacchi di spear-phishing
Secondo gli esperti, lo spear-phishing è “una particolare tipologia di truffa, con la quale i cybercriminali spingono le vittime a rivelare informazioni sensibili”. Se in precedenza, l’ostacolo principale che gli impediva di condurre campagne di spear-phishing di massa era il costo elevato della scrittura di ciascuna e-mail mirata ora con ChatGPT la situazione potrebbe cambiare drasticamente.
La soluzione tech – secondo Kaspersky – potrebbe permettere agli attaccanti di generare e-mail di phishing persuasive e personalizzate su scala industriale. ChatGPT è inoltre in grado di riprodurre la corrispondenza, creando false e-mail convincenti che sembrano inviate da un dipendente all’altro. Purtroppo, questo significa che il numero di attacchi di phishing che avranno successo potrebbe aumentare.
“Sebbene ChatGPT non svolga alcuna azione dannosa, potrebbe aiutare gli attaccanti in diverse situazioni, ad esempio scrivendo e-mail di phishing mirate e credibili – ha commentato Vladislav Tushkanov, Security Expert di Kaspersky – Tuttavia, al momento, ChatGPT non è assolutamente in grado di diventare una sorta di IA autonoma per l’hacking. Il codice malevolo generato dalla rete neurale non sarà necessariamente funzionante e richiederà comunque uno specialista esperto per essere migliorato e implementato. Nonostante ChatGPT non abbia un impatto immediato sull’industria e non cambi il mondo della cybersecurity, le prossime generazioni di IA probabilmente lo faranno. Nei prossimi anni, potremmo vedere come i modelli linguistici di grandi capacità, basati sia sul linguaggio naturale che sul codice di programmazione, vengano adattati a casi d’uso specializzati nella cybersecurity. Questi cambiamenti possono influenzare un’ampia gamma di attività di cybersecurity, dalla ricerca delle minacce alla risposta agli incidenti. Pertanto, le aziende di cybersecurity vorranno esplorare le possibilità offerte dai nuovi strumenti, pur essendo consapevoli che questa tecnologia potrebbe aiutare i criminali informatici”.
ChatGPT e cybersecurity
Sempre secondo gli esperti di Kaspersky sono molti gli utenti che hanno già scoperto che ChatGPT è in grado di generare codici, purtroppo anche quelli dannosi. Grazie alla soluzione di OpenAI è infatti possibile creare un semplice infostealer senza alcuna competenza di programmazione. Tuttavia, secondo gli analisti di Kaspersky, gli utenti più esperti non hanno nulla da temere: “Se il codice scritto da un bot viene effettivamente utilizzato, le soluzioni di sicurezza lo rileveranno e lo neutralizzeranno con la stessa rapidità con cui sono stati individuati tutti i precedenti malware creati dall’uomo”.
Sebbene alcuni analisti temano che ChatGPT possa addirittura creare un malware personalizzato per ogni vittima, questi modelli mostrerebbero comunque un comportamento dannoso che molto probabilmente verrà rilevato da una soluzione di sicurezza. Inoltre, è probabile che il malware scritto dal bot contenga piccoli errori e difetti logici, il che significa che la piena automazione della codifica del malware deve ancora essere raggiunta.

ChatGPT come difesa
Sebbene lo strumento possa essere utile agli attaccanti, anche i difensori possono trarne beneficio. “Ad esempio – spiega Kaspersky – ChatGPT è già in grado di spiegare rapidamente cosa fa un particolare elemento di codice. Si rivela utile in condizioni di SOC, dove gli analisti, costantemente oberati di lavoro, devono dedicare una quantità minima di tempo a ogni incidente, quindi qualsiasi strumento che acceleri il processo è ben accetto. In futuro, gli utenti avranno probabilmente a disposizione numerosi prodotti specializzati: un modello di reverse-engineering per comprendere meglio il codice, un modello per la risoluzione di CFT, un modello per la ricerca di vulnerabilità e altro ancora”.
Seguici sui nostri canali social: Facebook e Twitter
Leggi tutte le nostre notizie cliccando QUI