ChatGPT, il chatbot OpenAI che ha preso d'assalto il mondo della tecnologia, sta diventando più performante con il rilascio di GPT-4. Questa tecnologia super interessante risponde alle domande e scambia informazioni rapidamente come se si conversasse con un umano, il livello delle risposte e di contenuti ha portato un attenzione e fermento che ricorda il lancio di internet negli anni 90. Con il rilascio di ChatGPT-4, la velocità con cui l'IA si sta evolvendo, fa sì che i professionisti IT si chiedano quali saranno gli impatti sulla sicurezza informatica.
Questo articolo di Nozomi Networks inizia con alcuni retroscena storici, copre ciò che sappiamo oggi su ChatGPT, ipotizza un po' come ChatGPT influenzerà la sicurezza informatica a breve termine e offre uno sguardo alle funzionalità del prodotto Nozomi Networks che introdurranno entro la fine dell'anno.
Un po’ di Storia: Dagli Albori dell’IA a ChatGPT
Nel suo articolo "Computing Machinery and Intelligence", Alan Turing ha formulato quello che è noto come il test di Turing. L'intento di questo test era quello di impostare il livello per capire se un computer stava davvero "pensando" come un essere umano o meno - e si riduce a far rilevare a un essere umano se la parte con cui stanno interagendo tramite una conversazione di testo è un altro essere umano o un macchina.
Se la persona che interroga non può dire se l'altra parte è un computer, il computer vince. Finora nessun computer è riuscito a superare il test di Turing.
I ricercatori di intelligenza artificiale hanno spinto verso un algoritmo/sistema/modello generico e universale in grado di apprendere qualsiasi cosa e imitare il flusso di lavoro dell'apprendimento umano. Nonostante questo obiettivo, la flessibilità dell'apprendimento di un bambino di tre anni è ancora ineguagliata dai computer e dagli algoritmi di oggi.
Il "fallimento" nel raggiungere questo Santo Graal dell'IA ha portato a un periodo di stallo nella seconda metà degli anni '70. Da allora, dopo una perdita di popolarità nell'ambito della ricerca e dei finanziamenti negli anni '80 e nei primi anni '90, molto è stato ottenuto dalla cosiddetta "Intelligenza Artificiale Debole", che mirava a risolvere problemi specifici, riconoscendo che i problemi più generici e di larga portata non erano approcciabili.
Oggi le reti neurali di ogni tipo, profonde e meno profonde, vengono utilizzate in molti ambiti facilmente disponibili a tutti (si pensi a strumenti come Tensorflow o scikit-learn), accelerate con hardware dedicati (Apple Neural Engine e Tensor Processing Unit di Google) possono risolvere problemi specifici grazie a strumenti di ingegneria del software.
L'IA Debole è interessante, utile e continua a progredire senza sosta. Ma il suo tag "debole” è lì per ricordare che il superamento del test di Turing non è più un obiettivo. Forse in futuro un computer supererà il test di Turing, e a quel punto potremmo chiederci se il computer sta davvero pensando oppure no, ma questa è un'altra storia.
La ragione di ciò sono i progressi fatti negli ultimi anni da quella che viene chiamata Intelligenza Artificiale Generale, che sostanzialmente torna a risolvere il singolo grande problema dell'apprendimento (sfruttando anche i building block dell’IA Debole) con sistemi in grado di richiedere meno ingegneria quando vengono adattati per uno specifico problema e dominio.
Oggi: Scopriamo ChatGpt
ChatGPT di OpenAI ha decisamente scosso il terreno sin dalla sua introduzione nel novembre 2022 da parte di OpenAI.
ChatGPT è un chatbot basato su un Large Language Model (LLM) a cui puoi porre una domanda (prompt) e ChatGPT risponderà e scriverà un testo per esso. Il prompt fornisce al chatbot un contesto all'interno del quale utilizzare un corpus specifico di contenuti e probabilità per determinare quali parole si allineano meglio, formando nuove frasi. Genera il nuovo testo univoco e non mostra il contenuto di origine. Tutto questo è disponibile tramite un'applicazione web ed API per il consumo.
Tutti coloro che danno un’occhiata a ChatGPT sono impressionati dalla qualità delle risposte, e può essere facile pensare che potrebbe superare il test di Turing; cercando l'argomento sul web, si possono persino vedere persone che lo dichiarano.
Ma non è esattamente così. Come ammettono i ricercatori di OpenAI, è tutt'altro che perfetto. Non di rado, le risposte sono sbagliate, incoerenti o imprecise. Tuttavia, il bot funziona "abbastanza bene" tant’è che le persone potrebbero pensare che stia dicendo la verità.
Inoltre, dobbiamo ricordare che si tratta di un chatbot. Puoi fare una domanda e ChatGPT risponderà. Sebbene la sua applicazione sembri piuttosto ampia, ha ancora un obiettivo alquanto ristretto: partire da un contesto e produrre contenuti che abbiano senso per quel contesto.
Non può analizzare correttamente i dati (strutturati, non strutturati o immagini), addestrare una rete neurale o svolgere la maggior parte dei lavori che un essere umano può svolgere. L'elenco delle cose che non può fare o degli errori che può fare è enorme.
Non è il terrificante Skynet (dai film Terminator), né uno dei sistemi di IA completamente autonomi presenti nelle storie di fantascienza da sempre. Ancora una volta, i risultati ottenuti sono sorprendenti, soprattutto per una versione così precoce, ma è importante non lasciare che il nostro entusiasmo venga portato oltre la realtà.
La tecnologia di OpenAI (e in particolare una versione su misura di GPT-3) è stata utilizzata per GitHub Copilot, uno strumento in grado di assistere gli sviluppatori di software nella creazione di software. Tuttavia è un aiuto, uno strumento di efficienza o accelerazione.
Oggi non è possibile creare software con Copilot e sperare che sostituisca un team umano di ingegneri del software. Ma è potente. Tutti i tipi di sviluppatori di software possono trarne vantaggio. Gli sviluppatori esperti – i cosiddetti 10x Developers – beneficeranno di un ulteriore aumento di velocità, al punto che forse un giorno non sarà possibile o competitivo essere nel mercato dell'ingegneria del software senza il pin “10x Developer” e il requisito di avere tali strumenti a loro disposizione.
La ricerca e lo sviluppo sull'argomento non si fermeranno. Le cose andranno sempre meglio e le limitazioni saranno sempre meno nel tempo. I migliori sviluppatori e ingegneri del mondo alzeranno l'asticella anno dopo anno.
In che Modo ChatGPT Influirà sulla Sicurezza Informatica?
Tutta la tecnologia può essere usata per il bene o per il male, e ChatGPT non fa eccezione. Sono state condivise tante statistiche sul web su come ChatGPT può essere utilizzato efficacemente. In fin dei conti, lo strumento ha assimilato una notevole quantità di conoscenza e, con i limiti sottolineati in precedenza, può aiutare gli hacker ad automatizzare, accelerare e migliorare le iniziative d’attacco.
Ecco un riepilogo degli usi diabolici di ChatGPT che Nozomi ha messo in rilievo:
1. Sebbene ChatGPT disponga di filtri di contenuto per evitare l'uso improprio, ci sono molti esempi online che mostrano come, utilizzando la sua GUI Web o le programmatic API, è possibile aggirare i filtri di contenuto per ottenere codice dannoso in risposta (ad esempio, ottenere codice sorgente per creare malware polimorfico, che è più difficile rilevare mediante tecnologia anti-malware).
La stessa tecnica può essere utilizzata per trovare una vulnerabilità scoperta di recente che consente a un utente malintenzionato di iniettare il payload dannoso su una vittima. Questo caso d'uso abbassa le barriere della tecnologia per coloro che vogliono causare danni. Se sono richieste meno abilità tecniche per un hackeraggio, più persone possono farlo.
2. ChatGPT è completamente automatizzato e non richiede alcun intervento umano per generare le sue risposte, quindi può essere utilizzato a livello di codice (come parte di un programma per computer) e in parallelo (più volte contemporaneamente). Ciò significa che se utilizzato per attacchi di phishing o spear-phishing più mirati, può essere molto più sofisticato nell'uso della social engineering. Con meno errori di lingua o di traduzione, con automatizzazione per un volume più elevato di persone, sarà più facile creare campagne di phishing su larga scala, più sofisticate e molto credibili.
3. Oltre alle campagne di spear-phishing, che generalmente si riferiscono alla rappresentazione di e-mail basata su testo, ChatGPT può essere utilizzato per campagne "Deep Fake" su larga scala. ChatGPT è stato presentato come un chatbot, utilizzando un'interfaccia di testo, ma con fasi aggiuntive in una pipeline di dati, può essere utilizzato per generare output audio e video. Imparando come appare o parla una determinata persona attraverso immagini, video o suoni di input, la tecnologia IA può generare un audio credibile della voce di una persona e/o immagini animate (si pensi al video Zoom) seguendo un copione che la persona reale non ha mai eseguito. Questi deep fake possono essere utilizzati per frodi, imitazioni, campagne diffamatorie, attacchi al marchio, ecc.
4. Se si può incanalare o modificare il contenuto utilizzato da ChatGPT per influenzare il modo in cui apprende il contesto (cosa non ancora possibile nelle demo pubbliche disponibili oggi), diventa possibile la creazione di campagne di disinformazione su larga scala. Ciò potrebbe comportare grandi tempeste su Twitter che sembrano supportare una versione fuorviante della realtà, degli eventi o altre false narrazioni vulnerabili.
5. ChatGPT o strumenti simili sono così potenti che è probabile che saranno incorporate in molte tecnologie e prodotti futuri dall’utilizzo quotidiano, il che apre vulnerabilità significative (ricordate SolarWinds?). ChatGPT può essere influenzato dalle cosiddette "allucinazioni", che sono apprendimenti errati o conclusioni derivate dall'elaborazione di contenuti. Queste allucinazioni possono verificarsi per caso (come quando un'auto a guida autonoma non "vede" un oggetto davanti a sé) o con addestramenti in malafede.
Con la disponibilità di strumenti così potenti, dovrebbe essere chiaro che stare al passo con gli avversari che utilizzano ChatGPT sarà il nuovo capitolo del gioco “il gatto che acchiappa il topo”, realizzando che gli hacker hanno ricevuto un aggiornamento tecnologico significativo.
L’altra faccia della medaglia è ChatGPT può anche essere utilizzata per far avanzare l'agenda della sicurezza informatica. Ecco alcuni esempi:
1. Poiché sappiamo che ChatGPT sarà uno strumento per attori malintenzionati, ci prepariamo affinché faccia parte dell'arsenale da cui dobbiamo difenderci. Possiamo incorporare gli usi malevoli delineati sopra nella batteria di test che i prodotti e le pratiche di sicurezza devono superare. Per esempio:
- I fornitori di prodotti possono facilmente rilevare e dare priorità all'eliminazione delle vulnerabilità nel loro software più velocemente con ChatGPT;
- ChatGPT può essere incorporato nella formazione anti-phishing di un'azienda per alzare il livello della consapevolezza dei dipendenti e della robustezza della sicurezza dei processi.
2. ChatGPT può assistere gli analisti della sicurezza nello studio e reporting delle minacce, il che porterà più rapidità nella scoperta, condivisione e risoluzione dell'esposizione a tali minacce.
3. Poiché la tecnologia ChatGPT prende piede nel mondo dello sviluppo software, può essere addestrata con contenuti più sicuri. Gli sviluppatori di software che utilizzano questo tipo di tecnologia riutilizzeranno sempre più software con meno vulnerabilità, manutenzione più semplice e seguendo linee guida più sicure, portando a implementazioni più robuste di secure-by-design.
4. L'uso di questa tecnologia da parte dei vari team (parzialmente o completamente automatizzati con ChatGPT) può essere portato al livello successivo quando si tratta di test di penetrazione della sicurezza informatica, scansione delle vulnerabilità, programmi di bug bounty, scoperta/analisi della superficie di attacco e molto altro.
ChatGPT crea anche un'opportunità per i fornitori di sicurezza informatica. La carenza di professionisti nel settore è una sfida che le aziende di tutto il mondo devono affrontare ogni giorno e probabilmente per gli anni a venire. La possibilità di poter contare su strumenti altamente autonomi e intelligenti diventerà un'esigenza. Abbastanza buono non sarà abbastanza; gli strumenti dovranno essere eccezionalmente buoni solo per far parte del gioco.
Implicazioni per la Piattaforma Nozomi Networks
La piattaforma Nozomi Networks ha sempre utilizzato AI e ML per potenziare e migliorare alcuni dei suoi algoritmi. Algoritmi di apprendimento del segnale per il process learning, algoritmi di clustering per il raggruppamento degli incidenti, modelli bayesiani per previsioni simboliche, reti neurali di tutti i tipi per la classificazione e la regressione: tutti i tipi di modelli sono utilizzati nel codice prodotto dagli ingegneri di Nozomi Networks, sia nei prodotti finali venduti a clienti o “solo” utilizzati in progetti di ricerca per l’utilizzo futuro.
In qualità di azienda di sicurezza informatica, Nozomi Networks crede che la ricerca e l'innovazione non possano fermarsi. Non bisogna riposare sugli allori, altrimenti gli attori malintenzionati vinceranno questa battaglia. Sebbene creare uno strumento come ChatGPT non sia la loro missione, Nozomi Networks si impegna a rendere la sua piattaforma più intelligente che mai. Ci sono tante iniziative di ricerca e sviluppo di lunga data che renderanno la piattaforma Nozomi networks ancora più efficiente e intelligente che mai, in modo che le aziende abbiano gli strumenti giusti per contrastare gli hacker là fuori.
Nozomi Networks integra funzionalità e approcci unici AI e ML per consolidare e semplificare le operazioni di sicurezza in queste infrastrutture convergenti. Se desideri saperne di più su come Nozomi può essere d’aiuto all’interno della tua azienda, invia una mail a cio@florence-consulting.it o chiama lo (055) 538-3250.
Visita la pagina dedicata sul nostro sito per ricevere ulteriore materiale informativo o per richiedere una demo gratuita.
In alternativa, puoi compilare il form sottostante con la tua domanda.