Man mano che le aziende avanzano nel loro percorso di trasformazione digitale, le complessità della sicurezza del cloud continuano ad aumentare. Le procedure di sicurezza tradizionali, con le loro regole complesse e stratificate, sono state a lungo la base dei sistemi di sicurezza.
Tuttavia, i progressi dell'Intelligenza Artificiale (IA) stanno cambiando il paradigma nel modo in cui interagiamo e stabiliamo le aspettative con le nuove soluzioni di sicurezza.
Unificazione dell'Accesso Privato, Accesso a Internet, Accesso VPN e dell'Esperienza ZTNA in SSE
Per preparare il terreno, Cisco ha preso in considerazione un esempio comune.
Un'azienda ha bisogno di una policy di sicurezza che consenta a un dirigente di accedere ai siti Web Internet pubblici dal laptop dell'ufficio, ma ci sono limiti di accesso alla dashboard Jira ospitata all'interno del data center privato dell'azienda.
Tradizionalmente, l'amministratore dovrebbe creare un criterio multiforme per soddisfare questo requisito. In primis, l'amministratore deve determinare se il criterio prevede un accesso basato su ZTNA, un accesso basato su VPN o un accesso a un'app basata su rete pubblica.
Si dovrebbe quindi confermare il gruppo, la posizione e il dispositivo dell'utente, di seguito creare i criteri per concedere o limitare l'accesso. In secondo luogo, l'amministratore deve anche creare delle sotto-policy che devono essere configurate meticolosamente per i controlli di sicurezza come Firewall, IPS, SWG o DNS che dovranno essere eseguiti lungo ogni percorso di accesso selezionato.
Questo processo prevede più passaggi e comporta un onere cognitivo non necessario per l'amministratore. In aggiunta, una configurazione leggermente errata potrebbe potenzialmente rappresentare un rischio per la sicurezza o un peggioramento dell’esperienza per gli utenti.
In un sistema di sicurezza intent-based, l'amministratore deve semplicemente definire il seguente intento: "i dirigenti dovrebbero essere in grado di accedere ai siti Web pubblici ma non alla dashboard di Jira".
Il sistema analizza e interpreta tale intento, generando le configurazioni sottostanti necessarie per applicarlo.
Questo approccio astrae la complessità dell'accesso sottostante e la configurazione dei controlli di sicurezza. Offre inoltre un unico punto di configurazione, indipendentemente dal fatto che la policy sia impostata tramite un'interfaccia utente, un'API o un interprete della riga di comando. L'enfasi è sull'intento, non sui controlli di sicurezza specifici o sul metodo di accesso.
Infatti, invece di lavorare attraverso un'interfaccia utente di configurazione, l'intento potrebbe essere dichiarato in una semplice frase, lasciando che il sistema lo capisca e lo implementi.
Utilizzando le tecniche di intelligenza artificiale generativa in tandem con i principi dell'apprendimento immediato, queste policy di sicurezza intent-based possono essere trasformate in modo efficiente in direttive di policy attuabili.
Affrontare la Sfida dei Contenuti Generati dall'Intelligenza Artificiale con la DLP Assistita dalla Stessa IA
Man mano che i luoghi di lavoro adottano sempre più strumenti come ChatGPT e altre piattaforme di intelligenza artificiale generativa (GenAI), stanno emergendo sfide interessanti per la protezione dei dati.
È necessario prestare attenzione quando si gestiscono dati sensibili all'interno degli strumenti GenAI, poiché potrebbero verificarsi fughe di dati involontarie. I principali fornitori di firewall e prevenzione della perdita di dati (DLP), come Cisco, hanno introdotto funzionalità per impedire che i dati sensibili vengano condivisi inavvertitamente con queste applicazioni IA.
Ma capovolgiamo lo scenario:
Cosa succede se qualcuno utilizza uno degli strumenti di intelligenza artificiale che generano contenuti per creare un documento o un codice sorgente che si fa strada nei documenti legali o nel prodotto dell'azienda?
Le potenziali conseguenze legali di tali azioni potrebbero essere gravi. Sono stati segnalati casi in cui l'intelligenza artificiale è stata utilizzata in modo inappropriato, portando a potenziali sanzioni. Inoltre, deve esserci un meccanismo per rilevare variazioni deliberate di questi documenti e codici sorgente che potrebbero essere stati copiati e incollati nel prodotto dell'azienda.
Grazie alla sofisticata rappresentazione interna del testo nei modelli LLM (Large Language Models), è possibile facilitare con precisione questi casi d'uso DLP.
Secure Access di Cisco ha Security Assistant in versione Beta che utilizza LLM non solo per creare criteri intent-based, ma può anche rilevare ChatGPT e il codice sorgente generato dall'intelligenza artificiale, comprese le sue varianti, oltre a fornire un contesto sufficiente su chi, quando e da dove questo contenuto potrebbe essere stato generato.
In Conclusione
Il panorama della sicurezza informatica di nuova generazione, con la sua gestione unificata e le policy di sicurezza intent-based, è racchiuso qui. Queste dinamiche sono pronte a rivoluzionare il modo in cui si implementa e gestisce la sicurezza, affrontando nuove sfide poste dai contenuti generati dall'intelligenza artificiale.
Se vuoi avere maggiori informazioni sulle soluzioni Cisco invia una mail a cio@florence-consulting.it, chiama lo (055) 538-3250 oppure compila il form sottostante con la tua domanda.