Una generale mancanza di fiducia nella sicurezza dei dati e nella privacy sta frenando le organizzazioni dall'adottare completamente l'intelligenza artificiale generativa.
L'intelligenza artificiale generativa (IA) è considerata essenziale per le organizzazioni al fine di garantire la loro rilevanza sul mercato, ma alcuni rimangono titubanti nel compiere questo passo a causa di preoccupazioni legate ai dati e alla fiducia.
Tali questioni sono particolarmente rilevanti per le aziende che operano in settori con rigide regole di governance dei dati e ampie basi di clienti, che le spingono a temporeggiare nell'adozione di strumenti di IA generativa nonostante i loro vantaggi annunciati.
“La capacità di generare rapporti di vendita tramite un prompt, ad esempio, invece di dover manipolare manualmente fogli di calcolo, offre un potenziale interessante per gli strumenti di IA generativa come Einstein Copilot di Salesforce”,
ha dichiarato Sarwar Faruque, Responsabile delle Operazioni di Sviluppo presso la Jollibee Foods Corporation.
Il gestore filippino di catene di ristoranti utilizza Heroku di Salesforce per costruire le sue applicazioni e MuleSoft come middleware per connettere le sue applicazioni, tra cui sistemi ERP e di gestione degli ordini.
Jollibee conta 15.000 dipendenti e opera in quasi 4.000 negozi in tutto il mondo in 34 paesi. Le sue applicazioni funzionano principalmente in cloud, quindi non gestisce i propri data center, fatta eccezione per una piccola intranet.
Faruque vede anche il potenziale dell'IA nell'ambito della produzione, dove può migliorare l'efficienza nella pipeline di produzione e nell'assemblaggio. Ad esempio, l'IA può aiutare a monitorare la qualità alimentare e prevedere la domanda.
Il suo interesse per l'uso potenziale dell'IA, tuttavia, è limitato alle operazioni di backend. Faruque è deciso a mantenere l'IA generativa lontana dalle interazioni con i clienti e dalle operazioni rivolte ai clienti, almeno per ora.
Con la tecnologia ancora agli albori, c'è ancora molto da comprendere e risolvere, ha sottolineato.
"Vediamo l'output [e le risposte] che genera, ma non capiamo davvero come sia arrivato alla risposta",
ha detto.
"C'è questa scatola nera... deve essere svelata. Voglio sapere come funziona, come è arrivata alla sua risposta e se questa risposta è ripetibile [ogni volta che viene posta la domanda]".
"Al momento, questo non è il caso,"
ha detto, aggiungendo che il rischio di allucinazioni è anch'esso motivo di preoccupazione. E in assenza di incidenti di sicurezza, si sa poco se ci siano eventuali problemi di sicurezza informatica intrinseci che devono essere risolti, ha notato.
"Al momento c'è molta pubblicità",
ha detto Faruque, aggiungendo che non è sufficiente parlare semplicemente di "fiducia" senza fornire dettagli su cosa significhi esattamente.
Ha esortato i fornitori di IA a spiegare come vengono formati i loro grandi modelli linguistici, quali dati consumano e cosa fanno esattamente per generare risposte.
"Devono smetterla di comportarsi come se fosse magia, quando in realtà c'è un codice che lo esegue e una scienza dietro",
ha detto.
"Aiutateci a capire perché non ci piace adottare una tecnologia di cui non abbiamo una solida comprensione".
Ha sottolineato la necessità di responsabilità e trasparenza, insieme alle garanzie che i dati dei clienti utilizzati per addestrare i modelli di IA non saranno resi pubblici. Questo è fondamentale, soprattutto per le organizzazioni che devono conformarsi alle normative sulla privacy dei dati nella propria giurisdizione locale.
Fino a quando questi problemi non saranno risolti, ha detto che non è disposto a mettere a rischio i dati dei propri clienti.
La fiducia è anche una questione che il Ministero del Commercio e dell'Industria di Singapore (MTI) prende seriamente, in particolare per quanto riguarda la privacy e la sicurezza dei dati. Al ministero sono affiliati dieci enti governativi, tra cui l'EDB e l'Ufficio del Turismo di Singapore.
In particolare, i dati del Ministero devono essere conservati a Singapore, e questo si sta rivelando un ostacolo significativo per garantire la sicurezza e la governance dei dati,
ha detto Sharon Ng, CIO del Ministero del Commercio e dell'Industria. Ciò significa che qualsiasi IA e grandi modelli linguistici da essa utilizzati dovrebbero essere ospitati nel proprio ambiente, anche quelli gestiti da fornitori statunitensi come la piattaforma Einstein Copilot di Salesforce.
Come Faruque, Ng ha sottolineato la necessità di trasparenza, in particolare i dettagli su come opera lo strato di sicurezza, compreso il tipo di crittografia utilizzato e se i dati vengono conservati.
Attualmente, il suo team sta esplorando come gli strumenti di IA generativa, inclusi quelli di Salesforce, possano portare benefici al Ministero, che è aperto all'uso di diverse IA e grandi modelli linguistici disponibili sul mercato.
Questo sarebbe meno costoso rispetto alla creazione dei propri modelli e accorcerebbe il tempo per entrare sul mercato,
ha detto Ng.
L'uso di qualsiasi modello di IA, tuttavia, sarà ancora soggetto a considerazioni di fiducia e sicurezza,
ha sottolineato. Al momento, il MTI sta eseguendo pilot di IA generativa che mirano a migliorare l'efficienza operativa e a semplificare i compiti lavorativi tra le sue agenzie.
Per la società di telecomunicazioni di Singapore M1, l'obiettivo chiaro dell'IA generativa è fornire un miglior servizio clienti. Tuttavia, come il MTI e la Jollibee, la conformità dei dati e la fiducia sono fondamentali, ha detto Jan Morgenthal, Chief Digital Officer di M1. L'azienda di telecomunicazioni sta attualmente eseguendo prove di concetto per valutare come l'IA generativa possa migliorare le interazioni che il suo chatbot ha con i clienti e se può supportare lingue aggiuntive oltre all'inglese.
Ciò significa lavorare con i fornitori per capire i parametri e capire dove vengono distribuiti i grandi modelli linguistici e di IA,
ha detto Morgenthal. Similmente al MTI e alla Jollibee, M1 deve anche rispettare le normative che richiedono che alcuni dei suoi dati, inclusi quelli ospitati su piattaforme cloud, risiedano nel suo mercato locale.
Ciò richiede che l'addestramento dei modelli di IA venga effettuato nell'ambiente di rete di M1,
ha detto.
La società di telecomunicazioni di Singapore deve anche fare attenzione ai dati utilizzati per addestrare i modelli e alle risposte generate, che dovrebbero essere testate e validate.
Queste devono essere verificate non solo rispetto alle linee guida stabilite dal fornitore, come il Trust Layer di Salesforce, ma anche rispetto alle normative imposte dalla casa madre di M1, Keppel.
Affrontare il Divario di Fiducia nell'IA Generativa
Tali sforzi si riveleranno fondamentali in un contesto di crescente sfiducia nell'uso dell'IA.
Sia le organizzazioni che i consumatori sono ora meno propensi all'uso dell'IA rispetto a prima, secondo un sondaggio di Salesforce pubblicato il mese scorso. Il 73% degli acquirenti aziendali e il 51% dei consumatori sono favorevoli all'uso della tecnologia per migliorare le loro esperienze, in calo rispetto all'82% e al 65% rispettivamente nel 2022.
E se il 76% dei clienti si fida delle aziende nel fare affermazioni oneste sui loro prodotti e servizi, un inferiore 57% si fida di loro nell'uso etico dell'IA. Un altro 68% crede che gli avanzamenti dell'IA abbiano reso più importante per le aziende essere affidabili.
Il divario di fiducia è una questione significativa e preoccupante per le organizzazioni,
ha detto Tim Dillon, fondatore e direttore di Tech Research Asia, sottolineando la reazione avversa che Zoom ha sperimentato quando ha cambiato i Termini di Servizio, dando il diritto di utilizzare i dati video, audio e chat degli utenti per addestrare i suoi modelli di IA.
I fornitori di IA generativa vorrebbero evitare una situazione simile,
ha dichiarato Dillon in un'intervista a ZDNET, a margine del Dreamforce 2023 tenutosi a San Francisco questa settimana. Attori del mercato come Salesforce e Microsoft hanno fatto sforzi per colmare il divario di fiducia, cosa che ha ritenuto un passo positivo avanti.
Oltre ad affrontare le questioni di fiducia, le organizzazioni che pianificano di adottare l'IA generativa dovrebbero anche considerare l'implementazione della gestione del cambiamento,
ha sottolineato Phil Hassey, CEO e fondatore della società di ricerca CapioIT.
Si tratta di un'area spesso trascurata nella discussione, ha dichiarato Hassey a ZDNET. Le organizzazioni devono capire i costi coinvolti e le competenze che devono acquisire e i ruoli che devono essere riqualificati a seguito dell'implementazione dell'IA generativa.
Una strategia adeguata di gestione del cambiamento è fondamentale per garantire una transizione senza intoppi e il mantenimento del talento,
ha affermato.
Anche Florence Consulting Group ha partecipato al Dreamforce di Salesforce a San Francisco per comprendere il presente e il futuro dell’intelligenza artificiale in ottica di miglioramento continuo dei prodotti e servizi offerti.
Per avere maggiori informazioni invia una mail a cio@florence-consulting.it o chiama lo (055) 538-3250. Visita il nostro sito per scoprire la suite di prodotti e servizi. In alternativa, puoi compilare il form sottostante con la tua domanda.