ChatGPT e i 6 rischi associati all’uso aziendale

Questioni come il bias, privacy e le frodi informatiche devono sempre essere tenute a mente da parte dei team legale e di compliance.

ChatGPT è diventato uno dei fenomeni tecnologici più rilevanti degli ultimi mesi. La sua popolarità si sta espandendo a macchia d’olio, ma, come per tutte le cose, sappiamo che non è uno strumento privo di rischi.

“I risultati generati da ChatGPT e altri strumenti di large language model (LLM, modello grande di linguaggio) sono inclini a diversi rischi”, afferma Ron Friedmann, direttore analyst senior in Gartner, che ritiene che “i responsabili dei dipartimenti legali e di compliance dovranno valutare se questi problemi rappresentino un rischio materiale per le proprie imprese e quali misure adottare”.

Questo perché, altrimenti, “le imprese potrebbero trovarsi esposte a conseguenze legali e a danni di reputazioni ed economici”.

Concretamente, Gartner identifica sei rischi principali associati a ChatGPT. Il primo di questi sono “risposte inventate e inesatte”. Lo strumento potrebbe fornire informazioni imprecise che sembrano “superficialmente plausibili”.

Inoltre, Friedmann crede che ChatGPT “sia incline alle ‘allucinazioni’, comprese risposte inventate che sono incorrette e citazioni legali o scientifiche inesistenti”. Per questo motivo, bisognerà verificare le risposte offerte invece di considerarle immediatamente come valide.

Il secondo rischio identificato è il bias, con le conseguenti discriminazioni che potrebbe comportare a livello di risultati. “È probabile che l’eliminazione completa di bias sia impossibile”, segnala Friedmann, “ma gli aspetti legali e di compliance devono stare al passo delle leggi che disciplinano il bias dell’intelligenza artificiale e assicurarsi che quanto predisposto venga seguito”.

“Questo potrebbe comportare la collaborazione con esperti della materia per garantire che i risultati siano affidabili e con team di verifica per fissare controlli di qualità dei dati”, spiega poi.

Terza questione è la “privacy e riservatezza dei dati”. Gartner richiama le imprese perché maneggino con attenzione i dati e le informazioni soprattutto con ChatGPT e ricorda che “informazioni delicate, protette da brevetto o riservate” potrebbero finire incorporate nelle “risposte per utenti al di fuori della società”.

La raccomandazione in questo caso è abbastanza chiara, ovvero meglio proibire direttamente l’inserimento di dati personali o informazioni confidenziali in strumenti pubblici di intelligenza artificiale.

Sulla stessa linea troviamo i “rischi alla proprietà intellettuale e ai diritti d’autore”, soprattutto qualora questo tipo di dati vengano immessi nel processo di allenamento dello strumento, il che porta automaticamente alla violazione delle normative esistenti. Da Gartner sono perentori: “ChatGPT non offre riferimenti o spiegazioni su come genera il proprio output”.

Altro tema sensibile sono le “frodi informatiche”. I criminali informatici sfruttano la tecnologia per perfezionare i propri attacchi e già stanno ricorrendo ad un uso poco positivo di ChatGPT per i propri scopi. Ad esempio, generare recensioni false.

Applicazioni come questa sono suscettibili a tecniche di iniezione che ingannano il modello per attivare task che non dovevano essere sviluppati in prima battuta, come la scrittura di malware.

Infine, le imprese dovranno prestare grande attenzione alla “tutela del consumatore”. Esiste il rischio di perdere la fiducia dei propri clienti se non si informa il proprio pubblico sull’utilizzo che l’azienda fa di ChatGPT per i suoi servizi di assistenza clienti. Per evitare ciò, le imprese dovranno essere chiare e rendere le giuste comunicazioni, anche per evitare di andare in contro a cause per pratiche commerciali sleali.