I team di intelligenza artificiale sono poco inclusivi per donne, persone LGBTQ+ e minoranze etniche

Uno studio di IBM pone l’accento sulle attuali differenze etiche tra le intenzioni profetizzate dalle varie società e le azioni effettivamente realizzate.

Le imprese sono forse vicine a raggiungere un’intelligenza artificiale etica? Chi è il principale responsabile di questo obiettivo?

In Europa, le stesse società indicano gli esecutivi non tecnici come i responsabili di questo compito. Uno studio dell’Institute for Business Value di IBM evidenzia un cambiamento a livello dei ruoli dei responsabili quando si tratta di coordinare e realizzare un’intelligenza artificiale etica.

Circa il 30% degli intervistati crede che questo incarico spetti al CEO, mentre circa il 64% punta il dito verso il direttore esecutivo o ad altro direttore di primo livello in quanto più influenti nella strategia etica dell’impresa.

Quasi il 75% degli alti esecutivi considera che costruire un’intelligenza artificiale affidabile sia un fattore di differenziazione strategico per competere con i rivali. Di fatto, oltre la metà degli intervistati in Europa spiega di aver già iniziato a integrare l’etica dell’intelligenza artificiale nel proprio approccio globale di etica aziendale.

Tuttavia, nonostante sussista un interesse per migliorare, c’è ancora molto da fare per coniugare quelle che sono mere intenzioni ad azioni attuabili.

Il 68% delle imprese a livello globale riconosce che è importante poter fare affidamento in un luogo di lavoro variegato e inclusivo per evitare bias nell’intelligenza artificiale. Tuttavia, i team di intelligenza artificiale sono generalmente i meno diversificati rispetto al resto dell’organico in generale. All’atto pratico, sono 5,5 volte meno inclusivi per donne, 4 volte per persone della comunità LGBTQ+ e 1,7 volte in meno in termini etnici.

“Oggi le imprese, che sempre più di frequente utilizzano algoritmi di intelligenza artificiale nelle proprie attività, si trovano davanti a una domanda, sia interna sia esterna, potenzialmente crescente per progettare algoritmi che siano equi, sicuri e degni di fiducia. Tuttavia, abbiamo osservato un progresso molto limitato all’interno del settore responsabile di inserire l’etica dell’intelligenza artificiale nelle proprie prassi”, commenta Jesus Mantas, Global Managing Partner di IBM Consulting.

“La creazione di un’intelligenza artificiale affidabile è un imperativo aziendale ed è un fattore che si aspetta la società tutta, non solo una questione di compliance”, aggiunge poi. “In tal senso, le imprese possono adottare un modello di governance e integrare i principi etici in tutto il ciclo di vita dell’intelligenza artificiale”.

Perché tutto ciò abbia successo, è necessario scommettere su un approccio multifunzionale e collaborativo, stabilire una governance organizzativa e del ciclo di vita dell’intelligenza artificiale, nonché trovare una cooperazione che vada oltre la sola struttura con partner tecnologici, accademici o startup.