(Teleborsa) - L’avvento dell’
intelligenza artificiale generativa, nel panorama tecnologico mondiale, ha catapultato le capacità e le potenzialità di questa tecnologia, ma anche le sfide etiche ed i fallimenti, sotto i riflettori.
Sicuramente gli
esempi virtuosi dell’utilizzo delle AI sono noti ed incoraggianti: nel mondo della medicina ad esempio è stata
individuata una molecola da testare per curare la
fibrosi polmonare idiopatica in 21 giorni invece che in anni di sperimentazione tradizionale, mentre il mondo delle
assicurazioni ha visto ridurre del 30% i costi di gestione dei clienti grazie a piattaforme basate sulla AI generativa.
Se però gli esempi di successo dell’utilizzo delle AI aumentano, anche i
fallimenti di questo strumento cominciano a riempire le pagine dei giornali:
Samsung ad esempio ha visto diffondere parte del proprio
codice sorgente in rete quando alcuni dei suoi dipendenti lo hanno inserito in ChatGPT per ottimizzarlo, ed abbiamo visto la prima minaccia di
azione legale per diffamazione verso una AI, quando famoso chatbot ha accusato erroneamente di corruzione un Sindaco australiano.
Non è un caso quindi se compagnie come
JP Morgan e Verizon hanno bloccato o fortemente
limitato l’uso delle AI ai propri dipendenti. Nonostante questi rischi però, un recente sondaggio di Bloomberg ha rivelato che quasi la
metà delle aziende intervistate sta lavorando attivamente allo
sviluppo di politiche di utilizzo delle AI, in modo da massimizzare i risultati riducendo i rischi di danno o di fuga di informazioni.
La soluzione ideale a livello aziendale sarebbe ovviamente quella di
sviluppare un proprio sistema di AI generativa, ma in molti casi i
costi sia di hardware che di sviluppo software sono ancora
troppo alti per una tecnologia di fatto ancora emergente, ed inoltre i
tempi necessari rischierebbero di ritardare eccessivamente la “corsa agli armamenti tecnologici” che di fatto sta coinvolgendo la maggior parte delle aziende. Stando infatti ad una ricerca di MIT Sloan Management Review e Boston Consulting Group,
il 53% delle aziende si affida esclusivamente a
strumenti di AI di terze parti, esponendosi quindi a rischi che difficilmente possono essere controllati. Questo panorama vale sia nel caso in cui le AI vengano utilizzate dichiaratamente dai dipendenti (come succede sempre di più nelle software house), sia quando i manager non sono consapevoli del loro utilizzo da parte dei componenti del proprio team (fenomeno definito come Shadow AI). La ricerca ha riguardato
1.240 rappresentanti di organizzazioni di
59 settori e 87 Paesi con un fatturato annuo di almeno 100 milioni di dollari, offrendo quindi una visione globale del fenomeno, e non limitata a poche aziende hi-tech, come succedeva meno di un anno fa.
È in questo contesto quindi che
nasce il concetto di RAI - Responsible Artificial Intelligence. Se di fatto la rapidissima evoluzione delle AI non si sposa molto bene con un utilizzo responsabile delle stesse, e se allo stato attuale delle cose
non è responsabilità diretta degli sviluppatori vigilare sull’etica e sulla responsabilità oggettiva dei propri
Bot (perchè in effetti sarebbe limitante per uno strumento che deve “imparare ad apprendere”), è indispensabile per le aziende
costruire dei framework in cui inserire l’utilizzo di questi strumenti che appunto prevenga qualsiasi danno di natura etica e, soprattutto, di violazione delle policy e dei segreti aziendali.
La necessità di questi programmi è decisamente sentita su tutti i livelli di
governance aziendale, secondo la ricerca di MIT e BCG infatti gli intervistati che ricoprono
ruoli di leadership nella gestione della Responsible AI sono aumentati dal 16%
al 29%. Nonostante questo, il 71% delle organizzazioni continua a non supervisionare attivamente i processi di implementazione delle AI, e se si proietta questo numero in un contesto in cui, per i motivi accennati poco sopra,
il 78% delle aziende si affda a strumenti AI di terze parti, ci si accorge che i rischi a cui si espongono le aziende, dalla perdita di fiducia del cliente a guai di carattere normativo, sono reali, numerosi e tangibili.
L’applicazione di framework RAI quindi è indispensabile e, secondo i dati raccolti, applicare
5 metodi di valutazione degli strumenti utilizzati (che appunto andrebbero prima analizzati e poi monitorati costantemente), porta le probabilità di
individuare falle e problemi al 51%, contro il 24% derivante da una analisi superficiale.
Il panorama di regole e normative legate alle AI cerca di
tenere il passo con la loro evoluzione, anche se a fatica (basti pensare alle critiche, tutto sommato fondate, ricevute dal governo italiano quando ha deciso di bloccare gli accessi a ChatGPT dal nostro paese), con nuove norme specifiche che entrano in vigore su base continuativa. Le
aziende ne sono per la maggior parte
consapevoli (il 51% circa, stando al sondaggio) e cercano di anticipare l’attuazione delle stesse, applicandole anche nel caso in cui il loro settore non ne sia direttamente interessato. Questo succede in particolare per le aziende che operano nella
finanza, nella
sanità.
Così come è successo per internet circa 25 anni fa, anche oggi è indispensabile che il
tema della AI sia direttamente attenzionato dall’amministrazione delle aziende, AD in primis: le organizzazioni consapevoli di questo tema riportano infatti un
58% in più di vantaggi aziendali rispetto alle amministrazioni più “distratte” sul tema. Come per tutti gli strumenti che hanno rivoluzionato il mondo del lavoro fin dalla prima rivoluzione industriale, un
approccio responsabile al loro utilizzo è
indispensabile per minimizzare i rischi e trasformare le opportunità in guadagno effettivo.