Facebook Pixel
Milano 20-dic
0 0,00%
Nasdaq 20-dic
21.289 +0,85%
Dow Jones 20-dic
42.840 +1,18%
Londra 20-dic
8.085 -0,26%
Francoforte 20-dic
19.885 -0,43%

Intelligenza Artificiale: cosa sono le RAI e perchè le aziende devono tenerne conto?

Economia
Intelligenza Artificiale: cosa sono le RAI e perchè le aziende devono tenerne conto?
(Teleborsa) - L’avvento dell’intelligenza artificiale generativa, nel panorama tecnologico mondiale, ha catapultato le capacità e le potenzialità di questa tecnologia, ma anche le sfide etiche ed i fallimenti, sotto i riflettori.


Sicuramente gli esempi virtuosi dell’utilizzo delle AI sono noti ed incoraggianti: nel mondo della medicina ad esempio è stata individuata una molecola da testare per curare la fibrosi polmonare idiopatica in 21 giorni invece che in anni di sperimentazione tradizionale, mentre il mondo delle assicurazioni ha visto ridurre del 30% i costi di gestione dei clienti grazie a piattaforme basate sulla AI generativa.

Se però gli esempi di successo dell’utilizzo delle AI aumentano, anche i fallimenti di questo strumento cominciano a riempire le pagine dei giornali: Samsung ad esempio ha visto diffondere parte del proprio codice sorgente in rete quando alcuni dei suoi dipendenti lo hanno inserito in ChatGPT per ottimizzarlo, ed abbiamo visto la prima minaccia di azione legale per diffamazione verso una AI, quando famoso chatbot ha accusato erroneamente di corruzione un Sindaco australiano.

Non è un caso quindi se compagnie come JP Morgan e Verizon hanno bloccato o fortemente limitato l’uso delle AI ai propri dipendenti. Nonostante questi rischi però, un recente sondaggio di Bloomberg ha rivelato che quasi la metà delle aziende intervistate sta lavorando attivamente allo sviluppo di politiche di utilizzo delle AI, in modo da massimizzare i risultati riducendo i rischi di danno o di fuga di informazioni.

La soluzione ideale a livello aziendale sarebbe ovviamente quella di sviluppare un proprio sistema di AI generativa, ma in molti casi i costi sia di hardware che di sviluppo software sono ancora troppo alti per una tecnologia di fatto ancora emergente, ed inoltre i tempi necessari rischierebbero di ritardare eccessivamente la “corsa agli armamenti tecnologici” che di fatto sta coinvolgendo la maggior parte delle aziende. Stando infatti ad una ricerca di MIT Sloan Management Review e Boston Consulting Group, il 53% delle aziende si affida esclusivamente a strumenti di AI di terze parti, esponendosi quindi a rischi che difficilmente possono essere controllati. Questo panorama vale sia nel caso in cui le AI vengano utilizzate dichiaratamente dai dipendenti (come succede sempre di più nelle software house), sia quando i manager non sono consapevoli del loro utilizzo da parte dei componenti del proprio team (fenomeno definito come Shadow AI). La ricerca ha riguardato 1.240 rappresentanti di organizzazioni di 59 settori e 87 Paesi con un fatturato annuo di almeno 100 milioni di dollari, offrendo quindi una visione globale del fenomeno, e non limitata a poche aziende hi-tech, come succedeva meno di un anno fa.

È in questo contesto quindi che nasce il concetto di RAI - Responsible Artificial Intelligence. Se di fatto la rapidissima evoluzione delle AI non si sposa molto bene con un utilizzo responsabile delle stesse, e se allo stato attuale delle cose non è responsabilità diretta degli sviluppatori vigilare sull’etica e sulla responsabilità oggettiva dei propri Bot (perchè in effetti sarebbe limitante per uno strumento che deve “imparare ad apprendere”), è indispensabile per le aziende costruire dei framework in cui inserire l’utilizzo di questi strumenti che appunto prevenga qualsiasi danno di natura etica e, soprattutto, di violazione delle policy e dei segreti aziendali.

La necessità di questi programmi è decisamente sentita su tutti i livelli di governance aziendale, secondo la ricerca di MIT e BCG infatti gli intervistati che ricoprono ruoli di leadership nella gestione della Responsible AI sono aumentati dal 16% al 29%. Nonostante questo, il 71% delle organizzazioni continua a non supervisionare attivamente i processi di implementazione delle AI, e se si proietta questo numero in un contesto in cui, per i motivi accennati poco sopra, il 78% delle aziende si affda a strumenti AI di terze parti, ci si accorge che i rischi a cui si espongono le aziende, dalla perdita di fiducia del cliente a guai di carattere normativo, sono reali, numerosi e tangibili.

L’applicazione di framework RAI quindi è indispensabile e, secondo i dati raccolti, applicare 5 metodi di valutazione degli strumenti utilizzati (che appunto andrebbero prima analizzati e poi monitorati costantemente), porta le probabilità di individuare falle e problemi al 51%, contro il 24% derivante da una analisi superficiale.

Il panorama di regole e normative legate alle AI cerca di tenere il passo con la loro evoluzione, anche se a fatica (basti pensare alle critiche, tutto sommato fondate, ricevute dal governo italiano quando ha deciso di bloccare gli accessi a ChatGPT dal nostro paese), con nuove norme specifiche che entrano in vigore su base continuativa. Le aziende ne sono per la maggior parte consapevoli (il 51% circa, stando al sondaggio) e cercano di anticipare l’attuazione delle stesse, applicandole anche nel caso in cui il loro settore non ne sia direttamente interessato. Questo succede in particolare per le aziende che operano nella finanza, nella sanità.

Così come è successo per internet circa 25 anni fa, anche oggi è indispensabile che il tema della AI sia direttamente attenzionato dall’amministrazione delle aziende, AD in primis: le organizzazioni consapevoli di questo tema riportano infatti un 58% in più di vantaggi aziendali rispetto alle amministrazioni più “distratte” sul tema. Come per tutti gli strumenti che hanno rivoluzionato il mondo del lavoro fin dalla prima rivoluzione industriale, un approccio responsabile al loro utilizzo è indispensabile per minimizzare i rischi e trasformare le opportunità in guadagno effettivo.


Condividi
```