L’Ex­plai­na­ble Ar­ti­fi­cial In­tel­li­gen­ce (XAI), co­no­sciu­ta anche come IA spie­ga­bi­le, descrive approcci e metodi che mirano a rendere com­pren­si­bi­li le decisioni e i risultati dell’in­tel­li­gen­za ar­ti­fi­cia­le (IA).

Con la crescente com­ples­si­tà dell’IA e i progressi raggiunti nel campo dell’ap­pren­di­men­to au­to­ma­ti­co, sta di­ven­tan­do sempre più difficile per gli utenti com­pren­de­re i processi alla base dei risultati di un’IA. Ciò rende ancora più im­por­tan­te la massima com­pren­sio­ne delle decisioni e dei risultati dell’in­tel­li­gen­za ar­ti­fi­cia­le.

Allo stesso tempo, rimane un obiettivo centrale della ricerca svi­lup­pa­re l’IA in modo che apprenda au­to­no­ma­men­te e trovi soluzioni a problemi complessi. È proprio qui che entra in gioco l’in­tel­li­gen­za ar­ti­fi­cia­le spie­ga­bi­le (XAI), che punta alla tra­spa­ren­za aprendo la “scatola nera” dell’IA e fornendo spunti su come fun­zio­na­no gli algoritmi. Al­tri­men­ti, viene meno la fiducia nei calcoli digitali ef­fet­tua­ti. La tra­spa­ren­za con­sen­ti­ta dall’IA spie­ga­bi­le è quindi di enorme im­por­tan­za per l’ac­cet­ta­zio­ne dell’in­tel­li­gen­za ar­ti­fi­cia­le.

Do­vreb­be­ro esserci modelli spie­ga­bi­li senza dover sa­cri­fi­ca­re le elevate pre­sta­zio­ni di ap­pren­di­men­to. La tra­spa­ren­za data dall’Ex­plai­na­ble Ar­ti­fi­cial In­tel­li­gen­ce (XAI) è fon­da­men­ta­le per creare fiducia nei sistemi di IA. Ciò consente agli utenti di giudicare meglio il fun­zio­na­men­to dell’IA e di valutare i risultati di con­se­guen­za. Dovrebbe anche con­sen­ti­re agli utenti futuri di com­pren­de­re la ge­ne­ra­zio­ne emergente di partner ar­ti­fi­cial­men­te in­tel­li­gen­ti, di fidarsi di loro in misura adeguata e di essere in grado di gestirli e lavorare con loro in modo ef­fi­cien­te. Senza questa com­pren­sio­ne, l’uso af­fi­da­bi­le e l’ac­cet­ta­zio­ne dell’IA rimangono aspetti ostici.

I software IA di IONOS
Scopri la potenza del­l'in­tel­li­gen­za ar­ti­fi­cia­le
  • Siti web in tempo record
  • Soluzioni IA per il tuo business
  • Risparmio di tempo e risultati ec­cel­len­ti

Le aree di ap­pli­ca­zio­ne più im­por­tan­ti di XAI

L’in­tel­li­gen­za ar­ti­fi­cia­le non è più solo a uso e consumo dei ri­cer­ca­to­ri e delle ri­cer­ca­tri­ci. Al contrario, è già parte in­te­gran­te della vita quo­ti­dia­na. È quindi ancora più im­por­tan­te che la mo­du­la­ri­tà dell’in­tel­li­gen­za ar­ti­fi­cia­le non sia nota solo agli spe­cia­li­sti e agli utenti diretti: chi prende decisioni, in par­ti­co­la­re, deve essere il più possibile con­sa­pe­vo­le del fun­zio­na­men­to dell’IA, così da gettare le basi per fidarsi della tec­no­lo­gia. In questo ambito è quindi par­ti­co­lar­men­te im­por­tan­te l’obbligo di re­spon­sa­bi­li­tà (in inglese “ac­coun­ta­bi­li­ty”). Di seguito ti pre­sen­tia­mo le aree di ap­pli­ca­zio­ne più im­por­tan­ti.

Guida autonoma

Ci sono diversi progetti che si occupano di svi­lup­pa­re metodi per integrare la co­no­scen­za e la spie­ga­bi­li­tà nei modelli di ap­pren­di­men­to profondo per la guida autonoma. L’obiettivo è mi­glio­ra­re l’ef­fi­cien­za dei dati e la tra­spa­ren­za di tali sistemi per au­men­tar­ne l’af­fi­da­bi­li­tà e la sicurezza.

Dia­gno­sti­ca medica

Nel settore sanitario, l’IA viene sempre più uti­liz­za­ta per diagnosi e rac­co­man­da­zio­ni te­ra­peu­ti­che, ad esempio nell’oncologia per ri­co­no­sce­re schemi in campioni di tessuto che indicano la presenza di un cancro, come il progetto Clinical Ar­ti­fi­cial In­tel­li­gen­ce. L’IA spie­ga­bi­le consente di com­pren­de­re le decisioni prese da un’in­tel­li­gen­za ar­ti­fi­cia­le, come ad esempio il motivo per cui è stata dia­gno­sti­ca­ta una de­ter­mi­na­ta malattia o è stato suggerito un trat­ta­men­to specifico. Ciò è es­sen­zia­le per raf­for­za­re la fiducia dei pazienti e degli operatori sanitari nei sistemi sup­por­ta­ti dall’in­tel­li­gen­za ar­ti­fi­cia­le.

Settore fi­nan­zia­rio

Nel settore fi­nan­zia­rio, ad esempio, l’IA viene uti­liz­za­ta per decisioni di credito, ri­le­va­men­to di frodi e va­lu­ta­zio­ni del rischio. XAI aiuta a rivelare le basi di tali decisioni e a garantire che siano giu­sti­fi­ca­bi­li dal punto di vista etico e legale. Ciò consente alle parti in­te­res­sa­te e alle autorità di vigilanza di capire come e perché un prestito è stato approvato o rifiutato.

Controllo e gestione aziendale

Per i manager è im­por­tan­te com­pren­de­re il fun­zio­na­men­to dei sistemi di IA uti­liz­za­ti, ad esempio, per le decisioni stra­te­gi­che o le pre­vi­sio­ni. XAI permette di com­pren­de­re gli algoritmi e di valutarne i risultati in modo fondato.

Imaging di rete neurale

L’in­tel­li­gen­za ar­ti­fi­cia­le spie­ga­bi­le è uti­liz­za­ta anche nell’imaging delle reti neurali, in par­ti­co­la­re nell’analisi dei dati delle immagini da parte dell’IA. L’obiettivo è capire come le reti neurali elaborano e in­ter­pre­ta­no le in­for­ma­zio­ni visive. Le ap­pli­ca­zio­ni spaziano dall’imaging medico, come l’analisi delle ra­dio­gra­fie o delle risonanze ma­gne­ti­che all’ot­ti­miz­za­zio­ne delle tec­no­lo­gie di sor­ve­glian­za. XAI aiuta a decifrare il fun­zio­na­men­to dell’in­tel­li­gen­za ar­ti­fi­cia­le e quali ca­rat­te­ri­sti­che di un’immagine con­tri­bui­sco­no al processo de­ci­sio­na­le. Ciò è par­ti­co­lar­men­te im­por­tan­te nelle ap­pli­ca­zio­ni critiche per la sicurezza o sensibili dal punto di vista etico, poiché le in­ter­pre­ta­zio­ni errate possono avere gravi con­se­guen­ze.

For­ma­zio­ne di strategie militari

Nel settore militare, l’IA viene uti­liz­za­ta per svi­lup­pa­re strategie per decisioni tattiche o si­mu­la­zio­ni. XAI svolge un ruolo cruciale in questo contesto: ciò include la spie­ga­zio­ne del motivo per cui vengono rac­co­man­da­te de­ter­mi­na­te misure tattiche o il modo in cui l’IA dà priorità a diversi scenari.

In queste e in molte altre aree, l’IA spie­ga­bi­le ga­ran­ti­sce che i sistemi di IA siano percepiti come strumenti af­fi­da­bi­li, le cui decisioni e processi sono com­pren­si­bi­li ed eti­ca­men­te giu­sti­fi­ca­bi­li.

Come funziona l’IA spie­ga­bi­le (XAI)?

Esistono diversi metodi o approcci per generare tra­spa­ren­za e com­pren­sio­ne dell’in­tel­li­gen­za ar­ti­fi­cia­le. Nei seguenti paragrafi abbiamo riassunto quelli prin­ci­pa­li:

  • La tec­no­lo­gia LRP (Layer-wise Relevance Pro­pa­ga­tion, let­te­ral­men­te “tra­sfe­ri­men­to della rilevanza livello per livello”) è stata descritta per la prima volta nel 2015. Si tratta di una tecnica per de­ter­mi­na­re le ca­rat­te­ri­sti­che dei vettori in ingresso che in­fluen­za­no mag­gior­men­te l’output di una rete neurale.
  • Il Coun­ter­fac­tual Method (“metodo con­tro­fat­tua­le”) descrive il modo in cui gli input di dati (testi, immagini, grafici, ecc.) vengono mo­di­fi­ca­ti in modo mirato dopo aver ottenuto un risultato. In seguito, si determina in che misura il risultato dell’output è stato mo­di­fi­ca­to.
  • Il Local In­ter­pre­ta­ble Model-Agnostic Ex­pla­na­tions (LIME) è un metodo che ha l’obiettivo di spiegare il com­por­ta­men­to di ogni clas­si­fi­ca­to­re della macchina e il relativo output. Lo scopo è rendere i dati e le procedure de­ci­sio­na­li com­pren­si­bi­li agli utenti non esperti in materia.
  • La ra­zio­na­liz­za­zio­ne è una procedura uti­liz­za­ta spe­ci­fi­ca­men­te nei robot basati sull’IA. La macchina è pro­get­ta­ta in modo tale da poter spiegare au­to­no­ma­men­te le proprie azioni.
AI Model Hub
La tua piat­ta­for­ma IA mul­ti­mo­da­le e sicura
  • Con­for­mi­tà al GDPR e hosting sicuro in Europa
  • Potenti modelli basati sul­l'in­tel­li­gen­za ar­ti­fi­cia­le
  • Assenza di vendor lock-in grazie all'open source

Qual è la dif­fe­ren­za tra l’IA spie­ga­bi­le e l’IA ge­ne­ra­ti­va?

L’IA spie­ga­bi­le (XAI) e l’IA ge­ne­ra­ti­va (GAI) dif­fe­ri­sco­no fon­da­men­tal­men­te per l’obiettivo e la finalità: l’obiettivo di XAI è quello di rendere i processi de­ci­sio­na­li dei modelli di IA com­pren­si­bi­li. Ciò avviene uti­liz­zan­do metodi quali vi­sua­liz­za­zio­ni, sistemi basati su regole o strumenti come LIME e SHAP. In questo caso ci si concentra sulla tra­spa­ren­za, so­prat­tut­to nelle aree critiche dove la fiducia e la trac­cia­bi­li­tà sono es­sen­zia­li.

L’IA ge­ne­ra­ti­va, invece, si concentra sulla creazione di nuovi contenuti come testi, immagini, musica o video. Utilizza reti neurali come le reti ge­ne­ra­ti­ve av­ver­sa­rie (GAN) o modelli tra­sfor­ma­to­ri per generare risultati creativi che simulano il pensiero umano o i processi artistici. Ne sono un esempio i ge­ne­ra­to­ri di testo come GPT o di immagini come DALL-E, uti­liz­za­ti prin­ci­pal­men­te nell’arte, nell’in­trat­te­ni­men­to e nella pro­du­zio­ne di contenuti.

Mentre XAI mira a spiegare i modelli di IA esistenti, GAI si concentra sulla ge­ne­ra­zio­ne di contenuti in­no­va­ti­vi. Entrambi gli approcci possono essere combinati tra loro. Ad esempio, i modelli ge­ne­ra­ti­vi possono essere spiegati da XAI per garantire che i loro risultati siano etici, tra­spa­ren­ti e af­fi­da­bi­li. Quindi, XAI e GAI si com­ple­ta­no a vicenda pro­muo­ven­do la tra­spa­ren­za e l’in­no­va­zio­ne nel campo dell’in­tel­li­gen­za ar­ti­fi­cia­le.

Vai al menu prin­ci­pa­le