L’Unione Europea ha adottato nel 2024 il Regolamento sull’intelligenza artificiale (AI Act) per creare un quadro normativo uniforme che disciplini sviluppo e utilizzo dei sistemi di IA. Si tratta della prima normativa completa al mondo in questo ambito. L’obiettivo è quello di incentivare le opportunità offerte dall’IA, riducendo al contempo i potenziali rischi.

AI Model Hub
La tua piattaforma IA multimodale e sicura
  • Conformità al GDPR e hosting sicuro in Europa
  • Potenti modelli basati sull'intelligenza artificiale
  • Assenza di vendor lock-in grazie all'open source

Perché è stato introdotto il Regolamento?

Il Regolamento europeo sull’intelligenza artificiale è stato introdotto per creare un quadro giuridico chiaro e uniforme sull’uso dell’IA in Europa. La Commissione europea ha presentato la prima proposta nell’aprile 2021. Dopo lunghe trattative, la versione definitiva è stata adottata nel gennaio 2024. Il contesto di questo regolamento è rappresentato dai rapidi progressi tecnologici nel campo dell’intelligenza artificiale, che offrono sì opportunità, ma comportano anche rischi significativi. Le sfide di natura sociale ed etica, come la discriminazione causata da algoritmi distorti, la mancanza di trasparenza nelle decisioni automatizzate o l’uso improprio dell’IA per la sorveglianza di massa, hanno reso necessaria una regolamentazione giuridica urgente.

L’obiettivo è favorire l’innovazione senza compromettere i valori fondamentali europei, come la tutela dei dati personali, la sicurezza e i diritti umani. Con il Regolamento, l’UE ha scelto di adottare un approccio basato sul rischio: vieta le applicazioni più pericolose e impone obblighi più severi per quelle considerate ad alto rischio.

N.B.

Il Regolamento sull’intelligenza artificiale non è l’unico quadro normativo europeo rilevante per le aziende. Anche il divieto di geoblocking, il regolamento ePrivacy e la direttiva europea sui cookie devono essere tenuti in considerazione.

Classificazione dei sistemi di IA per livello di rischio

Il regolamento adotta un approccio basato sul rischio e classifica i diversi sistemi di IA in quattro categorie:

  1. Rischio inaccettabile: rientrano in questa categoria tutti i sistemi di IA considerati una minaccia per la sicurezza, i mezzi di sussistenza o i diritti delle persone. Tali sistemi sono vietati. Ne sono un esempio i sistemi di social scoring, ovvero la valutazione del comportamento o della personalità degli individui da parte di enti statali, o i sistemi di IA utilizzati per il riconoscimento facciale negli spazi pubblici senza consenso.
  2. Rischio elevato: questi sistemi sono consentiti, ma soggetti a requisiti rigorosi e comportano obblighi significativi per chi li sviluppa o utilizza. Appartengono a questa classe di rischio, ad esempio, i sistemi di IA impiegati nelle infrastrutture critiche, come nel settore dei trasporti per garantire la sicurezza. Anche l’IA nella gestione del personale, che influisce su decisioni di assunzione o licenziamento, è soggetta a requisiti specifici.
  3. Rischio limitato/di trasparenza: la terza classe di rischio comprende i sistemi di IA soggetti a specifici requisiti di trasparenza, progettati per l’interazione diretta con l’utente. Chi li utilizza deve essere informato del fatto che sta interagendo con un sistema di questo tipo. La maggior parte delle IA generative rientra in questa categoria.
  4. Rischio minimo: la maggior parte dei sistemi di IA rientra nella quarta categoria e non è soggetta a requisiti specifici previsti dal Regolamento europeo sull’IA. Ne sono un esempio i filtri antispam o i personaggi controllati da IA nei videogiochi.
N.B.

Se vuoi saperne di più sull’utilizzo dell’intelligenza artificiale e desideri creare un sito web con l’IA dai un’occhiata ai nostri articoli informativi:

Requisiti e obblighi per sviluppatori e fornitori

Per chi sviluppa o fornisce sistemi di intelligenza artificiale, in particolare quelli a rischio elevato, il Regolamento europeo sull’IA stabilisce una serie di requisiti volti a garantire un utilizzo responsabile di queste tecnologie. Tali requisiti riguardano diversi aspetti, tra cui trasparenza, sicurezza, accuratezza e qualità dei dati utilizzati. L’obiettivo è assicurare la sicurezza e l’affidabilità delle tecnologie basate sull’IA, senza ostacolare inutilmente l’innovazione.

Gestione del rischio

Le aziende devono implementare un sistema di gestione del rischio continuo, in grado di identificare, valutare e ridurre al minimo i potenziali pericoli. Questo include la verifica periodica dell’impatto che il sistema di IA può avere sulle singole persone e sulla società nel suo complesso. Particolare attenzione è rivolta a possibili forme di discriminazione, distorsioni involontarie nei processi decisionali e rischi per la sicurezza pubblica.

Qualità dei dati ed eliminazione delle distorsioni

I dati di addestramento utilizzati per lo sviluppo di un sistema di IA devono soddisfare elevati standard di qualità. Devono quindi essere rappresentativi, privi di errori e sufficientemente diversificati, al fine di evitare discriminazioni e distorsioni. Chi sviluppa o utilizza sistemi di IA ha l’obbligo di adottare meccanismi per individuare e correggere eventuali distorsioni, soprattutto quando l’intelligenza artificiale viene impiegata in ambiti sensibili come le decisioni in ambito professionale o l’applicazione della legge.

Documentazione tecnica

Chi sviluppa sistemi di intelligenza artificiale deve redigere e mantenere una documentazione tecnica completa. Questa documentazione deve descrivere non solo la struttura e il funzionamento del sistema, ma anche rendere comprensibili i processi decisionali dell’IA. Inoltre, è obbligatorio tenere registrazioni sul funzionamento dei sistemi di IA, per consentire eventuali analisi successive e l’identificazione di possibili errori.

Trasparenza e diritto all’informazione

Il Regolamento stabilisce che chi interagisce con un sistema di IA deve essere chiaramente informato di ciò. Ad esempio, chatbot o assistenti virtuali devono indicare esplicitamente di non essere interlocutori umani. Nei casi in cui i sistemi di IA prendano decisioni con un impatto significativo sulle persone, come nel caso delle richieste di credito o delle procedure di selezione del personale, le persone interessate hanno il diritto di ricevere una spiegazione su come è stata presa la decisione.

Supervisione umana e possibilità di intervento

I sistemi di IA ad alto rischio non possono operare in modo completamente autonomo. Le aziende devono garantire l’integrazione di meccanismi di controllo umano, affinché le persone possano intervenire e correggere eventuali malfunzionamenti o comportamenti anomali del sistema. Questo aspetto è particolarmente cruciale in ambiti come la diagnostica medica o la mobilità autonoma, dove decisioni errate possono avere conseguenze gravi.

Accuratezza, robustezza e cybersicurezza

Il Regolamento sull’IA richiede che i sistemi di intelligenza artificiale siano affidabili e robusti, al fine di ridurre al minimo errori decisionali e rischi per la sicurezza. Chi sviluppa tali sistemi deve dimostrare che essi funzionano in modo stabile in diverse condizioni e che non possono essere facilmente compromessi da attacchi o manipolazioni esterne. Ciò include anche misure di sicurezza informatica come la protezione da fughe di dati o da modifiche non autorizzate agli algoritmi.

Conformità e certificazione

Prima che un sistema di IA ad alto rischio venga immesso sul mercato, deve essere sottoposto a una valutazione di conformità per verificare che soddisfi tutti i requisiti normativi. In alcuni casi è necessaria una verifica esterna da parte di un organismo notificato. Il Regolamento prevede inoltre un monitoraggio continuo e una riesamina periodica dei sistemi, per garantire che continuino a rispettare gli standard previsti.

Opportunità e sfide per le imprese

Il Regolamento europeo sull’IA fornisce alle aziende un quadro giuridico chiaro, volto a promuovere l’innovazione e la fiducia nelle tecnologie basate sull’intelligenza artificiale, ma comporta anche un aumento degli oneri legati alla conformità, agli adeguamenti tecnici e alle strategie di mercato. Chi sviluppa o utilizza tecnologie di IA deve confrontarsi in maniera intensiva con le nuove disposizioni, per evitare rischi legali e mantenere la propria competitività nel lungo periodo.

Costi più elevati e oneri burocratici

Una delle principali sfide per le aziende è rappresentata dai costi aggiuntivi legati al rispetto delle nuove disposizioni. In particolare, per chi fornisce o utilizza sistemi di IA ad alto rischio sono necessarie misure articolate, che richiedono investimenti in nuove tecnologie, personale qualificato e, in alcuni casi, anche il supporto di consulenti esterni o organismi di verifica. Le piccole e medie imprese (PMI), in particolare, potrebbero incontrare difficoltà nel reperire le risorse economiche e umane necessarie per soddisfare tutti i requisiti normativi.

Le aziende che non rispettano le disposizioni rischiano sanzioni elevate, analogamente a quanto previsto dal Regolamento generale sulla protezione dei dati (GDPR).

Incentivo all’innovazione

Nonostante le regolamentazioni aggiuntive, il Regolamento può contribuire nel lungo periodo a rafforzare la fiducia nei sistemi di intelligenza artificiale e a incentivare l’innovazione. Le aziende che si adeguano tempestivamente alle nuove disposizioni, sviluppando soluzioni di IA trasparenti, sicure ed etiche, possono ottenere un vantaggio competitivo.

L’introduzione di regole chiare crea un quadro giuridico uniforme all’interno dell’UE, riducendo le incertezze legate allo sviluppo e all’uso dell’IA. Questo semplifica la commercializzazione delle tecnologie a livello europeo, evitando alle imprese di dover affrontare normative nazionali divergenti. Il Regolamento UE sull’IA è inoltre uno dei primi del suo genere a livello globale e definisce standard elevati. Le aziende che li rispettano possono posizionarsi come fornitori affidabili e ottenere così un vantaggio rispetto ai concorrenti soggetti a normative meno rigorose.

Effetto extraterritoriale e impatto sulle aziende internazionali

Il Regolamento sull’IA non riguarda solo le aziende con sede nell’UE, ma anche le imprese internazionali che offrono sistemi di intelligenza artificiale all’interno dell’Unione o utilizzano dati raccolti nell’UE per applicazioni basate sull’IA. Ciò significa, ad esempio, che un’azienda statunitense che propone un software di selezione del personale basato sull’IA nel mercato europeo dovrà rispettare le normative europee.

Questo effetto extraterritoriale obbliga molte aziende al di fuori dell’UE ad adeguare prodotti e servizi ai nuovi standard, se vogliono operare nel mercato europeo. Sebbene ciò possa contribuire alla definizione di un approccio più uniforme a livello globale nella regolamentazione dell’IA, per molte realtà non europee potrebbe rappresentare un ostacolo all’ingresso nel mercato dell’UE.

Tuttavia, non mancano i timori che le aziende europee possano essere penalizzate a livello internazionale dalla nuova regolamentazione. Mentre in Paesi come gli Stati Uniti o la Cina l’innovazione nel campo dell’IA procede spesso con poche restrizioni, le normative stringenti dell’UE potrebbero rallentare lo sviluppo e l’adozione di nuove tecnologie. Questo potrebbe rappresentare una sfida soprattutto per startup e PMI, che si trovano a competere con grandi aziende tecnologiche dotate di risorse ben più consistenti.

I software IA di IONOS
Scopri la potenza dell'intelligenza artificiale
  • Siti web in tempo record
  • Soluzioni IA per il tuo business
  • Risparmio di tempo e risultati eccellenti
Hai trovato questo articolo utile?
Vai al menu principale