La Commissione interviene sull'Intelligenza Artificiale

  Articoli (Articles)
  Irene Boggio
  04 May 2021
  6 minutes, 39 seconds

Il 21 aprile scorso, la Commissione europea ha presentato un pacchetto di iniziative riguardanti l'Intelligenza Artificiale (IA). Si compone di un nuovo piano coordinato [1], che aggiorna quello predisposto insieme agli Stati membri nel 2018, e di due proposte di regolamento. Di queste, una introduce un quadro normativo comune sull’IA (il primo mai realizzato)[2] e l'altra nuove regole sui macchinari (sostituendo una precedente direttiva del 2006)[3].

Le tre iniziative, che non sono che le ultime di una serie di misure adottate dalla Commissione a partire dal 2018[4], rispondono a due principali obiettivi: suscitare nei cittadini europei una maggiore fiducia nei confronti dell’Intelligenza Artificiale e favorire l’innovazione e gli investimenti nel settore. Il primo si cerca di raggiungerlo attraverso l’introduzione di regole proporzionate e flessibili che affrontino i rischi specifici posti dai sistemi di IA e garantiscano la sicurezza e il rispetto dei diritti fondamentali dei cittadini. Il secondo punta a garantire all’Unione una posizione di leadership mondiale nello sviluppo di un’IA antropocentrica, sostenibile, sicura, inclusiva e affidabile[5].

Fiducia nell’Intelligenza Artificiale ed eccellenza europea nel settore sono, dunque, gli obiettivi ultimi perseguiti dalla Commissione attraverso le recenti iniziative[6].

Inoltre, l'Unione mira a plasmare, attraverso il suo tempestivo intervento normativo, l’approccio globale alla regolamentazione dell’IA. Lo stesso era accaduto con il Regolamento generale sulla protezione dei dati (GDPR), esempio da manuale di quel Brussels effect che vede le normative europee divenire benchmark di riferimento di livello globale[7].

Il settore dell’Intelligenza Artificiale è divenuto “di importanza strategica, al crocevia tra geopolitica, interessi commerciali e preoccupazioni in materia di sicurezza”, ma è ancora scarsamente regolato. In questo contesto, l’Unione intende “promuovere la definizione di norme globali in materia di IA in stretta collaborazione con i partner internazionali, in linea con il sistema multilaterale fondato su regole e con i valori che esso difende[8]. Alcuni osservatori anticipano che la proposta europea “influenzerà quasi certamente i dibattiti in corso all’interno del Consiglio d’Europa, che sta lavorando a un trattato vincolante sull’IA, così come l’OECD, la NATO, l’UNESCO e la Partnership Globale sull’Intelligenza Artificiale propulsa dal G7[9].

Il piano coordinato sull’IA predispone una serie di azioni congiunte della Commissione e degli Stati membri. Alla base ci sono: la volontà di creare condizioni favorevoli allo sviluppo e all’adozione dell’IA (ad esempio, mediante la condivisione di dati e informazioni strategiche e gli investimenti); la promozione dell’eccellenza in materia di IA a livello europeo; la garanzia che quest’ultima sia al servizio delle persone e assicuri all’Unione un ruolo di leadership in settori e tecnologie ad alto impatto. Queste azioni saranno finanziate, attraverso i programmi Europa Digitale e Orizzonte Europa, dai fondi veicolati dalla politica di coesione e attraverso il dispositivo per la ripresa e la resilienza (che mette a disposizione 134 miliardi di € per il digitale)[10]. Complessivamente, l’Unione punta a investire annualmente in IA 1 miliardo di €, attraverso i programmi Europa Digitale e Orizzonte Europa, per poi catalizzare ulteriori investimenti da parte degli Stati membri e di attori privati e raggiungere un volume annuo di investimenti pari a 20 miliardi di €.[11]

La proposta di regolamento sull’IA, anche dettaArtificial Intelligence Act, introduce un sistema fondato sul rischio, in base al quale le norme che si applicano a ciascun sistema d’Intelligenza Artificiale dipendono dal suo livello di rischiosità. La proposta prevede in particolare 4 livelli di rischio: inaccettabile, alto, limitato e minimo.

I sistemi che sono ritenuti comportare un rischio inaccettabile sono vietati. Rientrano in questa categoria: i sistemi d’Intelligenza Artificiale che sono in grado di manipolare il comportamento umano e aggirare il libero arbitrio degli utenti (specie se minori); i sistemi di cui i governi possono servirsi per attribuire ai propri cittadini un punteggio sociale, come accade in Cina; i sistemi d’identificazione biometrica remota utilizzati in spazi accessibili al pubblico per attività di contrasto, che sono in linea di principio vietati. In via eccezionale, tuttavia, questi ultimi possono essere autorizzati (da un organo giudiziario o altro organo indipendente) nei casi di ricerca di un minore scomparso, nella prevenzione di una minaccia terroristica specifica e imminente e nell’individuazione di autori di reati gravi.

I sistemi d’IA ad alto rischio, invece, devono soddisfare stringenti requisiti obbligatori per l’accesso al mercato unico. In particolare, la proposta di regolamento prevede che il fornitore di un sistema d’IA ad alto rischio debba sottoporlo, prima di poterlo immettere sul mercato UE, a una valutazione di conformità (in cui, però, solo in alcuni casi è coinvolto anche un organismo terzo, indipendente). In questo modo può dimostrare che esso soddisfa tutti i requisiti previsti dal diritto europeo e che è idoneo alla commercializzazione. Perché il sistema possa essere autorizzato, è necessario che sia accompagnato da una documentazione dettagliata e da informazioni chiare e adeguate per l’utente, che i set di dati che lo alimentano siano di elevata qualità (per evitare effetti discriminatori) e che il fornitore abbia predisposto sistemi adeguati di valutazione e mitigazione dei rischi, di registrazione delle attività del sistema e di sorveglianza umana. Spetta alle autorità nazionali, designate dagli Stati membri, supervisionare l’implementazione delle misure contenute nel regolamento e condurre attività di vigilanza del mercato. In caso di violazioni, la proposta di regolamento prevede che gli Stati membri impongano sanzioni, che in alcuni casi possono ammontare a più di 30 milioni di €.[12] Rientrano tra i sistemi d’Intelligenza Artificiale ad alto rischio: tutti i sistemi destinati a essere utilizzati nell’ambito dell’istruzione e della formazione professionale, dell’occupazione, della gestione dei lavoratori e dell’accesso al lavoro (es. software di selezione dei CV), nella gestione della migrazione, in servizi pubblici e privati essenziali (es. erogazione di credito) e molti altri.

Ai sistemi d’IA a rischio limitato (es. chatbot), invece, si applicano unicamente obblighi di trasparenza. La proposta non introduce alcuna nuova norma in relazione ai sistemi a rischio minimo (es. filtri spam che utilizzano sistemi d’IA, videogiochi), cioè la maggior parte dei sistemi d’Intelligenza Artificiale attualmente utilizzati.

Le due proposte di regolamento presentate dalla Commissione dovranno ora essere adottate dal Parlamento Europeo e dal Consiglio dell’Unione, come previsto dalla procedura legislativa ordinaria. Nulla è assicurato. Il Parlamento ha già dimostrato la propria insoddisfazione nei confronti di alcune delle disposizioni contenute nel testo proposto dalla Commissione, attraverso due lettere indirizzate alla Presidente von der Leyen, e anche gli Stati membri potrebbero risultare divisi (tra paesi più favorevoli a una regolamentazione rigida – la Germania, per esempio – e paesi propensi a una regolamentazione più lassa, che non opprima eccessivamente gli operatori economici).[13]

[1] https://digital-strategy.ec.europa.eu/en/library/coordinated-plan-artificial-intelligence-2021-review

[2] Proposal for a Regulation laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) | Shaping Europe’s digital future (europa.eu)

[3] https://ec.europa.eu/docsroom/documents/45508

[4] Risale al 2018 la pubblicazione della strategia europea sull’IA e della prima versione del piano coordinato con gli stati membri sull’intelligenza artificiale, di cui proprio il 21 aprile è stato presentato l’aggiornamento. Successivamente, nel 2019, il gruppo di esperti di alto livello sull’IA ha redatto e pubblicato gli orientamenti per un’IA affidabile. A ciò ha fatto seguito, nel 2020, la pubblicazione da parte della Commissione di un libro bianco sull’IA, che ha gettato le basi delle proposte appena presentate. In concomitanza con la pubblicazione del suddetto libro bianco è stata anche avviata una consultazione pubblica, che ha registrato un’ampia partecipazione. https://ec.europa.eu/commission/presscorner/detail/it/ip_21_1682

[5] https://ec.europa.eu/commission/presscorner/detail/it/ip_21_1682

[6] https://ec.europa.eu/info/strategy/priorities-2019-2024/europe-fit-digital-age/excellence-trust-artificial-intelligence_it

[7] https://www.economist.com/europe/2021/04/24/the-eu-wants-to-become-the-worlds-super-regulator-in-ai

[8] https://ec.europa.eu/commission/presscorner/detail/it/QANDA_21_1683

[9] https://www.politico.eu/newsletter/ai-decoded/politico-ai-decoded-key-battles-for-the-eus-ai-law-ai-governance-twitters-algorithm/

[10] https://ec.europa.eu/commission/presscorner/detail/it/ip_21_1682

[11] https://ec.europa.eu/commission/presscorner/detail/it/QANDA_21_1683

[12] Si veda la nota n. 11.

[13] https://www.politico.eu/newsletter/ai-decoded/politico-ai-decoded-key-battles-for-the-eus-ai-law-ai-governance-twitters-algorithm/

Share the post

L'Autore

Irene Boggio

Categories

Tag

EU