Intelligenza artificiale: UE tenta di raggiungere il primato globale

  Articoli (Articles)
  Redazione
  11 maggio 2021
  4 minuti, 6 secondi

L’Unione Europea vuole raggiungere il primato di primo continente al mondo con delle regole trasparenti ed efficaci sull’intelligenza artificiale. Dopo tre anni di lavori preparatori, la Commissione dell’Unione Europea ha aperto la strada ad un nuovo pacchetto legislativo che pone le fondamenta per un’intelligenza artificiale (IA) sicura, incentrata sugli esseri umani, in un certo senso etica e che sostenga l’innovazione e lo sviluppo di nuove tecnologie in Europa. Ci vorranno anni, però, prima che la proposta presentata negli scorsi giorni possa entrare in vigore.

Come vi abbiamo anticipato qualche giorno fa, il pacchetto è composto da due proposte di regolamento (il nuovo quadro normativo comune sull'IA e le nuove regole sui macchinari, sostituendo il precedente del 2006) e da un nuovo piano coordinato, il quale aggiorna quello predisposto nel 2018 dagli Stati membri.

«Queste regole rappresentano una svolta, che consentirà all’Ue lo sviluppo di nuove norme globali per un’IA affidabile», ha dichiarato la vicepresidente esecutiva della Commissione, Margrethe Vestager, responsabile del digitale , che ha riaffermato come «per l’intelligenza artificiale, la fiducia non è facoltativa, è indispensabile». L'obiettivo europeo è di assicurare una diffusione dell'intelligenza artificiale che sia regolamentata in tutto il territorio dell'Unione, grazie agli enormi benefici che creerà alla comunità, quali ottimizzazione delle risorse agricole, dell'identificazione biometrica, del mondo della finanza, della sanità e della sicurezza. L’intelligenza artificiale sarà anche il punto focale del Green deal europeo e del rilancio dell’economia post COVID-19.

Grazie alla visione strategica dell'UE, il quadro normativo si baserà sui valori dell'Unione Europea, cercando di infondere la sicurezza e la fiducia necessaria affinché i cittadini accettino le soluzioni proposte per regolamentare l'intelligenza artificiale, incoraggiando anche le imprese private ad investire e svilupparla. Per questo motivo la Commissione europea ha proposto una serie di azioni che incentivino l'eccellenza nell'intelligenza artificiale e delle norme al fine di garantire l'affidabilità della stessa. Il piano coordinato sull’IA - “Artificial Intelligence Act prestabilisce una serie di azioni congiunte della Commissione e degli Stati membri. Queste azioni verranno finanziate, mediante i programmi Europa Digitale e Orizzonte Europa, dai fondi veicolati dalla politica di coesione e attraverso il Dispositivo per la Ripresa e la Resilienza (che mette a disposizione 134 miliardi di € per il digitale). Complessivamente, l’Europa punta a investire annualmente 1 miliardo attraverso i programmi precedentemente citati.

L'Unione Europea punta ad essere il numero uno per la regolamentazione dell'intelligenza artificiale. Lo stesso era accaduto con il Regolamento generale sulla protezione dei dati (GDPR), esempio cruciale del Brussels effect che vede le normative europee divenire benchmark di riferimento a livello globale.

Il Parlamento europeo ha costituito la Commissione speciale sull'intelligenza artificiale in un'era digitale (AIDA), la quale si occupa di analizzare questa nuova tecnologia in chiave europea. La commissione speciale è composta da 33 membri, ha il mandato di analizzare il futuro impatto dell'IA nell'era digitale, in particolar modo in merito al lavoro, alla tecnologia finanziaria, alla salute, ai trasporti, al turismo, all'ambiente, alla difesa, all'industria, all'energia, all'agricoltura ed all'istruzione.

La Commissione AIDA, prospetta un approccio basato sul rischio, pianificato in quattro livelli. "Inaccettabile" è il rischio connesso ad alcuni usi impropri e dannosi dell'intelligenza artificiale, che potrebbero rappresentare una minaccia per i cittadini europei. Si tratta, ad esempio, dei sistemi governativi che assegnano un punteggio sociale ("social scoring"), che sfruttano le vulnerabilità dei minori o che utilizzano tecniche subliminali. Sono segnalati come "Rischio alto", i sistemi che avranno risonanze negative sulla sicurezza delle persone e sui diritti fondamentali (che vengono tutelati dalla Carta dei diritti fondamentali dell'Unione Europea). L'utilizzo dei suddetti sistemi non è vietato integralmente ma necessiteranno di valutazioni stringenti e requisiti obbligatori da rispettare per tutelare la cittadinanza. Sono considerati "Rischio limitato" i sistemi che a cui vengono imposti degli obblighi di trasparenza ridotti, ad esempio chatbot e assistenti vocali, dove l'utente è consapevole di interagire con una macchina. Nella fascia del "rischio minimo", sono compresi tutti i sistemi di intelligenza artificiale sviluppati ed utilizzati nel pieno rispetto della legislazione vigente. Attualmente in questa categoria vengono inseriti tutti i sistemi attualmente presenti nell'Unione Europea. Il rischio ovviamente è minimo o nullo, quindi il regolamento per il momento non interviene poiché sono sistemi già in vigore.

Viene reso noto che, in caso di violazioni, le aziende che non si adegueranno alle nuove regole previste dal regolamento UE potranno incorrere in sanzioni fino al 6% del fatturato. Ciascuno Stato dovrà individuare l’autorità preposta al controllo.

L'Unione Europea è pronta quindi a scommettere a livello globale: così come ha affermato Vestager, “l’Europa non ha avuto un ruolo leader nella prima ondata della digitalizzazione, ma ha tutte le carte in regola per guidare la prossima, che si gioca sui dati industriali”.

a cura di Valeria Lavano 

Condividi il post

L'Autore

Redazione

Categorie

Tag

EU