Intelligenza artificiale
11:38 am, 11 Maggio 23 calendario

Primo sì dell’Ue alle regole sull’intelligenza artificiale

Di: Redazione Metronews
condividi

Primo sì dell’Ue per regole sull’intelligenza artificiale. La Commissione Mercato interno e protezione consumatori del Parlamento europeo ha dato il via libera al mandato negoziale per le prime norme europee in assoluto sull’intelligenza artificiale con 84 voti a favore, 7 contrari e 12 astensioni.

La Ue e le regole sull’intelligenza artificiale

Nei loro emendamenti alla proposta della Commissione, i deputati puntano a garantire che i sistemi di Ia siano controllati dalle persone, siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente. Chieddono una definizione uniforme per l’Ia progettata per essere neutrale dal punto di vista tecnologico

Le norme seguono un approccio basato sul rischio e stabiliscono obblighi per fornitori e utenti a seconda del livello di rischio che l’Ia può generare. I sistemi di intelligenza artificiale con un livello di rischio inaccettabile per la sicurezza delle persone dovranno essere severamente vietati, compresi i sistemi che impiegano tecniche subliminali o intenzionalmente manipolative, sfruttano le vulnerabilità delle persone o sono utilizzati per il punteggio sociale (classificazione delle persone in base al loro comportamento sociale, stato socio-economico, caratteristiche).

L’elenco dei divieti di utilizzo

I deputati hanno sostanzialmente modificato l’elenco per includere i divieti sugli usi intrusivi e discriminatori dei sistemi di Ia come sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico; sistemi di identificazione biometrica remota, con la sola eccezione delle forze dell’ordine per il perseguimento di reati gravi e solo previa autorizzazione giudiziaria; sistemi di categorizzazione biometrici che utilizzano caratteristiche sensibili (ad es. genere, razza, etnia, stato di cittadinanza, religione, orientamento politico); sistemi di polizia predittiva (basati su profilazione, posizione o comportamento criminale passato); sistemi di riconoscimento delle emozioni nelle forze dell’ordine, nella gestione delle frontiere, sul posto di lavoro e nelle istituzioni educative; e collezione indiscriminata di dati biometrici da social media o filmati a circuito chiuso per creare database di riconoscimento facciale (violando i diritti umani e il diritto alla privacy).

I deputati hanno inoltre ampliato la classificazione delle aree ad alto rischio per includere i danni alla salute, alla sicurezza, ai diritti fondamentali o all’ambiente delle persone. Hanno anche aggiunto i sistemi di intelligenza artificiale per influenzare gli elettori nelle campagne politiche e nei sistemi di raccomandazione utilizzati dalle piattaforme di social media (con oltre 45 milioni di utenti ai sensi del Digital Services Act) all’elenco ad alto rischio. E ancora: i modelli di base generativi, come Gpt, dovranno rispettare ulteriori requisiti di trasparenza, come rivelare che il contenuto è stato generato dall’intelligenza artificiale, progettare il modello per impedire che generi contenuto illegale e pubblicare riepiloghi dei dati protetti da copyright utilizzati per la formazione.

 

11 Maggio 2023
© RIPRODUZIONE RISERVATA
Il giornale
Più letto del mondo