lunedì 10/07/2023 • 06:00
Il Parlamento UE ha adottato la sua posizione sulla legge sull'intelligenza artificiale prima dei colloqui con gli Stati dell'UE sulla forma finale della legge. Le norme garantirebbero che l'intelligenza artificiale europea sia pienamente in linea con i diritti e i valori dell'UE, tra cui la supervisione umana, la sicurezza, la privacy, la trasparenza, la non discriminazione e il benessere sociale e ambientale.
Ascolta la news 5:03
In data 14 giugno, il Parlamento europeo ha adottato la sua posizione negoziale sull’ atto sull'intelligenza artificiale (“AIA”) ed è pronto ad avviare i colloqui con i governi UE sul testo definitivo. Le norme mirano a garantire che l'intelligenza artificiale (“IA”) sviluppata e utilizzata in Europa sia conforme con i diritti e i valori dell'UE, ad esempio in materia di supervisione umana, sicurezza, privacy, trasparenza, non discriminazione e benessere sociale e ambientale.
Il Parlamento vuole anche stabilire una definizione tecnologicamente neutra e uniforme per l'IA che potrebbe essere applicata ai futuri sistemi di intelligenza artificiale. L'AIA introduce regole diverse a seconda dei diversi livelli di rischio associati all'IA.
Cos’è l’IA?
Appare innanzitutto necessario sottolineare che per sistema di intelligenza artificiale si intende un software sviluppato con una o più tecniche e approcci individuati, che può, per una determinata serie di obiettivi definiti dall'uomo, generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono.
L’IA è una famiglia di tecnologie in rapida evoluzione in grado di apportare una vasta gamma di benefici economici e sociali in tutto lo spettro delle attività industriali e sociali. L'uso dell'IA, garantendo un miglioramento delle previsioni, l'ottimizzazione delle operazioni e dell'assegnazione delle risorse e la personalizzazione dell'erogazione di servizi, può contribuire al conseguimento di risultati vantaggiosi dal punto di vista sociale e ambientale nonché fornire vantaggi competitivi fondamentali alle imprese e all'economia europea. Tale azione è particolarmente necessaria in settori ad alto impatto, tra i quali figurano quelli dei cambiamenti climatici, dell'ambiente e della sanità, il settore pubblico, la finanza, la mobilità, gli affari interni e l'agricoltura. Tuttavia gli stessi elementi e le stesse tecniche che alimentano i benefici socio-economici dell'IA possono altresì comportare nuovi rischi o conseguenze negative per le persone fisiche o la società.
Rapido sviluppo regolamentare
Una consultazione pubblica online è stata avviata dalla Commissione UE il 19/02/2020, unitamente alla pubblicazione del Libro bianco sull'intelligenza artificiale, ed è durata fino al 14/06/2020. L'obiettivo di tale consultazione era raccogliere opinioni e pareri sul Libro bianco. Tale consultazione è stata rivolta a tutti i portatori di interessi coinvolti del settore pubblico e di quello privato, compresi governi, autorità locali, organizzazioni commerciali e non, parti sociali, esperti, accademici e cittadini.
Complessivamente è stato registrato un consenso generale tra i portatori di interessi in merito alla necessità di intervenire. Una grande maggioranza dei portatori di interessi si è detta concorde in merito al fatto che esistano lacune legislative o che sia necessaria una normativa nuova. Tuttavia, diversi portatori di interessi hanno avvertito la Commissione di evitare duplicazioni, obblighi contrastanti e una regolamentazione eccessiva. Sono pervenute numerose osservazioni nelle quali è stata sottolineata l'importanza di un quadro normativo proporzionato e neutro dal punto di vista tecnologico.
I portatori di interessi hanno richiesto per lo più una definizione restrittiva, chiara e precisa del concetto di intelligenza artificiale. I portatori di interessi hanno altresì sottolineato che, oltre al chiarimento del termine "intelligenza artificiale", è importante definire anche "rischio", "alto rischio", "basso rischio", "identificazione biometrica remota" e "danno".
La maggior parte dei partecipanti si è detta esplicitamente a favore dell'approccio basato sul rischio. Il ricorso a un quadro basato sul rischio è stato considerato un'opzione migliore rispetto a una regolamentazione di natura generale applicabile a tutti i sistemi di IA. I tipi di rischi e minacce dovrebbero essere basati su un approccio per singolo settore e per singolo caso. I rischi dovrebbero inoltre essere calcolati tenendo conto del loro impatto su diritti e sicurezza.
Nell'aprile 2021, la Commissione ha proposto il primo quadro normativo dell'UE sull'IA. Propone che i sistemi di intelligenza artificiale utilizzabili in diverse applicazioni siano analizzati e classificati in base al rischio che rappresentano per gli utenti. I diversi livelli di rischio comporteranno una maggiore o minore regolamentazione. Una volta approvate, queste saranno le prime regole al mondo sull'IA
Il Parlamento in data 14.06 ha definito la propria posizione negoziale, inizieranno ora i negoziati con i Paesi dell'UE in Consiglio per la stesura finale della legge.
L'obiettivo è quello di raggiungere un accordo entro la fine di quest'anno.
La priorità per il Parlamento è quella di assicurarsi che i sistemi di intelligenza artificiale utilizzati nell'UE siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell'ambiente. I sistemi di IA dovrebbero essere supervisionati da persone, anziché da automazione, per evitare conseguenze dannose.
Il Parlamento vuole anche stabilire una definizione tecnologicamente neutra e uniforme per l'IA che potrebbe essere applicata ai futuri sistemi di IA.
Regole diverse per diversi livelli di rischio
Le nuove regole stabiliscono obblighi per fornitori e utenti a seconda del livello di rischio dell'IA. Molti sistemi di IA comportano un rischio minimo, ma devono essere valutati.
Rischio Inaccettabile
Saranno vietati i sistemi di IA che presentano un livello di rischio inaccettabile per la sicurezza delle persone, come quelli utilizzati per il punteggio sociale (classificare le persone in base al loro comportamento sociale o alle loro caratteristiche personali). Il Parlamento ha ampliato l'elenco per includere divieti sugli usi intrusivi e discriminatori dell'IA, come:
Rischio Alto
Il Parlamento vuole che la classificazione delle applicazioni ad alto rischio includa anche i sistemi di IA che comportano danni significativi per la salute, la sicurezza, i diritti fondamentali delle persone o l'ambiente. Sono stati aggiunti alla lista ad alto rischio i sistemi di intelligenza artificiale utilizzati per influenzare gli elettori e l'esito delle elezioni e i sistemi di raccomandazione utilizzati dalle piattaforme di social media (con oltre 45 milioni di utenti).
Rischio limitato
I sistemi di IA a rischio limitato dovrebbero rispettare requisiti minimi di trasparenza che consentano agli utenti di prendere decisioni informate. Dopo aver interagito con le applicazioni, l'utente può decidere se desidera continuare a utilizzarle. Gli utenti dovrebbero essere informati quando interagiscono con l'IA. Questo include i sistemi di intelligenza artificiale che generano o manipolano contenuti di immagini, audio o video (ad esempio deepfake).
Obblighi relativi ai sistemi di IA per finalità generali
I fornitori di modelli di base — uno sviluppo nuovo e in rapida evoluzione nel settore dell'IA — dovrebbero valutare e mitigare i possibili rischi (alla salute, alla sicurezza, ai diritti fondamentali, all'ambiente, alla democrazia e allo Stato di diritto) e registrare i loro modelli nella banca dati dell'UE prima della loro immissione sul mercato europeo. I sistemi di IA generativa che si basano su tali modelli, quali ChatGPT, dovrebbero rispettare i requisiti di trasparenza (dichiarando che il contenuto è stato generato dall'IA), aiutando anche a distinguere le cosiddette immagini deep-fake e da quelle reali, e fornire salvaguardie per evitare la generazione di contenuti illegali. Dovrebbero inoltre essere pubblicate le sintesi dettagliate dei dati protetti dal diritto d'autore utilizzati per l'addestramento.
Sostenere l'innovazione e proteggere i diritti dei cittadini
Per stimolare l'innovazione nel campo dell'IA e sostenere le PMI, il Parlamento ha previsto esenzioni per le attività di ricerca e le componenti dell'IA fornite con licenze open-source. La nuova legge promuove i cosiddetti spazi di sperimentazione normativa, o ambienti di vita reale, creati dalle autorità pubbliche per testare l'IA prima che venga implementata.
Infine, il Parlamento intende rafforzare il diritto dei cittadini di presentare reclami sui sistemi di IA e di ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio con un impatto significativo sui loro diritti fondamentali. Il Parlamento ha anche riformato il ruolo dell'Ufficio dell'UE per l'IA, che avrà il compito di monitorare l'attuazione delle norme sull'IA.
© Copyright - Tutti i diritti riservati - Giuffrè Francis Lefebvre S.p.A.
Vedi anche
The EU Parliament adopted its position on the artificial intelligence act ahead of talks with EU states on the final shape of the law. The rules would ensure that European AI is fully..
Rimani aggiornato sulle ultime notizie di fisco, lavoro, contabilità, impresa, finanziamenti, professioni e innovazione
Per continuare a vederlo e consultare altri contenuti esclusivi abbonati a QuotidianoPiù,
la soluzione digitale dove trovare ogni giorno notizie, video e podcast su fisco, lavoro, contabilità, impresa, finanziamenti e mondo digitale.
Abbonati o
contatta il tuo
agente di fiducia.
Se invece sei già abbonato, effettua il login.