sabato 27/04/2024 • 06:00
Il 23 aprile 2024 il Consiglio dei Ministri ha esaminato il DDL con cui l'Italia intende disciplinare alcuni aspetti dell'intelligenza artificiale, nel rispetto e in attuazione di alcune delle previsioni dell'AI Act, che dovrebbe essere pubblicato sulla GUUE prima dello scadere della legislatura.
Ascolta la news 5:03
Il nuovo DDL, secondo l'art. 1, si pone come obiettivo la definizione di linee guida per bilanciare i benefici offerti dall'avanzamento tecnologico con i pericoli derivanti da un impiego scorretto, insufficiente o nocivo delle stesse tecnologie. Il testo propone un insieme di norme basilari e specifiche misure settoriali volte a stimolare l'adozione delle tecnologie emergenti per elevare la qualità della vita e la coesione sociale, e al contempo, a offrire strategie di mitigazione dei rischi basate su un approccio centrato sull'uomo (antropocentrico).
Come anticipato, il DDL mira a integrare il prossimo Regolamento europeo sull'intelligenza artificiale ampliando il quadro regolatorio esistente.
Il provvedimento si estende su 5 principali aree di intervento:
È prevista anche una delega al Governo per allineare la legislazione nazionale al Regolamento UE.
I principi fondamentali per lo sviluppo e uso di sistemi d'intelligenza artificiale
La proposta legislativa ribadisce alcuni dei principi contenuti nella proposta di Regolamento europeo, aggiungendone ulteriori a voler sottolineare l'importanza del rispetto dei diritti fondamentali previsti dalla Costituzione italiana e dal diritto europeo.
Le attività, quali la sperimentazione, ricerca, sviluppo, applicazione e utilizza dei sistemi di IA deve avvenire in particolar modo rispettando il principio di trasparenza, proporzionalità, sicurezza, protezione dei dati personali, riservatezza, accuratezza, non discriminazione, parità dei sessi e sostenibilità.
Per garantire ciò l'art. 3 DDL stabilisce che deve essere garantita la qualità dei dati utilizzati per sviluppare i sistemi e i modelli di IA, vigilando sulla correttezza, sicurezza, qualità, appropriatezza e trasparenza degli stessi.
Nell'implementazione dei sistemi bisogna rispettare il cosiddetto human in the loop ossia la circostanza che sia sempre garantito il potere decisionale e l'intervento umano, nonché un principio di prevenzione del danno (che ricorda il principio di precauzione di matrice europea, già presente in altre materie, come quella ambientale), oltre che la spiegabilità e conoscibilità dei processi che sono utilizzati dai sistemi stessi.
Il tema della cybersecurity è posto al centro del ciclo di vita delle applicazioni di IA, con un approccio proporzionale basato sul rischio e volto a prevenire usi malevoli di tali sistemi.
Vengono ribaditi alcuni principi in materia di utilizzo di tali sistemi nel settore delle informazioni (libertà, pluralismo dei mezzi di comunicazione, libertà di espressione, obiettività, completezza, imparzialità e lealtà dell'informazione), nonché la necessità di rispettare le previsioni in tema di protezione dei dati personali.
Per i minori è previsto che gli ultra-quattordicenni possano esprimere in autonomia il consenso per accedere tali sistemi, per gli altri sarà invece necessaria l'autorizzazione di chi esercita la potestà genitoriale.
Per quanto riguarda l'azione dello Stato e delle altre autorità pubbliche esse devono farsi parte attiva nel promuovere l'utilizzo dei sistemi di IA, nel favorire la creazione in un mercato di questo settore e di facilitare la disponibilità e l'accesso a dati di alta qualità per le imprese che sviluppano o utilizzano i sistemi di IA o per la comunità scientifica e l'innovazione.
Una specifica disciplina è prevista, infine, in materia di sicurezza e difesa nazionale, con esclusione dall'ambito di applicazione del DDL delle attività svolte per scopi di sicurezza nazionale, in particolare quelle poste in essere dall'Agenzia per la Cybersicurezza Nazionale (ACN), attività che saranno poi disciplinate attraverso un apposito Regolamento.
La strategia nazionale
L'architettura nazionale sull'intelligenza artificiale è stabilita attraverso un'apposita strategia curata e periodicamente aggiornata dalla Presidenza del Consiglio dei Ministri, attraverso il suo Dipartimento per la transizione digitale. Questa strategia, che dovrà essere rivisitata ogni 2 anni, richiede una stretta collaborazione con le Autorità nazionali di intelligenza artificiale, oltre al coinvolgimento del Ministro delle Imprese e del Made in Italy per le tematiche di politica industriale e incentivazione e del Ministro della Difesa per le applicazioni duali di questa tecnologia. L'approvazione finale della strategia spetta al Comitato interministeriale per la transizione digitale (CITD).
Il piano strategico non è solo un documento di linee guida, ma un vero e proprio motore per l'innovazione. Esso stimola la collaborazione tra il settore pubblico e quello privato, orientando le Amministrazioni verso l'adozione e il sostegno dei sistemi d'intelligenza artificiale. Inoltre, promuove attivamente la ricerca e contribuisce alla diffusione delle conoscenze su questa tecnologia, mirando a potenziare lo sviluppo industriale e imprenditoriale nel campo.
Il Dipartimento per la Transizione Digitale si occuperà anche del coordinamento e del monitoraggio dell'efficacia di questa strategia, in collaborazione con l'Agenzia per l'Italia digitale e, per gli aspetti più tecnici, con l'Agenzia Nazionale per la Cybersicurezza. Importante notare che i risultati di questo monitoraggio vengono presentati annualmente al Parlamento, assicurando così un flusso costante di informazioni e trasparenza nell'attuazione della strategia.
In attuazione di quanto sarà stabilito nell'AI Act sono individuate due autorità di controllo: la prima è AgID che svolge il ruolo di Autorità di notifica per la valutazione, accreditamento e monitoraggio dei soggetti che devono verificare la conformità dei sistemi, nonché l'Agenzia per la Cybersicurezza Nazionale quale autorità di vigilanza sul mercato, con poteri ispettivi e sanzionatori.
Il DDL approva alcuni investimenti in materia di applicazione sperimentale di sistemi di IA da parte del Ministero per gli affari esteri, nonché il rafforzamento della formazione, anche nei corsi scolastici secondari di secondo grado, favorendo gli studenti più meritevoli che possono anticipare lo studio di alcune specifiche materie.
Non è più prevista la creazione di un'apposita fondazione, ma è stabilita una dotazione fino a 1 miliardo di euro per investire, tramite Cassa depositi e prestiti SGR, nelle piccole e medie imprese (PMI) innovative con potenziale di crescita e sede operativa in Italia che operano nei campi menzionati (intelligenza artificiale, cybersicurezza, calcolo quantistico, telecomunicazioni e varie tecnologie abilitanti), nonché in altre imprese che possano diventare dei “campioni nazionali” in questi settori tecnologici.
Le modalità di investimento includono la sottoscrizione di quote o azioni in fondi di venture capital dedicati oppure il coinvestimento con altri fondi gestiti dalla stessa società di gestione del risparmio.
Il DDL prevede un'ampia serie di deleghe al Governo per la predisposizione di D.Lgs. volti ad attuare in misura più puntuale le previsioni della proposta legislativa.
Gli interventi settoriali
Una serie di disposizioni specifiche sono previste in vari ambiti.
Con riferimento al settore sanitario sono innanzitutto dettate alcune disposizioni volte disciplinare in generale l'utilizzo dei sistemi IA in tale settore, chiarendo che da tale utilizzo non possono derivare discriminazioni nell'accesso alle prestazioni sanitarie, che i pazienti devono essere informati sia sull'utilizzo di tali sistemi sia sulla logica decisionale utilizzata, e, più in generale, limitando la funzione di tali sistemi a strumenti di supporto nell'attività dei professionisti sanitari, ai quali spetta sempre la decisione sulla prevenzione, diagnosi e terapia.
Gli artt. 8 e 9 sono volti a introdurre alcune semplificazioni per la sperimentazione dei sistemi di intelligenza artificiale in ambito sanitario e prevedono la costituzione di una piattaforma apposita per erogare servizi a supporto dei professionisti sanitari, dei medici e degli utenti.
In particolare, l'art. 8 DDL stabilisce principi fondamentali per la ricerca e la sperimentazione scientifica nel campo dell'intelligenza artificiale (IA) in ambito sanitario, enfatizzando l'importanza di tali attività per la prevenzione, diagnosi e cura di malattie, nonché lo sviluppo di farmaci e tecnologie riabilitative. Queste attività sono dichiarate di rilevante interesse pubblico, richiamando l'art. 32 della Costituzione e alle disposizioni del GDPR, specificamente l'art. 9, lett. g). Tale precisazione serve a fondare la base giuridica per il trattamento dei dati dei dati personali che sarà svolto in tale settore. In dettaglio, il trattamento di dati, anche personali, da parte di soggetti pubblici e privati senza scopo di lucro (non quindi da parte di soggetti che operano con finalità industriali o commerciali) può avvenire senza ulteriori consensi da parte degli interessati se già previsto dalla legge, purché nel rispetto delle normative sulla privacy e sulla protezione dei dati personali. I trattamenti di dati personali svolti ai fini dell'art. 8 devono essere approvati dai comitati etici competenti e comunicati all'Autorità garante per la protezione dei dati personali, la quale può disporne il blocco entro 30 giorni dalla ricezione. In assenza di tale blocco si potrà procedere con le attività di sperimentazione comunicate.
L'art. 9 DDL introduce disposizioni relative al fascicolo sanitario elettronico e alla gestione della sanità digitale. In particolare, prevede l'istituzione di una piattaforma di IA gestita dall'Agenzia nazionale per i servizi sanitari regionali (AGENAS), che viene designata come Agenzia nazionale per la sanità digitale. Questa piattaforma dovrà supportare i professionisti sanitari e gli utenti, facilitando l'accesso a servizi sanitari e fornendo suggerimenti non vincolanti ai medici. L'AGENAS è responsabile per la raccolta e il trattamento dei dati all'interno della piattaforma, assicurando che le operazioni siano conformi alle normative sulla privacy e sicurezza dei dati.
In materia di lavoro ai prevede l'istituzione di un apposito Osservatorio presso il Ministero del Lavoro e delle Politiche Sociali, che avrà come obiettivo quello di stabilire una strategia sull'utilizzo di tali sistemi in ambito lavorativo, monitorare il loro impatto sul mercato del lavoro e identificare i settori lavorativi maggiormente interessati. In tale settore sono ribaditi i principi generali per poter utilizzare i sistemi di IA ed è rimarcato l'obbligo, già stabilito nel decreto trasparenza, di fornire adeguate informazioni ai lavoratori.
La proposta di legge stabilisce inoltre che nei contesti delle professioni intellettuali i sistemi IA siano impiegati esclusivamente per attività ausiliarie e di supporto alla prestazione lavorativa, e impone al professionista il dovere di divulgare, in termini comprensibili, chiari e dettagliati, le informazioni relative ai sistemi adottati.
Le medesime disposizioni si applicano all'uso nei contesti della pubblica Amministrazione, mentre nel settore della giustizia tali sistemi possono essere adoperati per la gestione e la semplificazione delle attività, la ricerca di sentenze e dottrina, la redazione di bozze di atti giudiziari e per qualsiasi altro uso ausiliario. La giurisdizione sulle cause civili riguardanti il funzionamento di un sistema di intelligenza artificiale è attribuita al Tribunale, mediante una modifica dell'art. 9 c.p.c.
Gli interventi sul diritto d'autore e la diffusione dei contenuti IA
Specifici interventi sono previsti in materia di diritto d'autore, sia al fine di una migliore identificazione dei contenuti generati tramite si sistemi di IA, come d'altronde previsto nell'AI Act come obbligo di trasparenza, sia con riferimento alla tutela da riconoscere a tali contenuti.
Il fulcro della nuova disciplina è l'inserimento nel D.Lgs. 208/2021 dell'art. 40-bis il quale si occupa specificatamente dei contenuti testuali, fotografici, audiovisivi e radiofonici generati o modificati da sistemi di intelligenza artificiale. Secondo la nuova disposizione, tali contenuti, se divulgati da fornitori di servizi audiovisivi e radiofonici, indipendentemente dalla piattaforma o dal metodo di trasmissione, incluso il video on demand e lo streaming, devono essere chiaramente identificati tramite un elemento o segno identificativo, anche in filigrana o marcatura incorporata, con l'acronimo “IA”, ciò qualora il contenuto sia in grado “di presentare come reali dati, fatti e informazioni che non lo sono”.
È prevista un'eccezione per i contenuti che sono parte di opere o programmi manifestamente creativi, satirici, artistici o fittizi, pur mantenendo le protezioni per i diritti e le libertà di terzi.
In aggiunta, l'articolo prevede che l'Autorità stimoli l'adozione di Codici di condotta e promuova la co-regolamentazione e l'autoregolamentazione sia con i fornitori di servizi di media audiovisivi e radiofonici sia con i fornitori di piattaforme per la condivisione di video.
In merito alla tutelabilità delle opere dell'ingegno create tramite sistemi di intelligenza artificiale, la possibilità di ottenere una protezione autoriale delle stesse è subordinata al fatto che il contributo umano sia comunque creativo, rilevante e dimostrabile.
La disciplina della riproduzione ed estrazione di opere o altri materiali “attraverso modelli e sistemi di intelligenza artificiale anche generativa”, infine, sono consentite nei limiti che sono previsti quando tali attività vengono svolte da organismi di ricerca e istituti di tutela del patrimonio culturale oppure secondo la disciplina delle banche dati.
Le disposizioni penali
Il DDL introduce anche delle disposizioni a carattere penalistico legate all'utilizzo dell'intelligenza artificiale, prevedendo che tale utilizzo costituisca circostanza aggravante per i reati di:
Viene introdotta, infine, una nuova fattispecie di reato con l'art. 612-quater c.p., che punisce con la reclusione da 6 mesi a 3 anni chiunque arrechi nocumento ad altri cedendo, inviando, pubblicando o diffondendo immagini, video, voci o suoni in tutto o in parte falsi generati o manipolati mediante l'impiego di sistemi di IA, idonei a trarre in inganno sulla loro genuinità. Se dalla commissione del reato deriva un danno ingiusto la pena è della reclusione da 1 a 5 anni.
© Copyright - Tutti i diritti riservati - Giuffrè Francis Lefebvre S.p.A.
Rimani aggiornato sulle ultime notizie di fisco, lavoro, contabilità, impresa, finanziamenti, professioni e innovazione
Per continuare a vederlo e consultare altri contenuti esclusivi abbonati a QuotidianoPiù,
la soluzione digitale dove trovare ogni giorno notizie, video e podcast su fisco, lavoro, contabilità, impresa, finanziamenti e mondo digitale.
Abbonati o
contatta il tuo
agente di fiducia.
Se invece sei già abbonato, effettua il login.