lunedì 18/07/2022 • 06:00
L’ingresso dei sistemi di intelligenza artificiale nel mercato delle imprese solleva non poche perplessità nell’ambito dei rapporti di lavoro. La proposta di regolamento elaborata dalla Commissione Europea tesa ad armonizzare negli Stati membri l’uso dell’I.A. non allevia i dubbi giuridici che sorgono, altresì, in riferimento alla proposta di regolamentazione stessa.
Ascolta la news 5:03
L’Intelligenza Artificiale (d’ora in avanti I.A.) ha già fatto il suo ingresso nel mondo del lavoro e numerosi sono i sistemi adottati dalle più grandi Società per ottimizzare i tempi e i costi, grazie all’uso di algoritmi, che consentono di migliorare l’organizzazione lavorativa.
In questo scenario, tuttavia, i diritti dei lavoratori, e non solo in tema privacy, rischiano di essere compromessi.
Quali problemi nella gestione del lavoro?
L’utilizzo di algoritmi sofisticati per la gestione del lavoro potrebbe comportare un monitoraggio costante dell’attività lavorativa, invadendo lo spazio di riservatezza riconosciuto dall’ordinamento al lavoratore a tutela dell’espressione della propria autodeterminazione. Invero, il ricorso a sistemi di deep learning caratterizzati da reti neurali complesse potrebbe ledere il diritto alla trasparenza che spetta al lavoratore. I processi neurali complessi, infatti, non sempre consentono di risalire alla logica utilizzata dall’algoritmo nel prendere la decisione. Tale evenienza rischierebbe di ledere quanto sancito dall’art. 22 del GDPR che nel disciplinare i procedimenti automatizzati riconosce il diritto per l’interessato di conoscere la logica utilizzata dal sistema nel prendere la decisione che ha avuto un effetto giuridico, o analogo, sulla sua persona. La norma citata riconosce, altresì, il diritto di ottenere l’intervento umano avverso la decisione automatizzata e il diritto per l’interessato di esprimere la propria opinione, oltre che a contestare la decisione presa.
La disciplina contenuta nell’art. 22 GDPR si scontra, pertanto, con l’evoluzione e la complessità della tecnica. A ciò si unisce un’ulteriore riflessione: nell’ipotesi in cui il sistema fosse in grado di spiegare, in conformità alla norma, la logica utilizzata dal sistema automatizzato, ci si chiede se il lavoratore abbia le capacità tecniche e le risorse per comprendere la portata della spiegazione ricevuta.
Il quesito si pone, altresì, in riferimento al datore di lavoro che potrebbe non essere a conoscenza della complessità dell’algoritmo di proprietà del fornitore.
La centralità che gli stakeholder rivestono nel processo di digitalizzazione dell’impresa risulta fondamentale non solo per garantire la continuità dei servizi di fornitura, ma anche in riferimento ai diritti degli interessati che risultano coinvolti in questo processo. Il monitoraggio che potrebbe derivare dall’uso di sistemi intelligenti non risulta limitata al solo datore di lavoro, ma espande la sua portata agli stakeholder coinvolti che potrebbero venire a conoscenza dei dati dei lavoratori.
Invero, l’art. 22 GDPR non pone garanzie specifiche nell’ipotesi di utilizzo di sistemi semi-automatizzati. La tutela offerta dall’art. 22, infatti, si limita a disciplinare unicamente i processi decisionali totalmente automatizzati, quelli cioè in cui non è previsto il concorso dell’azione umana sulla decisione della macchina.
La proposta di regolamentazione dell’Unione Europea
Quelli appena citati sono solo alcuni dei dubbi che, lo scorso maggio, il Gruppo di esperti del Parlamento europeo ha sollevato in un corposo documento “A.I. and digital tools in workplace management and evaluation, an assesment of the EU’s legal framework”.
Il focus degli esperti si è altresì concentrato sull’analisi della proposta di regolamento europeo sull’Intelligenza Artificiale pubblicata il 21 aprile 2021 e sull’effettività delle tutele che la proposta si propone di garantire nel mondo del lavoro.
La proposta di regolamentazione dell’IA sceglie come atto giuridico il Regolamento, l’atto più forte a livello normativo, che non necessita di un atto di recepimento interno. La scelta dello strumento vincolante per tutti gli Stati membri vuole garantire l’uniformità della sua applicazione nel rispetto comune dei principi etici e umanitari di cui l’Europa si fa portatrice.
Al fine di conseguire gli obiettivi citati, la Commissione elabora un approccio basato sul rischio e determina sulla scorta del grado dello stesso (basso, alto, inaccettabile) la conformità del sistema e l’adozione di un meccanismo di applicazione alternato in due fasi: una antecedente al commercio del prodotto e una successiva, tesa a monitorare la conformità del prodotto immesso nel mercato. L’accettabilità o meno del rischio è determinata considerando le implicazioni che il sistema di IA potrebbe avere sui diritti dell’individuo e a tale scopo la Commissione elenca nell’allegato III della proposta i sistemi che non possono immettersi sul mercato.
La classificazione di un sistema di IA come ad alto rischio si basa sulla finalità perseguita, in linea con la normativa vigente dell’UE in materia di sicurezza dei prodotti. Di conseguenza la classificazione ad alto rischio non dipende solo dalla funzione svolta dal sistema di IA, ma anche dalle finalità e modalità specifiche di utilizzo di tale sistema. Il capo 1 del titolo III fissa le regole di classificazione e individua due categorie principali di sistemi di IA ad alto rischio: i sistemi di IA destinati ad essere utilizzati come componenti di sicurezza di prodotti soggetti a valutazione della conformità ex ante da parte di terzi; e quelli indipendenti che presentano implicazioni principalmente in relazione ai diritti fondamentali esplicitamente elencati nell’allegato III della Proposta.
I dubbi operativi
Al lume di quanto statuito dalla proposta, si rilevano alcuni dubbi circa la concreta effettività delle tutele che la proposta mira a garantire.
Il primo dubbio è relativo al campo di applicazione della proposta, strettamente limitata a certificare il solo prodotto prima che lo stesso sia introdotto sul mercato, mentre nulla viene previsto circa l’uso dello stesso nel contesto lavorativo caratterizzato da equilibri delicati. Se la loro tutela non è compito della proposta, allora potrebbe essere necessario elaborare normative più specifiche. Queste sembrano essere principalmente in capo agli Stati, dal momento che il diritto del lavoro non rientra pienamente nei poteri eurounitari.
A ciò, si aggiunge il rischio che potrebbe derivare dalla consuetudine che si crea nell’ambito di standard di certificazione del prodotto ovverosia che le norme standard non siano in grado di proteggere adeguatamente dai rischi che potrebbero sorgere nel contesto di applicazione specifico; con il pericolo che gli standard da rispettare diventino requisiti burocratici e creino una presunzione di conformità ad uso strumentale dei costruttori di I.A. In tale ipotesi le norme oggetto di regolazione, non assumeranno la rilevanza primaria che dovrebbero ricoprire. Non solo, ma l’approccio omnicomprensivo della proposta di regolazione non differenzia i settori di applicazione, sicché un rischio alto è ugualmente identificato nel settore scolastico come in quello lavorativo. Il denominatore comune rappresentato dall’alto rischio, che prescinde dal settore di applicazione, non offre le tutele specifiche sulla base dei settori in cui il sistema di I.A. potrà essere applicato e da cui derivano conseguenze differenti e tutte meritevoli di tutela.
L’attuale ricorso a sistemi di I.A. nel mondo del lavoro non risulta, ad oggi, calibrato alle diverse e più esigenze in gioco. La proposta di regolazione singolarmente non potrà, pertanto, essere in grado di dare risposta ai dubbi sollevati dagli esperti, risulta necessario uno sforzo collettivo da parte dell’Istituzioni capace di dare tutela effettiva ai delicati interessi coinvolti.
© Copyright - Tutti i diritti riservati - Giuffrè Francis Lefebvre S.p.A.
Rimani aggiornato sulle ultime notizie di fisco, lavoro, contabilità, impresa, finanziamenti, professioni e innovazione
Per continuare a vederlo e consultare altri contenuti esclusivi abbonati a QuotidianoPiù,
la soluzione digitale dove trovare ogni giorno notizie, video e podcast su fisco, lavoro, contabilità, impresa, finanziamenti e mondo digitale.
Abbonati o
contatta il tuo
agente di fiducia.
Se invece sei già abbonato, effettua il login.