Pur tentando, oggi, risulta assai difficoltoso individuare una definizione precisa di Intelligenza Artificiale. Proprio dall'impossibilità di definirne uno schema chiaro e preciso derivano i dubbi e le perplessità circa la sua applicazione nel mercato del lavoro. La difficoltà di stabilire un confine entro il quale l'I.A. sia definita e categorizzata deriva dalla composizione stessa dell'I.A formata da numerose tecnologie e caratterizzata da un'applicazione variabile nei vari contesti sociali ed economici.
L'evoluzione del settore complica l'obiettivo impendendo di fissare entro limiti ben definiti il suo permanente sviluppo. La necessità di individuare uno schema entro il quale l'Intelligenza Artificiale possa essere definita è condivisa anche delle Istituzioni le quali, da tempo, risultano impegnate a definirne il contenuto. Non a caso, proprio la Proposta di Regolamento sull'Intelligenza Artificiale, pubblicata nell'aprile del 2021, dalla Commissione Europea si pone tra le altre, la finalità di individuarne una definizione certa capace di includere al suo interno le principali caratteristiche funzionali del software, in particolare la capacità, per una determinata serie di obiettivi definiti dall'uomo, di generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano l'ambiente con cui il sistema interagisce, tanto in una dimensione fisica quanto in una dimensione digitale.
La capacità di definirne il contenuto sarà determinate per l'applicazione del quadro normativo definito nella citata proposta che adotta un approccio basato sul rischio. Sarà il grado di rischio e il contesto in cui viene utilizzata l'I.A. a definire le misure di protezione da adottare affinché il prodotto possa essere immesso nel mercato.
Sistemi ad alto rischio
Il titolo III contiene regole specifiche per i sistemi di I.A. che creano un rischio alto per la salute e la sicurezza o per i diritti fondamentali delle persone fisiche. In linea con un approccio basato sul rischio, tali sistemi di I.A. ad alto rischio sono consentiti sul mercato europeo subordinatamente al rispetto di determinati requisiti obbligatori e ad una valutazione della conformità ex ante. La classificazione di un sistema di I.A. come ad alto rischio si basa sulla sua finalità prevista, in linea con la normativa vigente dell'UE in materia di sicurezza dei prodotti. Di conseguenza la classificazione come ad alto rischio non dipende solo dalla funzione svolta dal sistema di IA, ma anche dalle finalità e modalità specifiche di utilizzo di tale sistema.
Intelligenza Artificiale nel mondo del lavoro
Tra i sistemi ad alto rischio rientrano quelli relativi l'occupazione, la gestione dei lavoratori e l'accesso al lavoro autonomo e in particolari quei sistemi di I.A. destinati a essere utilizzati per l'assunzione o la selezione di persone fisiche, in particolare per pubblicizzare i posti vacanti, vagliare o filtrare le candidature, valutare i candidati nel corso di colloqui o prove e quelli in cui l'I.A. può essere destinata a essere utilizzata per adottare decisioni in materia di promozione e cessazione dei rapporti contrattuali di lavoro, per l'assegnazione dei compiti e per il monitoraggio e la valutazione delle prestazioni e del comportamento delle persone nell'ambito di tali rapporti di lavoro.
Secondo la proposta di regolazione l'uso dell'I.A. nell'ambito HR, prima di essere immesso sul mercato, dovrà essere oggetto di un percorso di certificazione che ne prevede l'iscrizione in uno specifico registro per consentire il monitoraggio da parte di enti specifici.
I.A. nel recruiting
Nell'ambito dell'HR una questione al centro dell'attuale dibattito è l'impiego di software dotati di I.A. che tramite la raccolta di dati dei candidati si propongono di sostituire, almeno nella fase iniziale, l'intervento umano per finalità di selezione del personale.
Secondo il sito researchmarket.com l'impiego dei sistemi di I.A., nelle attività di recruiting, è destinato a crescere nei prossimi cinque anni in maniera esponenziale. Ad oggi, le aziende sperimentatrici di questa tecnologia sembra essere influenzata positivamente dai risultati prodotti per il risparmio in termini di costi e di tempo rispetto ai metodi tradizionali
La sperimentazione dell'I.A. in questo settore non è una novità assoluta: già nel 2015 Amazon aveva testato un sistema di recruitment intelligente. La sperimentazione era però stata interrotta dopo che i risultati avevano portato a selezionare solo candidati dal sesso maschile. L'elemento interessante è che la macchina era stata addestrata in maniera “neutrale”; la macchina non conosceva il sesso del candidato. Il pregiudizio derivava da una fase antecedente alla selezione vera e propria, cioè nella fase di raccolta dati. La macchina aveva, quindi, acquisito le modalità delle precedenti selezioni “fisiche” e acquisito il “pregiudizio” umano delle selezioni avvenute nel passato.
L'esempio è in grado di dimostrare l'importanza che quello che gli studiosi della materia chiamano “ecologia dei dati” quale strumento abilitante dell'impiego dell'I.A. tanto più nel mercato del lavoro contraddistinto da delicati equilibri.
I rischi di discriminazione, però, non sono limitati alla fase di raccolta delle informazioni, ma anche nella fase di processione dei dati acquisiti soprattutto per quei sistemi dotati di reti neurali complesse “deep learning” che impedirebbero, a posteriori, di comprendere il ragionamento eseguito. Le c.d. black boxes contraddistinte da opacità potrebbero, infatti, violare la trasparenza che – al contrario – dovrebbe contraddistinguere le decisioni basate su sistemi automatizzati.
Sistemi decisionali automatizzati e protezione dei dati personali
Per i sistemi di I.A. i dati sono importanti, senza gli stessi non potrebbero funzionare. La macchina intelligente si nutre di dati e grazie al dato acquisito impara a ragionare ed essere autonoma nei processi decisionali. La crescente affermazione di tecnologie “autonome” ha portato il Legislatore europeo, già a partire dal 2016, con il GDPR, a disciplinare tali ipotesi.
Nell'ambito dei rapporti di lavoro, sin dalla fase di selezione sono proprio i dati personali ad essere al centro delle decisioni dacché ne discende l'applicazione di quanto statuito dall'art. 22 del GDPR.
La norma, nell'ambito dei rapporti di lavoro, subordina i trattamenti derivanti da processi decisionali automatizzati al ricorrere di determinate condizioni. In particolare, nell'ambito dei rapporti contrattuali, si richiede di soddisfare il principio di trasparenza in maniera “rafforzata” rispetto ai tradizionali trattamenti imponendo al datore di lavoro di fornire un'informazione dettagliata sulle modalità di trattamento, sul diritto di accesso e riconoscere il diritto del lavoratore di richiedere una revisione “umana” della decisione presa. A ciò si unisce il diritto del lavoratore di conoscere la logica utilizzata dalla macchina, da qui trae linfa l'attuale dibattito sull'effettività della previsione legislativa in quei processi caratterizzati da opacità decisionale. Questa è la ragione per la quale una parte degli studiosi della materia ritengono che le previsioni del GDPR, pur all'altezza delle trasformazioni tecnologiche, non pare, allo stato attuale, poter collimare con la complessità dei sistemi di I.A.