X

Homepage

  • Fisco
  • Lavoro
  • Contabilità
  • Impresa
  • Finanziamenti
  • Mondo Digitale
  • Speciali
  • Info dagli ordini
  • Podcast
  • Video
  • Rassegna stampa
  • Archivio ultime edizioni
  • Il mio archivio

Scopri i nostri servizi esclusivi

Registrati alla Newsletter

Iscriviti al canale WhatsApp

Segui il canale Spotify

  • Fisco
  • Lavoro
  • Contabilità
  • Impresa
  • Finanziamenti
  • Mondo Digitale
  • Speciali
Altro
  • Fisco
  • Lavoro
  • Contabilità
  • Impresa
  • Finanziamenti
  • Mondo Digitale
  • Speciali
  • ARGOMENTI
  • Intelligenza artificiale
Altro

lunedì 04/07/2022 • 06:00

Mondo Digitale Analisi del rischio per le aziende

Intelligenza Artificiale senziente, il dibattito tra tecnologia e diritto

La minaccia di un’IA senziente fa discutere giuristi, tecnologi, politici e mondo dell’impresa circa il ruolo del diritto nel regolamentare tecnologie così avanzate e mitigarne i rischi per le aziende che sviluppano tecnologie così avanzate.

di Barbara Lacchini - Giornalista ICT

+ -
  • Tempo di lettura 1 min.
  • Ascolta la news 5:03

  • caricamento..

Il termine “senziente” è, al centro di accese polemiche e riflessioni negli ambienti tecnologici, giuridici e politici di tutto il mondo. Di uso comune in filosofia, nel diritto e in bioetica, questa parola ha sempre avuto una connotazione positiva nell’indicare un essere dotato di sensi e sensibilità, quindi capace di provare “sensazioni”. Oltre agli esseri umani, le norme e la giurisprudenza riconoscono (e tutelano) questa caratteristica anche agli animali, definiti “esseri senzienti” e, di conseguenza, con diritto di benessere.

L’utilizzo di questo particolare aggettivo con riferimento all’Intelligenza Artificiale (IA), ha sollevato invece diversi interrogativi e perplessità.

L’affaire Lemoine

A generare la questione, l’ormai ben noto caso dell’ingegnere di Google Blake Lemoine, che ha definito “senziente” il sistema LaMDA (Language Model for Dialogue Applications) su cui lavorava, attribuendogli una percezione e una capacità di esprimere pensieri e sentimenti equivalenti a quelli di un bambino. La pubblicazione su Internet delle conversazioni con LaMDA e la loro condivisione con un rappresentante del Congresso sono costate all’ingegnere una sospensione ufficiale dall’azienda per violazione delle politiche di riservatezza.

Ulteriore iniziativa che non ha giovato alla posizione dell’ingegnere americano è stata, infine, la ricerca di un avvocato per rappresentare il sistema.

Finalizzato a rendere più realistiche le conversazioni tra intelligenza artificiale e utenti, LaMDA è un modello di apprendimento automatico progettato per il dialogo e basato su Transformer, un’architettura di rete neurale open source sviluppata da Google. Quest’architettura, come specifica l’azienda di Mountain View, produce un modello che può essere addestrato a leggere molte parole (all’interno di una frase o un paragrafo), prestare attenzione a come esse si relazionano tra loro e quindi prevedere le parole successive.

Nello specifico, rispetto alla maggior parte degli altri modelli linguistici, LaMDA è stata addestrata al dialogo e a memorizzare quelle sfumature - tra cui proprio la sensibilità - che caratterizzano il linguaggio naturale.

Necessità di un’analisi del rischio

In attesa dell’epilogo dell’affaire Lemoine, restano le tematiche che da sempre contraddistinguono la complessità dell’argomento “Intelligenza Artificiale” tra cui, appunto, la senzienza.

Il dibattito di queste settimane si è diviso tra chi sostiene che si tratti di un sistema molto sofisticato ma non senziente, capace di imitare gli esseri umani riportando percezioni e sentimenti forniti dai dati di addestramento, e chi ha prospettato il timore della singolarità, ossia del momento in cui le macchine prenderanno il sopravvento sulle persone, in linea con le suggestioni da film e fantascienza. D’altronde, a tal riguardo, c’è già chi indica la tendenza a interagire con gli assistenti vocali Siri o Alexa come fossero esseri umani.

In realtà, ciò che preoccupa è soprattutto il modo in cui le grandi società tecnologiche agiscono come guardiane dello sviluppo della tecnologia. In Europa, dove è in corso di definizione la normativa sull’IA, sono soprattutto la dignità della persona, il rispetto dei diritti fondamentali dell’individuo e la non discriminazione i valori da salvaguardare. Ne consegue che qualità elevata dei dati in ingresso, documentazione e tracciabilità dei processi, trasparenza, sorveglianza umana, precisione e robustezza del codice siano indicati quali elementi strettamente necessari per attenuare i rischi per i diritti fondamentali e la sicurezza posti da questo tipo di sistemi.

Ecco che l’analisi del rischio si prefigura, ad esempio, come passaggio imprescindibile per le aziende che sviluppano tecnologie così avanzate. Per “analisi del rischio”, in estrema sintesi, si intende un insieme di attività che mirano a prevedere non solo ogni possibile danno che possa occorrere a una persona (discriminazione, furto di identità, danni fisici o psicologici, lesione della reputazione), ma altresì le probabilità che tale evento accada e l’impatto che esso potrà avere sulla persona, al fine di predisporre adeguate misure che possano anticipare, gestire, o mitigare l’eventuale rischio.

Questo istituto, già noto ai giuristi che si occupano di sicurezza sul lavoro, diritto assicurativo e modelli organizzativi in azienda, è tornato di grande attualità con il regolamento europeo per la protezione dei dati e assume, a maggior ragione, un ruolo centrale nella proposta di regolamentazione sull’Intelligenza Artificiale.

Se nell’ambito della protezione dei dati il rischio è correlato ai diritti e alle libertà delle persone per la perdita o l’illecito trattamento dei loro dati, quando ci si sposta nell’ambito dell’IA, il timore è che una tecnologia completamente automatizzata discrimini le persone in società, inserendole in specifiche categorie (social sorting), preveda diversi livelli di accesso all’istruzione, all’impiego e ai servizi, rappresenti online in modo sbagliato un soggetto, manipoli o sfrutti minori o categorie vulnerabili sino a operare sorveglianza, controllo e orientamento delle menti con tecniche subliminali.

Sorveglianza da parte dell’essere umano

Altro aspetto importante è la previsione normativa di una supervisione umana, ossia la necessità costante che l’uomo intervenga spegnendo, in casi di emergenza, l’Intelligenza Artificiale.

Tutto ciò al fine di prevenire, o ridurre al minimo, i rischi per la salute, la sicurezza o i diritti fondamentali che possono emergere quando è utilizzato un sistema di IA ad alto rischio.

Perciò, prima dell’immissione sul mercato o della messa in servizio del sistema, l’azienda dovrebbe individuare adeguate misure di sorveglianza da parte di persone fisiche. Ciò significa prevedere tutti quei criteri atti a garantire, ove opportuno, che il sistema sia soggetto a vincoli operativi intrinseci che il sistema stesso non possa annullare, ma che risponda sempre, invece, all’operatore umano.

Non da ultimo, è essenziale che le persone fisiche preposte alla sorveglianza dell’IA dispongano della formazione, dell’autorità e delle competenze necessarie per svolgere tale compito.

Tra queste, la normativa indica esplicitamente: il comprendere appieno le capacità e i limiti del sistema di IA ad alto rischio ed essere in grado di monitorarne debitamente il funzionamento, in modo che i segnali di anomalie, disfunzioni e prestazioni inattese possano essere individuati e affrontati quanto prima; l’essere in grado di decidere, in qualsiasi situazione particolare, di non usare il sistema di IA ad alto rischio o altrimenti di ignorare, annullare o ribaltare l’output; infine, essere in grado di intervenire sul funzionamento del sistema o di interromperlo mediante un pulsante di “arresto” o una procedura analoga.

In conclusione, indipendentemente dalla sensienza di una Intelligenza Artificiale, il dibattito che si è generato ha avuto il merito di risollevare l’attenzione su importanti aspetti di compliance dei sistemi e di necessari adempimenti per garantire innanzitutto il rispetto dei valori della persona.

Sarà interessante osservare con quali modalità il diritto sarà in grado di accompagnare lo sviluppo futuro di questo tipo di tecnologia.

Contenuto riservato agli abbonati.
Vuoi consultarlo integralmente? Abbonati o contatta il tuo agente di fiducia.
Se invece sei già abbonato, effettua il login.
Quotidianopiù è anche su WhatsApp! Clicca qui per iscriverti gratis e seguire tutta l'informazione real time, i video e i podcast sul tuo smartphone.

© Copyright - Tutti i diritti riservati - Giuffrè Francis Lefebvre S.p.A.

Vedi anche

Mondo Digitale Prospettiva umanistica ed etica

Intelligenza artificiale e vuoto normativo: l’algoretica come antidoto all’algocrazia?

Gli algoritmi, ovvero i “neuroni” dell’intelligenza artificiale, sono ormai la moderna espressione di una società estremamente “liquida”, influenzando, spesso anche inconsapevolmente,..

di Marco Cramarossa - Dottore commercialista

Mondo Digitale Digitalizzazione dei processi

Intelligenza artificiale nel mondo HR: quali impatti sui diritti dei lavoratori?

Una questione al centro dell'attuale dibattito è l'impiego di software dotati di Intelligenza artificiale, che tramite la raccolta di dati dei candidati, si propongono di sostituire l..

di Chiara Ciccia Romito - PhD - Avvocato - Consulente Commissione Parlamentare Inchiesta Condizioni di Lavoro

Registrati gratis

Per consultare integralmente tutte le news, i podcast e i video in materia di fisco, lavoro, contabilità, impresa, finanziamenti e mondo digitale, la rassegna stampa del giorno e ricevere quotidianamente la tua newsletter

Iscriviti alla Newsletter

Rimani aggiornato sulle ultime notizie di fisco, lavoro, contabilità, impresa, finanziamenti, professioni e innovazione

Funzionalità riservata agli abbonati

Per fruire di tutte le funzionalità e consultare integralmente tutti i contenuti abbonati o contatta il tuo agente di fiducia.

Trovi interessante questo video?

Per continuare a vederlo e consultare altri contenuti esclusivi abbonati a QuotidianoPiù,
la soluzione digitale dove trovare ogni giorno notizie, video e podcast su fisco, lavoro, contabilità, impresa, finanziamenti e mondo digitale.
Abbonati o contatta il tuo agente di fiducia.
Se invece sei già abbonato, effettua il login.

Ricerca Vocale

Clicca sul microfono per cominciare a registrare il messaggio.

“ ”