Si tratta dei sistemi per i quali non vige un divieto assoluto di utilizzo, ma che, in forza di una prevalutazione da parte del legislatore europeo, si ritiene che possano comportare un alto rischio per le persone.
Secondo l'articolo 6, paragrafo 1, del Regolamento, un sistema di IA è considerato ad alto rischio se soddisfa due condizioni principali:
• utilizzo come componente di sicurezza: il sistema è impiegato come componente di un prodotto regolato dalla normativa europea, come nel caso delle direttive sulla sicurezza dei giocattoli o degli ascensori;
• valutazione di conformità: il prodotto che incorpora il sistema di IA deve essere soggetto a una valutazione da parte di terzi prima della sua immissione sul mercato o della sua messa in servizio ai sensi della normativa di armonizzazione dell'Unione elencata nell'Allegato I.
Inoltre, l'Allegato III del Regolamento (art.6, paragrafo 2) elenca i settori specifici in cui i sistemi di IA sono considerati ad alto rischio,
Si tratta dell'utilizzo nei seguenti ambiti:
Quotidianopiù è anche
su WhatsApp!
Clicca qui per iscriverti gratis e seguire
tutta l'informazione real time, i video e i podcast sul tuo smartphone.
© Copyright - Tutti i diritti riservati - Giuffrè Francis Lefebvre S.p.A.
Vedi anche
È stato pubblicato nella Gazzetta Ufficiale dell'Unione Europea del 12 luglio 2024, il Regolamento 1689/2024/UE che detta regole armonizzate sull'intelligenza artificiale
di
Massimiliano Nicotra - Avvocato, senior partner di Qubit Law Firm & Partners
Rimani aggiornato sulle ultime notizie di fisco, lavoro, contabilità, impresa, finanziamenti, professioni e innovazione

Per continuare a vederlo e consultare altri contenuti esclusivi abbonati a QuotidianoPiù,
la soluzione digitale dove trovare ogni giorno notizie, video e podcast su fisco, lavoro, contabilità, impresa, finanziamenti e mondo digitale.
Abbonati o
contatta il tuo
agente di fiducia.
Se invece sei già abbonato, effettua il login.