sabato 10/06/2023 • 06:00
In vista della normativa comunitaria in materia di Intelligenza Artificiale, l’Agenzia UE ENISA ha esaminato in un rapporto gli standard di sicurezza informatica relativi a questa tecnologia.
Ascolta la news 5:03
Allo scopo di identificare potenziali lacune, ENISA, l’Agenzia dell’Unione Europea per la cybersecurity, ha elaborato un rapporto in cui valuta gli standard di sicurezza informatica - pubblicati, in fase di sviluppo e pianificati - per l’intelligenza artificiale (IA).
Lo studio prende le mosse dalla consapevolezza che al giorno d’oggi cittadini, consumatori e aziende fanno un uso sempre più frequente di applicazioni basate su sistemi di intelligenza artificiale e per garantire la tutela di questi sistemi, nonché dei dati che essi devono elaborare per poter funzionare, è opportuno concentrarsi sull’utilizzo di standard adeguati, necessari anche in vista dell’attuazione delle prossime politiche e normative UE relative a questo ambito.
Lo studio
Basandosi sul presupposto che l’intelligenza artificiale sia in sostanza un software, e quindi ciò che è applicabile al software può essere applicato all’IA, se vengono fornite istruzioni adeguate, l’analisi di ENISA indica che gli standard generali per la sicurezza delle informazioni e la gestione della qualità (in particolare ISO/IEC 27001, ISO/IEC 27002 e ISO/IEC 9001) possono mitigare parzialmente i rischi di sicurezza informatica legati alla riservatezza, all’integrità e alla disponibilità dei sistemi di IA. Tuttavia, questo approccio può essere sufficiente a livello generale, ma deve essere integrato da un’analisi specifica del sistema (ad esempio, basandosi su ISO/IEC 15408-1:2009), poiché ogni ambito di applicazione possiede caratteristiche originali.
ENISA individua, poi, alcune mancanze nella standardizzazione. Un esempio? La tracciabilità dei processi, che pur essendo già trattata in maniera consona da diversi standard, risulta in gran parte irrisolta nella pratica. Altro ambito riguarda l’apprendimento automatico, o machine learning, dove ENISA rileva che le caratteristiche intrinseche di questa tecnica non si riflettono pienamente negli standard esistenti (soprattutto in termini di metriche e procedure di test). Allo stesso modo, l’Agenzia UE ha rilevato che, in alcuni settori, gli standard attuali non possono essere adattati (o, ancora, nuovi standard non possono ancora essere completamente definiti) perchè le tecnologie correlate sono ancora in fase di sviluppo e quindi non sono ancora abbastanza “mature” per essere standardizzate. Va detto infatti che, poiché la sicurezza informatica presuppone una serie di requisiti di affidabilità (come, ad esempio, la governance dei dati o la trasparenza), è importante che le attività di standardizzazione intorno a queste caratteristiche trattino la sicurezza informatica in modo coerente.
Per ciò che concerne, invece, l’attuazione dell’AI Act sull’intelligenza artificiale, il rapporto ENISA sottolinea la mancanza, ad oggi, di standard che coprano adeguatamente la cybersecurity e che descrivano le competenze delle organizzazioni per l’audit, la certificazione e il collaudo dei sistemi di IA (e dei sistemi di gestione dell’IA) e dei loro valutatori. È perciò comprensibile come una lacuna, nei settori oggetto di ricerca e sviluppo, sia rilevante per la realizzazione del quadro normativo, in particolare per quanto riguarda gli attacchi alla qualità dei dati e i cosiddetti adversarial examples, vale a dire input specializzati creati con lo scopo di confondere una rete neurale, con conseguente classificazione errata di un dato immesso in ingresso.
Le raccomandazioni di ENISA
Il rapporto, infine, contiene alcune osservazioni e suggerimenti derivanti dall’analisi del panorama generale relativo agli standard. Innanzitutto ENISA, pur riconoscendo il lavoro compiuto sia dalle Organizzazioni Europee di Normazione sia dalle Organizzazioni per lo Sviluppo di Standard, invita all’adozione di un insieme comune di terminologie e concetti interdisciplinari relativi all’intelligenza artificiale, in quanto il primo rischio per la sicurezza informatica potrebbe essere rappresentato proprio dalla mancata comprensione reciproca.
Lo studio suggerisce anche di sviluppare una serie di orientamenti specifici e tecnici circa le modalità secondo cui gli standard esistenti relativi alla sicurezza informatica del software dovrebbero essere applicati all’IA. Questi dovrebbero includere anche strategie di difesa a diversi livelli (ad esempio, l’infrastruttura), come pure monitorare e supportare le aree in cui la standardizzazione è limitata dallo sviluppo tecnologico. Altro aspetto da non sottovalutare riguarda le caratteristiche intrinseche dell’apprendimento automatico, che secondo ENISA dovrebbero riflettersi negli standard: gli aspetti da considerare riguardano la mitigazione del rischio (associando componenti hardware/software all’IA), metriche affidabili e le procedure di prova. Non da ultimo, dovrebbe essere rispecchiata anche la tracciabilità dell’intero ciclo di vita dei dati e dei componenti dell’intelligenza artificiale.
Importante è, poi, garantire collegamenti tra i comitati tecnici per la sicurezza informatica e i comitati tecnici dell’IA in modo che gli standard dell’IA sulla qualità dei dati e sulle caratteristiche di affidabilità (supervisione, robustezza, accuratezza, spiegabilità, trasparenza, ecc.) includano potenziali problemi di sicurezza informatica.
Data l’applicabilità dell’intelligenza artificiale in un’ampia gamma di settori, ENISA sostiene altresì che l’identificazione dei rischi per la cybersecurity e la determinazione di adeguati requisiti di sicurezza dovrebbero basarsi su un’analisi specifica del sistema e, ove necessario, su norme settoriali specifiche. A loro volta, le norme settoriali dovrebbero essere fondate, in modo coerente ed efficiente, su quelle generali.
In conclusione, ENISA sottolinea l’importanza di incoraggiare la ricerca e lo sviluppo nei settori in cui la normazione è limitata proprio dallo sviluppo tecnologico, come pure è fondamentale supportare il potenziamento di standard per gli strumenti e per le competenze degli attori coinvolti nella valutazione della conformità. Infine, last but not least, occorre garantire la coerenza tra il progetto di legge sull’IA e altre iniziative legislative sulla sicurezza informatica, in particolare il regolamento (UE) 2019/881 (Cybersecurity Act) e la Cyber Resilience Act, la proposta COM(2022) 454.
© Copyright - Tutti i diritti riservati - Giuffrè Francis Lefebvre S.p.A.
Rimani aggiornato sulle ultime notizie di fisco, lavoro, contabilità, impresa, finanziamenti, professioni e innovazione
Per continuare a vederlo e consultare altri contenuti esclusivi abbonati a QuotidianoPiù,
la soluzione digitale dove trovare ogni giorno notizie, video e podcast su fisco, lavoro, contabilità, impresa, finanziamenti e mondo digitale.
Abbonati o
contatta il tuo
agente di fiducia.
Se invece sei già abbonato, effettua il login.