X

Homepage

  • Fisco
  • Lavoro
  • Contabilità
  • Impresa
  • Finanziamenti
  • Mondo Digitale
  • Speciali
  • Info dagli ordini
  • Podcast
  • Video
  • Rassegna stampa
  • Archivio ultime edizioni
  • Il mio archivio

Scopri i nostri servizi esclusivi

Registrati alla Newsletter

Iscriviti al canale WhatsApp

Segui il canale Spotify

  • Fisco
  • Lavoro
  • Contabilità
  • Impresa
  • Finanziamenti
  • Mondo Digitale
  • Speciali
Altro
  • Fisco
  • Lavoro
  • Contabilità
  • Impresa
  • Finanziamenti
  • Mondo Digitale
  • Speciali

martedì 11/04/2023 • 06:00

Mondo Digitale Intelligenza Artificiale e cybercrime

ChatGPT, maneggiare con cura

Un recente studio di Europol Innovation Lab indica frodi, ingegneria sociale, disinformazione e cybercrime come le principali attività illecite derivanti dall’uso improprio dei sistemi di intelligenza artificiale.

di Barbara Lacchini - Giornalista ICT

+ -
  • Tempo di lettura 1 min.
  • Ascolta la news 5:03

  • caricamento..

La rapida diffusione di ChatGPT ha posto sotto i riflettori le enormi potenzialità dei sistemi di intelligenza artificiale basati su modelli linguistici di grandi dimensioni (LLM) e la vastità degli ambiti di applicazione di questa tecnologia. Non sorprende quindi che anche le forze dell’ordine stiano monitorando con attenzione le possibili implicazioni criminali. A tal proposito, Europol Innovation Lab ha organizzato negli ultimi mesi una serie di workshop per far luce sui potenziali abusi dei sistemi di intelligenza artificiale scegliendo come modello da esaminare proprio ChatGPT, considerato il più evoluto e il più utilizzato disponibile al momento sul mercato. Il risultato è stato il report “Tech Watch Flash: The impact of Large Language Models on Law Enforcement” che fornisce una panoramica sia sull’uso criminale di ChatGPT sia sul suo impiego quale risorsa per investigazioni digitali, operazioni di antiterrorismo o attività IT, come pure una prospettiva dei possibili scenari futuri.

L’utilizzo criminale

Innanzitutto, lo studio evidenzia come le diverse funzionalità di sicurezza incluse in ChatGPT per evitarne l’abuso siano in realtà facilmente superabili attraverso il prompt engineering (ingegneria dei prompt), ovvero la pratica degli utenti che, di volta in volta, perfezionano il modo preciso in cui viene posta una domanda per influenzare la risposta generata da un sistema di intelligenza artificiale. In particolare, il cosiddetto comando DAN (Do Anything Now) è appositamente pensato per bypassare i criteri di moderazione dei contenuti inducendo il sistema a rispondere a qualsiasi input, indipendentemente dalla sua natura potenzialmente dannosa. Benchè Open AI, produttore di ChatGPT, sia corsa ai ripari in tal senso, sono state sviluppate versioni successive di DAN per aggirare i nuovi meccanismi di sicurezza. In effetti, gli esperti di Europol hanno riscontrato una gamma di casi di uso criminale che sfruttavano la versione GPT-3.5, risultati poi ancora in funzione nella release successiva, GPT-4. Anzi, in alcune occasioni, le risposte potenzialmente dannose fornite da GPT-4 erano ancora più avanzate.

Quanto alle attività illecite indicate come critiche dal Rapporto Europol spiccano le frodi, l’ingegneria sociale, la disinformazione e il cybercrime. Il fatto che ChatGPT sia in grado di produrre testi che appaiono autentici e di replicare modelli linguistici capaci di impersonare lo stile del discorso di individui o gruppi specifici, si presta ad attività di phishing e frodi online. Peraltro, la precisione nel linguaggio rende più difficile individuare i messaggi ingannevoli laddove, in precedenza, clamorosi errori grammaticali e ortografici sortivano una sorta di campanello di allarme. Allo stesso modo, la capacità di contestualizzare le risposte e adottare un preciso stile di scrittura può essere utilizzata in attività di ingegneria sociale per ottenere la fiducia delle potenziali vittime. Il tutto, in tempi molto rapidi così da incoraggiare campagne su larga scala e più sofisticate. Ecco perchè questa caratteristica di generare velocemente e in grande quantità testi realistici è altresì l’ideale per diffondere online, senza troppa fatica, notizie, opinioni e messaggi dalla narrativa specifica a fini di propaganda, disinformazione, incitamento all’odio e persino contenuti terroristici.

Naturalmente, ChatGPT può generare codice in diversi linguaggi di programmazione, una vera manna anche per criminali con scarse competenze tecniche. In questo caso, il modello LLM si blocca solo se riconosce cosa sta facendo, perciò se i comandi sono suddivisi in singoli passaggi, è facile superare le misure di sicurezza incluse in ChatGPT (come del resto già avvenuto) per la creazione di malware.

Prospettive future

I casi riportati nello studio Europol, oltre a fungere da esempio circa l’uso criminale dei sistemi di intelligenza artificiale, invitano a riflettere su possibili sviluppi futuri. I nuovi modelli LLM saranno ancora più evoluti, avranno accesso a più dati, saranno capaci di comprendere e risolvere problemi più complessi e, potenzialmente, di integrarsi con una vasta gamma di altre applicazioni. È probabile aspettarsi quindi sistemi di intelligenza artificiale multimodali, che combinano chatbot conversazionali con sistemi in grado di produrre media sintetici, come deepfake altamente convincenti, o includere abilità sensoriali, come vedere e sentire. Si può prevedere poi l’emergere di “dark LLM” che possono essere ospitati nel dark web per fornire chatbot senza alcuna protezione, nonché LLM addestrati su dati particolari. A proposito di dati, infine, ci si interroga sulle modalità con cui i servizi LLM potrebbero elaborare i dati sensibili degli utenti e alla loro tutela.

Considerata la velocità con cui progredisce la tecnologia, il panorama che restituisce il Rapporto Europol è piuttosto preoccupante e indica come fondamentale l’attenzione e la ricerca da parte degli esperti in materia e delle forze dell’ordine, con l’auspicio che si possano anticipare e prevenire gli abusi di questi sistemi.

Contenuto riservato agli abbonati.
Vuoi consultarlo integralmente? Abbonati o contatta il tuo agente di fiducia.
Se invece sei già abbonato, effettua il login.
Quotidianopiù è anche su WhatsApp! Clicca qui per iscriverti gratis e seguire tutta l'informazione real time, i video e i podcast sul tuo smartphone.

© Copyright - Tutti i diritti riservati - Giuffrè Francis Lefebvre S.p.A.

Registrati gratis

Per consultare integralmente tutte le news, i podcast e i video in materia di fisco, lavoro, contabilità, impresa, finanziamenti e mondo digitale, la rassegna stampa del giorno e ricevere quotidianamente la tua newsletter

Iscriviti alla Newsletter

Rimani aggiornato sulle ultime notizie di fisco, lavoro, contabilità, impresa, finanziamenti, professioni e innovazione

Funzionalità riservata agli abbonati

Per fruire di tutte le funzionalità e consultare integralmente tutti i contenuti abbonati o contatta il tuo agente di fiducia.

Trovi interessante questo video?

Per continuare a vederlo e consultare altri contenuti esclusivi abbonati a QuotidianoPiù,
la soluzione digitale dove trovare ogni giorno notizie, video e podcast su fisco, lavoro, contabilità, impresa, finanziamenti e mondo digitale.
Abbonati o contatta il tuo agente di fiducia.
Se invece sei già abbonato, effettua il login.

Ricerca Vocale

Clicca sul microfono per cominciare a registrare il messaggio.

“ ”