martedì 11/04/2023 • 06:00
Un recente studio di Europol Innovation Lab indica frodi, ingegneria sociale, disinformazione e cybercrime come le principali attività illecite derivanti dall’uso improprio dei sistemi di intelligenza artificiale.
Ascolta la news 5:03
La rapida diffusione di ChatGPT ha posto sotto i riflettori le enormi potenzialità dei sistemi di intelligenza artificiale basati su modelli linguistici di grandi dimensioni (LLM) e la vastità degli ambiti di applicazione di questa tecnologia. Non sorprende quindi che anche le forze dell’ordine stiano monitorando con attenzione le possibili implicazioni criminali. A tal proposito, Europol Innovation Lab ha organizzato negli ultimi mesi una serie di workshop per far luce sui potenziali abusi dei sistemi di intelligenza artificiale scegliendo come modello da esaminare proprio ChatGPT, considerato il più evoluto e il più utilizzato disponibile al momento sul mercato. Il risultato è stato il report “Tech Watch Flash: The impact of Large Language Models on Law Enforcement” che fornisce una panoramica sia sull’uso criminale di ChatGPT sia sul suo impiego quale risorsa per investigazioni digitali, operazioni di antiterrorismo o attività IT, come pure una prospettiva dei possibili scenari futuri. L’utilizzo criminale Innanzitutto, lo studio evidenzia come le diverse funzionalità di sicurezza incluse in ChatGPT per evitarne l’abuso siano in realtà facilmente superabili attraverso il prompt...
© Copyright - Tutti i diritti riservati - Giuffrè Francis Lefebvre S.p.A.
Rimani aggiornato sulle ultime notizie di fisco, lavoro, contabilità, impresa, finanziamenti, professioni e innovazione
Per continuare a vederlo e consultare altri contenuti esclusivi abbonati a QuotidianoPiù,
la soluzione digitale dove trovare ogni giorno notizie, video e podcast su fisco, lavoro, contabilità, impresa, finanziamenti e mondo digitale.
Abbonati o
contatta il tuo
agente di fiducia.
Se invece sei già abbonato, effettua il login.