AI Act: pericoli dell'uso malevolo dell'Intelligenza Artificiale

Con l'entrata in vigore dell'AI Act il 1° agosto, l'Unione Europea ha stabilito il primo quadro normativo orizzontale per regolare l'uso dell'intelligenza artificiale (IA), un passo fondamentale verso una maggiore sicurezza e responsabilità nell'uso di queste tecnologie emergenti.

Un esempio di uso malevolo dell'intelligenza artificiale: il caso dei deep fake

Un esempio concreto di come l'IA possa essere utilizzata in maniera dannosa si è verificato negli Stati Uniti. Questo caso evidenzia i pericoli legati ai cosiddetti deep fake, strumenti che utilizzano l'IA per creare contenuti audio e video falsi, simulando l'identità di una persona reale in modo estremamente realistico. In un episodio recente, alla vigilia delle primarie democratiche nel New Hampshire, migliaia di elettori hanno ricevuto telefonate automatiche che sembravano provenire dall'allora candidato democratico Joe Biden. In realtà, queste chiamate erano state orchestrate da un operatore politico tramite tecnologie IA, con l'obiettivo di scoraggiare gli elettori dal partecipare alle elezioni, un reato noto come voter suppression.

Questo caso dimostra come l'IA possa essere utilizzata non solo per diffondere informazioni false, ma anche per influenzare direttamente processi democratici cruciali come le elezioni. La capacità dei deep fake di ingannare e manipolare l'opinione pubblica rappresenta un rischio significativo, tanto che le autorità statunitensi hanno reagito con fermezza, imponendo multe e perseguendo penalmente i responsabili.

L'intervento delle autorità e l'innovazione nel controllo delle comunicazioni

La Federal Communication Commission (FCC), autorità federale indipendente che vigila sulle comunicazioni negli Stati Uniti, è intervenuta in questo caso imponendo una multa di sei milioni di dollari ai responsabili delle telefonate false. Inoltre, la compagnia telefonica coinvolta, la Lingo Telecom, ha accettato di pagare una sanzione di un milione di dollari per il suo ruolo nella diffusione di queste comunicazioni fraudolente.

Questi eventi hanno spinto lo sviluppo di nuovi strumenti per prevenire simili abusi in futuro. Uno di questi è il framework STIR/SHAKEN, un sistema che mira a migliorare la sicurezza e l'autenticità delle comunicazioni telefoniche attraverso l'uso di firme crittografiche digitali. Questo protocollo consente di verificare l'identità del chiamante, riducendo drasticamente il rischio di truffe telefoniche e proteggendo i consumatori dalle frodi.

Il ruolo del framework STIR/SHAKEN nella protezione dell'identità

Il framework STIR/SHAKEN si basa su un insieme di standard e protocolli tecnici progettati per autenticare l'identità del chiamante utilizzando chiavi crittografiche pubbliche e certificati digitali. Le chiamate effettuate attraverso reti telefoniche interconnesse vengono verificate tramite queste firme digitali, garantendo che l'identità del chiamante sia autentica. Questo sistema è particolarmente utile per prevenire le frodi legate ai robocall, chiamate automatiche spesso utilizzate da soggetti malevoli per ingannare le persone o manipolare elettori.

Il nome stesso del framework, STIR/SHAKEN, deriva dall'acronimo Secure Telephone Identity Revisited (STIR) e Signature-based Handling of Asserted Information Using toKENs (SHAKEN). Grazie a questo sistema, le compagnie telefoniche possono garantire che le chiamate provengano realmente dalle persone o dalle organizzazioni dichiarate, rafforzando la fiducia nelle comunicazioni vocali e riducendo i rischi legati a truffe e manipolazioni.

L'Artificial Intelligence Act e il settore elettorale

Uno degli aspetti più delicati regolati dall'Artificial Intelligence Act è proprio il settore elettorale. Le tecnologie di intelligenza artificiale, specialmente quelle avanzate come i deep fake e gli automated calls, possono essere sfruttate per influenzare illegalmente le elezioni, rappresentando così un rischio di alto livello per la democrazia. Questo è uno dei motivi principali per cui il legislatore europeo ha deciso di includere questi scenari tra quelli a rischio elevato, imponendo regole stringenti per prevenire tali abusi.

Conclusione

L'entrata in vigore dell'AI Act rappresenta un importante passo avanti nella regolamentazione dell'intelligenza artificiale. Mentre le potenzialità di queste tecnologie sono immense, è fondamentale che vengano utilizzate in modo etico e responsabile, per evitare che diventino strumenti di manipolazione e frode. Grazie all'adozione di nuovi strumenti come il framework STIR/SHAKEN e a una regolamentazione più rigida, possiamo sperare in un futuro in cui l'intelligenza artificiale sarà utilizzata per migliorare la nostra società, proteggendo al contempo i diritti dei cittadini e la trasparenza dei processi democratici.

Le ultime interviste

Perché le organizzazioni imparano poco dai loro errori

Anna Elena Brolis

La sanzione del Garante nei confronti del chatbot Replika

Lorenzo Baudino

Revisione del GDPR: obblighi di tenuta del registro per le PMI

Lorenzo Baudino