Il Regno Unito funge da “cavia” per la sicurezza elettorale prima delle votazioni storiche

Londra—

Le elezioni generali del Regno Unito sono seguite da vicino dopo i severi avvertimenti che i rapidi progressi nella tecnologia informatica, in particolare nell’intelligenza artificiale, e il crescente attrito tra le principali nazioni minacciano l’integrità dei voti fondamentali del 2024.

“Questi progressi tecnologici canaglia e non regolamentati rappresentano un’enorme minaccia per tutti noi. Possono essere utilizzati come armi per discriminare, disinformare e dividere”, ha dichiarato ad aprile Agnes Callamard, capo di Amnesty International.

Le elezioni del Regno Unito del 4 luglio – quattro mesi prima di quelle degli Stati Uniti – saranno viste come la “cavia” per la sicurezza elettorale, ha affermato Bruce Snell, stratega della sicurezza informatica presso la società statunitense Qwiet AI, che utilizza l’intelligenza artificiale per prevenire la cyber-sicurezza. attacchi.

Sebbene l’intelligenza artificiale abbia conquistato la maggior parte dei titoli dei giornali, gli attacchi informatici più tradizionali rimangono una grave minaccia.

“È disinformazione, è interruzione di partiti, è fuga di dati e attacco di individui specifici”, ha affermato Ram Elboim, capo della società di sicurezza informatica Sygnia ed ex agente senior dell’unità israeliana di cyber e intelligence 8200.

Si prevede che gli attori statali rappresenteranno la minaccia principale, con il Regno Unito che già lancia avvertimenti su Cina e Russia.

“La cosa principale forse è promuovere candidati o programmi specifici”, ha detto Elboim.

“La seconda è creare una sorta di instabilità interna o caos, qualcosa che avrà un impatto sull’opinione pubblica.”

Il Regno Unito è avvantaggiato rispetto agli Stati Uniti a causa del breve periodo di tempo tra l’annuncio e lo svolgimento delle elezioni, che dà agli aggressori poco tempo per sviluppare ed eseguire i piani, ha affermato Elboim.

È anche meno vulnerabile agli attacchi alle infrastrutture elettorali poiché il voto non è automatizzato, ha aggiunto.

Deepfake

Ma l’hacking delle istituzioni rimane una minaccia, e il Regno Unito ha già accusato la Cina di essere dietro l’attacco alla Commissione elettorale.

“Non è necessario interrompere il sistema di voto principale”, ha spiegato Elboim. “Ad esempio, se interrompi una festa, i suoi computer o una terza parte che influisce su quella festa, è qualcosa che potrebbe avere un impatto.”

Gli individui sono maggiormente a rischio di essere presi di mira, ha aggiunto. Qualsiasi informazione imbarazzante potrebbe essere utilizzata per ricattare i candidati.

Ma è più probabile che l’aggressore trapelerà semplicemente informazioni per influenzare l’opinione pubblica o utilizzerà l’account violato per impersonare la vittima e diffondere disinformazione.

L’ex leader del partito conservatore Iain Duncan Smith, un feroce critico di Pechino, ha già affermato che attori statali cinesi lo hanno impersonato online, inviando e-mail false ai politici di tutto il mondo.

Tuttavia, è la maggiore possibilità di utilizzo dell’intelligenza artificiale per creare e diffondere disinformazione la vera incognita nelle elezioni di quest’anno, ha affermato Snell.

La diffusione dei “deepfakes” – video, immagini o audio falsi – è di primaria preoccupazione.

“I livelli di potenziale falsità sono semplicemente enormi. È qualcosa che sicuramente non abbiamo avuto nelle ultime elezioni”, ha detto Snell, definendo il Regno Unito una “cavia” per i voti del 2024.

Ha evidenziato il software in grado di ricreare la voce di qualcuno da un campione di 30 secondi e come se ne potrebbe abusare.

Il portavoce sanitario del partito laburista Wes Streeting ha detto di essere stato vittima di un audio deepfake, in cui sembrava insultare un collega.

Fattorie bot

Snell ha consigliato alle autorità di concentrarsi su una soluzione “scorciatoia” per “portare consapevolezza là fuori, facendo capire alla gente che questo è il problema”.

Altri software possono essere utilizzati per creare immagini e video falsi, nonostante i filtri presenti su molte applicazioni di intelligenza artificiale progettati per impedire la rappresentazione di persone reali.

“L’intelligenza artificiale, sebbene molto sofisticata, è anche estremamente facile da ingannare” nel creare immagini di persone reali, ha affermato Snell.

L’intelligenza artificiale viene utilizzata anche per creare “bot”, che inondano automaticamente i social media di commenti per influenzare l’opinione pubblica.

“I bot erano davvero facili da individuare. Vedresti cose come lo stesso messaggio ripetuto e ripetuto a pappagallo da più account”, ha detto Snell.

“Ma con la sofisticazione dell’intelligenza artificiale oggi… è molto facile generare una bot farm che può avere 1.000 bot e ognuno di essi ha uno stile di comunicazione diverso”, ha aggiunto.

Sebbene esista già un software per verificare se video e immagini sono stati generati utilizzando l’intelligenza artificiale ad un “alto livello di competenza”, non sono ancora utilizzati abbastanza ampiamente per arginare il problema.

Snell ritiene che l’industria dell’intelligenza artificiale e le società di social media dovrebbero quindi assumersi la responsabilità di frenare la disinformazione “perché siamo in un mondo nuovo e coraggioso in cui i legislatori non hanno idea di cosa sta succedendo”.

Ultime Notizie

Back to top button