L’Unione Europea si prepara alla disinformazione estera mentre gli elettori si recano alle urne

Bruxelles, Belgio –

Gli elettori dell’Unione Europea sono pronti a eleggere i legislatori a partire da giovedì per il parlamento del blocco, in un importante esercizio democratico che probabilmente sarà anche oscurato dalla disinformazione online.

Gli esperti hanno avvertito che l’intelligenza artificiale potrebbe potenziare la diffusione di notizie false che potrebbero disturbare le elezioni nell’UE e in molti altri paesi quest’anno. Ma la posta in gioco è particolarmente alta in Europa, che si confronta con gli sforzi di propaganda russa mentre la guerra di Mosca con l’Ucraina si trascina.

Ecco uno sguardo più attento:

Cosa sta succedendo?

Circa 360 milioni di persone in 27 nazioni – dal Portogallo alla Finlandia, dall’Irlanda a Cipro – sceglieranno 720 deputati del Parlamento europeo in un’elezione che si svolgerà dal giovedì alla domenica. Nei mesi precedenti il ​​voto, gli esperti hanno osservato un’impennata nella quantità e nella qualità delle fake news e della disinformazione anti-UE diffuse nei paesi membri.

Una grande paura è che ingannare gli elettori sarà più facile che mai, grazie ai nuovi strumenti di intelligenza artificiale che facilitano la creazione di contenuti fuorvianti o falsi. Alcune delle attività dannose sono nazionali, altre internazionali. La maggior parte della colpa è della Russia, e talvolta della Cina, anche se è difficile individuare prove concrete che attribuiscano direttamente tali attacchi.

“Le campagne sponsorizzate dallo Stato russo per inondare lo spazio informativo dell’UE con contenuti ingannevoli rappresentano una minaccia al modo in cui siamo stati abituati a condurre i nostri dibattiti democratici, soprattutto in tempi elettorali”, ha avvertito lunedì Josep Borrell, capo della politica estera dell’UE.

Ha detto che gli sforzi di “manipolazione delle informazioni” della Russia stanno traendo vantaggio dal crescente utilizzo della penetrazione dei social media “e da operazioni a basso costo assistite dall’intelligenza artificiale”. I robot vengono utilizzati per promuovere campagne diffamatorie contro i leader politici europei che sono critici nei confronti del presidente russo Vladimir Putin, ha detto. .

È già avvenuta qualche disinformazione?

Ci sono stati molti esempi di disinformazione legata alle elezioni.

Due giorni prima delle elezioni nazionali spagnole dello scorso luglio, è stato registrato un sito web falso che rispecchiava quello gestito dalle autorità della capitale Madrid. Ha pubblicato un articolo che mette in guardia falsamente su un possibile attacco ai seggi elettorali da parte del disciolto gruppo militante separatista basco ETA.

In Polonia, due giorni prima delle elezioni parlamentari di ottobre, la polizia è intervenuta in un seggio elettorale in risposta ad una falsa minaccia di bomba. Gli account dei social media collegati a quella che le autorità chiamano “infosfera” dell’interferenza russa hanno affermato che un ordigno era esploso.

Pochi giorni prima delle elezioni parlamentari slovacche di novembre, registrazioni audio generate dall’intelligenza artificiale impersonificavano un candidato che discuteva di piani per truccare le elezioni, lasciando i fact-checker a faticare per sfatarle come false mentre si diffondevano sui social media.

Proprio la settimana scorsa, l’agenzia di stampa nazionale polacca ha pubblicato un falso rapporto secondo cui il primo ministro Donald Tusk avrebbe mobilitato 200.000 uomini a partire dal 1° luglio, in un’apparente operazione di hacking di cui le autorità hanno attribuito la colpa alla Russia. L’agenzia di stampa polacca ha “ucciso” o rimosso il rapporto pochi minuti dopo e ha rilasciato una dichiarazione in cui affermava che non ne era la fonte.

È “davvero preoccupante e un po’ diverso rispetto ad altri tentativi di creare disinformazione da fonti alternative”, ha affermato Alexandre Alaphilippe, direttore esecutivo di EU DisinfoLab, un gruppo no-profit che ricerca la disinformazione. “Solleva in particolare la questione della sicurezza informatica della produzione di notizie, che dovrebbero essere considerate infrastrutture critiche”.

Qual è lo scopo della disinformazione?

Esperti e autorità affermano che la disinformazione russa mira a sconvolgere la democrazia, dissuadendo gli elettori di tutta l’UE dal recarsi alle urne.

“La nostra democrazia non può essere data per scontata e il Cremlino continuerà a usare la disinformazione, le interferenze maligne, la corruzione e ogni altro sporco trucco del programma autoritario per dividere l’Europa”, ha avvertito il parlamento in aprile la vicepresidente della Commissione europea Vera Jourova.

Tusk, nel frattempo, ha denunciato la “strategia di destabilizzazione della Russia alla vigilia delle elezioni europee”.

A un livello più ampio, l’obiettivo delle “campagne di disinformazione spesso non è quello di interrompere le elezioni”, ha affermato Sophie Murphy Byrne, responsabile senior degli affari governativi presso Logically, una società di intelligence basata sull’intelligenza artificiale. erodere la fiducia della società”, ha detto in un briefing online la scorsa settimana.

Le narrazioni sono anche inventate per alimentare il malcontento pubblico nei confronti delle élite politiche europee, tentare di dividere le comunità su questioni come i valori della famiglia, il genere o la sessualità, seminare dubbi sul cambiamento climatico e minare il sostegno occidentale all’Ucraina, dicono esperti e analisti dell’UE.

Cosa è cambiato?

Cinque anni fa, quando si tennero le ultime elezioni dell’Unione Europea, la maggior parte della disinformazione online veniva faticosamente sfornata da “fattorie di troll” che impiegavano persone che lavoravano a turni scrivendo post manipolativi in ​​un inglese a volte goffo o riproponendo vecchi filmati. I falsi erano più facili da individuare.

Ora, gli esperti hanno lanciato l’allarme sull’ascesa dell’intelligenza artificiale generativa che, secondo loro, minaccia di potenziare la diffusione della disinformazione elettorale in tutto il mondo. Gli autori malintenzionati possono utilizzare la stessa tecnologia alla base di piattaforme facili da usare, come ChatGPT di OpenAI, per creare immagini, video e audio deepfake dall’aspetto autentico. Chiunque abbia uno smartphone e una mente subdola può potenzialmente creare contenuti falsi, ma convincenti, volti a ingannare gli elettori.

“Ciò che sta cambiando ora è la portata che puoi raggiungere come attore di propaganda”, ha affermato Salvatore Romano, capo della ricerca presso AI Forensics, un gruppo di ricerca senza scopo di lucro. I sistemi di intelligenza artificiale generativa possono ora essere utilizzati per produrre automaticamente immagini e video realistici e inviarli agli utenti dei social media, ha affermato.

AI Forensics ha recentemente scoperto una rete di pagine filo-russe che, a suo dire, avrebbero approfittato del fallimento di Meta nel moderare la pubblicità politica nell’Unione Europea.

I contenuti fabbricati sono ora “indistinguibili” da quelli reali e gli esperti di disinformazione impiegano molto più tempo per sfatarli, ha affermato Romano.

Cosa stanno facendo le autorità al riguardo?

L’UE sta utilizzando una nuova legge, la legge sui servizi digitali, per reagire. La legge radicale impone alle piattaforme di limitare il rischio di diffusione di disinformazione e può essere utilizzata per ritenerle responsabili sotto la minaccia di pesanti multe.

L’Unione sta utilizzando la legge per chiedere informazioni a Microsoft sui rischi posti dal suo chatbot AI Bing Copilot, comprese le preoccupazioni sulla “manipolazione automatizzata di servizi che possono fuorviare gli elettori”.

FILE – Le persone si riflettono in una finestra di un hotel sulla Davos Promenade a Davos, in Svizzera, il 15 gennaio 2024. Gli esperti hanno avvertito che l’intelligenza artificiale potrebbe potenziare la diffusione di notizie false per interrompere le elezioni nell’UE e molte altre paesi quest’anno.

La DSA è stata utilizzata anche per indagare sulle Meta Platform proprietarie di Facebook e Instagram per non aver fatto abbastanza per proteggere gli utenti dalle campagne di disinformazione.

L’UE ha approvato una legge di ampio respiro sull’intelligenza artificiale, che include l’obbligo di etichettare i deepfake, ma non arriverà in tempo per il voto ed entrerà in vigore nei prossimi due anni.

Come stanno rispondendo le società di social media?

La maggior parte delle aziende tecnologiche ha pubblicizzato le misure che stanno adottando per proteggere “l’integrità elettorale” dell’Unione Europea.

Meta Platforms, proprietaria di Facebook, Instagram e WhatsApp, ha affermato che istituirà un centro operativo elettorale per identificare potenziali minacce online. Dispone inoltre di migliaia di revisori di contenuti che lavorano nelle 24 lingue ufficiali dell’UE e sta inasprendo le politiche sui contenuti generati dall’intelligenza artificiale, inclusa l’etichettatura e il “declassamento” dei contenuti generati dall’intelligenza artificiale che violano i suoi standard.

Nick Clegg, presidente degli affari globali di Meta, ha affermato che non vi è alcun segno che gli strumenti di intelligenza artificiale generativa vengano utilizzati su base sistemica per interrompere le elezioni.

TikTok ha affermato che creerà hub di verifica dei fatti nell’app della piattaforma di condivisione video. Il proprietario di YouTube, Google, ha affermato che sta lavorando con gruppi di verifica dei fatti e utilizzerà l’intelligenza artificiale per “combattere gli abusi su larga scala”.

Elon Musk è andato nella direzione opposta con la sua piattaforma di social media X, precedentemente nota come Twitter. “Oh, intendi il team ‘Election Integrity’ che stava minando l’integrità elettorale? Sì, se ne sono andati”, ha detto in un post a settembre.

Ultime Notizie

Back to top button