Francia, Germania e Italia spingono per un'”autoregolamentazione obbligatoria” per i modelli di base nella legislazione UE sull’IA

Secondo un documento informale visionato da Euractiv, i tre maggiori paesi dell’UE stanno spingendo per codici di condotta senza un regime sanzionatorio iniziale per i modelli di fondazione piuttosto che obblighi prescrittivi nel regolamento sull’intelligenza artificiale.

L’AI Act è una legislazione UE di punta per regolamentare l’intelligenza artificiale in base alla sua capacità di causare danni. Il dossier si trova attualmente nell’ultima fase del processo legislativo, in cui la Commissione europea, il Consiglio e il Parlamento si riuniscono in “triloghi” per elaborare le disposizioni finali della legge.

I negoziati sulla prima legge globale sull’intelligenza artificiale al mondo sono stati interrotti dall’ascesa di ChatGPT, un tipo versatile di sistema di intelligenza artificiale noto come General Purpose AI, basato sul potente modello di base di OpenAI GPT-4.

Il 10 novembre Euractiv ha riferito che l’intera legislazione era a rischio a causa della crescente opposizione della Francia, che ha ottenuto il sostegno di Germania e Italia nella sua spinta contro qualsiasi regolamentazione sui modelli di fondazione.

I pesi massimi dell’UE – Francia, Germania e Italia – hanno chiesto alla presidenza spagnola del Consiglio dell’UE, che negozia per conto degli Stati membri, di abbandonare l’approccio a più livelli su cui sembrava esserci un consenso nell’ultimo trilogo politico di metà aprile. Ottobre.

In risposta, i funzionari del Parlamento europeo hanno abbandonato una riunione per segnalare che lasciare i modelli di fondazione fuori dalla legge non era politicamente accettabile. Nelle ultime settimane la presidenza spagnola ha tentato di mediare una soluzione tra i parlamentari Ue e i governi europei più riluttanti.

Tuttavia, domenica (19 novembre) i tre paesi hanno diffuso un documento informale che lascia poco spazio a compromessi, considerando che le norme orizzontali sui modelli di fondazione andrebbero contro l’approccio tecnologicamente neutrale e basato sul rischio dell’AI Act, che dovrebbe preservare innovazione e sicurezza allo stesso tempo.

“I rischi intrinseci risiedono nell’applicazione dei sistemi di intelligenza artificiale piuttosto che nella tecnologia stessa. Le norme europee possono supportare questo approccio seguendo il nuovo quadro legislativo”, afferma il documento, aggiungendo che i firmatari sono “contrari a un approccio a due livelli per i modelli di fondazione”.

“Quando si tratta di modelli di fondazione, ci opponiamo all’istituzione di norme non testate e suggeriamo di istituirle per costruire nel frattempo un’autoregolamentazione obbligatoria attraverso codici di condotta”, afferma inoltre il documento informale, sottolineando che questi seguono i principi definiti in il G7 con il processo di Hiroshima.

Invece, i tre paesi sostengono che regolamentare i sistemi di IA per scopi generali che possono essere disponibili per applicazioni specifiche piuttosto che i modelli di base sarebbe più in linea con l’approccio basato sul rischio.

Per implementare questo approccio, Parigi, Berlino e Roma propongono che gli sviluppatori di modelli di fondazione debbano definire schede modello, documentazione tecnica che riassume le informazioni sui modelli addestrati per un vasto pubblico.

“Definire le carte modello e renderle disponibili per ciascun modello di fondazione costituisce l’elemento obbligatorio di questa autoregolamentazione”, osserva il documento informale, sottolineando che tali carte dovranno includere le informazioni pertinenti sulle capacità e sui limiti del modello ed essere basate su le migliori pratiche all’interno della comunità degli sviluppatori.

Gli esempi forniti includono il numero di parametri, gli usi previsti, le potenziali limitazioni, i risultati degli studi sui bias e il red-teaming per la valutazione della sicurezza.

Il documento informale proponeva che un organo di governance dell’IA potesse aiutare a sviluppare linee guida e verificare l’applicazione dei modelli di carte, fornendo un modo semplice per segnalare qualsiasi violazione del codice di condotta.

“Ogni sospetta violazione, nell’interesse della trasparenza, dovrebbe essere resa pubblica dall’autorità”, prosegue il documento.

I tre paesi inoltre non vogliono che vengano applicate sanzioni fin dall’inizio. Secondo loro, un regime sanzionatorio verrebbe istituito solo a seguito di violazioni sistematiche dei codici di condotta e di un’analisi “adeguata” e di una valutazione d’impatto delle carenze individuate.

Per i tre, gli standard europei potrebbero anche essere uno strumento importante per creare la capacità di adattamento necessaria per tenere conto degli sviluppi futuri.

L’approccio ai modelli di fondazione sarà al centro della discussione del Telecom Working Party, organo tecnico del Consiglio, martedì (21 novembre). Lo stesso giorno gli eurodeputati terranno una riunione interna sull’argomento, seguita da una cena con la presidenza del Consiglio e la Commissione.

“Questa è una dichiarazione di guerra”, ha detto a Euractiv un funzionario del parlamento in condizione di anonimato.

[A cura di Zoran Radosavljevic]

Leggi di più con EURACTIV

I deputati chiedono alla Commissione di agire dopo le rivelazioni sulla svendita di dati sensibili dell'UE

Ultime Notizie

Back to top button