12/05/2022 - Intelligenza artificiale: le proposte della presidenza francese per il regolamento Ue.

Tempo fino all'1 giugno per le proposte di modifica al testo della Commissione.
Articolo tratto da euractiv.it
 
La Francia, attuale presidente del Consiglio dell'Ue, ha diffuso un nuovo dossier sull’AI Act (Regolamento sull’Intelligenza Artificiale) tra i diplomatici del Consiglio prima della una riunione del gruppo di lavoro. Il nuovo testo apporta significative modifiche al Comitato europeo per l’intelligenza artificiale, alla sorveglianza del mercato, alle linee guida e ai codici di condotta. Gli Stati membri sono sembrati in generale soddisfatti della direzione data dalla presidenza francese al dossier, hanno dichiarato fonti comunitarie.
 
Comitato europeo per l’Intelligenza Artificiale
 
La struttura del Consiglio del Comitato è stata modificata per includere un rappresentante per ogni Stato membro, al posto dell’autorità di vigilanza nazionale. Questo rappresentante avrà un mandato di 3 anni, con la possibilità di un solo rinnovo. 8 esperti indipendenti sono stati aggiunti al Consiglio, 2 per ogni categoria (Pmi e start-up, grandi aziende, mondo accademico e società civile). Tali esperti verranno scelti dai rappresentanti nazionali “in un processo di selezione equo e trasparente”, si legge nel dossier.
 
Il garante europeo per la protezione dei dati da membro a pieno titolo è stato relegato al ruolo di semplice osservatore. Anche il ruolo della Commissione, in veste di partecipante senza diritto di voto, è stato significativamente ridimensionato. Nella proposta francese, il regolamento interno può essere adottato solo dai rappresentanti nazionali con la maggioranza dei 2/3. Queste regole procedurali dovrebbero definire il processo di selezione degli esperti indipendenti, oltre alla selezione, al mandato e ai compiti del presidente del Consiglio che dovrà essere un rappresentante nazionale.
 
Il Consiglio avrebbe la possibilità di istituire sottogruppi temporanei o permanenti su argomenti specifici, in cui i rappresentanti delle imprese, della società civile, delle persone interessate, dei ricercatori, delle organizzazioni di standardizzazione e degli organismi notificati potrebbero essere invitati come osservatori. Il Consiglio potrà fornire, su richiesta, pareri alla Commissione su qualsiasi questione relativa all’attuazione del regolamento, compreso l’aggiornamento degli allegati sulla definizione dell’Intelligenza Artificiale e l’elenco dei sistemi considerati ad alto rischio, la preparazione della legislazione secondaria e l’elaborazione degli orientamenti.
 
Linee guida
 
È stato introdotto un nuovo articolo che richiede alla Commissione europea di fornire linee guida di propria iniziativa o su richiesta del Consiglio su come applicare il regolamento sull’IA, in particolare in termini di conformità con i requisiti per i sistemi ad alto rischio, le pratiche vietate e come mettere in atto modifiche significative ai sistemi esistenti. La guida riguarda anche l’identificazione dei criteri e dei casi d’uso per i sistemi di IA ad alto rischio, le modalità per attuare gli obblighi di trasparenza, e per integrare il regolamento sull’IA con le altre normative Ue.
 
Sorveglianza del mercato
 
La modifica in questa parte del testo è “destinata a chiarire i poteri delle autorità di sorveglianza del mercato e la modalità in cui verranno esercitati, così come la misura in cui dovrebbero avere accesso ai dati e alle informazioni pertinenti, in particolare al codice sorgente”. Alle autorità di sorveglianza del mercato dovrebbe essere concesso l’accesso completo al codice sorgente di un sistema di IA ad alto rischio nel caso in cui vi sia una “richiesta motivata”, cioè quando il codice risulta indispensabile per valutare la conformità del sistema data l’insufficienza di dati e documenti forniti.
 
Il testo del dossier indica le autorità di sorveglianza del mercato come responsabili della supervisione dei sistemi ad alto rischio utilizzati dagli istituti finanziari. Le autorità nazionali dovranno informare senza indugio la Banca centrale europea su qualsiasi questione di rilievo per i suoi compiti di vigilanza.
Inoltre, è stata significativamente modificata la procedura per segnalare agli altri stati membri e alla Commissione le misure adottate contro i sistemi di IA risultati non conformi alla normativa. Questi casi ora riguardano i sistemi non conformi alla restrizione sulle pratiche proibite, i sistemi ad alto rischio e i loro requisiti e il mancato rispetto degli obblighi di trasparenza stabiliti per i deep-fake, oltre al riconoscimenti degli stati emotivi.
 
In generale, la Commissione e i paesi dell’Ue avranno tre mesi di tempo per opporsi a tali azioni. Nel caso di sospette violazioni del divieto di pratiche proibite, il termine è stato ridotto a 30 giorni. Nel caso in cui venga sollevata un’obiezione, la Commissione entra in consultazione con le autorità nazionali competenti. L’esecutivo Ue dovrà decidere entro nove mesi se la decisione dell’autorità nazionale è giustificata, mentre per le pratiche proibite il termine è di 60 giorni.