In Europa pareri divergenti sull'AI Act
Sembrava che tutti fossero d'accordo e invece no. Francia, Germania e Italia remano - paradossalmente - contro l'Europa. Sull'Intelligenza Artificiale l'Europa si sta dividendo e l'IA Act che sembrava definire un quadro generale condiviso viene invece svuotato da un accordo trilaterale che si pone al di fuori delle regole di condivisione comunitarie.
In un articolo di Barbara Calderini pubblicato sul sito agendadigitale.eu, si esaminano i due approcci alla regolamentazione dell'intelligenza artificiale (IA): quello proposto dall'Unione Europea (UE) attraverso l'AI Act e quello proposto da un accordo trilaterale tra Francia, Germania e Italia.
L'AI Act è un regolamento che si pone l'obiettivo di garantire un alto livello di sicurezza e di tutela dei diritti fondamentali attraverso un controllo ex ante. Per questo motivo, il regolamento classifica i modelli di IA in base al livello di rischio che presentano e impone agli sviluppatori di adottare misure di mitigazione specifiche per ogni livello di rischio.
L'accordo trilaterale, invece, propone un approccio basato sulla responsabilità "a valle" degli sviluppatori di IA, incentivando l'adozione di codici di condotta settoriali. Questo approccio permette una maggiore flessibilità e adattabilità alle esigenze specifiche delle varie applicazioni AI, ma si contrappone al modello più rigido e omogeneo proposto dall'AI Act.
Il confronto tra questi due approcci solleva alcune questioni giuridiche. In particolare, l'AI Act prevede un controllo ex ante, mentre l'accordo trilaterale sembra puntare su una regolamentazione ex post, facendo leva sulla capacità autoregolativa del settore. Questa discrepanza potrebbe generare problemi di coerenza e armonizzazione tra le normative degli Stati membri e quelle dell'UE, oltre a sollevare dubbi sull'efficacia della supervisione e dell'applicazione delle regole.
L'accordo trilaterale si fonda su due capisaldi: l'imposizione di codici di condotta agli stessi operatori e la diffusione di model cards.
I codici di condotta sono documenti sviluppati dagli stessi creatori dei modelli di IA che offrono una descrizione dettagliata del funzionamento, delle capacità e dei limiti dei loro sistemi. La creazione di una model card è un esercizio di riflessione critica che di fatto costringe gli sviluppatori ad analizzare e a documentare le prestazioni e i potenziali bias dei loro sistemi. Questo processo dovrebbe, in teoria, incoraggiare la progettazione di sistemi più giusti e sicuri dal lato degli stessi operatori economici.
Tuttavia, l'obbligo di pubblicare le model cards non è ancora chiaro, né è chiaro se gli sviluppatori siano obbligati a pubblicare anche i codici sorgente delle singole applicazioni di IA.
In buona sostanza i due approcci alla regolamentazione dell'IA rispecchiano due visioni: una dalla parte dei cittadini (che privilegia i diritti) e una dalla parte della aziende (che privilegia l'innovazione e l'autoregolamentazione). L'AI Act è un regolamento che si pone l'obiettivo di garantire un alto livello di sicurezza e di tutela dei diritti fondamentali attraverso un controllo ex ante, mentre l'accordo trilaterale propone un approccio basato sulla responsabilità "a valle" degli sviluppatori di IA, incentivando l'adozione di codici di condotta settoriali.
E' in discussione l'AI Act e ho letto che ci sono pareri divergenti in merito in Europa. Perché?
RISPOSTA DI BARD
I pareri divergenti sull'AI Act in Europa riguardano principalmente due aspetti: il livello di regolamentazione e il bilanciamento tra gli interessi di sicurezza e quelli di innovazione.
Livello di regolamentazione
La proposta di AI Act prevede un livello di regolamentazione molto elevato per alcune applicazioni dell'intelligenza artificiale, come quelle che possono avere un impatto significativo sui diritti fondamentali delle persone, sulla sicurezza o sull'ambiente. Queste applicazioni sono classificate come "a rischio elevato" e sono soggette a una serie di requisiti rigorosi, tra cui la trasparenza, la responsabilità e il divieto di utilizzo per determinate finalità, come la profilazione razziale o la sorveglianza di massa.
Alcuni soggetti, come le imprese tecnologiche, ritengono che questo livello di regolamentazione sia eccessivamente restrittivo e possa ostacolare l'innovazione. Altri, invece, come le organizzazioni non governative, ritengono che non sia abbastanza stringente e che non garantisca adeguatamente la protezione dei diritti fondamentali.
Bilanciamento tra sicurezza e innovazione
Un altro aspetto controverso dell'AI Act è il bilanciamento tra gli interessi di sicurezza e quelli di innovazione. La proposta prevede che le autorità governative possano utilizzare applicazioni di intelligenza artificiale a rischio elevato per scopi di sicurezza, ma solo se rispettano determinati requisiti.
Alcuni soggetti, come le organizzazioni per i diritti umani, ritengono che questo equilibrio sia sbilanciato a favore della sicurezza e che possa portare a un uso eccessivo dell'intelligenza artificiale per scopi di sorveglianza. Altri, invece, ritengono che sia necessario garantire alle autorità governative gli strumenti necessari per proteggere la sicurezza dei cittadini.
In conclusione, i pareri divergenti sull'AI Act in Europa riflettono la complessità e la portata delle questioni sollevate da questa tecnologia. La proposta di regolamento è un passo importante verso la regolamentazione dell'intelligenza artificiale in Europa, ma è probabile che il dibattito sui suoi contenuti continuerà anche dopo l'approvazione definitiva.
RISPOSTA DI COPILOT
L’AI Act è una proposta legislativa dell’Unione Europea che mira a regolamentare l’uso dell’intelligenza artificiale (IA). Questa proposta classifica i sistemi di IA in base al rischio e impone vari requisiti di sviluppo e utilizzo12.
Tuttavia, ci sono pareri divergenti in merito per vari motivi:
-
Innovazione e Sovranità Tecnologica: Alcune aziende europee sostengono che la legislazione potrebbe influire sulla competitività e sulla sovranità tecnologica dell’Europa2. Temono che le regole proposte possano ostacolare l’innovazione e l’adozione dell’IA.
-
Bilanciamento dei Rischi: L’AI Act adotta un approccio basato sul rischio: più alto è il rischio, più severe sono le regole1. Questo può portare a discussioni su come valutare correttamente il rischio e su quali sistemi di IA dovrebbero essere considerati ad alto rischio.
-
Questioni Etiche e di Implementazione: L’AI Act mira anche a risolvere questioni etiche e sfide di implementazione in vari settori2. Questo può portare a dibattiti su come garantire la qualità dei dati, la trasparenza, la supervisione umana e la responsabilità.
-
Modifiche alla Proposta Iniziale: Sono state apportate modifiche più rigorose alla proposta iniziale dell’AI Act, tra cui il divieto di utilizzare la tecnologia IA nella sorveglianza biometrica e l’obbligo per i sistemi di IA generativi di divulgare i contenuti generati dall’IA2. Queste modifiche hanno suscitato ulteriori discussioni.
In sintesi, mentre l’AI Act è un’iniziativa legislativa importante con il potenziale di promuovere lo sviluppo e l’adozione di un’IA sicura e affidabile in tutta l’UE, le sue implicazioni per l’innovazione, la sovranità tecnologica e le questioni etiche stanno alimentando un dibattito in corso12.
Sulle divergenze che emergono in Europa in merito alle norme da mettere in campo si veda questa approfondita analisi:
L'Italia vuole deregolamentare l'IA generativa, ecco come - Agenda Digitale
https://www.agendadigitale.eu/sicurezza/privacy/litalia-vuole-deregolamentare-lia-generativa-ecco-come/
Articoli correlati
- Organizzato da Pax Christi e PeaceLink
È iniziato il primo corso di Intelligenza Artificiale generativa per la pace
Ci si pone l'obiettivo di "alfabetizzare" i partecipanti all'utilizzo dell'Intelligenza Artificiale generativa per la creazione di testi e prodotti utili al giornalismo online e al mediattivismo.17 aprile 2024 - Redazione PeaceLink - Come funziona l'Intelligenza Artificiale generativa ChatGPT
"Per la seconda volta il ministro israeliano Amihai Ben-Eliyahu vorrebbe lanciare l'atomica su Gaza"
Abbiamo fatto un esperimento per generare un testo partendo da un "promp" in cui si specificano le consegne. L'argomento è la sconsiderata idea di un ultranazionalista israeliano. Ecco cosa ha generato ChatGPT. Invece Gemini, la piattaforma "intelligente" di Google si è rifiutata di eseguire.17 marzo 2024 - Alessandro Marescotti - Domande scomode a Gemini, l'Intelligenza Artificiale generativa di Google
Missili ucraini sulla Russia. "Ma non avevamo dato le armi per difendersi?"
Ponendo alcune domande sulla guerra in Ucraina emerge una sorta di reticenza di Google nel dare alcune risposte sulle responsabilità del governo di Kiev. Ecco la documentazione di un'interazione con Gemini sui recenti attacchi ucraini in territorio russo.15 marzo 2024 - Alessandro Marescotti - Piattaforme per generare immagini nuove e un impatto visivo potente
Cyberattivismo creativo: sfruttare l'Intelligenza Artificiale per una causa sociale
L'intelligenza artificiale sta rivoluzionando il modo in cui concepiamo e creiamo l'arte visiva. Ci sono piattaforme che offrono un terreno fertile per l'esplorazione creativa di un nuovo attivismo digitale. Sfruttando queste risorse è possibile creare nuove forme di comunicazione coinvolgente.13 febbraio 2024 - Alessandro Marescotti
Sociale.network