1. Provincia di Campobasso

  2. Contenuto della pagina
  3. Menu principale di navigazione
Contenuto della pagina

L’Ue avrà la prima legge al mondo sull’intelligenza artificiale: ecco cosa prevede il testo approvato a Strasburgo.

L’Ue avrà la prima legge al mondo sull’intelligenza
artificiale: ecco cosa prevede il testo approvato a Strasburgo.




Con 523 voti favorevoli, 46 contrari e 49 astenuti, oggi il Parlamento
europeo ha dato il via libera all’Artificial Intelligence Act, il nuovo
regolamento europeo sull’IA. È un voto storico: i 27 Peasi dell’Unione europea
saranno i primi al mondo ad avere una legge generale
sull’intelligenza artificiale, battendo sul tempo le altre grandi potenze
globali. Tutto è iniziato ad aprile 2021 con la proposta della Commissione, seguita poi
dalle posizioni di Consiglio (dicembre 2022) e Parlamento (giugno 2023). Lo scorso 9
dicembre è stato raggiunto l’accordo politico sul testo e subito dopo
sono partiti i lavori di rifinitura in vista delle votazioni finali. Quella del
Parlamento è arrivata oggi, anche se l’adozione formale avverrà in seduta
plenaria ad aprile. La votazione è stata anticipata di un mese, seguendo una
procedura accelerata, vista l’imminente tornata elettorale. L’obiettivo è stato
comunque raggiunto in tempi rapidi, con un testo ora composto da 113 articoli e
12 allegati. L’AI Act regola lo sviluppo, la fornitura e l’uso di sistemi di IA
in tutta Europa. La definizione di «sistema di IA» è quella proposta dall’OCSE: restano quindi esclusi i software
tradizionali più semplici e gli approcci di programmazione. Ci saranno anche
delle linee guida della Commissione sul punto. Le nuove norme riguardano tutte
le aziende e gli enti pubblici che forniscono o utilizzano sistemi di IA in
Europa. Ciò vale anche per chi non ha sede in uno paese europeo, a condizione
che l’output del sistema sia usato in Ue. La legge obbliga poi anche altri
soggetti, come importatori e distributori. Il regolamento non si applica invece
ai sistemi di IA per scopi militari, di difesa o sicurezza nazionale, per
finalità di ricerca scientifica e a quelli rilasciati con licenze free e open
source (salvo rischio). Escluse anche le attività di ricerca, prova e sviluppo
dell’IA e l’uso personale non professionale da parte di singoli individui. La
legge classifica i sistemi di IA in base al rischio che potrebbe derivare dal
loro utilizzo, graduando di conseguenza requisiti e obblighi. In altre parole,
maggiore è il rischio, maggiori sono le misure di protezione imposte dall’AI
Act. Sono usi a rischio inaccettabile, e per questo proibiti, i sistemi di
polizia predittiva e di social scoring, il riconoscimento delle emozioni nelle
scuole e a lavoro e lo scraping di immagini facciali da internet per creare
banche dati. Vietato anche l’uso di sistemi di identificazione biometrica in
tempo reale in spazi accessibili al pubblico, con alcune eccezioni in casi
predeterminati e con autorizzazione. Molte sono le regole e procedure
obbligatorie per l’IA che può avere un impatto negativo su salute, sicurezza o
diritti fondamentali. Sono sistemi ad alto rischio, ad esempio, l’IA per
gestire il traffico stradale, per controllare gli studenti agli esami o per
analizzare i curricula e valutare i candidati. Prima di essere messi sul
mercato, questi sistemi devono essere sottoposti a una valutazione della
conformità per dimostrare il rispetto dei requisiti della legge, come la
gestione dei rischi, la qualità dei dati, la documentazione tecnica e la
registrazione dei log. Ci sono inoltre misure di trasparenza, cybersicurezza e
sorveglianza umana. In alcuni casi si deve svolgere anche una valutazione
d’impatto sui diritti fondamentali. Questi sistemi devono inoltre avere la
marcatura CE ed essere registrati in un database europeo. L’AI Act introduce
una serie di misure per favorire la conoscibilità e la trasparenza degli
algoritmi. Nel caso di chatbot e sistemi che interagiscono con le persone,
queste ultime devono sapere di relazionarsi con una macchina. Le immagini, i
testi e gli altri output di un’IA generativa devono essere contrassegnati in un
formato leggibile dalla macchina e rilevabili come artificiali, così come
occorre indicare che i deep fake sono stati creati da un’IA . Ci sono poi
obblighi specifici per i modelli di IA per finalità generali, vale a dire
algoritmi addestrati con grandi quantità di dati e in grado di svolgere
un’ampia gamma di compiti. Tra questi, la redazione di documentazione tecnica,
l’attuazione di politiche per rispettare il diritto d’autore e la pubblicazione
di report sui contenuti usati per addestrare l’algoritmo. Ai modelli a rischio
sistemico si applicano alcuni requisiti ulteriori, per garantirne un controllo
costante. L’AI Act strizza l’occhio anche al progresso, con una serie di norme
che facilitano la sperimentazione e l’adeguamento. Tra queste ci sono le regulatory sandbox, le prove in condizioni
reali e i codici di condotta, oltre a una serie di agevolazioni per PMI e
startup. Sul versante della governance, ogni paese avrà un’autorità di controllo
nazionale, a cui potranno rivolgersi cittadini e imprese. A livello Ue saranno
diversi i soggetti coinvolti, tra cui Commissione, Comitato europeo per
l’intelligenza artificiale e Ufficio per l’IA (istituito a fine gennaio). Ci saranno poi
un forum consultivo e un gruppo di esperti scientifici indipendenti. Sanzioni
salate per chi violerà il regolamento: fino a 35 milioni di euro o, per le
imprese, fino al 7% del fatturato mondiale totale annuo dell’esercizio
precedente, se superiore. Dopo l’approvazione formale di Parlamento e Consiglio
e la pubblicazione in Gazzetta Ufficiale, l’AI Act entrerà ufficialmente in
vigore (si prevede a fine maggio), ma l’applicazione sarà graduale. Alcune
norme saranno operative dopo 6 mesi (pratiche di IA vietate) e un anno (IA
per finalità generali), altre dopo 36 mesi (alcuni sistemi di IA ad alto
rischio): la maggior parte della legge diventerà invece applicabile dopo 24 mesi.
Con la definizione di regole chiare sulla trasparenza delle fonti utilizzate
per l’addestramento degli algoritmi e con l’obbligo di registri d’accesso per i
titolari dei diritti, il regolamento europeo sull’AI si conferma un modello nel
campo della tutela del diritto d’autore garantendo allo stesso tempo
all’industria musicale e agli artisti di sfruttare questa innovazione
tecnologica per nuove sfide creative. Enzo Mazza, CEO di FIMI, presente oggi a
Strasburgo in occasione del voto, ha commentato: “Un passaggio storico che
mostra ancora una volta, dopo la Direttiva Copyright, come l’Europa sia
all’avanguardia nel regolamentare l’innovazione evitando il far
west"
.


  Fonte :https://www.repubblica.it/

 
Valuta questo sito: RISPONDI AL QUESTIONARIO