1. Provincia di Campobasso

  2. Contenuto della pagina
  3. Menu principale di navigazione
Contenuto della pagina

Le reazioni alla prima legge sull'intelligenza artificiale.

Le reazioni alla prima legge sull'intelligenza
artificiale.




 

Secondo alcuni esperti di tecnologia la legislazione "non guarda
abbastanza lontano". Per altri potrebbe danneggiare le aziende con
"vincoli aggiuntivi". L'Europa si
affretta a emanare regole e avvertimenti alle aziende tecnologiche dopo il
lancio di ChatGPT e questa settimana è
fondamentale per la definizione delle regole dell'Unione sull'intelligenza
artificiale (Ia). Mercoledì il
Parlamento europeo ha approvato la legge sull'intelligenza
artificiale, che adotta un approccio basato sul rischio per garantire che le
aziende rilascino prodotti conformi alla legge prima di renderli disponibili al
pubblico. Un giorno dopo, la Commissione europea ha chiesto a Bing, Facebook, Google Search,
Instagram, Snapchat, TikTok, YouTube e X, nell'ambito di una normativa
separata, di specificare in che modo stanno riducendo i rischi dell'Ia
generativa. Se l'Unione si
preoccupa soprattutto per le allucinazioni dell'Ia (ossia quando i modelli
commettono errori e inventano cose), la diffusione virale di deepfake e la
manipolazione automatizzata dell'Ia (che potrebbe fuorviare gli elettori
durante le elezioni), la comunità tecnologica è scettica riguardo alla legge. Sebbene a Bruxelles spetti il
"vero merito" per aver legiferato per prima a livello globale,
approvando una legge che attenua i numerosi rischi dell'intelligenza
artificiale, ci sono diversi problemi, ha affermato Max von Thun, direttore per l'Europa
dell'Open Markets Institute. Ci
sono "significative scappatoie per le autorità pubbliche" e "una
regolamentazione relativamente debole dei modelli di base che pongono i danni
maggiori", ha dichiarato a Euronews Next. I modelli di fondazione
sono modelli di apprendimento automatico che
vengono addestrati sui dati e possono essere utilizzati per eseguire una serie
di compiti, come ad esempio scrivere una poesia. ChatGPT è un modello di base. Tuttavia, la preoccupazione maggiore
di von Thun è rappresentata dai monopoli tecnologici. "La legge non è in grado di affrontare la minaccia numero
uno che l'Ia rappresenta attualmente: il suo ruolo nell'aumentare e consolidare
l'estremo potere che poche aziende tecnologiche dominanti hanno già nelle
nostre vite personali, nelle nostre economie e nelle nostre democrazie",
ha dichiarato. Allo stesso modo,
ha affermato che la Commissione europea dovrebbe diffidare degli abusi
monopolistici nell'ecosistema dell'intelligenza artificiale. "L'Ue dovrebbe comprendere che
l'entità dei rischi posti dall'Ia è inestricabilmente legata al potere delle
aziende dominanti che sviluppano e diffondono queste tecnologie. Non si può
affrontare con successo il primo se non si affronta il secondo", ha dichiarato
von Thun. La minaccia dei
monopoli dell'Ia è stata sotto i riflettori il mese scorso, dopo che è emerso
che la start-up francese Mistral Ai stava collaborando con Microsoft. Per alcuni nell'Ue è stato uno choc,
poiché la Francia aveva spinto per ottenere concessioni alla legge per le
aziende open source come Mistral. Ma diverse start-up hanno accolto con favore
la chiarezza che il nuovo regolamento porta con sé. "L'adozione definitiva
da parte del Parlamento europeo della legge è un momento storico e un
sollievo", ha dichiarato Alex Combessie, cofondatore e amministratore
delegato della società francese di Ia open source Giskard. Sebbene la legge
imponga ulteriori vincoli e regole
agli sviluppatori di sistemi di Ia e modelli di fondazione ad alto
rischio, considerati "rischi sistemici", siamo fiduciosi che questi
controlli e bilanciamenti possano essere efficacemente implementati", ha
dichiarato a Euronews Next. "Questo
momento storico apre la strada a un futuro in cui l'Ia sarà sfruttata in modo
responsabile, promuovendo la fiducia e garantendo la sicurezza di tutti". La normativa opera una distinzione
dei rischi posti dai modelli di fondazione, che si basa sulla potenza di
calcolo che li addestra. I
prodotti di Ia che superano la soglia di potenza di calcolo sono regolamentati
in modo più rigoroso. La
classificazione è considerata un punto di partenza e, come altre definizioni,
può essere rivista dalla Commissione. Ma non tutti sono d'accordo con la
classificazione. "Dal mio
punto di vista, i sistemi di intelligenza artificiale utilizzati nello spazio
dell'informazione dovrebbero essere classificati come ad alto rischio,
richiedendo il rispetto di regole più severe, cosa che non è esplicitamente
prevista nella legge europea adottata", ha dichiarato Katharina Zügel,
responsabile delle politiche del Forum
sull'informazione e la democrazia.

"La Commissione, che ha la possibilità di
modificare i casi d'uso dei sistemi ad alto rischio, potrebbe menzionare
esplicitamente i sistemi di Ia impiegati nello spazio dell'informazione come ad
alto rischio, tenendo conto del loro impatto sui diritti fondamentali", ha
dichiarato a Euronews Next.
"Le aziende private non possono essere le uniche a guidare il nostro
futuro comune. L'Ia deve essere un bene pubblico", ha aggiunto. Ma altri
sostengono che anche le imprese devono poter dire la loro e collaborare con
l'Unione europea. "È fondamentale che l'Unione sfrutti il dinamismo del
settore privato, che sarà la forza trainante del futuro dell'Ia. È importante
che l'Europa diventi più competitiva e attraente per gli investitori", ha
dichiarato Julie Linn Teigland, Managing Partner di EY per l'Europa, il Medio
Oriente, l'India e l'Africa (Emeia). È fondamentale
che l'Unione sfrutti il dinamismo del settore privato, che sarà la forza
trainante del futuro dell'Ia. È importante che l'Europa diventi più competitiva
e attraente per gli investitori. Tuttavia,
ha affermato che le imprese dell'Unione e non solo devono essere proattive e
prepararsi all'entrata in vigore della legge, il che significa "prendere
provvedimenti per garantire di avere un inventario
aggiornato dei sistemi di Ia che stanno sviluppando o implementando
e determinare la loro posizione nella catena del valore dell'Ia per comprendere
le loro responsabilità legali". Per le start-up e le piccole e medie
imprese, questo potrebbe significare molto lavoro in più."Questa decisione
ha un sapore agrodolce", ha dichiarato Marianne Tordeux Bitker,
responsabile degli affari pubblici di France Digitale. "Se da un lato la
legge sull'intelligenza artificiale risponde a una sfida importante in termini
di trasparenza ed etica, dall'altro
crea obblighi sostanziali per tutte le aziende che utilizzano o sviluppano
l'intelligenza artificiale, nonostante alcuni aggiustamenti previsti per le
startup e le Pmi, in particolare attraverso sandbox normative"."Temiamo
che il testo crei semplicemente ulteriori barriere normative che favoriranno la
concorrenza americana e cinese, riducendo le opportunità di emergere per i
campioni europei dell'intelligenza artificiale", ha aggiunto. Ma anche se
la legge sull'Ia è ormai un fatto acquisito, la sua attuazione è la prossima
sfida."Ora l'attenzione si sposta sulla sua effettiva attuazione e
applicazione. Ciò richiede anche una rinnovata attenzione alla legislazione
complementare", ha dichiarato a Euronews Next Risto Uuk, responsabile
della ricerca sull'Ue presso l'istituto no-profit Future of Life. Tale
legislazione complementare comprende la direttiva sulla responsabilità per
l'intelligenza artificiale, destinata ad assistere le richieste di risarcimento per i danni
causati da prodotti e servizi abilitati all'intelligenza artificiale, e
l'Ufficio dell'Ue per l'intelligenza artificiale, che mira a semplificare
l'applicazione delle norme."Per garantire che la legge valga la carta su
cui è scritta, è fondamentale che l'Ufficio per l'Ia disponga delle risorse
necessarie per svolgere i compiti che gli sono stati assegnati e che i codici
di condotta per l'Ia di uso generale siano ben redatti con il coinvolgimento
della società civile", ha dichiarato.
 Fonte :https://it.euronews.com/

 
Valuta questo sito: RISPONDI AL QUESTIONARIO