1. Provincia di Campobasso

  2. Contenuto della pagina
  3. Menu principale di navigazione
Contenuto della pagina

Un nuovo passo decisivo per l’Atto Ue sull’intelligenza artificiale. Via libera dagli eurodeputati Approvato con una schiacciante maggioranza dalle commissioni Imco e Libe del Parlamento Ue l'accordo di compromesso sulla prima legislazione al mondo che disciplina rischi e innovazione dell'Ia, prima del voto finale in sessione plenaria ad aprile. Il co-relatore Brando Benifei (Pd): "Ora rocedere con l'applicazione". Bruxelles – L’ultimo passo prima della sessione plenaria che, vista l’anteprima in commissioni congiunte, metterà senza dubbio il timbro finale alla prima legislazione al mondo sull’intelligenza artificiale. “Con una schiacciante maggioranza” – come l’ha descritta la presidente della commissione Imco per il Mercato interno e la protezione dei consumatori (Imco) del Parlamento Ue, Anna Cavazzini – gli eurodeputati hanno dato il via libera oggi (13 febbraio) al testo dell’accordo di compromesso raggiunto a inizio dicembre dello scorso anno con i negoziatori del Consiglio sul Regolamento Ue sull’intelligenza artificiale. Ora si attende l’approvazione definitiva in sessione plenaria e si potrà procedere con la messa a terra della nuova legislazione dell’Unione. Il corelatore per il Parlamento Europeo sull’Atto Ue sull’intelligenza artificiale, Brando Benifei (Partito Democratico). “Siamo i primi al mondo ad adottare una normativa così completa sull’intelligenza artificiale, che spiana la strada a un modello incentrato sull’essere umano, ora dobbiamo procedere con l’applicazione per proteggere i cittadini e costruire un Mercato unico digitale forte e resiliente“, ha messo in chiaro il co-relatore per il Parlamento Ue sull’Atto Ue sull’intelligenza artificiale, Brando Benifei (Pd), in occasione del voto in commissioni congiunte Imco e Libe (per le Libertà civili, la giustizia e gli affari interni). “Oggi è una giornata importante, l’abbiamo detto quando abbiamo approvato le nostre posizioni in commissione e, con negoziati lunghi e difficili, abbiamo lavorato per un risultato migliore possibile“, ha ricordato il capo-delegazione del Partito Democratico all’Eurocamera la maratona di 36 ore tra il 6 e l’8 dicembre 2023 per finalizzare l’intesa. Le “lunghissime ore” di trattative tra i negoziatori delle due istituzioni Ue sono state menzionate anche dal co-relatore Dragoș Tudorache (Renew Europe), che ha scherzato affermando che “non meritavamo di soffrire così tanto”. Dopo il via libera più difficile in Consiglio dell’Ue lo scorso 2 febbraio e con i 71 voti a favore, 8 contrari e 7 astenuti in commissione, si prospetta una strada in discesa per l’Atto Ue sull’Ia all’ultima prova del voto in sessione plenaria dell’Eurocamera che – come confermano diverse fonti all’interno dell’istituzione Ue – dovrebbe tenersi alla mini-sessione planaria in programma a Bruxelles tra il 10 e l’11 aprile. Il Regolamento sarà pienamente applicabile 24 mesi dopo la sua entrata in vigore, fatta eccezione per i divieti di pratiche proibite (dopo 6 mesi), i codici di condotta (dopo 9 mesi), le norme generali sull’Ia compresa la governance (dopo 12 mesi) e gli obblighi per i sistemi ad alto rischio (dopo 36 mesi). Nel frattempo, in vista del potenziale impatto delle nuove tecnologie sulle elezioni europee di giugno 2024 e considerati i tempi di entrata in vigore del nuovo Regolamento, è stato lanciato a metà novembre il Patto Ue sull’intelligenza artificiale per anticipare volontariamente i requisiti, e dal 24 gennaio la Commissione ha istituito al suo interno un Ufficio ad hoc per l’Ia. Il testo dell’intesa ha mantenuto un livello orizzontale di protezione, con una scala di rischio per regolamentare le applicazioni di intelligenza artificiale su quattro livelli: minimo, limitato, alto e inaccettabile. I sistemi che presentano un rischio limitato saranno soggetti a obblighi di trasparenza molto leggeri, come la divulgazione del fatto che il contenuto è stato generato dall’Ia. Vietati invece – in quanto ‘livello inaccettabile‘ – i sistemi di manipolazione cognitiva del comportamento, la raccolta non mirata di immagini facciali da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale, il riconoscimento delle emozioni sul posto di lavoro e negli istituti scolastici, l’assegnazione di un ‘punteggio sociale’ da parte dei governi, la categorizzazione biometrica per dedurre dati sensibili (convinzioni politiche, religiose, filosofiche, orientamento sessuale). Per i sistemi ad alto rischio è prevista una valutazione dell’impatto sui diritti fondamentali prima dell’immissione sul mercato, compresi l’obbligo a registrarsi nella banca dati Ue apposita e la definizione di requisiti sui dati e la documentazione tecnica da presentare per dimostrare la conformità dei prodotti. Una delle eccezioni più sostanziali è quella che riguarda la procedura di emergenza che consentirà alle forze dell’ordine l’utilizzo di strumenti che non hanno superato la procedura di valutazione, che dovrà dialogare con il meccanismo specifico sulla tutela dei diritti fondamentali. Anche l’uso di sistemi di identificazione biometrica a distanza in tempo reale in spazi accessibili al pubblico ha visto delle deroghe “previa autorizzazione giudiziaria e per elenchi di reati rigorosamente definiti”. L’utilizzo ‘post-remoto’ esclusivamente per la ricerca mirata di una persona condannata o sospettata di aver commesso un reato grave, mentre quello in tempo reale “limitato nel tempo e nel luogo” per le ricerche mirate di vittime (rapimento, traffico, sfruttamento sessuale), prevenzione di una minaccia terroristica “specifica e attuale” e per la localizzazione o identificazione di una persona sospettata di aver commesso reati specifici (terrorismo, traffico di esseri umani, sfruttamento sessuale, omicidio, rapimento, stupro, rapina a mano armata, partecipazione a un’organizzazione criminale, reati ambientali). Immagine creata da un’intelligenza artificiale seguendo le istruzioni “robot che fa un discorso al Parlamento Ue”. Nel testo dell’accordo sono state aggiunte nuove disposizioni per tenere conto delle situazioni in cui i sistemi di intelligenza artificiale possono essere utilizzati per molti scopi diversi (Ia per scopi generali) e in cui la tecnologia per scopi generali viene successivamente integrata in un altro sistema ad alto rischio. Per tenere conto dell’ampia gamma di compiti che i sistemi di intelligenza artificiale possono svolgere – generazione di video, testi, immagini, la conversazione in linguaggio laterale, il calcolo o la generazione di codice informatico – e della rapida espansione delle loro capacità, è stato concordato che i modelli di fondazione ‘ad alto impatto’ (un tipo di intelligenza artificiale generativa addestrata su un ampio spettro di dati generalizzati e senza etichette) dovranno rispettare una serie di obblighi di trasparenza prima di essere immessi sul mercato. Dalla stesura di una documentazione tecnica, al rispetto della legge Ue sul copyright, fino alla diffusione di sintesi dettagliate sui contenuti utilizzati per la formazione. Qualsiasi persona fisica o giuridica potrà presentare un reclamo all’autorità di vigilanza del mercato competente in merito alla mancata osservanza della legge Ue sull’intelligenza artificiale. In caso di violazione del Regolamento, l’azienda dovrà pagare o una percentuale del fatturato globale annuo nell’esercizio finanziario precedente o un importo predeterminato (a seconda di quale sia il più alto): 35 milioni di euro o il 7 per cento per le violazioni delle applicazioni vietate, 15 milioni di euro o il 3 per cento per le violazioni degli obblighi della legge, 7,5 milioni di euro o l’1,5 per cento per la fornitura di informazioni non corrette. Massimali più proporzionati saranno applicati invece per piccole e medie imprese e start-up.

Un nuovo passo decisivo per l’Atto Ue
sull’intelligenza artificiale. Via libera dagli eurodeputati.



Approvato con una
schiacciante maggioranza dalle commissioni Imco e Libe del Parlamento Ue
l'accordo di compromesso sulla prima legislazione al mondo che disciplina
rischi e innovazione dell'Ia, prima del voto finale in sessione plenaria ad
aprile. Il co-relatore Brando Benifei (Pd): "Ora rocedere con
l'applicazione". Bruxelles – L’ultimo passo prima della sessione
plenaria che, vista l’anteprima in commissioni congiunte, metterà senza dubbio
il timbro finale alla prima legislazione al mondo
sull’intelligenza artificiale
. “Con una schiacciante maggioranza” –
come l’ha descritta la presidente della commissione Imco per il Mercato interno
e la protezione dei consumatori (Imco) del Parlamento Ue, Anna Cavazzini – gli eurodeputati hanno dato il
via libera oggi (13 febbraio) al testo dell’accordo di compromesso raggiunto a inizio
dicembre dello scorso anno con i negoziatori del Consiglio sul Regolamento Ue
sull’intelligenza artificiale. Ora si attende l’approvazione
definitiva in sessione plenaria
 e si potrà procedere con la
messa a terra della nuova legislazione dell’Unione. Il corelatore per il
Parlamento Europeo sull’Atto Ue sull’intelligenza artificiale, Brando Benifei
(Partito Democratico). “Siamo i primi al mondo ad adottare una normativa così
completa sull’intelligenza artificiale, che spiana la strada a un modello
incentrato sull’essere umano, ora dobbiamo procedere con
l’applicazione per proteggere i cittadini e costruire un Mercato unico digitale
forte e resiliente
“, ha messo in chiaro il co-relatore per il
Parlamento Ue sull’Atto Ue sull’intelligenza artificiale, Brando Benifei (Pd), in occasione del voto in
commissioni congiunte Imco e Libe (per le Libertà civili, la giustizia e gli
affari interni). “Oggi è una giornata importante, l’abbiamo detto quando
abbiamo approvato le nostre posizioni in commissione e, con negoziati lunghi e difficili, abbiamo lavorato per un
risultato migliore possibile
“, ha ricordato il capo-delegazione del
Partito Democratico all’Eurocamera la maratona di 36 ore tra il 6 e l’8 dicembre 2023 per
finalizzare l’intesa. Le “lunghissime ore” di trattative tra i negoziatori
delle due istituzioni Ue sono state menzionate anche dal co-relatore Dragoș Tudorache (Renew Europe), che ha scherzato
affermando che “non meritavamo di soffrire così tanto”. Dopo il via libera più difficile in Consiglio dell’Ue lo
scorso 2 febbraio e con i 71 voti a favore, 8 contrari e 7 astenuti in
commissione, si prospetta una strada in discesa per l’Atto Ue sull’Ia
all’ultima prova del voto in sessione plenaria
dell’Eurocamera che
 – come confermano diverse fonti all’interno
dell’istituzione Ue – dovrebbe tenersi alla
mini-sessione planaria in programma a Bruxelles tra il 10 e l’11 aprile
.
Il Regolamento sarà pienamente applicabile 24 mesi dopo la sua entrata in
vigore, fatta eccezione per i divieti di pratiche proibite (dopo 6 mesi), i
codici di condotta (dopo 9 mesi), le norme generali sull’Ia compresa la
governance (dopo 12 mesi) e gli obblighi per i sistemi ad alto rischio (dopo 36
mesi). Nel frattempo, in vista del potenziale impatto delle nuove
tecnologie sulle elezioni europee di giugno 2024
 e considerati
i tempi di entrata in vigore del nuovo Regolamento, è stato lanciato a metà
novembre il Patto Ue sull’intelligenza artificiale per anticipare
volontariamente i requisiti, e dal 24 gennaio la Commissione ha istituito al
suo interno un Ufficio ad hoc per l’Ia. Il testo dell’intesa ha mantenuto
un livello orizzontale di protezione, con una scala di rischio per regolamentare le applicazioni di intelligenza
artificiale
 su quattro livelli:
minimo, limitato, alto e inaccettabile. I sistemi che presentano un rischio
limitato saranno soggetti a obblighi di trasparenza molto leggeri, come la
divulgazione del fatto che il contenuto è stato generato dall’Ia. Vietati
invece – in quanto ‘livello inaccettabile‘ – i sistemi
di manipolazione cognitiva del comportamento, la raccolta non mirata di
immagini facciali da Internet o da filmati di telecamere a circuito chiuso
 per
creare database di riconoscimento facciale, il riconoscimento delle emozioni
sul posto di lavoro e negli istituti scolastici, l’assegnazione di un
‘punteggio sociale’ da parte dei governi, la categorizzazione biometrica
per dedurre dati sensibili
 (convinzioni politiche, religiose,
filosofiche, orientamento sessuale). Per i sistemi ad alto rischio è
prevista una valutazione dell’impatto sui diritti fondamentali prima
dell’immissione sul mercato
, compresi l’obbligo a registrarsi nella
banca dati Ue apposita e la definizione di requisiti sui dati e la
documentazione tecnica da presentare per dimostrare la conformità dei prodotti.
Una delle eccezioni più sostanziali è quella che riguarda la procedura di emergenza che consentirà alle forze dell’ordine l’utilizzo
di strumenti che non hanno superato la procedura di valutazione
, che dovrà dialogare con il meccanismo specifico sulla tutela dei
diritti fondamentali. Anche l’uso di sistemi di identificazione
biometrica a distanza in tempo reale in spazi accessibili al pubblico 
ha
visto delle deroghe “previa autorizzazione giudiziaria e per elenchi di reati
rigorosamente definiti”. L’utilizzo ‘post-remoto’ esclusivamente per la ricerca
mirata di una persona condannata o sospettata di aver commesso un reato grave, mentre
quello in tempo reale “limitato nel tempo e nel luogo” per le ricerche
mirate di vittime
 (rapimento, traffico, sfruttamento
sessuale), prevenzione di una minaccia terroristica
“specifica e attuale” 
e per la localizzazione o identificazione
di una persona sospettata di aver commesso reati specifici (terrorismo,
traffico di esseri umani, sfruttamento sessuale, omicidio, rapimento, stupro,
rapina a mano armata, partecipazione a un’organizzazione criminale, reati
ambientali). Immagine creata da un’intelligenza artificiale seguendo le
istruzioni “robot che fa un discorso al Parlamento Ue”. Nel testo dell’accordo
sono state aggiunte nuove disposizioni per tenere conto delle situazioni in cui
i sistemi di intelligenza artificiale possono essere utilizzati per molti scopi
diversi (Ia per scopi generali) e in cui la tecnologia per scopi
generali viene successivamente integrata in un altro sistema ad alto
rischio. Per tenere conto dell’ampia gamma di compiti che i sistemi di
intelligenza artificiale possono svolgere – generazione di video, testi,
immagini, la conversazione in linguaggio laterale, il calcolo o la generazione
di codice informatico – e della rapida espansione delle loro capacità, è
stato concordato che i modelli di fondazione ‘ad alto impatto’ (un tipo di intelligenza artificiale generativa addestrata
su un ampio spettro di dati generalizzati e senza etichette) dovranno
rispettare una serie di obblighi di trasparenza prima di essere immessi sul
mercato
. Dalla stesura di una documentazione tecnica, al rispetto
della legge Ue sul copyright, fino alla diffusione di sintesi dettagliate sui
contenuti utilizzati per la formazione. Qualsiasi persona
fisica o giuridica potrà presentare un reclamo all’autorità di vigilanza del
mercato competente in merito alla mancata osservanza della legge Ue
sull’intelligenza artificiale. In caso di violazione del
Regolamento, l’azienda dovrà pagare o una percentuale del fatturato
globale annuo nell’esercizio finanziario precedente o un importo predeterminato
(a seconda di quale sia il più alto)
: 35 milioni di euro o il 7 per
cento per le violazioni delle applicazioni vietate, 15 milioni di euro o il 3
per cento per le violazioni degli obblighi della legge, 7,5 milioni di euro o
l’1,5 per cento per la fornitura di informazioni non corrette. Massimali più
proporzionati saranno applicati invece per piccole e medie imprese e start-up.

Fonte :https://www.eunews.it/2024/02/12/aiuti-umanitari-bilancio-ue-2024/

 

 

 
Valuta questo sito: RISPONDI AL QUESTIONARIO