martedì, Novembre 5, 2024

L’Unione Europea approva norme fondamentali sull’intelligenza artificiale

| Data:

Apri Editor’s Digest gratuitamente

I legislatori dell’UE hanno approvato i termini di una legislazione fondamentale per regolamentare l’intelligenza artificiale, procedendo con l’attuazione del regime più restrittivo al mondo sullo sviluppo della tecnologia.

Thierry Breton, commissario dell’Unione europea, ha confermato in un post sul sito X che è stato raggiunto un accordo, definendolo un accordo storico. “L’Unione Europea è diventata il primo continente a stabilire regole chiare per l’uso dell’intelligenza artificiale”, ha scritto. “Il codice sull’intelligenza artificiale è molto più di un semplice regolamento: funge da trampolino di lancio per le startup e i ricercatori dell’UE per guidare la corsa globale all’intelligenza artificiale”.

L’accordo è arrivato dopo anni di discussioni tra gli Stati membri e i membri del Parlamento europeo sui modi in cui l’intelligenza artificiale dovrebbe essere frenata per mettere l’interesse dell’umanità al centro della legislazione. Ciò è avvenuto dopo una maratona di discussioni iniziata mercoledì di questa settimana.

I dettagli dell’accordo erano ancora in fase di definizione dopo l’annuncio. Breton ha affermato che i legislatori hanno concordato un approccio a due livelli, con “requisiti di trasparenza per tutti i modelli di intelligenza artificiale di uso generale (come ChatGPT)” e “requisiti più rigorosi per modelli robusti con impatti sistemici” in tutta l’UE.

Britton ha affermato che le regole implementerebbero salvaguardie per l’uso della tecnologia AI, evitando allo stesso tempo un “onere eccessivo” per le aziende.

Tra le nuove regole, i legislatori hanno concordato di imporre limiti rigorosi all’uso della tecnologia di riconoscimento facciale, ad eccezione di eccezioni strettamente definite per le forze dell’ordine.

READ  Putin afferma che la Russia schiererà armi nucleari tattiche in Bielorussia: NPR

La legislazione include anche il divieto dell’uso dell’intelligenza artificiale per il “punteggio sociale” – utilizzando parametri per determinare quanto qualcuno è etero – e dei sistemi di intelligenza artificiale che “manipolano il comportamento umano per aggirare il libero arbitrio umano”.

È inoltre vietato utilizzare l’intelligenza artificiale per sfruttare persone vulnerabili a causa della loro età, disabilità o situazione economica.

Le aziende che non rispettano le regole rischiano multe di 35 milioni di euro, ovvero il 7% delle entrate globali.

Alcuni gruppi tecnologici non erano contenti. “Abbiamo un accordo, ma a quale costo? Abbiamo pienamente sostenuto un approccio basato sul rischio basato sull’uso dell’intelligenza artificiale, non sulla tecnologia in sé, ma su un tentativo dell’ultimo minuto di regolamentare i modelli sottostanti”, ha affermato Cecilia Bonfield Dahl, direttrice direttore di DigitalEurope, che rappresenta il settore tecnologico del continente, ho ribaltato la situazione.

“I nuovi requisiti – così come altre nuove leggi radicali come il Data Act – richiederanno molte risorse per il rispetto da parte delle aziende, risorse che saranno spese per avvocati piuttosto che per assumere ingegneri di intelligenza artificiale”.

Gli eurodeputati hanno trascorso anni a discutere la loro posizione prima di avviare i negoziati con gli Stati membri e la Commissione europea, l’organo esecutivo dell’UE. Venerdì sera i tre – ministeri nazionali, parlamentari e Commissione – hanno concordato il testo finale, consentendo alla legislazione di diventare legge.

Le aziende europee hanno espresso preoccupazione per il fatto che regole eccessivamente restrittive imposte alla tecnologia, che si sta evolvendo rapidamente e ha guadagnato maggiore attenzione dopo il lancio di ChatGPT di OpenAI, ostacoleranno l’innovazione. A giugno, decine delle più grandi aziende europee, come la francese Airbus e la tedesca Siemens, hanno affermato che le regole in vigore erano troppo rigide per promuovere l’innovazione e aiutare le industrie locali.

READ  FlixBus: cinque persone uccise in un incidente d'autobus su un'autostrada tedesca vicino a Lipsia

Il mese scorso, il Regno Unito ha ospitato un vertice sulla sicurezza dell’intelligenza artificiale, che ha portato ad impegni ad ampio raggio da parte di 28 paesi a lavorare insieme per affrontare i rischi esistenziali posti dall’intelligenza artificiale avanzata. L’evento ha attirato figure di spicco della tecnologia come Sam Altman di OpenAI, che in precedenza aveva criticato i piani dell’UE per regolamentare la tecnologia.

Ursula von der Leyen, presidente della Commissione europea, l’organo esecutivo dell’UE, ha elogiato i legislatori per l’accordo politico sulle regole dell’IA.

“Questo è un momento storico”, ha detto. La legge sull’intelligenza artificiale porta i valori europei in una nuova era.

Ha aggiunto: “Fino a quando la legge non diventerà pienamente applicabile, aiuteremo le aziende e gli sviluppatori ad anticipare le nuove regole. Quasi 100 aziende hanno già espresso il loro interesse ad aderire alla nostra Carta sull’intelligenza artificiale, in base alla quale si impegneranno su base volontaria ad attuare le principali norme obblighi di legge prima del termine di legge”.

Popolare

Altri simili