sabato, Gennaio 18, 2025

Biden, perché il testamento sull'intelligenza artificiale è uno schiaffo alle big tech

Must Read

Questo articolo è stato pubblicato da questo sito

Inoltre, il report denuncia che molti funzionari pubblici mancano di competenze tecniche per comprendere e gestire i sistemi Ai, con conseguenti errori di configurazione o di interpretazione dei risultati.

Il Congresso propone perciò di attenersi al principio “Human-in-the-loop, sia coinvolgendo il personale in ogni fase decisionale critica (con la possibilità di verificare e intervenire su decisioni prese dall’Ai) sia richiedendo alle agenzie di comunicare in modo chiaro quando la tecnologia viene utilizzata nei processi decisionali e fornire spiegazioni dettagliate delle decisioni prese.

Strumenti utili sono audit di tracciamento e spiegazione del funzionamento degli algoritmi, oltre alla collaborazione con il National Institute of Standards and Technology (Nist) per sviluppare standard che valutino affidabilità, equità e trasparenza; programmi di alfabetizzazione AI e corsi specifici per funzionari pubblici; pratiche di raccolta dati più inclusive e tecniche di de-biasing durante l’addestramento dei modelli. Ai regolatori di settore andrebbero forniti strumenti per identificare e mitigare rischi specifici del comparto legati all’intelligenza artificiale. Viene da chiedersi, però, cosa rimarrà di tutto questo dopo la cura dimagrante della Pa annunciata da Elon Musk, nominato responsabile del dipartimento per la efficienza governativa (Doge).

Rispetto della privacy e dei diritti civili

Il rispetto dei diritti dei cittadini è l’altra faccia della medaglia. In tema di privacy, il report cita il regolamento Ue sulla protezione dei data (Gdpr) come esempio di regolamentazione che impone standard di base, utile per eventuali interventi federali senza impedire che gli Stati impongano regole più severe. Il tema principale è l’assenza di misure che i cittadini possono attivare per ottenere la tutela del dato personale.

Molta strada da fare anche nella tutela dei diritti civili, messi a dura prova da bias e discriminazioni nei sistemi di AI. Gli esempi più noti riguardano l’uso di tecnologie di riconoscimento facciale che hanno portato ad arresti errati e sistemi di rilevamento delle frodi che hanno generato accuse improprie e penalità finanziarie per cittadini innocenti. Al momento i regolatori mancano di strumenti tecnici e risorse per affrontare questi i rischi.

La proposta è significativa: estendere ai sistemi di intelligenza artificiale il Civil Rights Act. Le recenti decisioni della Corte Suprema, che limitano l’interpretazione delle leggi da parte delle agenzie di regolamentazione, sottolineano la necessità di chiarezza normativa.

Copyright: serve più chiarezza normativa

Le opere generate dall’AI sono protette dal copyright solo nella misura in cui includono contributi creativi umani riconoscibili. Lo U.S. Copyright Office (Usco) richiede la dichiarazione di contributi umani e la separazione di contenuti generati da Ai superiori a un livello minimo (“de minimis“). Sappiamo che l’uso di opere protette da copyright per addestrare l’intelligenza artificiale ha sollevato numerose controversie legali. Alcuni ritengono che l’addestramento costituisca una violazione del copyright, sostenendo che l’utilizzo riproduca integralmente o derivi dalle opere originali. Altri sviluppatori sostengono che l’impiego sia legittimo, rientrando nel “fair use“, poiché le opere vengono trasformate in rappresentazioni matematiche che non conservano le copie originali.

Rimane aperta anche la questione della originalità e derivatività delle opere realizzate con l’AI. L’Usco ha respinto diverse richieste di registrazione di opere create interamente dall’intelligenza artificiale o con contributi umani non significativi. Le decisioni recenti indicano che la paternità umana è un requisito fondamentale per ottenere protezione legale.

Se questo è lo stato dell’arte, il report evidenzia come sia necessario aggiornare le leggi sul copyright per affrontare le questioni poste dalle Ai generative, includendo linee guida chiare su contributi umani e uso di contenuti protetti da copyright durante l’addestramento. E, guarda caso,  l’implementazione di politiche di trasparenza sull’uso dei contenuti per l’addestramento, come richiesto dalla recente legislazione europea.

- Advertisement -spot_img
- Advertisement -spot_img
Latest News

Starlink, ma alla fine quali alternative abbiamo per l'internet satellitare?

Altre potenziali alternative europee, come già scritto qui, potrebbero essere la lussemburghese Ses, il cui obiettivo è proprio la specializzazione nelle forniture...
- Advertisement -spot_img

More Articles Like This

- Advertisement -spot_img