Questo articolo è stato pubblicato da questo sito
Prendono forma i primi tasselli dell’AI Act, il regolamento europeo sull’intelligenza artificiale. Il 14 novembre la Commissione ha pubblicato la prima bozza del codice di condotta sui sistemi di AI per uso generale (GPAI). I GPAI sono quei modelli che sono in grado di svolgere compiti diversi (come creare un testo o un’immagine) e che sono stati allenati attraverso un’enorme mole di dati non categorizzati. Come GPT-4 di OpenAI, alla base del potente chatbot ChatGPT, Gemini di Google, LaMDA in casa Meta.
Il codice di condotta fornisce delle linee guida a cui gli sviluppatori di questi modelli si dovranno attenere nei due anni che intercorrono tra l’entrata in vigore dei primi obblighi (ad agosto 2025) e l’adozione degli standard (agosto 2027). Di fatto il codice, come l’AI Pact (l’accordo volontario che le aziende possono sottoscrivere per adeguare i loro sistemi di intelligenza artificiale), non ha valore legale. Agli sviluppatori il codice, che dovrà essere varato entro aprile del prossimo anno, può servire sia per allinearsi ai principi del regolamento, sia come “prova di conformità” in caso di contestazioni, in quei campi in cui la legge non è già entrata in vigore.
L’AI act e i grandi modelli
Il testo predisposto da un comitato di 13 esperti è di 36 pagine, riassume i 430 contributi raccolti da organizzazioni esterne e ora dovrà essere discusso dagli oltre mille enti (tra aziende, università, centri di ricerca e studi legali), che hanno aderito all’appello della Commissione in un incontro in calendario il 28 novembre. Siccome l’AI Act è impostato su uno schema a rischio, che determina gli obblighi a carico di chi sviluppa e diffonde quel modello di intelligenza artificiale, il codice di condotta richiama lo stesso approccio. E associa i grandi modelli ai sistemi ad alto rischio, che quindi hanno più regole a cui attenersi.
Per designare modelli di AI generale di alto impatto, l’AI Act introduce 7 parametri,di natura tecnica o di mercato: la qualità o la dimensione del set di dati; il potere computazionale espresso non solo dal numero di operazioni, ma anche da costi, tempo e consumi energetici per l’addestramento; i tipi di input (per esempio l’uso di dati biologici); il livello di autonomia e di scalabilità; il numero di utenti registrati; l’impatto sul mercato per la sua portata, “che viene presunta quando il modello stesso è stato messo a disposizione di almeno 10.000 utenti commerciali registrati stabiliti nell’Unione”. Gli sviluppatori di GPAI rischiano fino al 3% del fatturato globale, o 15 milioni se superiore, se violano le norme comunitarie.
In termini di trasparenza, il codice di condotta richiede agli sviluppatori di mettere nero su bianco una serie di informazioni: il potere computazionale, che serve a inquadrare un modello di AI come uno di scopo generale (la soglia fissata è di pari a 10^25 FLOPs, floating point operations per second, un’unità di misura della capacità di calcolo); il consumo di energia; i risultati dei test; i parametri usati; l’interoperabilità con altri software e con hardware. E poi la politica di uso accettabile, ossia un testo che spieghi: gli usi consentiti e quelli vietati; le procedure per denunciare una violazione o per chiudere il profilo di un utente che non la rispetta; gli impatti sulla privacy.
Copyright e rischi
Il codice di condotta indica alcune linee guida in termini di diritto d’autore. Per esempio, accertarsi chi detenga la proprietà dei contenuti utilizzati per addestrare i modelli di AI generativa. O strutturare sistemi per evitare che i risultati che una piattaforma restituisce (per esempio, un testo o una foto generati artificialmente) possano prestare il fianco a cause per violazione del copyright contro chi si è affidato, in buona fede, alla tecnologia. O ancora, utilizzare programmi di crawling per il data mining (sistemi che pescano a strascico dati online) che si attengano al Robot exclusion protocol, ossia quel protocollo che indica quali porzioni di un sito sono “leggibili” anche da sistemi automatici, e non si alimentino con risorse piratate.