Questo articolo è stato pubblicato da questo sito
“Impieghiamo molte strategie per assicurare la sicurezza dei nostri sistemi e non possiamo rivelarle tutte” prosegue Anil. Si procede per strati, “e se ognuno ha una sicurezza del 90%, il sistema alla fine raggiunge il 99,99% di efficacia”. In pratica, tra le altre modalità, “controlliamo gli input prima che raggiungano il modello per accertarci che una richiesta sia sicura, insegnandogli al contempo a riconoscere quelle che non lo sono. Ma esaminiamo anche gli output a parte, isolandoli dal resto, per verificare che non siano presenti contenuti non sicuri”.
Rischi di lungo periodo
Il manager va oltre. “Siamo interessati anche ai rischi che derivano dalle capacità dei sistemi di intelligenza artificiale del futuro. In questo caso, l’obiettivo è cercare di comprendere in anticipo le possibilità dei prossimi modelli linguistici in modo tale da produrre dei rapporti che ci possano allertare quando alcune soglie accuratamente identificate vengono superate”.
Parlarne apertamente non rischia di danneggiare la vostra reputazione? “In realtà, no” spiega Anil. “Più i sistemi di intelligenza artificiale diventano potenti, più diventa essenziale che chi li sviluppa garantisca la sicurezza dei propri prodotti. Pensiamo che danneggerebbe molto di più l’immagine della società il fatto che, modelli così potenti sviluppati da noi possano essere usati per danneggiare seriamente il mondo in cui viviamo”.
Al di là del tecno ottimismo, il futuro spaventa anche la società di Amodei. “Una volta che i sistemi avranno superato una certa soglia di capacità, diventerà molto più difficile parlare apertamente e risolvere le vulnerabilità. Significa che dobbiamo fare ricerca sulla sicurezza ora, su modelli che non pongono rischi catastrofici”.
Sul tema, afferma Anil, Anthropic si confronta con governi e altre realtà di settore, oltre che con le università. Alla fine, “crediamo che la AI possa apportare grandi benefici alla società, migliorando la medicine, le scienze, la comunicazione e moltissimi altri campi. Ma sappiamo poco di come i sistemi di AI funzionano davvero, spesso si comportano in maniera sorprendente e non prevista e non abbiamo il controllo che ci piacerebbe sul loro comportamento. Ciò significa che c’è un rischio futuro che sistemi di AI ad alto potenziale siano usati da umani malintenzionati per scopi malevoli. Per questo facciamo così tanta ricerca sulla sicurezza: vogliamo che la AI sia un bene per la società e pensiamo che risolvere i problemi oggi pagherà dividendi in futuro proprio sotto questo aspetto”.
Chi stabilisce i limiti dell’AI
Resta una domanda fondamentale: chi deve stabilire i limiti dell’AI? “Crediamo che sia la società nel suo complesso a doverlo fare, in maniera democratica” replica Anil. “Uno dei modi che impieghiamo è intervistare un campione rappresentativo della popolazione statunitense e chiedere loro di aiutarci a scrivere la ‘carta costituzionale’ del nostro modello, i principi lo dovrebbero guidare e come comportarsi in vari scenari. Alla fine, una delle ragioni per cui siamo così tanto interessati a parlare coi decisori politici sull’AI è perché vogliamo che siano il più informati possibili sui possibili benefici e rischi, così come sulle ultime caratteristiche, in modo che possano legiferare nella maniera più consapevole e informata possibile”. La battaglia è agli inizi. L’intelligenza artificiale è nata negli anni Cinquanta del secolo scorso. Ma stiamo uscendo solo ora, quasi un secolo dopo, dalla preistoria.