F:o Max Tegmark, la settimana scorsa Vertice sull’intelligenza artificiale a Bletchley Park è stato un momento emozionante. Quest’anno un professore del MIT e ricercatore di intelligenza artificiale ha scritto una lettera in cui chiedeva la fine dello sviluppo di sistemi avanzati. Ciò non accadde, ma fu un contributo cruciale allo slancio politico e accademico che portò all’incontro di Bletchley.
“(Il vertice) in realtà mi ha reso più ottimista. Ha davvero superato le mie aspettative”, mi ha detto. “Lavoro da circa 10 anni sperando che un giorno ci sia un vertice internazionale dedicato alla sicurezza dell’intelligenza artificiale. Vederlo accadere con i miei occhi, ed è stato fatto sorprendentemente bene, è stato molto emozionante.”
Tenendo in mano una banconota da 50 sterline con il volto del decifratore di codici di Bletchley Alan Turing, Tegmark ha aggiunto che il genio computazionale, una figura fondamentale nella storia dell’intelligenza artificiale, aveva avuto ragione. “Sono d’accordo con Turing. il risultato predefinito se ci affrettiamo a creare macchine molto più intelligenti di noi è che perderemo il controllo del nostro futuro e probabilmente autolimineremo noi stessi”.
Ma Tegmark ritiene che a Bletchley siano stati compiuti progressi. Ecco un breve riassunto di quello che è successo.
La Dichiarazione di Bletchley
Il vertice è iniziato con A Comunicato firmato da 30 governi compresi gli Stati Uniti e la Cina, insieme all’UE. Rishi Sunak ha descritto l’annuncio come “piuttosto incredibile” perché è riuscito a convincere le superpotenze rivali e i paesi con opinioni diverse sullo sviluppo dell’intelligenza artificiale a concordare un messaggio comune.
La dichiarazione inizia con l’intelligence che offre “enormi opportunità globali” con il potenziale di “trasformare e migliorare il benessere umano, la pace e la prosperità”, ma la tecnologia deve essere progettata per essere “centrata sull’uomo, affidabile e reattiva”. . Viene inoltre evidenziata la cooperazione internazionale, compreso un riferimento a una “rete internazionale completa di ricerca scientifica” sulla sicurezza dell’IA.
Ma la parte più notevole riguardava l’obiettivo centrale del vertice. assicurandosi che l’intelligenza artificiale di frontiera, il termine per i sistemi più avanzati, non vada terribilmente fuori controllo. Riferendosi al potenziale dell’Intelligenza Artificiale di causare disastri, si dice: “Esiste il rischio di danni gravi, persino catastrofici, intenzionali o meno, derivanti dalle capacità critiche di questi modelli di intelligenza artificiale”.
Questa frase accattivante è stata preceduta da un riferimento a danni più immediati come gli attacchi informatici e la disinformazione. Il dibattito sulla possibilità che l’intelligenza artificiale possa distruggere l’umanità continua le paure sono esagerate – ma sembra esserci accordo sul fatto che la disinformazione generata dall’intelligenza artificiale sia una preoccupazione immediata che dovrebbe essere affrontato.
L’ambizione di Sunak di rendere il vertice un evento regolare è stata realizzata. La Corea del Sud ospiterà un evento virtuale tra sei mesi e la Francia ospiterà un vertice completo tra 12 mesi.

Quindi queste parole attentamente elaborate porteranno a cambiamenti normativi o legislativi? Charlotte Walker-OsborneUn partner tecnologico dello studio legale internazionale Morrison Forster ha affermato che la dichiarazione “probabilmente promuoverà ulteriormente un certo livello di consenso legislativo e governativo internazionale sulle disposizioni chiave per la regolamentazione dell’IA”. Ad esempio, cita principi chiave come la trasparenza quando e come viene utilizzata l’intelligenza artificiale?informazioni sui dati utilizzati nei sistemi di formazione e sui requisiti di affidabilità (che includono tutto, dai risultati distorti ai deepfake:)
Tuttavia, Walker-Osborne ha affermato che “un approccio veramente uniforme è improbabile” a causa dei “diversi approcci alla regolamentazione e alla governance in generale” tra i paesi. Tuttavia, la dichiarazione rappresenta una pietra miliare, se non altro perché riconosce che l’intelligenza artificiale non può continuare a svilupparsi senza controlli più forti.
Rapporto sullo stato dell’IA
Sunak ha annunciato al vertice, presieduto da Joshua Bengio, uno dei tre cosiddetti, un rapporto sullo “stato dell’intelligenza artificiale”. “I padrini dell’intelligenza artificiale”, a cui nel 2018 è stato assegnato l’ACM Turing Award, l’equivalente del Premio Nobel per l’informatica, per il suo lavoro sull’intelligenza artificiale. Il gruppo che scriverà il rapporto includerà importanti scienziati dell’intelligenza artificiale e sarà supportato da un gruppo consultivo composto da paesi partecipanti al vertice (quindi parteciperanno anche Stati Uniti e Cina).
Bengio ha firmato la lettera di Tegmark e a maggio ha anche firmato una dichiarazione in cui avverte che mitigare la minaccia di estinzione dell’intelligenza artificiale dovrebbe essere una priorità globale insieme alle pandemie e alla guerra nucleare. Prende sul serio il tema della sicurezza dell’intelligenza artificiale.
Il primo ministro britannico ha affermato che l’idea è stata ispirata dal Gruppo intergovernativo sui cambiamenti climatici e sostenuta dal segretario generale delle Nazioni Unite Antonio Guterres. che hanno partecipato al vertice. Tuttavia, non sarà un progetto ospitato dalle Nazioni Unite e l’AI Security Institute, sostenuto dal governo britannico, ospiterà l’ufficio di Bengio per il rapporto.
dopo la promozione della newsletter
Test di sicurezza internazionali
Un gruppo di governi e importanti aziende di intelligenza artificiale partecipanti al vertice hanno deciso di collaborare per testare i loro modelli di intelligenza artificiale prima e dopo il loro rilascio pubblico. Gli 11 firmatari del governo includevano UE, Stati Uniti, Regno Unito, Australia, Giappone, ma non la Cina. Le otto società includevano Google, lo sviluppatore ChatGPT OpenAI, Microsoft, Amazon e Meta.
Il Regno Unito ha già concordato una partnership tra il suo AI Security Institute e la sua controparte statunitense (annunciata la scorsa settimana prima del vertice) e Singapore per collaborare sui test di sicurezza. Si tratta di un accordo volontario e c’è un certo scetticismo sull’impatto che avranno gli annunci di Bletchley se non saranno supportati da una regolamentazione. Sunak ha detto ai giornalisti la scorsa settimana che non è ancora pronto a legiferare e che prima sarebbero necessari ulteriori test di modelli avanzati (anche se ha aggiunto che probabilmente ad un certo punto sarebbero necessari “requisiti obbligatori”).
Ciò significa la Casa Bianca Un ordine esecutivo per utilizzare l’intelligenza artificialeche è stato pubblicato la stessa settimana del vertice e in arrivo Legge sull’IA dell’Unione Europea prima del Regno Unito nell’introdurre una nuova regolamentazione tecnologica obbligatoria.
“Quando si tratta di come si comportano i costruttori di modelli… l’imminente legge sull’intelligenza artificiale dell’UE e l’ordine esecutivo del presidente Biden avranno probabilmente un impatto ancora maggiore”, ha affermato Martha Bennett, principale analista di Forrester.
Altri, invece, sono soddisfatti del modo in cui Bletchley ha inquadrato il dibattito e ha riunito punti di vista diversi. Dame Muffy Calder, vicepreside e professoressa presso il College of Science and Engineering dell’Università di Glasgow, teme che il vertice si concentrerà troppo sui rischi esistenziali piuttosto che su “questioni reali e attuali”. Quella paura, a suo avviso, si è attenuata. “Il vertice e la dichiarazione vanno oltre i semplici rischi dell'”intelligenza artificiale di frontiera””, afferma. “Ad esempio, questioni come la trasparenza, l’equità, la responsabilità, la regolamentazione, un adeguato controllo umano e il quadro giuridico sono tutti chiaramente menzionati nella dichiarazione. Così come la cooperazione. Questo va molto bene.”
Leggi di più su questa storia
Se vuoi leggere la versione completa della newsletter Iscriviti per favore per ricevere TechScape nella tua casella di posta ogni martedì