Il mondo deve relazionarsi i rischi L’intelligenza artificiale è grave quanto la crisi climatica e non può permettersi di ritardare la sua risposta, ha avvertito una figura di spicco della tecnologia.
Parlando mentre il governo del Regno Unito si prepara a ospitare un vertice sulla sicurezza dell’intelligenza artificiale, Demis Hassabis ha affermato che la supervisione del settore potrebbe provenire da un organismo come il Gruppo intergovernativo sui cambiamenti climatici (IPCC).
Hassabis, CEO britannico della divisione AI di Google, ha affermato che il mondo deve agire con urgenza per affrontare i pericoli della tecnologia, che includono il sostegno alla creazione di armi biologiche e la minaccia esistenziale posta dai sistemi superintelligenti.
“Dobbiamo prendere i rischi dell’intelligenza artificiale tanto seriamente quanto altre grandi sfide globali, come il cambiamento climatico”, ha affermato. “C’è voluto troppo tempo perché la comunità internazionale coordinasse una risposta globale efficace a questo problema, e ora ne stiamo vivendo le conseguenze. Non possiamo permetterci lo stesso ritardo con l’intelligenza artificiale”.
Domanda e risposta
“Cos’è l’AI Race Series?”
Schermo
Il crescente allarme per la minaccia di un’innovazione incontrollata dell’intelligenza artificiale ha spinto i leader mondiali a tenere il primo vertice sulla sicurezza. L’1 e il 2 novembre, i più grandi nomi e le più grandi aziende del Regno Unito discuteranno su cosa si può fare per regolamentare la tecnologia.
In vista del vertice, il Guardian esamina diversi aspetti dell’intelligenza artificiale, come sta già influenzando le nostre vite e cosa potrebbe accadere dopo.
Hassabis, la cui divisione ha creato il rivoluzionario programma AlphaFold, che raffigura strutture proteicheha affermato che l’intelligenza artificiale potrebbe essere “una delle tecnologie più importanti e vantaggiose mai inventate”.
Tuttavia, ha detto al Guardian che è necessario un regime di supervisione e che i governi dovrebbero ispirarsi ad organismi internazionali come l’IPCC.
“Penso che dovremmo iniziare con qualcosa come l’IPCC, dove si tratta di un accordo scientifico e di ricerca con rapporti, e poi costruire da lì.”
Ha aggiunto: “Allora quello che mi piacerebbe vedere alla fine è l’equivalente del Cern per la sicurezza dell’intelligenza artificiale, che fa ricerca su questo argomento, ma a livello internazionale. E poi forse c’è l’equivalente di una giornata all’AIEA che controlla effettivamente queste cose.”
L’Agenzia Internazionale per l’Energia Atomica (AIEA) è un organismo delle Nazioni Unite che promuove l’uso sicuro e pacifico della tecnologia nucleare nel tentativo di prevenire la proliferazione delle armi nucleari, anche attraverso ispezioni.
Tuttavia, Hassabis ha affermato che nessuna delle analogie normative utilizzate per l’intelligenza artificiale è “direttamente applicabile” alla tecnologia, sebbene “preziose lezioni” possano essere apprese dalle istituzioni esistenti.
La settimana scorsa, l’ex CEO di Google Eric Schmidt e il co-fondatore di DeepMind Mustafa Suleiman hanno chiesto un panel in stile IPCC sull’intelligenza artificiale. Sebbene i funzionari britannici sostengano tale mossa, ritengono che la sua creazione dovrebbe essere effettuata sotto gli auspici delle Nazioni Unite.
Hassabis ha affermato che l’intelligenza artificiale potrebbe offrire “incredibili opportunità” in campi come la medicina e la scienza, ma ha riconosciuto le preoccupazioni esistenziali che circondano la tecnologia. Si concentrano sul possibile sviluppo dell’intelligenza generale artificiale (AGI), sistemi con intelligenza umana o sovrumana che possono sfuggire al controllo umano.
Hassabis è stato uno dei firmatari a maggio lettera aperta avvertendo che la minaccia dell’estinzione dell’intelligenza artificiale dovrebbe essere considerata un pericolo di scala sociale, equivalente alle epidemie e alla guerra nucleare.
“Dobbiamo iniziare questa riflessione e questa ricerca adesso. Voglio dire, ieri, davvero”, ha detto. “Ecco perché ho firmato, e molti altri hanno firmato quella lettera. Questo perché volevamo dare la certezza che si tratta di una discussione sensata.”
Alcuni esperti di tecnologia temono che l’AGI, o intelligenza artificiale “divina”, potrebbe essere a pochi anni di distanza, anche se c’è anche un’opinione che teme una minaccia esistenziale. sono esagerati.
Hassabis ha affermato che il mondo è molto lontano dallo sviluppo di sistemi AGI, ma “possiamo vedere il percorso lì, quindi dobbiamo discuterne ora”.
dopo la promozione della newsletter
Ha detto che gli attuali sistemi di intelligenza artificiale “non sono pericolosi, ma le prossime generazioni potrebbero esserlo, quando avranno capacità aggiuntive come la pianificazione, la memoria e cose del genere… Saranno fenomenali per buoni casi d’uso, ma avranno anche dei rischi”.
Il vertice dell’1 e 2 novembre a Bletchley Park, sede di rivelatori della Seconda Guerra Mondiale tra cui Alan Turing, si concentrerà sulla minaccia rappresentata dai sistemi avanzati di intelligenza artificiale che aiutano a sviluppare armi biologiche, effettuare attacchi informatici sporchi o sfuggire al controllo umano. Hassabis sarà tra i partecipanti, insieme ai CEO delle principali società di intelligenza artificiale, tra cui OpenAI, lo sviluppatore di ChatGPT con sede a San Francisco.
La divisione di Hassabis ha compiuto progressi significativi nella tecnologia dell’intelligenza artificiale, come la creazione del programma AI AlphaGo che ha vinto il miglior giocatore di Go del mondoun gioco da tavolo cinese e l’innovativo progetto AlphaFold, che prevede come le proteine si ripiegano in forme 3D, un processo che ha aperto la strada in numerosi campi, inclusa la lotta contro le malattie.
Hassabis ha affermato di essere ottimista sull’intelligenza artificiale per il suo potenziale di rivoluzionare campi come la medicina e la scienza, ma che è necessario trovare una “via di mezzo” per gestire la tecnologia.
L’intelligenza artificiale è entrata nell’agenda politica dopo il lancio, lo scorso anno, di ChatGPT, un chatbot che ha fatto scalpore grazie alla sua capacità di generare risposte testuali a suggerimenti digitati dall’uomo, dalla preparazione di lunghi saggi accademici a ricette e persino domande di lavoro. aiutare le persone a ottenere la revoca delle multe per il parcheggio.
Anche strumenti di imaging basati sull’intelligenza artificiale come Midjourney hanno sbalordito gli osservatori producendo immagini realistiche, inclusa la famigerata “fotografia” di un nonno con un piumino, sollevando preoccupazioni che attori disonesti possono utilizzare gli strumenti di intelligenza artificiale per produrre una massiccia disinformazione.
Questi timori hanno alimentato le preoccupazioni La potenza potenziale della prossima generazione di modelli di intelligenza artificiale. Hassabis, la cui unità sta lavorando su un nuovo modello di intelligenza artificiale chiamato Genesis che genererà immagini e testo, ha detto che intende introdurre nei modelli un sistema in stile Kitemark.
Quest’anno, il governo del Regno Unito ha lanciato la Frontier AI Task Force, che mira a creare linee guida per testare gli ultimi modelli di intelligenza artificiale e potrebbe diventare un punto di riferimento per gli sforzi di test internazionali.
Hasabis ha detto: “Posso immaginare che in futuro avrai questa batteria di 1.000 test, o forse 10.000 test, e poi otterrai un Kitemark di sicurezza.”