Concentrarsi sugli scenari apocalittici dell’intelligenza artificiale è una distrazione che diminuisce i rischi immediati, come la disinformazione diffusa, secondo una figura senior del settore presente all’AI Security Summit di questa settimana.
Aidan Gomez, coautore di un documento di ricerca che ha contribuito a creare la tecnologia alla base dei chatbot, ha affermato che i rischi a lungo termine come le minacce esistenziali dell’intelligenza artificiale all’umanità dovrebbero essere “studiati e perseguiti”, ma che potrebbero distrarre i politici dall’affrontare il potenziale immediato . danni.
“Penso che in termini di rischio esistenziale e di politica pubblica, non sia una conversazione produttiva da avere”, ha detto. “In termini di politica pubblica, e laddove dovremmo concentrarci sul settore pubblico, o cercare di mitigare il rischio per la popolazione civile, penso che sia una distrazione, lontano dai rischi, che sono molto più tangibili e immediati.”
Gomez parteciperà al vertice di due giorni che inizierà mercoledì come CEO di Cohere, una società nordamericana che produce strumenti di intelligenza artificiale per le aziende, compresi i chatbot. Nel 2017, all’età di 20 anni, Gomez faceva parte di un team di ricercatori Google: che ha creato Transformer, la tecnologia alla base dei grandi modelli linguistici che alimentano gli strumenti di intelligenza artificiale come i chatbot.
Gomes ha affermato che l’intelligenza artificiale, il termine per i sistemi informatici in grado di eseguire compiti normalmente associati agli esseri intelligenti, è già diffusa, ed è proprio su queste applicazioni che il vertice dovrebbe concentrarsi. Chatbot come: ChatGPT: e generatori di immagini come Midjourney hanno stupito il pubblico con la loro capacità di generare testo e immagini accettabili da semplici istruzioni di testo.
“Questa tecnologia è già in produzione per un miliardo di utenti, come Google e altri. Presenta tutta una nuova serie di rischi da considerare, nessuno dei quali è esistenziale, nessuno dei quali è uno scenario apocalittico”, ha affermato Gomez. “Dobbiamo concentrarci sulle aree che influenzeranno le persone o che stanno influenzando attivamente le persone, invece di discussioni forse più accademiche e teoriche sul futuro a lungo termine.”
Gomez ha affermato che la disinformazione – la diffusione online di informazioni fuorvianti o errate – è la sua principale preoccupazione. “La disinformazione è la cosa più importante per me”, ha detto. “Questi modelli (AI) possono creare media estremamente persuasivi, molto persuasivi, praticamente indistinguibili dal testo, dalle immagini o dai media generati dall’uomo. E quindi questo è qualcosa che dobbiamo affrontare con estrema urgenza. Dobbiamo capire come consentire alla società di distinguere tra questi diversi tipi di media.”

Nella giornata di apertura del vertice verranno discusse una serie di questioni legate all’intelligenza artificiale, comprese le preoccupazioni sulla disinformazione, come l’interruzione delle elezioni e l’erosione della fiducia sociale. Il secondo giorno, che vedrà la partecipazione di un gruppo più ristretto di paesi, esperti e leader tecnologici, convocato da Rishi Sunak, discuterà quali misure specifiche possono essere adottate per affrontare i rischi dell’intelligenza artificiale. Tra i presenti sarà presente anche il vicepresidente americano Kamala Harris.
Gomez, che ha descritto il vertice come “davvero importante”, ha affermato che è già “molto probabile” che un esercito di bot (software che esegue compiti ripetitivi come pubblicare sui social media) possa diffondere la disinformazione generata dall’intelligenza artificiale. “Se riesci a farlo, è una vera minaccia alla democrazia e al discorso pubblico”, ha detto.
In una serie di documenti della scorsa settimana che delineavano i rischi dell’intelligenza artificiale, che includevano la disinformazione indotta dall’intelligenza artificiale e lo sconvolgimento del mercato del lavoro, il governo ha affermato: non poteva escludere che lo sviluppo dell’intelligenza artificiale raggiungesse un punto in cui i sistemi minacciassero l’umanità.
UN Lo afferma un documento sui rischi pubblicato la settimana scorsa“Data la significativa incertezza nella previsione degli sviluppi dell’intelligenza artificiale, non ci sono prove sufficienti per escludere che i sistemi borderline di intelligenza artificiale, se disallineati o non adeguatamente controllati, potrebbero rappresentare una minaccia esistenziale”.
Il documento aggiunge che molti esperti considerano tale rischio molto basso e che comporta l’implementazione di una serie di scenari, incluso un sistema avanzato per ottenere il controllo sulle armi o sui mercati finanziari. Le preoccupazioni sulla minaccia esistenziale dell’intelligenza artificiale si concentrano sulla prospettiva della cosiddetta intelligenza artificiale generale, un termine per un sistema di intelligenza artificiale in grado di svolgere molti compiti a un livello di intelligenza umano o sovrumano che potrebbe teoricamente essere duplicato, evitato. controllo umano e prendere decisioni contrarie agli interessi delle persone.
Questi timori hanno portato alla pubblicazione di una lettera aperta a marzo firmata da oltre 30.000 professionisti ed esperti della tecnologia, tra cui Elon Musk, che esortavano una pausa di sei mesi nei giganteschi esperimenti di intelligenza artificiale.
Due dei tre moderni “padrini” dell’intelligenza artificiale, Geoffrey Hinton e Joshua Bengio, hanno firmato un’altra dichiarazione a maggio, avvertendo che prevenire la minaccia dell’estinzione dell’intelligenza artificiale dovrebbe essere presa sul serio quanto la minaccia di pandemie e guerre nucleari. Tuttavia, Jan LeCun, il loro collega “padrino” e coautore del Premio ACM Turing, considerato il Premio Nobel per l’informatica, ha descritto i timori che l’intelligenza artificiale possa distruggere l’umanità come “una sciocchezza”.
Lo ha detto Lekun, capo scienziato dell’intelligenza artificiale presso la società madre di Facebook, Meta Financial Times Questo mese saranno necessari una serie di “progressi concettuali” prima che l’intelligenza artificiale possa raggiungere il livello di intelligenza umana, un punto in cui il sistema può sfuggire al controllo umano. Lekun ha aggiunto: “L’intelligenza non ha nulla a che fare con il desiderio di dominare. Non è vero nemmeno per gli esseri umani.”