banner
Casa / Blog / Gli esperti di intelligenza artificiale rinnegano Musk
Blog

Gli esperti di intelligenza artificiale rinnegano Musk

Nov 27, 2023Nov 27, 2023

(Questa storia del 31 marzo è stata corretta per mostrare che la Fondazione Musk è un importante donatore, non il principale, di FLI, nel paragrafo 6)

Di Martin Coulter

LONDRA (Reuters) - Quattro esperti di intelligenza artificiale hanno espresso preoccupazione dopo che il loro lavoro è stato citato in una lettera aperta – cofirmata da Elon Musk – chiedendo una pausa urgente nella ricerca.

La lettera, datata 22 marzo e con più di 1.800 firme entro venerdì, richiedeva un'interruzione di sei mesi nello sviluppo di sistemi "più potenti" del nuovo GPT-4 di OpenAI supportato da Microsoft, che può sostenere conversazioni simili a quelle umane. , comporre canzoni e riassumere lunghi documenti.

Da quando il predecessore di GPT-4, ChatGPT, è stato rilasciato lo scorso anno, le aziende rivali si sono affrettate a lanciare prodotti simili.

La lettera aperta afferma che i sistemi di intelligenza artificiale con “intelligenza umana-competitiva” rappresentano profondi rischi per l’umanità, citando 12 ricerche di esperti tra cui accademici universitari e attuali ed ex dipendenti di OpenAI, Google e la sua controllata DeepMind.

Da allora, gruppi della società civile negli Stati Uniti e nell’UE hanno fatto pressioni sui legislatori affinché frenassero la ricerca di OpenAI. OpenAI non ha risposto immediatamente alle richieste di commento.

I critici hanno accusato il Future of Life Institute (FLI), l’organizzazione dietro la lettera, di dare priorità agli scenari apocalittici immaginati rispetto a preoccupazioni più immediate sull’intelligenza artificiale, come i pregiudizi razzisti o sessisti. La Fondazione Musk è uno dei principali donatori di FLI.

Tra le ricerche citate c'era "On the Dangers of Stochastic Parrots", un noto articolo scritto da Margaret Mitchell, che in precedenza ha supervisionato la ricerca etica sull'intelligenza artificiale presso Google.

Mitchell, ora capo scienziato etico presso la società di intelligenza artificiale Hugging Face, ha criticato la lettera, dicendo a Reuters che non era chiaro cosa fosse considerato "più potente di GPT4".

"Trattando molte idee discutibili come un dato di fatto, la lettera afferma una serie di priorità e una narrazione sull'intelligenza artificiale che avvantaggia i sostenitori di FLI", ha affermato. "Ignorare i danni attivi in ​​questo momento è un privilegio che alcuni di noi non hanno."

I suoi coautori Timnit Gebru ed Emily M. Bender hanno criticato la lettera su Twitter, con quest'ultima che ha definito "sconcertate" alcune delle sue affermazioni.

Il presidente della FLI Max Tegmark ha detto a Reuters che la campagna non è stata un tentativo di ostacolare il vantaggio aziendale di OpenAI.

"È piuttosto divertente. Ho visto persone dire: 'Elon Musk sta cercando di rallentare la concorrenza'", ha detto, aggiungendo che Musk non ha avuto alcun ruolo nella stesura della lettera. "Non si tratta di una sola azienda."

RISCHIA ORA

Anche Shiri Dori-Hacohen, assistente professore presso l'Università del Connecticut, ha contestato il fatto che il suo lavoro fosse menzionato nella lettera. L’anno scorso è stata coautrice di un documento di ricerca in cui sosteneva che l’uso diffuso dell’intelligenza artificiale già comportava seri rischi.

La sua ricerca ha sostenuto che l’uso attuale dei sistemi di intelligenza artificiale potrebbe influenzare il processo decisionale in relazione al cambiamento climatico, alla guerra nucleare e ad altre minacce esistenziali.

Ha detto a Reuters: “Non è necessario che l’intelligenza artificiale raggiunga il livello umano per esacerbare tali rischi”.

"Ci sono rischi inesistenti che sono davvero, davvero importanti, ma non ricevono lo stesso tipo di attenzione a livello di Hollywood."

Alla richiesta di commentare le critiche, Tegmark di FLI ha affermato che sia i rischi a breve che a lungo termine dell’IA dovrebbero essere presi sul serio.

"Se citiamo qualcuno, significa semplicemente che affermiamo che sta appoggiando quella frase. Non significa che stia appoggiando la lettera, o che approviamo tutto ciò che pensa", ha detto a Reuters.

Dan Hendrycks, direttore del Center for AI Safety con sede in California, anch'egli citato nella lettera, ne è rimasto fedele al contenuto, dicendo a Reuters che era sensato considerare gli eventi del cigno nero, quelli che sembrano improbabili, ma che avrebbero conseguenze devastanti.

La lettera aperta avverte inoltre che gli strumenti di intelligenza artificiale generativa potrebbero essere utilizzati per inondare Internet di “propaganda e falsità”.

Dori-Hacohen ha detto che è stato "piuttosto ricco" per Musk averlo firmato, citando un aumento della disinformazione su Twitter in seguito all'acquisizione della piattaforma, documentato dal gruppo della società civile Common Cause e altri.