martedì, Novembre 5, 2024

“60 Minutes” ha fatto un’affermazione incredibilmente falsa su un chatbot AI di Google

| Data:

Da quando OpenAI ha lanciato ChatGPT nel mondo, abbiamo visto che ci sono volute persone a cui non crederesti. Alcune persone hanno affermato che i chatbot hanno un’agenda risvegliata. Il senatore degli Stati Uniti Chris Murphy ha twittato che ChatGPT “ha insegnato” chimica avanzata. Anche i giornalisti esperti di tecnologia hanno scritto articoli su come funziona Il chatbot si è innamorato di loro. Sembra che il mondo stia reagendo all’IA nello stesso modo in cui probabilmente hanno reagito gli uomini delle caverne quando hanno visto il fuoco per la prima volta: con totale confusione e balbettii incoerenti.

Uno degli esempi più recenti viene da 60 minuti, che ha lanciato la sua voce sul ring con un nuovo episodio incentrato sulle innovazioni nell’intelligenza artificiale andato in onda domenica sulla CBS. L’episodio presentava interviste con artisti del calibro di Sundar Pichai, CEO di Google, e includeva contenuti discutibili Reclami su uno dei grandi modelli linguistici (LLM) dell’azienda.

Il segmento riguarda il comportamento emergente, che descrive un effetto collaterale inaspettato di un sistema di intelligenza artificiale che non era necessariamente previsto dagli sviluppatori del modello. Abbiamo già visto emergere comportamenti emergenti in altri recenti progetti di intelligenza artificiale. Ad esempio, i ricercatori hanno recentemente utilizzato ChatGPT per creare personaggi digitali con obiettivi e background in uno studio pubblicato online la scorsa settimana. Notano che il sistema esegue vari comportamenti emergenti come la condivisione di nuove informazioni da un personaggio all’altro e persino la formazione di relazioni tra loro, qualcosa che gli autori non avevano inizialmente pianificato per il sistema.

Il comportamento emergente è certamente un argomento utile da discutere in un programma di notizie. dov’è il 60 minuti Il video prende una svolta, tuttavia, quando veniamo a conoscenza delle affermazioni secondo cui il chatbot di Google è stato effettivamente in grado di insegnare a se stesso una lingua che prima non conosceva dopo essere stato interrogato in quella lingua. “Ad esempio, un programma di intelligenza artificiale di Google si è adattato da solo dopo che gli era stato detto di farlo nella lingua del Bangladesh, che non era stato addestrato a conoscere”, ha detto nel video il reporter di CBS News Scott Pelley.

READ  Risposte del cruciverba del 2 febbraio 2024

Si scopre che era una completa BS. Non solo il robot non può imparare una lingua straniera che “non si è mai addestrato a conoscere”, ma non ha mai imparato da solo una nuova abilità. L’intera clip ha spinto i ricercatori e gli esperti di intelligenza artificiale a criticare l’inquadratura fuorviante del telegiornale su Twitter.

“Spero certamente che alcuni giornalisti esamineranno l’intero segmento @60Minute su Google Bard come caso di studio su come *non* coprire l’IA”, ha affermato Melanie Mitchell, ricercatrice e professoressa di intelligenza artificiale presso il Santa Fe Institute, ha scritto in un tweet.

“Smettila di pensare in modo magico alla tecnologia! Non è possibile per #AI rispondere in bengalese, a meno che i dati di addestramento non siano stati contaminati con il bengalese o addestrati in una lingua che si sovrappone al bengalese, come l’assamese, l’oriya o l’hindi”, ha detto la signora. Alex O. ricercatore presso il Massachusetts Institute of Technology, Aggiunto in un altro post.

Vale la pena notare 60 minuti La clip non ha detto esattamente quale IA hanno usato. Tuttavia, un portavoce della CBS ha detto a The Daily Beast che il segmento non era una discussione sul Bard, ma un programma separato di intelligenza artificiale chiamato PaLM, la cui tecnologia di base è stata successivamente integrata nel Bard.

Il motivo per cui questa parte è stata così frustrante per questi esperti è che ignora e gioca con la realtà di ciò che l’IA generativa può effettivamente fare. Non può “insegnare” a se stesso una lingua se non ha accesso ad essa in primo luogo. Sarebbe come cercare di insegnarti il ​​mandarino ma l’hai sentito solo dopo che qualcuno ti ha chiesto il mandarino una volta.

Dopotutto, il linguaggio è incredibilmente complesso, con sfumature e regole che richiedono un incredibile grado di contesto per essere compreso e comunicato. Non c’è modo nemmeno per il LLM più avanzato di gestire e apprendere tutto ciò con pochi suggerimenti.

READ  L'ASUS ROG STRIX RTX 4080 SUPER ha un prezzo di £ 1.350 nel Regno Unito, ovvero il 40% in più rispetto al prezzo consigliato di NVIDIA

PaLM è già addestrato con il bengalese, la lingua dominante del Bangladesh. Margaret Mitchell (nessuna parentela), ricercatrice nello Startup Lab di AT HuggingFace e precedentemente in Google, lo ha spiegato in Argomento del tweet Fai una discussione sul perché 60 minuti era sbagliata.

Mitchell ha notato che in una dimostrazione del 2022, Google ha dimostrato che PaLM può comunicare e rispondere alle richieste in bengalese. IL Carta dietro PaLM Ha rivelato in una scheda tecnica che il modello è stato effettivamente addestrato sulla lingua con circa 194 milioni di simboli nell’alfabeto bengalese.

Quindi non ha imparato magicamente nulla tramite un singolo suggerimento. Conosceva già la lingua.

Non è chiaro perché Pichai, il CEO di Google, si sia seduto per l’intervista e abbia permesso che queste accuse continuassero incontrastate. (Google non ha risposto alle richieste di commento.) Da quando l’episodio è andato in onda, è rimasto in silenzio nonostante gli esperti abbiano sottolineato le affermazioni fuorvianti e false fatte nella clip. Su Twitter Margaret Mitchell Proposta La ragione alla base di ciò potrebbe essere una combinazione di leader di Google che non sanno come funzionano i loro prodotti e anche che consente la diffusione di messaggi scadenti per affrontare l’attuale clamore attorno all’IA generativa.

“Io sospetto [Google executives] Non capisco letteralmente come funzioni, Mitchell cinguettio. “Quello che ho scritto sopra è molto probabilmente una novità per loro. E sono motivati ​​a non capire (PARLA CON GLI OCCHI A QUESTA SCHEDA TECNICA!!).”

Anche la seconda metà del video può essere vista come problematica in quanto Pichai e Billy discutono di un racconto creato da Bard che “suonava molto umano”, lasciando i due uomini un po’ scossi.

La verità è che questi prodotti non sono magici. Non sono in grado di essere “umani” perché non sono umani. Sono predittori di testo come quelli sul tuo telefono, addestrati a trovare le parole e le frasi più probabili dopo una serie di parole in frasi. Dire che esistono potrebbe dare loro un livello di potere che potrebbe essere incredibilmente pericoloso.

READ  Preordini iPhone 14 in ritardo: ecco gli ultimi tempi di consegna

Dopotutto, gli utenti possono utilizzare questi sistemi di intelligenza artificiale generativa per fare cose come diffondere disinformazione. Abbiamo già visto questo manipolare le sembianze delle persone e persino le loro voci.

Anche un chatbot da solo può causare danni se finisce per produrre risultati distorti, cosa che abbiamo già visto con artisti del calibro di ChatGPT e Bard. Conoscendo la propensione di questi chatbot ad allucinare e fabbricare risultati, potrebbero essere in grado di diffondere informazioni errate a utenti ignari.

Anche la ricerca lo conferma. Uno studio recente pubblicato in Rapporti scientifici Ha scoperto che le risposte umane alle domande etiche potrebbero essere facilmente influenzate dalle argomentazioni avanzate da ChatGPT e persino che gli utenti hanno notevolmente sottovalutato quanto fossero influenzati dai robot.

Affermazioni fuorvianti su 60 minuti In realtà è solo un sintomo della maggiore necessità di alfabetizzazione digitale in un momento in cui ne abbiamo più bisogno. Molti esperti di intelligenza artificiale affermano che ora, più che mai, è il momento in cui le persone devono essere consapevoli di ciò che l’IA può e non può fare. Questi fatti di base sulla robotica devono essere comunicati in modo efficace anche al grande pubblico.

Ciò significa che le persone con le piattaforme più grandi e le voci più forti (come i media, i politici e gli amministratori delegati di Big Tech) hanno la maggiore responsabilità nel garantire un futuro di IA più sicuro e più istruito. Se non lo facciamo, potremmo finire come gli uomini delle caverne di cui sopra, giocando con la magia del fuoco e bruciandoci nel processo.

Popolare

Altri simili