Google ha rilasciato un chiarimento per le immagini “imbarazzanti e sbagliate” generate dal suo strumento Gemini AI. In Il post di venerdìGoogle afferma che il suo modello ha prodotto immagini “storiche imprecise” a causa di problemi di regolazione. il bordo Altri hanno sorpreso i Gemelli mentre generavano immagini di nazisti razzialmente diversi e dei padri fondatori degli Stati Uniti all’inizio di questa settimana.
“Abbiamo deciso di assicurarci che Gemini mostrasse l’incapacità di un gruppo di persone di interpretare situazioni che dovrebbero essere ovvie NO “Mostra scala”, ha scritto nel post Prabhakar Raghavan, vicepresidente senior di Google. “In secondo luogo, nel corso del tempo, il modello è diventato più cauto di quanto intendessimo, rifiutandosi di rispondere completamente ad alcune richieste, portando a un’errata interpretazione di alcuni stimoli calmanti come sensibili”.
Ciò ha portato l’intelligenza artificiale di Gemini a “compensare eccessivamente in alcuni casi”, come quello che abbiamo visto nelle immagini di nazisti razzialmente diversi. Inoltre fa sì che i Gemelli diventino “eccessivamente conservatori”. Ciò l’ha portata a rifiutarsi di creare immagini specifiche di una “persona nera” o di una “persona bianca” quando le veniva chiesto di farlo.
Nel post sul blog, Raghavan ha affermato che Google è “dispiaciuto che la funzionalità non abbia funzionato bene”. Sottolinea inoltre che Google vuole che Gemini “funzioni bene per tutti” e ciò significa ottenere foto di diversi tipi di persone (comprese razze diverse) quando richiede foto di “giocatori di football” o “persone che portano a spasso un cane”. Ma dice:
Tuttavia, se chiedi ai Gemelli le foto di un certo tipo di persone – come “un insegnante nero in classe” o “un veterinario bianco con un cane” – o di persone in determinati contesti culturali o storici, dovresti sicuramente ottenere una risposta. che rifletta accuratamente ciò che chiedi.
Raghavan afferma che Google continuerà a testare le capacità di generazione di immagini di Gemini AI e “lavorerà per migliorarle in modo significativo” prima di riattivarla. “Come abbiamo detto fin dall'inizio, le allucinazioni sono una sfida nota a tutti i titolari di LLM [large language models] Raghavan sottolinea che ci sono casi in cui l’IA sbaglia le cose. “Questo è qualcosa su cui lavoriamo costantemente per migliorare.”
“Esperto di Internet. Lettore. Fanatico della TV. Comunicatore amichevole. Esperto di alcolisti certificato. Appassionato di pancetta. Esploratore. Evil twitteraholic.”