Dare ai sistemi di intelligenza artificiale un “monologo interiore” li rende molto più bravi a ragionare, dimostra una nuova ricerca.
Questo metodo addestra i sistemi di intelligenza artificiale a pensare prima di rispondere ai suggerimenti, proprio come molte persone pensano a cosa dovremmo dire dopo prima di parlare. Questo è diverso da come gli scienziati hanno addestrato i chatbot IA di base, come ChatGPT, che non “pensano” a ciò che stai digitando né anticipano diverse possibilità per i passaggi successivi in una conversazione.
Il nuovo metodo, chiamato Quiet-STAR, ordina al sistema AI di generare diverse giustificazioni interne in parallelo prima di rispondere a un suggerimento conversazionale. Quando l’intelligenza artificiale chiede risposte, genera un mix di queste previsioni con e senza giustificazione e stampa la risposta migliore, che può essere verificata da un partecipante umano a seconda della natura della domanda.
Infine, impara eliminando le giustificazioni che si rivelano errate. In effetti, il metodo di formazione offre agli agenti di intelligenza artificiale la capacità di anticipare le conversazioni future e di apprendere dalle conversazioni in corso.
Imparentato: La singolarità dell'intelligenza artificiale potrebbe arrivare nel 2027 con la “super intelligenza artificiale” prima di quanto pensiamo, afferma il capo scienziato
I ricercatori hanno applicato l’algoritmo Quiet-STAR a Mistral 7B, un modello di linguaggio di grandi dimensioni (LLM) open source e hanno pubblicato i risultati il 14 marzo in un database di prestampa. arXiv. (Il documento non è stato ancora sottoposto a peer review.)
La versione addestrata con Quiet-STAR del Mistral 7B ha ottenuto il 47,2% nel test di ragionamento contro il 36,3% prima di qualsiasi addestramento. Tuttavia, non ha superato il test di matematica della scuola, ricevendo un voto del 10,9%. Ma questo era quasi il doppio del punteggio iniziale del 5,9% nella versione vanilla.
Modelli come ChatGPT e Gemini sono costruiti da reti neurali, che sono insiemi di algoritmi di apprendimento automatico disposti in modo da imitare la struttura e i modelli di apprendimento di una rete neurale. la mente umana. Tuttavia, i sistemi costruiti utilizzando questa architettura sono molto scarsi nel ragionamento logico o nel contesto – e i chatbot basati sull’intelligenza artificiale non hanno una reale “comprensione”.
I precedenti tentativi di migliorare le capacità di pensiero dei titolari di LLM sono stati altamente specifici del dominio e non possono essere applicati a diversi tipi di modelli di intelligenza artificiale.
L'algoritmo di inferenza soggettiva (STAR), che i ricercatori hanno utilizzato come base per il loro lavoro, è un esempio di tale algoritmo di addestramento, ma è ostacolato da queste limitazioni.
Gli scienziati che hanno sviluppato Quiet-STAR gli hanno dato questo nome perché i principi STaR possono essere applicati silenziosamente in background e generalmente a diversi tipi di LLM, indipendentemente dai dati di training originali. Ora vogliono esplorare come tecniche come le loro possano colmare il divario tra i sistemi di intelligenza artificiale basati su reti neurali e le capacità di pensiero di tipo umano.
“Giocatore. Aspirante evangelista della birra. Professionista della cultura pop. Amante dei viaggi. Sostenitore dei social media.”