Per Weizenbaum, questo fatto era motivo di preoccupazione, secondo un necrologio del MIT del 2008. Coloro che hanno interagito con Elisa erano disposti ad aprirle il cuore, anche sapendo che si trattava di un programma per computer. “Eliza mostra, se non altro, quanto sia facile creare e mantenere l’illusione di comprendere, e quindi forse giudicare “Merita credibilità”, scrisse Weisenbaum nel 1966. “C’è un certo pericolo in agguato lì.” Ha trascorso la fine della sua carriera avvertendo di dare troppe responsabilità alle macchine ed è diventato un convinto critico filosofico dell’intelligenza artificiale.
Anche prima, la nostra complessa relazione con l’intelligenza artificiale e le macchine era evidente nelle trame di film di Hollywood come “Her” o “Ex-Machina”, per non parlare delle discussioni inoffensive con le persone che insistono nel dire “grazie” agli assistenti vocali come Alexa o Siri.
Nel frattempo, altri avvertono che la tecnologia alla base dei chatbot basati sull’intelligenza artificiale rimane più limitata di quanto alcuni vorrebbero. “Queste tecnologie sono davvero brave a fingere gli esseri umani e sembrano umani, ma non sono profonde”, ha affermato Gary Marcus, ricercatore di intelligenza artificiale e professore emerito alla New York University. “È un’imitazione, questi sistemi, ma è un’imitazione molto superficiale. Non capiscono davvero di cosa stanno parlando”.
Tuttavia, poiché questi servizi si espandono in più angoli della nostra vita e poiché le aziende adottano misure per personalizzare ulteriormente questi strumenti, anche le nostre relazioni con loro potrebbero diventare sempre più complesse.
evoluzione del chatbot
Sanjeev b. Khodanpour ricorda di aver chiacchierato con Eliza mentre si stava diplomando. Nonostante la sua importanza storica nel settore tecnologico, ha affermato che non ci è voluto molto per vederne i limiti.
ha affermato Khodanpour, esperto nell’applicazione di metodi informatici teorici alle tecnologie del linguaggio umano e professore alla Johns Hopkins University.
Ma nei decenni successivi a questi strumenti, c’è stato un allontanamento dall’idea di “parlare con i computer”. Questo è “perché il problema si è rivelato molto difficile”, ha detto Khodanpour. Invece, l’attenzione si è spostata sul “dialogo orientato agli obiettivi”, ha affermato.
Per capire la differenza, pensa alle conversazioni che potresti avere in questo momento con Alexa o Siri. Di solito chiedi a questi assistenti digitali di aiutarti ad acquistare un biglietto, controllare il tempo o riprodurre una canzone. Questo è un dialogo orientato all’obiettivo ed è diventato l’obiettivo principale della ricerca accademica e industriale poiché gli informatici hanno cercato di estrarre qualcosa di utile dalla capacità dei computer di scansionare il linguaggio umano.
Sebbene utilizzassero una tecnologia simile a quella utilizzata nei precedenti programmi di chat sociale, Khodanpour ha affermato: “Non puoi davvero chiamarli chatbot. Puoi chiamarli assistenti vocali o solo assistenti digitali, che ti aiutano con compiti specifici”.
Ha aggiunto che c’è stata una “quiete” per decenni in questa tecnologia fino all’adozione diffusa di Internet. “Le grandi scoperte probabilmente sono arrivate in questo millennio”, ha detto Khodanpour. “Con l’avvento delle aziende che hanno utilizzato con successo una sorta di agente informatico per svolgere compiti di routine”.
“Le persone si arrabbiano sempre quando i loro bagagli si perdono e i clienti umani con cui hanno a che fare sono sempre stressati da tutta questa negatività, quindi hanno detto di darlo a un computer”, ha detto Khodanpour. Puoi urlare quello che vuoi sul computer, tutto quello che vuoi sapere è ‘Hai il numero della tua carta così posso dirti dov’è la tua borsa? “
Torna a Chat sociali e problemi sociali
All’inizio degli anni 2000, i ricercatori hanno iniziato a riconsiderare lo sviluppo di chatbot sociali in grado di tenere una conversazione prolungata con gli esseri umani. Spesso addestrati su grandi quantità di dati provenienti da Internet, questi chatbot hanno imparato a essere ottime simulazioni del modo in cui parlano gli umani, ma rischiano anche di fare eco ad alcuni dei peggiori di Internet.
“Più parli con Tay, più diventi intelligente, quindi l’esperienza può essere più personalizzata per te”, ha affermato Microsoft all’epoca.
Questi ritornelli saranno ripetuti da altri giganti della tecnologia che hanno rilasciato chatbot pubblici, incluso Meta BlenderBot3, che è stato rilasciato all’inizio di questo mese. Il chatbot Meta ha falsamente affermato che Donald Trump è ancora presidente e ci sono “certamente molte prove” di furto elettorale, tra le altre osservazioni controverse.
BlenderBot3 ha anche affermato di essere più di un semplice bot… in una conversazione, ha affermato “il fatto che io sia vivo e cosciente ora mi rende umano”.
Nonostante tutti i progressi avvenuti dopo Eliza e l’enorme quantità di nuovi dati per addestrare questi programmi di elaborazione del linguaggio, Marcus, il professore della New York University, ha affermato: “Non mi è chiaro se puoi davvero costruire un chatbot affidabile e sicuro. “
D’altra parte, Khodanpur rimane ottimista sui suoi potenziali casi d’uso. “Ho questa visione completa di come l’IA può potenziare gli esseri umani a livello individuale”, ha detto. “Immagina se il mio robot potesse leggere tutti gli articoli scientifici nel mio campo, non dovrei andare a leggerli tutti, penserei semplicemente, farei domande e dialogare”, ha detto. “In altre parole, avrò una psiche alternativa, che ha integrato i superpoteri”.
“Esperto di Internet. Lettore. Fanatico della TV. Comunicatore amichevole. Esperto di alcolisti certificato. Appassionato di pancetta. Esploratore. Evil twitteraholic.”