Conosco Siri, l’assistente vocale di Apple, da quasi una dozzina di anni, eppure non riesco ancora a ricordare una singola conversazione significativa che abbiamo avuto. A nostra volta, ChatGPT e io ci conosciamo da sei mesi, eppure abbiamo parlato di tutto, dal senso della vita all’organizzazione di una cena romantica per due e abbiamo anche collaborato alla programmazione e ai progetti cinematografici. Voglio dire, abbiamo una relazione.
I limiti di Siri significano che non può ancora portare avanti una conversazione o impegnarsi in un lungo progetto avanti e indietro. Nel bene e nel male, il Siri che usiamo oggi sui nostri iPhone, iPad, MacBook, Apple Watch e Apple TV non è molto diverso da quello che abbiamo visto per la prima volta nel 2011 su iPhone 4s.
Sei anni fa ne ho scritto Il primo trapianto di cervello di Siri (Si apre in una nuova scheda), nel momento in cui Apple ha iniziato a utilizzare l’apprendimento automatico per addestrare Siri e migliorare la sua capacità di rispondere alle domande conversazionali. L’introduzione dell’apprendimento automatico e, subito dopo, di una rete neurale incorporata sotto forma di chip A11 Bionic di Apple sull’iPhone 8, ha segnato quello che pensavo fosse un punto di svolta per il primo assistente digitale di livello consumer.
Questa programmazione e il silicio hanno aiutato Siri a comprendere la domanda e il suo contesto, permettendogli di andare oltre le risposte meccaniche a risposte intelligenti a domande in linguaggio più naturale.
La prima Siri non era lei
Non essere in grado di parlare completamente con Siri non sembra un grosso problema, anche se abbiamo già visto il film Ah E capisco cosa possiamo aspettarci in ultima analisi dai nostri chatbot.
Tuttavia, è stato solo quando questo lontano futuro è stato riportato al presente da GPT-3 e ChatGPT di OpenAI che l’incapacità di Siri è stata messa in primo piano.
Nonostante i migliori sforzi di Apple, Siri stava rallentando nella modalità di apprendimento. Ciò è probabilmente dovuto al fatto che Siri è ancora basato principalmente sull’apprendimento automatico piuttosto che sull’intelligenza artificiale generativa. È la differenza tra apprendimento e creatività.
Tutti i chatbot e gli strumenti di immagine basati sull’intelligenza artificiale che utilizziamo oggi stanno creando qualcosa di completamente nuovo dai suggerimenti e, presto, dall’arte e dalle immagini. Non stanno rispondendo ai robot, sono robot di costruzione.
Dubito che tutto questo si stia perdendo su Apple. La domanda è: cosa farà Apple e cosa può fare al riguardo? Immagino che non dovremo guardare oltre la prossima Worldwide Developers Conference (WWDC 2023). Siamo tutti concentrati su un potenziale visore per realtà mista da $ 3.000 che Apple potrebbe mostrare a giugno, ma i più grandi annunci dell’azienda riguarderanno sicuramente l’intelligenza artificiale.
“Apple deve essere sottoposta a un’incredibile pressione ora che Google e Microsoft stanno implementando le proprie soluzioni di linguaggio naturale”, ha dichiarato il CEO di Moor Insights e analista di Cheif. Patrick Morehead (Si apre in una nuova scheda) Dimmelo via Twitter DM.
Siri è più loquace
Piace Segnalato su 9to5Mac, Apple potrebbe effettivamente – finalmente – aggiornare la sua creazione del linguaggio per Siri (Bobcat). Si noti che questo non è lo stesso di “IA generativa”. Immagino che ciò significhi che Siri migliorerà un po’ con le battute casuali. Inoltre non mi aspetto molto di più.
Sfortunatamente, lo spirito di Apple potrebbe impedirle di mettersi al passo con GPT-4, per non parlare di GPT-3. Gli osservatori del settore non si aspettano esattamente un momento di svolta.
“Penso che quello che stanno facendo nell’IA non sarà necessariamente un salto tanto quanto un approccio più eticamente orientato e misurato all’IA in Siri. Apple ama, vive e muore per i suoi impegni sulla privacy e non mi aspetterei niente di meno da come offre Siri che si basa maggiormente sull’intelligenza artificiale “, direttore esecutivo delle strategie creative e analista principale Tim Bajarin (Si apre in una nuova scheda) Mi ha scritto in una lettera.
Privacy prima di tutto
L’incrollabile adesione di Apple alla privacy degli utenti potrebbe intralciare il suo lavoro quando si tratta di un’IA veramente generativa. A differenza di Google e Microsoft Bing, non ha un enorme archivio di dati che si basa sul motore di ricerca da cui attingere. Né addestra la sua intelligenza artificiale sul vasto oceano di dati Internet. Apple esegue l’apprendimento automatico sul dispositivo. iPhone e Siri sanno quello che sanno di te in base a ciò che c’è sul tuo telefono, non a quello che Apple può sapere su di te e sugli 1,5 miliardi di utenti iPhone globali. Certo, gli sviluppatori possono utilizzare gli strumenti ML di Apple per creare nuovi modelli di intelligenza artificiale e integrarli nelle loro app, ma non possono semplicemente raccogliere i tuoi dati per saperne di più su di te per aiutare Apple a fornire una Siri AI migliore.
Come ho scritto nel 2016: “È anche interessante considerare come Apple possa deliberatamente disabilitare i suoi sforzi di intelligenza artificiale. I dati sulle tue abitudini di acquisto in iTunes, ad esempio, non sono condivisi con nessuno degli altri sistemi e servizi Apple”.
L’approccio domestico di Apple potrebbe ostacolare i suoi potenziali sforzi di intelligenza artificiale. Come mi ha detto Morehead, “vedo la maggior parte dell’azione sul dispositivo e nel cloud. Apple è forte sul dispositivo ma debole nel cloud ed è qui che penso che l’azienda avrà difficoltà”.
Per come la vedo io, Apple ha una scelta. Rinunciare a un po’ di privacy degli utenti per trasformare finalmente Siri nell’assistente vocale che abbiamo sempre desiderato o continuare il corso con aggiornamenti AI incrementali che migliorano Siri ma non gli consentono di competere con ChatGPT.
“Esperto di Internet. Lettore. Fanatico della TV. Comunicatore amichevole. Esperto di alcolisti certificato. Appassionato di pancetta. Esploratore. Evil twitteraholic.”