Sundar Pichai e Tim Cook
Fonte: Reuters; Cammello
mela Apple ha dichiarato lunedì che i modelli di intelligenza artificiale che alimentano il suo sistema di intelligenza artificiale sono stati pre-addestrati su processori progettati da Google, segno che le grandi aziende tecnologiche sono alla ricerca di alternative. Nvidia Quando si tratta di formazione avanzata sull’intelligenza artificiale.
La scelta di Apple Google L’Unità locale di elaborazione tensore (TPU) per la formazione è descritta in dettaglio in Articolo tecnico appena pubblicato da Separatamente, lunedì Apple ha rilasciato una versione di anteprima di Apple Intelligence per alcuni dispositivi.
Le costose unità di elaborazione grafica (GPU) di Nvidia dominano il mercato dei chip di fascia alta per l’addestramento all’intelligenza artificiale e sono state così richieste negli ultimi due anni che è stato difficile acquistarle nelle quantità richieste. OpenAI, MicrosoftSia Anthropic che Nvidia utilizzano le GPU di Nvidia nei loro modelli, mentre altre società tecnologiche, tra cui Google, utilizzano morto, ispirazione E Tesla Li attraggono per costruire sistemi e demo di intelligenza artificiale.
La settimana scorsa, sia il CEO di Meta Mark Zuckerberg che il CEO di Alphabet Sundar Pichai hanno fatto commenti suggerendo che le loro aziende e altri nel settore potrebbero investire eccessivamente nelle infrastrutture di intelligenza artificiale, ma hanno riconosciuto che i rischi aziendali di fare diversamente erano troppo alti.
“Lo svantaggio di essere lasciati indietro è che nei prossimi 10-15 anni ti ritroverai fuori posizione rispetto alla tecnologia che conta di più”, ha detto Zuckerberg in un’intervista. Podcast Con Emily Chang di Bloomberg.
Apple non ha menzionato Google o Nvidia nel suo documento di 47 pagine, ma ha osservato che l’Apple Foundation Model (AFM) e il server AFM sono addestrati su “cluster cloud TPU”. Ciò significa che Apple ha noleggiato server da un fornitore di servizi cloud per eseguire i calcoli.
“Questo sistema ci consente di addestrare modelli AFM in modo efficiente e scalabile, inclusi AFM su dispositivo, server AFM e modelli più grandi”, ha affermato Apple nel suo documento.
I rappresentanti di Apple e Google non hanno risposto alle richieste di commento.
Apple ha rivelato i suoi piani di intelligenza artificiale più tardi rispetto a molti dei suoi concorrenti, che hanno abbracciato a gran voce l’intelligenza artificiale generativa poco dopo che OpenAI ha lanciato ChatGPT alla fine del 2022. Lunedì, Apple ha introdotto Apple Intelligence. Il sistema include diverse nuove funzionalità, come un aspetto aggiornato per Siri, una migliore elaborazione del linguaggio naturale e riepiloghi generati dall’intelligenza artificiale nei campi di testo.
Nel corso del prossimo anno, Apple prevede di lanciare funzioni basate sull’intelligenza artificiale generativa, tra cui la creazione di immagini, la generazione di emoji e una Siri migliorata in grado di accedere alle informazioni personali dell’utente e di eseguire azioni all’interno delle app.
In un articolo di lunedì, Apple ha affermato che l’AFM del dispositivo è stato addestrato su un singolo “chip” di 2.048 chip TPU v5p che lavorano insieme. Questo è il chipset TPU più avanzato, lanciato per la prima volta a dicembre. Secondo il documento, il server AFM è stato addestrato su 8.192 chip TPU v4 configurati per funzionare insieme come otto chip attraverso la rete del data center.
Gli ultimi TPU di Google costano meno di 2 dollari l’ora e il chip viene utilizzato se prenotato con tre anni di anticipo, secondo Al sito web di GoogleGoogle ha introdotto per la prima volta i suoi TPU nel 2015 per carichi di lavoro interni e li ha resi disponibili al pubblico nel 2017. Ora sono tra i chip personalizzati più maturi progettati per l’intelligenza artificiale.
Tuttavia, Google è uno dei maggiori clienti di Nvidia. Utilizza le GPU e le GPU di Nvidia per addestrare i sistemi di intelligenza artificiale e vende anche l’accesso alla tecnologia di Nvidia sul suo cloud.
Apple aveva precedentemente affermato che l’inferenza, che significa prendere un modello AI pre-addestrato ed eseguirlo per generare contenuti o fare previsioni, avverrà in parte sui chip Apple nei suoi data center.
Questo è il secondo documento tecnico sul sistema AI di Apple, dopo un rilascio più generale a giugno. Apple ha detto puntuale Stava utilizzando unità di elaborazione termica (TPU) durante lo sviluppo dei suoi modelli di intelligenza artificiale.
Apple dovrebbe annunciare i suoi risultati trimestrali dopo la chiusura delle contrattazioni giovedì.
“Esperto di Internet. Lettore. Fanatico della TV. Comunicatore amichevole. Esperto di alcolisti certificato. Appassionato di pancetta. Esploratore. Evil twitteraholic.”