- Imparerai Newsletter
- Posts
- News della Settimana su Imparerai!
News della Settimana su Imparerai!
Novità da parte di Nvidia, OpenAI è in perdita ed il 2025 sarà l'anno degli Agenti AI..
Le tue "Razioni" di AI 🥫
📰 News della settimana
0.1 Il Project Digits di Nvidia è un "supercomputer AI personale"
Al CES 2025 di Las Vegas, Nvidia ha svelato Project Digits, un "supercomputer AI personale" che fornisce accesso alla piattaforma hardware Grace Blackwell dell'azienda in un fattore di forma compatto.
"[Project Digits] esegue l'intero stack AI di Nvidia - tutto il software Nvidia funziona su questo", ha detto Jensen Huang, CEO di Nvidia, durante una conferenza stampa lunedì. "È una piattaforma di cloud computing che si trova sulla scrivania... È anche una workstation, se volete che lo sia."
Progettato per ricercatori di AI, data scientist e studenti, Project Digits include il nuovo Superchip GB10 Grace Blackwell di Nvidia, che offre fino a un petaflop di prestazioni di calcolo per la prototipazione, la messa a punto e l'esecuzione di modelli AI.
Potenza per modelli fino a 405 miliardi di parametri
Nvidia afferma che una singola unità Project Digits può eseguire modelli fino a 200 miliardi di parametri. I parametri corrispondono approssimativamente alle capacità di problem-solving di un modello, e i modelli con più parametri generalmente funzionano meglio di quelli con meno.
Il GB10, sviluppato in collaborazione con MediaTek, include una GPU Nvidia Blackwell collegata a una CPU Nvidia Grace a 20 core. All'interno dell'enclosure di Project Digits, i chip sono collegati a un pool di memoria da 128GB e fino a 4TB di storage flash.
Nvidia afferma che due macchine Project Digits possono essere collegate insieme per eseguire modelli fino a 405 miliardi di parametri, se un lavoro lo richiede. Project Digits può fornire un'esperienza standalone o connettersi a un PC Windows o Mac primario.
Un prezzo non per tutti
Ma non è economico. Le macchine Project Digits, che eseguono il sistema operativo DGX OS basato su Linux di Nvidia, saranno disponibili a partire da maggio dai "migliori partner" a 3.000 dollari, ha detto l'azienda.
Quindi non sarà per tutti potersi permettere una propria unità Project Digits. Tuttavia, Huang pensa che ci sia un mercato.
"Con Project Digits, il Superchip Grace Blackwell arriva a milioni di sviluppatori", ha dichiarato in un comunicato. "Mettere un supercomputer AI sulle scrivanie di ogni data scientist, ricercatore AI e studente li rende capaci di impegnarsi e plasmare l'età dell'AI.
0.2 OpenAI sta perdendo denaro con il suo costoso piano ChatGPT Pro
Sam Altman, CEO di OpenAI, ha dichiarato che attualmente l'azienda sta perdendo denaro con il suo piano ChatGPT Pro da 200 dollari al mese, perché le persone lo stanno usando più di quanto l'azienda si aspettasse.
La scelta del Prezzo
Ho scelto personalmente il prezzo", ha scritto Altman in una serie di post su X, "e pensavo che avremmo guadagnato qualcosa".
ChatGPT Pro, lanciato alla fine dell'anno scorso, concede l'accesso a una versione aggiornata del modello AI di "ragionamento" o1 di OpenAI, la modalità pro o1, e solleva i limiti di velocità su diversi altri strumenti dell'azienda, incluso il generatore video Sora.
Il prezzo di ChatGPT Pro non è stato un successo immediato al lancio. Sono 2.400 dollari all'anno e la proposta di valore della modalità pro o1 in particolare rimane poco chiara. Ma a giudicare dai post di Altman, sembra che gli utenti che hanno affrontato la spesa ne stiano approfittando al massimo, a spese di OpenAI.
Non è la prima volta che OpenAI stabilisce il prezzo di un prodotto in modo arbitrario. In una recente intervista con Bloomberg, Altman ha detto che il piano premium originale per il chatbot AI di OpenAI, ChatGPT, non aveva uno studio sui prezzi.
OpenAI non è ancora redditizia
OpenAI non è redditizia, nonostante abbia raccolto circa 20 miliardi di dollari dalla sua fondazione. Secondo quanto riferito, l'azienda prevedeva perdite di circa 5 miliardi di dollari su un fatturato di 3,7 miliardi di dollari l'anno scorso.
Le spese come il personale, l'affitto degli uffici e l'infrastruttura di formazione AI sono le responsabili. Si stima che ChatGPT ad un certo punto costasse a OpenAI 700.000 dollari al giorno.
Recentemente, OpenAI ha ammesso di aver bisogno di "più capitale di quanto immaginasse" mentre si prepara a subire una ristrutturazione aziendale per attirare nuovi investimenti. Per raggiungere la redditività, si dice che OpenAI stia considerando di aumentare il prezzo dei suoi vari livelli di abbonamento. Altman ha anche accennato nell'intervista a Bloomberg che OpenAI potrebbe esplorare prezzi basati sull'utilizzo per alcuni servizi.
OpenAI prevede ottimisticamente che il suo fatturato raggiungerà gli 11,6 miliardi di dollari quest'anno e i 100 miliardi di dollari nel 2029, eguagliando le attuali vendite annuali di Nestlé.
0.3 Gli NPC AI di Nvidia non sono più chatbot: sono il tuo nuovo compagno di squadra in PUBG
Nvidia ha passato gli ultimi due anni a mostrare i suoi personaggi digitali "ACE" che possono avere conversazioni in-game con te utilizzando l'AI generativa. Ma al CES 2025, l'azienda sta portando i personaggi ACE un passo avanti, mostrando come possono essere "personaggi di gioco autonomi", incluso, entro quest'anno, un compagno di squadra per aiutarti a ottenere una "chicken dinner" in PUBG.
ACE: personaggi di gioco viventi e dinamici
Secondo un post sul blog, Nvidia afferma che i personaggi ACE possono utilizzare l'AI per "percepire, pianificare e agire come giocatori umani". "Alimentato dall'AI generativa, ACE consentirà mondi di gioco viventi e dinamici con compagni che comprendono e supportano gli obiettivi del giocatore e nemici che si adattano dinamicamente alle tattiche del giocatore."
I personaggi sono alimentati da "modelli linguistici di piccole dimensioni (SLM)" che sono "in grado di pianificare a frequenze simili a quelle umane richieste per un processo decisionale realistico", oltre a "SLM multimodali per la visione e l'audio che consentono ai personaggi AI di percepire segnali audio e il loro ambiente."
Per quanto riguarda il funzionamento in PUBG, potrai fare squadra con il "PUBG Ally", che Nvidia e l'editore di PUBG Krafton chiamano il "primo personaggio co-giocabile (CPC) al mondo". L'Ally sarà in grado di "comunicare utilizzando il gergo specifico del gioco, fornire raccomandazioni strategiche in tempo reale, trovare e condividere bottino, guidare veicoli e combattere altri giocatori umani utilizzando il vasto arsenale di armi del gioco", afferma Nvidia.
In sostanza, sembra un compagno di squadra AI con cui puoi parlare in linguaggio naturale e che dovrebbe essere capace quanto un essere umano. E un video mostra effettivamente l'Ally aiutare un giocatore a trovare specifici bottini, portare un veicolo e tentare di aggirare i giocatori avversari. Ma il video è pesantemente modificato e non è in diretta, quindi sono scettico sul fatto che l'Ally funzionerà bene come viene mostrato qui.
🔧 AI Tools
1.1 Il chatbot Claude di Anthropic non può più citare le tue canzoni preferite
Anthropic ha stretto un accordo con i principali editori musicali che impedisce a Claude di riprodurre testi di canzoni. Mentre questo risolve la disputa immediata, la questione più ampia se le aziende di AI possano utilizzare i testi per l'addestramento rimane in sospeso.
Un accordo con i grandi dell'industria musicale
I documenti del tribunale rivelano che Anthropic ha raggiunto un accordo con pesi massimi come Universal Music Group, Concord Music Group e ABKCO. L'accordo arriva dopo che gli editori hanno fatto causa ad Anthropic nel 2023, sostenendo che Claude avesse riprodotto testi di almeno 500 canzoni di artisti che vanno da Katy Perry ai Rolling Stones e Beyoncé.
Secondo il nuovo accordo, Claude non può riprodurre testi protetti da copyright o crearne di nuovi basati su materiale protetto. Anthropic ha sottolineato (tramite Hollywood Reporter) che Claude non avrebbe mai dovuto violare i diritti d'autore comunque, notando che avevano già delle misure di sicurezza in atto. L'accordo rinforza solo queste priorità esistenti.
Un nuovo sistema di notifica
C'è anche un nuovo sistema di notifica: se gli editori notano che Claude infrange le regole, possono avvisare Anthropic per iscritto. L'azienda promette di gestire questi rapporti rapidamente.
Mentre questo accordo risolve la disputa immediata sugli output dei testi di Claude, evita la domanda centrale: le aziende di AI possono legalmente utilizzare i testi protetti da copyright per addestrare i loro modelli in primo luogo?
Anthropic, come altri laboratori di AI, sostiene che questo si qualifica come "fair use", ma i tribunali non hanno ancora preso una decisione definitiva.
"Continuiamo ad aspettare con impazienza di dimostrare che, in linea con la legge sul copyright esistente, l'uso di materiale potenzialmente protetto da copyright nell'addestramento di modelli di AI generativa è un uso equo per eccellenza", scrive Anthropic.
🎨 Approfondimenti
2.1 Il nuovo sistema RAG RetroLLM è più efficiente e accurato delle soluzioni precedenti
I ricercatori hanno sviluppato un approccio più snello per aiutare i sistemi di intelligenza artificiale a elaborare le informazioni. Il nuovo sistema, chiamato RetroLLM, combina due fasi precedentemente separate - la ricerca di informazioni e la scrittura di testi - in un unico processo.
Un approccio più efficiente ed accurato
Un team della Renmin University of China, della Tsinghua University e del Poisson Lab di Huawei ha sviluppato RetroLLM per rendere i sistemi di intelligenza artificiale più efficienti. I tradizionali sistemi RAG (retrieval-augmented generation) dovevano lavorare in due fasi separate: prima trovare le informazioni rilevanti, poi creare il testo a partire da esse. RetroLLM gestisce entrambi i compiti simultaneamente, utilizzando meno potenza di calcolo e fornendo risultati più accurati.
Il sistema opera in tre fasi principali:
Crea "indizi" - parole o frasi chiave basate sulla domanda originale.
Elabora le informazioni utilizzando diverse tecniche avanzate, come la valutazione di più percorsi di testo potenziali contemporaneamente (constrained beam search) e la previsione di quali sezioni saranno utili prima di elaborarle completamente (Forward-Looking Constrained Decoding).
Utilizza un sofisticato sistema di indicizzazione (hierarchical FM index constraints) per gestire in modo efficiente grandi quantità di testo.
Risultati migliori, un compromesso
Nei test, RetroLLM ha mostrato risultati impressionanti, raggiungendo un'accuratezza del 10-15% superiore rispetto ai sistemi esistenti. Eccelle particolarmente nel gestire domande complesse che richiedono la combinazione di informazioni da più fonti.
Il sistema adatta il suo approccio in base a ciascuna domanda. Per le query semplici, potrebbe aver bisogno solo di pochi fatti chiave. Per le domande più complesse, cerca automaticamente più a fondo e attinge a fonti aggiuntive.
Mentre RetroLLM utilizza meno potenza di calcolo complessivamente, i ricercatori hanno riscontrato una limitazione: è leggermente più lento dei sistemi più semplici quando si elaborano singole query. Il team ritiene che l'utilizzo di una combinazione di modelli più piccoli e più grandi potrebbe aiutare a risolvere questo problema in futuro
2.2 Gli agenti AI nel 2025 saranno tutti incentrati sulla gestione di aspettative gonfiate
Il mondo dell'intelligenza artificiale è in fermento con previsioni sugli agenti nel 2025. Ma alcune delle persone che stanno gettando le basi sono più caute sulla linea temporale.
Google e Microsoft: c'è ancora del lavoro da fare
Logan Kilpatrick, a capo di Google AI Studio e gestore dell'API Gemini, ritiene che la tecnologia di visione AI sia già abbastanza matura per un'adozione diffusa e che il 2025 sarà l'anno in cui diventerà mainstream. Tuttavia, quando si tratta di agenti AI, Kilpatrick afferma che "hanno ancora bisogno di un po' di lavoro" prima di poter gestire un deployment su scala di un miliardo di utenti.
Mustafa Suleyman, "CEO dell'AI" di Microsoft, condivide questa prospettiva misurata. Spiega che, sebbene i modelli di AI potrebbero gestire compiti specifici e ristretti in modo autonomo entro due anni, avremo bisogno di altre due generazioni di modelli prima che funzionino in modo coerentemente buono.
La sfida dell'accuratezza e dell'affidabilità
La sfida, secondo Suleyman, è far sì che i modelli facciano corrispondere esattamente ogni richiesta dell'utente con la funzione giusta. Sottolinea che l'attuale accuratezza dell'80% non è sufficiente per agenti AI affidabili: gli utenti hanno bisogno di un'accuratezza del 99% per fidarsi di loro. Per arrivarci servirebbero circa 100 volte più potenza di calcolo, cosa che pensa non vedremo fino a GPT-6.
Anthropic offre una distinzione utile tra i flussi di lavoro e i veri agenti. I flussi di lavoro seguono schemi predefiniti, con modelli linguistici e strumenti che operano lungo percorsi fissi. I veri agenti, invece, controllano i loro processi e strumenti in modo autonomo e dinamico.
Molte aziende che affermano di offrire "agenti" oggi in realtà stanno solo collegando prompt tra loro o a strumenti come database e ricerca web. Sebbene questi possano essere utili, si tratta per lo più di un giro di marketing.
Forse Anthropic ha ragione. Mentre le aziende si affrettano ad annunciare agenti AI autonomi, la maggior parte delle organizzazioni sta ancora cercando di capire come utilizzare in modo efficace l'AI generativa di base. Prima di perseguire sistemi di AI più complessi, forse dovremmo concentrarci sull'implementazione degli strumenti che abbiamo già in modo significativo.
💡 Link Utili
Scopri l’Academy di Imparerai e tutte le risorse che abbiamo preparato per te! |
Scopri i migliori Tool di AI selezionati per te! |
Vuoi contattarci? Non aspettiamo altro! |
Sei arrivato alla fine!
La tua razione è completa!
Il tuo feedback è importante! Rispondi a questa email e raccontaci come potremmo migliorare questa newsletter.
Sei interessato a raggiungere i nostri lettori? Per diventare uno sponsor di Imparerai, scrivici qua!