- Imparerai Newsletter
- Posts
- News AI della Settimana su Imparerai!
News AI della Settimana su Imparerai!
OpenAI arriva Deep Research, Deepseek cresce ed Alibaba lancia Qwen 2.5..
Le tue "Razioni" di AI 🥫
📰 News della settimana
0.1 OpenAI lancia "Deep Research": l'Assistente per la Ricerca Approfondita
OpenAI amplia le capacità di ChatGPT con una nuova funzionalità pensata per la ricerca approfondita, mirando a trasformare il modo in cui professionisti e consumatori accedono e analizzano informazioni complesse.

Un Tool per Ricerche Complesse
Deep Research si rivolge a professionisti di settori come finanza, scienza, politica e ingegneria, dove la precisione e l'affidabilità delle informazioni sono cruciali. La funzionalità si estende anche al supporto per decisioni d’acquisto importanti, come auto, elettrodomestici e arredamento, dove è necessaria una ricerca accurata da fonti multiple.
Il processo è semplice ma potente:
Si seleziona "deep research" nel compositore
Si inserisce la query, con possibilità di allegare file
L’elaborazione richiede tra 5 e 30 minuti
I risultati includono citazioni complete e documentazione del processo di ragionamento
Disponibilità e Limiti
Inizialmente disponibile per gli utenti ChatGPT Pro con 100 query mensili, il servizio verrà esteso agli abbonati Plus e Team, seguito da Enterprise. La funzionalità è momentaneamente limitata geograficamente, escludendo Regno Unito, Svizzera e Area Economica Europea.
Alla base di Deep Research troviamo una versione specializzata del modello o3 di OpenAI, addestrata attraverso reinforcement learning su compiti del mondo reale. Per mitigare il rischio di errori e "allucinazioni", ogni output include citazioni verificabili e una documentazione completa del processo di ragionamento.
OpenAI ha già in programma significativi miglioramenti:
Integrazione di immagini e visualizzazioni dati
Connessione con fonti specializzate e risorse interne
Supporto per app mobile e desktop
Limiti di query più elevati per gli utenti a pagamento
0.2 Dario Amodei Svela la Verità su Claude 3.5 Sonnet
Il CEO di Anthropic interviene per fare chiarezza sulle recenti speculazioni riguardanti Claude 3.5 Sonnet, il modello AI considerato attualmente il più capace nel suo genere per l'elaborazione del linguaggio.

La Realtà dei Costi
Contrariamente alle voci che parlavano di investimenti miliardari, Amodei rivela che lo sviluppo di Sonnet è costato "alcune decine di milioni di dollari". Un dato che smentisce le recenti indiscrezioni e offre una prospettiva più realistica sui costi di sviluppo dell'AI avanzata.
Nonostante sia stato addestrato tra i nove e i dodici mesi fa, Sonnet mantiene un vantaggio significativo in molte valutazioni, sia interne che esterne. La sua superiorità emerge particolarmente in applicazioni pratiche come la programmazione e l'interazione umana, smentendo anche le voci su presunti modelli segreti più avanzati come Opus 3.5.
Amodei offre anche una visione interessante sulla concorrenza: il vero progresso tecnico di Deepseek non risiede nel discusso modello R1, ma nel Deepseek-V3 rilasciato a fine dicembre, che ha introdotto miglioramenti chiave come un approccio avanzato "mixture of experts". Il modello R1, rilasciato successivamente, si basa principalmente su approcci già esistenti.
0.3 Deepseek Cresce, ma ChatGPT Domina il Mercato
Il chatbot AI cinese Deepseek sta guadagnando terreno nel mercato occidentale, ma i numeri rivelano che il divario con il leader ChatGPT rimane sostanziale. Una storia di crescita rapida che si scontra con il dominio consolidato di OpenAI.

I Numeri di Deepseek
Secondo i dati Similarweb, Deepseek ha registrato un'impennata notevole: da 300.000 visitatori a dicembre 2024 a 6,2 milioni di visite giornaliere il 24 gennaio. L'app Android ha raggiunto 1,64 milioni di utenti attivi, conquistando anche la prima posizione nell'App Store di Apple.
Il confronto con ChatGPT evidenzia però un divario ancora enorme:
117,5 milioni di visite giornaliere al sito (19 volte più di Deepseek)
350 milioni di utenti attivi settimanali
15,5 milioni di abbonati paganti nel 2024
I numeri finanziari di OpenAI sono altrettanto impressionanti. Secondo fonti riportate da The Information, l'azienda si avvia verso:
Ricavi annuali proiettati di 4 miliardi di dollari
333 milioni di dollari mensili entro fine anno
300 milioni annui dal solo ChatGPT Pro a 200$ mensili
OpenAI non mostra segni di rallentamento: sta negoziando con SoftBank per un nuovo finanziamento di 40 miliardi di dollari, che porterebbe la valutazione tra i 260 e i 300 miliardi. L'azienda pianifica anche di introdurre tariffe basate sull'utilizzo e offerte premium, con potenziali prezzi fino a 2.000$ mensili per servizi avanzati.
🔧 AI Tools
1.1 Google Rilancia "Ask for Me": L'AI che Prenota per Te
Google torna nel campo delle chiamate automatizzate con una nuova funzionalità che promette di liberarci dalle telefonate di routine. "Ask for Me" si propone di gestire autonomamente le prenotazioni presso fornitori di servizi, dalla manicure alla riparazione dell'auto.

Come Funziona la Nuova FunzionalitÃ
Il processo è sorprendentemente semplice: l'utente specifica il servizio desiderato, come un "cambio gomme" o una "manicure francese", e l'assistente AI si occupa di tutto il resto, contattando i fornitori locali e restituendo un riepilogo di prezzi e disponibilità . Al momento, il servizio è disponibile solo negli Stati Uniti e in lingua inglese.
Non è la prima volta che Google esplora questo territorio. Nel 2018, l'azienda aveva lanciato Duplex, un sistema AI così naturale che gli interlocutori non riuscivano a distinguerlo da un essere umano. Secondo Rose Yao, product manager di Google, "Ask for Me" si basa ancora su questa tecnologia, ma in una versione evoluta e più efficiente.
Implicazioni per le Aziende
Le imprese dovranno adattarsi a questa nuova realtà : l'AI si identificherà come sistema automatizzato all'inizio di ogni chiamata e, sebbene sia possibile disattivare il servizio attraverso il profilo Google Business, questa scelta potrebbe rivelarsi svantaggiosa se la tecnologia prende piede.
Il momento sembra propizio per questo rilancio: la qualità delle voci AI è migliorata notevolmente dal debutto di Duplex, e i costi di gestione si sono ridotti significativamente, aprendo la strada a un'adozione su larga scala di questa tecnologia che potrebbe finalmente liberarci dalle chiamate di routine durante la giornata lavorativa.
1.2 Alibaba Lancia Qwen2.5-Max: Record di Dati per l'AI
Il colosso tecnologico cinese Alibaba ha svelato il suo ultimo modello linguistico, Qwen2.5-Max, stabilendo un nuovo record nel settore: 20 trilioni di token di dati di addestramento, superando significativamente i concorrenti occidentali.

Prestazioni da Primato
Il nuovo modello, costruito con un'architettura "mixture-of-experts" (MoE), ha dimostrato prestazioni superiori rispetto a leader del settore come Deepseek-V3, GPT-4o, Claude 3.5 Sonnet e Llama-3.1-405B nei test di riferimento. Un risultato notevole, considerando che i principali concorrenti utilizzano circa 15 trilioni di token per l'addestramento.
Qwen2.5-Max si unisce alla famiglia di modelli Qwen2.5, che include già Qwen2.5-VL e Qwen2.5-1M. Il nuovo modello eccelle particolarmente nei benchmark Arena-Hard e LiveBench, utilizzando metodi consolidati come il supervised fine-tuning e il reinforcement learning basato sul feedback umano.
Alibaba rende il modello disponibile attraverso l'API di Alibaba Cloud e la piattaforma Qwen Chat, ma a differenza degli altri modelli della famiglia Qwen2.5, la versione Max rimarrà esclusivamente accessibile via API. L'azienda punta agli sviluppatori con prezzi competitivi e un'interfaccia compatibile con OpenAI, pur operando sotto le restrizioni di contenuto del governo cinese.
Nonostante l'investimento massiccio nei dati di addestramento, il vantaggio prestazionale sui concorrenti rimane modesto, confermando il dibattito nella comunità AI sull'importanza della potenza di calcolo in fase di test rispetto alla sola quantità di dati di addestramento.
🎨 Approfondimenti
2.1 Quando l'AI "Pensa Troppo Poco": Un Nuovo Studio Rivela i Limiti dei Modelli di Ragionamento
Un team di ricercatori cinesi ha identificato un problema cruciale nei modelli AI come Deepseek-R1 e OpenAI o1: tendono ad abbandonare troppo rapidamente soluzioni promettenti, un fenomeno che hanno denominato "underthinking".

La Scoperta Sorprendente
Secondo lo studio condotto da Tencent AI Lab, Soochow University e Shanghai Jiao Tong University, i modelli di ragionamento spesso saltano da un approccio all'altro senza esplorare completamente le possibili soluzioni. I numeri sono rivelatori: il 70% delle risposte errate conteneva almeno una linea di ragionamento valida, ma non sviluppata completamente.
Quando i modelli sbagliano, mostrano comportamenti significativamente inefficienti:
Utilizzano il 225% in più di token di calcolo
Cambiano strategia il 418% più frequentemente rispetto ai casi di successo
Sprecano risorse computazionali preziose in approcci incompleti
Una Soluzione Innovativa
I ricercatori hanno sviluppato il "thought switching penalty" (TIP), un sistema che scoraggia i modelli dal cambiare approccio troppo rapidamente. I risultati sono promettenti: il modello QwQ-32B-Preview ha migliorato la sua accuratezza nei problemi MATH500-Hard dall'82,8% all'84,3%, mostrando un ragionamento più coerente.
Questa ricerca suggerisce una lezione importante: il successo dell'AI nel ragionamento non dipende solo dalla potenza di calcolo, ma anche dalla capacità di perseverare su idee promettenti. Una scoperta che potrebbe rivoluzionare il modo in cui progettiamo i futuri modelli di intelligenza artificiale.
💡 Link Utili
Scopri l’Academy di Imparerai e tutte le risorse che abbiamo preparato per te! |
Scopri i migliori Tool di AI selezionati per te! |
Vuoi contattarci? Non aspettiamo altro! |
Sei arrivato alla fine!
La tua razione è completa!

Il tuo feedback è importante! Rispondi a questa email e raccontaci come potremmo migliorare questa newsletter.
Sei interessato a raggiungere i nostri lettori? Per diventare uno sponsor di Imparerai, scrivici qua!