Un nuovo modello per domarli tutti?!

Arriva GPT-4o mini, Meta taglia fuori l'UE e YouTube al centro della rivoluzione AI..

 📰 News della settimana

0.1 OpenAI lancia un nuovo modello AI più performante ed economico

OpenAI ha ampliato la sua lineup con GPT-4o mini, un nuovo modello di intelligenza artificiale che offre prestazioni migliori a un costo inferiore. Secondo l'azienda, GPT-4o mini offre prestazioni superiori pur costando il 60% in meno rispetto al modello più economico offerto finora da OpenAI. L'azienda afferma che si tratta del modello di piccole dimensioni più potente ed economico disponibile oggi sul mercato.

Gli sviluppatori pagano 15 centesimi per 1 milione di token di input e 60 centesimi per 1 milione di token di output (circa l'equivalente di 2500 pagine in un libro standard). Il nuovo modello è disponibile immediatamente per gli utenti dei piani Free, Plus e Team di ChatGPT. I clienti Enterprise avranno accesso entro la prossima settimana.

Addio a GPT-3.5 Turbo

Gli utenti di ChatGPT possono ora utilizzare GPT-4o mini al posto di GPT-3.5 Turbo. Gli sviluppatori possono ancora accedere a GPT-3.5 tramite l'API se preferiscono non passare a GPT-4o mini. OpenAI prevede di rimuovere GPT-3.5 dall'API in futuro, ma non ha ancora stabilito una data specifica.

Supporto multimodale in arrivo GPT-4o mini supporta testo e immagini tramite l'API e si prevede che presto supporterà tutti gli input e output multimodali, inclusi video e audio. OpenAI attribuisce i guadagni di efficienza ai miglioramenti nell'architettura del modello e all'ottimizzazione dei dati e dei metodi di addestramento.

Vuoi approfondire i dettagli sulle prestazioni di GPT-4o mini? Qua puoi trovare un approfondimento sul Blog di Imparerai.

Insomma, con GPT-4o mini OpenAI dimostra di voler rimanere competitiva in un mercato sempre più affollato, offrendo un modello potente ed economico che promette di aprire nuove possibilità per sviluppatori e aziende. Che ne pensi di questo nuovo arrivo nella famiglia GPT? Sei curioso di provarlo?

0.2 Meta esclude l'UE dal lancio dei suoi futuri modelli di AI open-source

Meta ha annunciato che non offrirà il suo prossimo modello di AI multimodale e i futuri modelli di AI ai clienti europei, citando le incertezze normative nell'UE. Secondo una dichiarazione rilasciata ad Axios, Meta prevede di lanciare un modello multimodale Llama nei prossimi mesi, ma non nell'UE, a causa della "natura imprevedibile del contesto normativo europeo". Anche l'assistente AI di Meta, almeno inizialmente, salterà il rilascio.

L'obiettivo di Meta è integrare questi modelli multimodali, in grado di elaborare video, audio, immagini e testo, nei suoi prodotti, compresi gli smartphone e gli occhiali intelligenti Meta Ray-Ban. Ciò significa probabilmente che questi prodotti non saranno disponibili nell'UE o avranno funzionalità ridotte.

Una versione basata su testo del più grande modello Llama 3 di Meta, la cui uscita è prevista per la fine di luglio, sarà comunque disponibile nei paesi dell'Unione Europea. I futuri modelli Llama 4, anche se rilasciati con una licenza open-source, non saranno utilizzabili dalle aziende dell'UE ed anche i servizi non europei basati su Llama potrebbero non essere disponibili nel Vecchio Continente.

Lo scontro tra Meta e i regolatori europei si intensifica

La mossa intensifica lo scontro di Meta con i regolatori della privacy, che hanno vietato all'azienda di addestrare i suoi modelli sui dati dei clienti dell'UE senza un esplicito consenso. Meta afferma di aver notificato alle autorità i suoi piani con mesi di anticipo e di aver incorporato il minimo feedback ricevuto.

In precedenza, Meta aveva lanciato una campagna di raccolta dati degli utenti per i paesi dell’unione europea su larga scala con un sistema di opt-out. Gli utenti non potevano rifiutare direttamente l'addestramento dell'AI con i loro dati, ma dovevano utilizzare e compilare un apposito modulo. Numerosi avvocati esperti in privacy hanno criticato questo approccio ed i regolatori dell'UE hanno accolto le loro preoccupazioni.

Un portavoce di Meta ha dichiarato ad Axios che l'addestramento sui dati europei è cruciale per garantire che i prodotti riflettano la terminologia e la cultura regionali. Meta ha sottolineato che anche concorrenti come OpenAI e Google addestrano i loro modelli sui dati degli utenti europei, il che è vero, ma ciò che Meta non dice è che questa pratica non è stata esplicitamente approvata dagli utenti o dai regolatori.

La decisione presa da Meta segue il recente annuncio di Apple, secondo cui non offrirà le funzionalità di Apple Intelligence nell'UE a causa di delle normative in vigore attualmente.

Insomma, la decisione di Meta di escludere l'UE dal lancio dei suoi futuri modelli di AI open-source è un segnale preoccupante per il futuro dell'innovazione tecnologica in Europa. Mentre le aziende americane fanno pressione per un allentamento delle norme sulla privacy, il vecchio continente si trova di fronte a un difficile equilibrio tra la tutela dei diritti dei cittadini e la necessità di non rimanere indietro nella corsa all'AI. Tu cosa ne pensi? L'Europa dovrebbe cedere alle richieste di Meta e Apple o mantenere una linea dura sulla protezione dei dati personali?

0.3 Hugging Face, Nvidia e OpenAI guidano la carica dei "piccoli giganti" dell'AI

Questa settimana, tre dei maggiori player nel campo dell'intelligenza artificiale hanno svelato modelli linguistici compatti, segnando un cambiamento epocale nell'industria dell'AI. Hugging Face, Nvidia in partnership con Mistral AI e OpenAI hanno rilasciato small language models (SLM) che promettono di democratizzare l'accesso a capacità avanzate di elaborazione del linguaggio naturale.

Piccole meraviglie: come i modelli di AI compatti stanno cambiando l'edge computing

SmolLM di Hugging Face si distingue come il più radicale dei tre. Progettato per funzionare direttamente su dispositivi mobili, SmolLM viene proposto in tre taglie: 135 milioni, 360 milioni e 1,7 miliardi di parametri. Questa gamma spinge l'elaborazione dell'AI all'edge, affrontando problemi critici di privacy dei dati e latenza.

Nvidia e Mistral AI hanno prodotto Mistral-Nemo, un modello da 12 miliardi di parametri con un'impressionante finestra di contesto di 128.000 token. Rilasciato sotto la licenza Apache 2.0, Mistral-Nemo si posiziona come una via di mezzo tra i massicci modelli cloud e l'AI ultra-compatta per dispositivi mobili, puntando ai computer desktop.

Infine, abbiamo GPT-4o mini che, come vi abbiamo raccontato in precedenza, è stato appena rilasciato da OpenAI.

La rivoluzione dell'AI Green

La tendenza verso gli SLM si allinea anche con le crescenti preoccupazioni sull'impatto ambientale dell'AI. Modelli più piccoli richiedono meno energia per l'addestramento e l'esecuzione, riducendo potenzialmente l'impronta di carbonio delle tecnologie AI. Poiché le aziende subiscono crescenti pressioni per adottare pratiche sostenibili, questo aspetto degli SLM potrebbe diventare un importante punto di forza.

Inoltre, sebbene i modelli più piccoli offrano vantaggi in termini di efficienza e accessibilità, potrebbero non eguagliare le capacità dei loro omologhi più grandi in tutti i compiti. Ciò suggerisce un futuro panorama dell'AI caratterizzato da una diversità di dimensioni e specializzazioni dei modelli, piuttosto che da un approccio unico per tutti.

Nonostante queste sfide, il passaggio agli SLM rappresenta un'evoluzione significativa nel panorama dell'AI. Man mano che questi modelli continuano a migliorare e proliferare, potremmo assistere a una nuova era di dispositivi e applicazioni, portando i benefici dell'intelligenza artificiale a una gamma più ampia di utenti e casi d'uso.

Restate sintonizzati su Imparerai, perché prossimamente pubblicheremo un approfondimento sul Blog relativo agli SLM.

0.4 Anthropic lancia un fondo da 100 milioni di dollari per le startup

Il 17 luglio 2024 Anthropic ha annunciato il lancio dell'Anthology Fund, un'iniziativa da 100 milioni di dollari nata dalla collaborazione con Menlo Ventures. Mentre Menlo Ventures finanzierà interamente il fondo, Anthropic metterà a disposizione la sua expertise tecnologica e le sue risorse. L'obiettivo? Investire in aziende innovative nel campo dell'intelligenza artificiale, dalle fasi iniziali fino all'espansione.

Cinque aree di investimento chiave

L'Anthology Fund si concentrerà su cinque settori principali:

  1. Infrastrutture per l'AI

  2. Applicazioni innovative in vari settori

  3. Soluzioni AI per i consumatori

  4. Strumenti per la sicurezza

  5. App AI che massimizzano i benefici per la società

In particolare, il fondo punterà su settori come healthcare, servizi legali, istruzione, energia, infrastrutture e ricerca scientifica, supportando imprenditori che sviluppano applicazioni e soluzioni infrastrutturali "AI-first" che sfruttano la tecnologia e i modelli di Anthropic.

Le startup scelte per l'Anthology Fund riceveranno una serie di vantaggi, tra cui:

  • $25.000 in crediti gratuiti per utilizzare i modelli AI più avanzati di Anthropic

  • Accesso al team di Anthropic per consulenza e supporto

  • Supporto dedicato con gli sviluppatori

  • Accesso alla vasta rete e all'esperienza di Menlo Ventures nella costruzione di aziende

  • Partecipazione a "deep dive" trimestrali con i partner di Menlo e il team di Anthropic

  • Opportunità di mostrare i progressi in “demo day” semestrali

  • Accesso a spazi di lavoro frazionati negli uffici di Menlo a San Francisco e Menlo Park

Un trend in crescita nell'industria dell'AI

Il lancio dell'Anthology Fund riflette una tendenza sempre più diffusa nel settore dell'intelligenza artificiale, con i maggiori player che creano veicoli di investimento per supportare startup in grado di far progredire le loro tecnologie. Questa mossa strategica dovrebbe rafforzare la posizione di Anthropic nel competitivo panorama dell'AI, rispecchiando iniziative simili come il fondo da 175 milioni di dollari di OpenAI per le startup.

Anthropic mira ad accelerare l'adozione e lo sviluppo dei suoi modelli AI. La creazione del fondo evidenzia anche il rapido ritmo dell'innovazione nell'AI, con i finanziamenti globali alle startup in questo settore più che raddoppiati a 24 miliardi di dollari nel secondo trimestre del 2024, rappresentando oltre il 30% del totale dei finanziamenti alle startup in quel periodo.

🔧 AI Tools

1.1 DeepL alza l'asticella della qualità delle traduzioni

L'azienda tedesca di intelligenza artificiale DeepL ha svelato un nuovo modello di linguaggio specializzato (un LLM) per la traduzione e l'editing di testi. L'azienda afferma che questo aggiornamento stabilisce un nuovo standard di settore per la qualità delle traduzioni.

Tre caratteristiche chiave del nuovo modello

Secondo DeepL, il nuovo modello combina tre caratteristiche principali:

  1. Un LLM specializzato e ottimizzato per le attività linguistiche, con l'obiettivo di produrre traduzioni più naturali e con meno rischi di errori o allucinazioni.

  2. L'addestramento su oltre sette anni di dati proprietari incentrati sulla creazione di contenuti e sulla traduzione, a differenza di altri modelli addestrati solo su dati pubblici di Internet.

  3. Il contributo di migliaia di esperti linguistici accuratamente selezionati che aiutano ad addestrare il modello per traduzioni di alta qualità.

Test alla cieca: DeepL batte la concorrenza

DeepL afferma che i test alla cieca con professionisti del linguaggio mostrano che le loro traduzioni sono preferite 1,3 volte più spesso rispetto a Google Translate, 1,7 volte più spesso rispetto a ChatGPT-4 e 2,3 volte più spesso rispetto all'offerta di Microsoft. L'azienda riporta miglioramenti particolari nelle traduzioni dall'inglese al giapponese e al cinese semplificato, con un miglioramento di 1,4 volte per la combinazione di inglese e tedesco.

L'amministratore delegato di DeepL, Jarek Kutylowski, definisce questo lancio "solo l'inizio" delle soluzioni linguistiche dell'azienda basate sull'AI per le imprese, affermando che DeepL sta investendo molto per migliorare la qualità, l'efficienza e l'adattabilità delle traduzioni.

Disponibilità e piani futuri

Il nuovo modello è disponibile per i clienti DeepL Pro per le traduzioni tra inglese, giapponese, tedesco e cinese semplificato, con più lingue in programma. Gli utenti possono attivarlo nel traduttore web selezionando "Next Gen Model".

DeepL ha rifiutato di fornire ulteriori dettagli sul funzionamento interno del modello, sulla metodologia di test o sulle metriche di prestazione specifiche oltre a quanto incluso nel loro comunicato stampa.

Nel maggio 2024, DeepL ha annunciato un round di finanziamento da 300 milioni di dollari, diventando una delle aziende di AI tedesche più finanziate insieme alla società di AI per la difesa Helsing.

1.2 YouTube sperimenta la radio a linguaggio naturale basata sull'AI

YouTube Music sta testando una funzionalità innovativa: la radio conversazionale generata dall'intelligenza artificiale. Questa novità permette agli abbonati Premium di creare stazioni personalizzate descrivendo la musica desiderata usando semplicemente le parole. Inoltre, YouTube Music sta lanciando un nuovo strumento di ricerca sonora per tutti gli utenti, che consente di identificare le canzoni canticchiando, cantando o suonando parti di esse.

Radio conversazionale AI: chiedi e ti sarà dato

La funzione di radio conversazionale generata dall'AI, attualmente in fase di test con un gruppo selezionato di abbonati Premium negli Stati Uniti, consente agli utenti di creare stazioni radio personalizzate descrivendo le loro preferenze musicali in linguaggio naturale. Questo approccio innovativo permette agli ascoltatori di richiedere specifici tipi di musica, come "ritornelli pop orecchiabili" o "canzoni rock allegre", risultando in un'esperienza di ascolto veramente innovativa e diretta.

La funzione è accessibile attraverso una scheda "Chiedi la musica come vuoi" nel feed principale, offrendo un metodo più interattivo e personalizzato di scoperta musicale rispetto ai formati radio tradizionali. YouTube Music prevede di espandere questa funzionalità a più utenti in futuro, in attesa di ulteriori test e feedback degli utenti.

Trova la canzone che hai in mente con un semplice canticchio

Lo strumento di ricerca sonora, ora disponibile per tutti gli utenti di YouTube Music su iOS e Android, permette di identificare le canzoni da un catalogo di oltre 100 milioni di brani canticchiando, cantando o suonando parti di esse su uno strumento. Gli utenti possono accedere a questa funzione simile a Shazam toccando l'icona della lente di ingrandimento e selezionando il pulsante della forma d'onda, che lancia un'interfaccia a schermo intero per l'input audio.

Questa funzionalità espande le capacità di riconoscimento delle canzoni già presenti in Google Search, rendendole più accessibili all'interno dell'app YouTube Music per gli utenti che cercano attivamente di identificare la musica.

L'AI al servizio della scoperta musicale

Sfruttando l'intelligenza artificiale, la nuova funzione punta a migliorare la scoperta delle canzoni elaborando l'input degli utenti per creare stazioni radio altamente personalizzate. Questo approccio si differenzia dagli algoritmi tradizionali permettendo agli ascoltatori di descrivere l'esperienza musicale desiderata in linguaggio naturale, potenzialmente scoprendo nuovi artisti e generi in linea con i loro gusti.

La possibilità di interagire con questa funzione semplicemente parlando, coinvolge anche gli utenti in modo più interattivo, aumentando potenzialmente il tempo trascorso sulla piattaforma e la soddisfazione degli utenti. Mentre i servizi di streaming continuano a competere per catturare l'attenzione degli utenti, questo approccio basato sull'AI potrebbe stabilire un nuovo standard per i servizi di streaming musicale.

 🎨 Sezione Finale

2.1 Aziende tech usano migliaia di video YouTube rubati per addestrare l'AI

Un'indagine di Proof News ha scoperto che alcune delle più importanti aziende di AI al mondo, tra cui Anthropic, Nvidia, Apple e Salesforce, hanno utilizzato materiale proveniente da migliaia di video di YouTube per addestrare i loro modelli di Intelligenza Artificiale, nonostante le regole di YouTube vietino la raccolta di materiali dalla piattaforma senza permesso.

Sottotitoli di oltre 170.000 video YouTube utilizzati per l'addestramento dell'AI

L'indagine ha rivelato che i sottotitoli di 173.536 video YouTube, prelevati da più di 48.000 canali, sono stati utilizzati dai giganti della Silicon Valley. Il dataset, chiamato “YouTube Subtitles”, contiene trascrizioni di video di canali educativi e di apprendimento online come Khan Academy, MIT e Harvard, ma anche di media come The Wall Street Journal, NPR e BBC, e di programmi televisivi come The Late Show With Stephen Colbert, Last Week Tonight With John Oliver e Jimmy Kimmel Live.

Anche i video delle star di YouTube finiscono nel dataset

Proof News ha anche trovato materiale di megastar di YouTube, tra cui MrBeast (289 milioni di iscritti, due video presi per l'addestramento), Marques Brownlee (19 milioni di iscritti, sette video presi), Jacksepticeye (quasi 31 milioni di iscritti, 377 video presi) e PewDiePie (111 milioni di iscritti, 337 video presi). Alcuni dei materiali utilizzati per addestrare l'AI promuovevano anche teorie del complotto come la "teoria della Terra piatta".

Le aziende tech confermano l'uso del dataset, ma minimizzano le preoccupazioni

Anthropic ha confermato l'uso del dataset Pile, che include YouTube Subtitles, nel suo assistente AI generativo Claude, ma ha sottolineato che i termini di YouTube riguardano l'uso diretto della sua piattaforma, che è distinto dall'uso del dataset Pile.

Salesforce ha confermato l'uso del Pile per costruire un modello di AI per "scopi accademici e di ricerca", sottolineando che il dataset era "pubblicamente disponibile". Tuttavia, il rappresentante di Salesforce non ha risposto alle domande sulle preoccupazioni in materia di sicurezza sollevate dagli stessi sviluppatori dell'azienda, che hanno segnalato la presenza di volgarità e pregiudizi nel dataset.

Nvidia ha rifiutato di commentare, mentre Apple, Databricks e Bloomberg non hanno risposto alle richieste di commento.

Questa vicenda solleva importanti questioni etiche sull'uso del lavoro dei creatori di contenuti per addestrare l'intelligenza artificiale senza il loro consenso o compenso. Mentre le aziende tech si affrettano a sviluppare modelli di AI sempre più potenti, il rispetto per i diritti e il lavoro dei creatori sembra passare in secondo piano.

Scopri l’Academy di Imparerai e tutte le risorse che abbiamo preparato per te!

Scopri i migliori Tool di AI selezionati per te!

Vuoi contattarci? Non aspettiamo altro!

Sei arrivato alla fine!

La tua razione è completa!

Il tuo feedback è importante! Rispondi a questa email e raccontaci come potremmo migliorare questa newsletter.

Sei interessato a raggiungere i nostri lettori? Per diventare uno sponsor di Imparerai, scrivici qua!