Meta lancia Llama 4: il LLM multimodale definitivo
Questa serie include tre versioni: Llama 4 Scout, Llama 4 Maverick e Llama 4 Behemoth.
All'inizio di aprile 2025, Meta ha lanciato Llama 4 , l'ultima serie di modelli di intelligenza artificiale progettati per portare l'azienda a un livello superiore. Ogni nuovo modello Llama 4 presenta notevoli miglioramenti rispetto ai suoi predecessori: ecco le nuove caratteristiche più importanti da provare.
3. Architettura del mix di esperti (MoE)
Una delle caratteristiche più notevoli dei modelli Llama 4 è la nuova architettura MoE, una novità per la serie Llama, che utilizza un approccio diverso rispetto ai modelli precedenti. Nella nuova architettura, solo una piccola frazione dei parametri del modello viene attivata per ogni token, a differenza dei tradizionali modelli di trasformatori densi come Llama 3 e precedenti, in cui tutti i parametri vengono attivati per ogni attività.
Ad esempio, Llama 4 Maverick utilizza solo 17 miliardi di parametri attivi su 400 miliardi, con 128 esperti instradati e un esperto condiviso. Llama 4 Scout, il più piccolo della serie, ha un totale di 109 miliardi di parametri, attivandone solo 17 miliardi con 16 esperti.
La versione più grande del trio, Llama 4 Behemoth, utilizza 288 miliardi di parametri attivi (con 16 esperti) su un totale di quasi due trilioni di parametri. Grazie a questa nuova architettura, a ogni compito vengono assegnati solo due specialisti.
Grazie al cambiamento architettonico, i modelli della serie Llama 4 risultano più efficienti dal punto di vista computazionale durante l'addestramento e l'inferenza. Abilitando solo una piccola parte dei parametri si riducono i costi del servizio e la latenza. Grazie all'architettura MoE, Meta sostiene che Llama può essere eseguito su una singola GPU Nvidia H100, un'impresa impressionante considerando il numero di parametri. Sebbene non ci siano metriche specifiche, si ritiene che ogni query su ChatGPT utilizzi più GPU Nvidia, il che crea un overhead maggiore in quasi tutte le metriche misurabili.
2. Capacità di elaborazione multimodale nativa
Un altro importante aggiornamento dei modelli di intelligenza artificiale di Llama 4 è l'elaborazione multimodale nativa, che consente al trio di comprendere simultaneamente testo e immagini.
Ciò è possibile grazie alla combinazione effettuata nella fase di formazione iniziale, in cui i token testuali e visivi vengono integrati in un'architettura unificata. I modelli vengono addestrati utilizzando grandi quantità di dati di testo, immagini e video non etichettati.
Non c'è niente di meglio. Se ricordate, l'aggiornamento Llama 3.2 di Meta , rilasciato nel settembre 2024, ha introdotto una serie di nuovi modelli (10 in totale), tra cui 5 modelli di visione multimodale e 5 modelli di testo. Con questa generazione, l'azienda non ha bisogno di rilasciare modelli di testo e di visione separati, grazie alle capacità di elaborazione multimodale native.
Inoltre, Llama 4 utilizza un codificatore visivo migliorato, che consente ai modelli di gestire complesse attività di inferenza visiva e input multi-immagine, rendendoli in grado di gestire applicazioni che richiedono una comprensione avanzata di testo e immagini. L'elaborazione multimodale consente inoltre di utilizzare i modelli LLama 4 in una vasta gamma di applicazioni.
1. Finestra contestuale leader del settore
I modelli di intelligenza artificiale di Llama 4 vantano una finestra contestuale senza precedenti, pari a un massimo di 10 milioni di token. Sebbene Llama 4 Behemoth sia ancora in fase di sviluppo al momento della pubblicazione, Llama 4 Scout ha stabilito un nuovo punto di riferimento nel settore grazie alla sua capacità di supportare fino a 10 milioni di token di lunghezza del contesto, consentendo di immettere testo più lungo di 5 milioni di parole.
Questa lunghezza estesa del contesto rappresenta un incremento significativo rispetto agli 8k token di Llama 3 al momento del suo lancio e persino rispetto alla successiva espansione a 128k dopo l'aggiornamento a Llama 3.2. E non è solo la lunghezza del contesto di 10 milioni di Llama 4 Scout a essere interessante; Anche Llama 4 Maverick, con la sua lunghezza di un milione di contesti, è un'impresa impressionante.
Llama 3.2 è attualmente uno dei migliori chatbot AI per conversazioni prolungate. Tuttavia, la finestra di contesto ampliata di Llama 4 pone Llama in testa, superando la precedente finestra di contesto da 2 milioni di token di Gemini, i 200.000 di Claude 3.7 Sonnet e i 128.000 di GPT-4.5.
Grazie all'ampia finestra di contesto, la serie Llama 4 è in grado di gestire attività che richiedono l'inserimento di grandi quantità di informazioni. Questa ampia finestra è utile per attività quali l'analisi di documenti lunghi e multipli, l'analisi dettagliata di grandi basi di codice e il ragionamento su grandi set di dati.
Permette inoltre a Llama 4 di effettuare conversazioni prolungate, a differenza dei precedenti modelli di Llama e dei modelli di altre aziende di intelligenza artificiale. Se uno dei motivi per cui Gemini 2.5 Pro è il miglior modello di ragionamento è la sua ampia finestra di contesto, puoi immaginare quanto sia potente una finestra di contesto 5x o 10x.
I modelli Llama della serie 3 di Meta sono tra i migliori LLM sul mercato. Ma con il rilascio della serie Llama 4, Meta fa un ulteriore passo avanti non solo concentrandosi sul miglioramento delle prestazioni di inferenza (grazie alla nuova finestra di contesto leader del settore), ma anche garantendo i modelli più efficienti possibili utilizzando una nuova architettura MoE sia durante l'addestramento che durante l'inferenza.
Le capacità di elaborazione multimodale nativa di Llama 4, l'efficiente architettura MoE e l'ampia finestra di contesto lo posizionano come un modello di intelligenza artificiale aperto, ad alte prestazioni e flessibile, ponderato in grado di competere o superare i modelli leader per inferenza, codifica e molte altre attività.
ChatGPT è in fase di sperimentazione da parte di Synchron, una delle aziende pioniere nei chip per impianti cerebrali (BCI) per aiutare i pazienti a utilizzare i dispositivi elettronici.
Vuoi cambiare l'aspetto delle tue foto quotidiane? Gli strumenti di creazione artistica basati sull'intelligenza artificiale possono aggiungere un tocco unico e creativo che non potresti ottenere con l'editing manuale.
Molte persone non amano l'intelligenza artificiale perché vogliono leggere i dati grezzi e analizzarli autonomamente. Tuttavia, quando sei bloccato da qualche compito noioso e hai bisogno di idee, prova Aria AI di Opera. Ecco perché l'intelligenza artificiale di Aria di Opera è utile!
Code Thap Dien Mai Phuc dà ai giocatori Kim Nguyen Bao, Hoan Khon Halo, Oro, Huyen Tinh, Huyen Tinh Chest
Con una serie di recensioni per lo più positive, non sorprende che Black Myth: Wukong abbia battuto ogni record su Steam.
Il temuto codice di errore Blue Screen of Death (BSOD) 0xc00000e, che spesso compare all'avvio di Windows 10, può creare confusione.
Molte persone usano spazi nei loro nomi Play Together oppure piccole sottolineature per creare spazi tra le lettere che scrivi nel tuo nome.
Sebbene sia possibile provare Black Beacon su PC, al momento il gioco non è ufficialmente ottimizzato per questa piattaforma.
L'area superficiale di una sfera è quattro volte l'area di un cerchio grande, che è quattro volte la costante Pi moltiplicata per il quadrato del raggio della sfera.
La Cina punta a inviare i suoi primi cittadini sulla Luna entro il 2030 e il Paese ha appena presentato una tuta spaziale di nuova concezione che verrà utilizzata nella prossima missione storica.
Molti alimenti possono causare infiammazioni e malattie croniche. Di seguito sono elencati gli alimenti di cui dovresti evitare il consumo eccessivo se non vuoi contrarre malattie.
Zuka è un assassino noto per essere un terrore per i campioni con poca salute. Scopri come usare Zuka in modo efficace nella stagione 23.
Ricevere regali tramite i codici regalo di Heroic Age è ciò che quasi tutti i nuovi giocatori fanno quando si uniscono al gioco.
Diamo un'occhiata alle soluzioni di cloud storage online più economiche disponibili. In questo articolo analizzeremo i prezzi sia in termini assoluti che per gigabyte (al mese), così potrai scegliere la soluzione più adatta alle tue esigenze.
#### in Excel è un errore comune di Excel e si verifica in molti casi diversi quando inseriamo dati in Excel, funzioni in Excel, formule in Excel.