Microsoft aggiunge GPT-4 Turbo LLM alla versione gratuita di Copilot
Nel 2023 Microsoft ha puntato molto sull'intelligenza artificiale e sulla partnership con OpenAI per rendere Copilot una realtà.
Con gli LLM quantistici ora disponibili su HuggingFace e gli ecosistemi di intelligenza artificiale come H20, Text Gen e GPT4All che consentono di caricare i pesi LLM sul computer, ora hai un'opzione per un'intelligenza artificiale gratuita, flessibile e sicura. Ecco i 9 migliori LLM locali/offline che puoi provare subito!
Sommario

Hermes 2 Pro è un modello linguistico avanzato messo a punto da Nous Research. Utilizza una versione aggiornata e semplificata del set di dati OpenHermes 2.5, insieme ai nuovi set di dati Function Calling e JSON sviluppati dalla stessa azienda. Questo modello si basa sull'architettura Mistral 7B ed è stato addestrato su 1.000.000 di istruzioni/conversazioni di qualità GPT-4 o superiore, per lo più dati sintetici.
|
Modello |
Hermes 2 Pro GPTQ |
|---|---|
|
Dimensioni del modello |
7,26 GB |
|
Parametri |
7 miliardi |
|
Quantizzazione |
4 bit |
|
Tipo |
Maestrale |
|
Licenza |
Apache 2.0 |
L'Hermes 2 Pro sul Mistral 7B è il nuovo modello di punta dell'Hermes 7B, che offre prestazioni migliorate in una varietà di benchmark, tra cui AGIEval, BigBench Reasoning, GPT4All e TruthfulQA. Le sue funzionalità avanzate lo rendono adatto a numerose attività di elaborazione del linguaggio naturale (NLP), come la generazione di codice, la creazione di contenuti e le applicazioni di intelligenza artificiale conversazionale.
Zephyr è una serie di modelli linguistici addestrati per fungere da assistenti utili. Zephyr-7B-Beta è il secondo modello della serie, perfezionato da Mistral-7B-v0.1 utilizzando la Direct Preference Optimization (DPO) su una combinazione di set di dati sintetici disponibili al pubblico.
|
Modello |
Zephyr 7B Beta |
|---|---|
|
Dimensioni del modello |
7,26 GB |
|
Parametri |
7 miliardi |
|
Quantizzazione |
4 bit |
|
Tipo |
Maestrale |
|
Licenza |
Apache 2.0 |
Eliminando l'allineamento incorporato dei set di dati di addestramento, Zephyr-7B-Beta dimostra prestazioni migliorate su benchmark come MT-Bench, aumentando la sua utilità in una varietà di attività. Tuttavia, questa modifica può dare luogo a una generazione di testo problematica quando richiesta in determinati modi.

Questa versione quantizzata di Falcon si basa su un'architettura esclusivamente decodificatrice, perfezionata sul modello grezzo Falcon-7b di TII. Il modello base Falcon viene addestrato utilizzando 1,5 trilioni di token in circolazione provenienti dalla rete Internet pubblica. Falcon Instruct è un modello di decodifica basato solo sui comandi e con licenza Apache 2, perfetto per le piccole aziende che cercano un modello da utilizzare per la traduzione linguistica e l'inserimento di dati.
|
Modello |
Falcon-7B-Istruzione |
|---|---|
|
Dimensioni del modello |
7,58 GB |
|
Parametri |
7 miliardi |
|
Quantizzazione |
4 bit |
|
Tipo |
Falco |
|
Licenza |
Apache 2.0 |
Tuttavia, questa versione di Falcon non è ideale per la messa a punto fine ed è pensata solo per l'inferenza. Per ottimizzare Falcon, è necessario utilizzare il modello raw, il che potrebbe richiedere l'accesso ad hardware di formazione di livello aziendale come NVIDIA DGX o AMD Instinct AI Accelerators.
GPT4All-J Groovy è un modello esclusivamente decoder ottimizzato da Nomic AI e concesso in licenza con Apache 2.0. GPT4ALL-J Groovy si basa sul modello GPT-J originale, noto per la sua efficacia nel generare testo dai prompt. GPT4ALL -J Groovy è stato modificato in un modello conversazionale, ideale per applicazioni di generazione di testo rapide e creative. Ciò rende GPT4All-J Groovy ideale per i creatori di contenuti, in quanto li supporta nella scrittura e composizione, che si tratti di poesia, musica o racconti.
|
Modello |
GPT4ALL-J Groovy |
|---|---|
|
Dimensioni del modello |
3,53 GB |
|
Parametri |
7 miliardi |
|
Quantizzazione |
4 bit |
|
Tipo |
GPT-J |
|
Licenza |
Apache 2.0 |
Sfortunatamente, il modello di base GPT-J è stato addestrato su un set di dati solo in inglese, il che significa che anche questo modello GPT4ALL-J perfezionato può conversare ed eseguire applicazioni di generazione di testo solo in inglese.

DeepSeek Coder V2 è un modello linguistico avanzato che migliora la programmazione e il ragionamento matematico. DeepSeek Coder V2 supporta numerosi linguaggi di programmazione e offre una lunghezza di contesto estesa, rendendolo uno strumento versatile per gli sviluppatori.
|
Modello |
Istruzioni DeepSeek Coder V2 |
|---|---|
|
Dimensioni del modello |
13 GB |
|
Parametri |
33 miliardi |
|
Quantizzazione |
4 bit |
|
Tipo |
Ricerca profonda |
|
Licenza |
Apache 2.0 |
Rispetto al suo predecessore, DeepSeek Coder V2 presenta miglioramenti significativi nelle attività relative al codice, al ragionamento e alle capacità generali. Estende il supporto per i linguaggi di programmazione da 86 a 338 ed estende la lunghezza del contesto da 16K a 128K token. Nei benchmark, supera modelli come GPT-4 Turbo, Claude 3 Opus e Gemini 1.5 Pro nei benchmark crittografici e matematici.

Mixtral-8x7B è una combinazione di modelli esperti (MoE) sviluppata da Mistral AI. Dispone di 8 esperti per MLP, per un totale di 45 miliardi di parametri. Tuttavia, durante l'inferenza vengono attivati solo due esperti per token, il che lo rende computazionalmente efficiente, con velocità e costi paragonabili a un modello da 12 miliardi di parametri.
|
Modello |
Mixtral-8x7B |
|---|---|
|
Dimensioni del modello |
12 GB |
|
Parametri |
45 miliardi (8 esperti) |
|
Quantizzazione |
4 bit |
|
Tipo |
Mistral MoE |
|
Licenza |
Apache 2.0 |
Mixtral supporta una lunghezza di contesto di 32k token e supera Llama 2 di 70B nella maggior parte dei benchmark, eguagliando o superando le prestazioni di GPT-3.5. Parla fluentemente diverse lingue, tra cui inglese, francese, tedesco, spagnolo e italiano, il che lo rende una scelta versatile per una varietà di attività di PNL.
Wizard-Vicuna GPTQ è la versione quantistica di Wizard Vicuna basata sul modello LlaMA. A differenza della maggior parte degli LLM resi pubblici, Wizard-Vicuna è un modello non censurato, in cui l'associazione è stata rimossa. Ciò significa che il modello non ha gli stessi standard di sicurezza ed etici della maggior parte degli altri modelli.
|
Modello |
Wizard-Vicuna-30B-Uncensored-GPTQ |
|---|---|
|
Dimensioni del modello |
16,94 GB |
|
Parametri |
30 miliardi |
|
Quantizzazione |
4 bit |
|
Tipo |
Lama |
|
Licenza |
GPL 3 |
Sebbene possa rappresentare un problema per il controllo dell'allineamento dell'IA, avere un LLM non censurato fa emergere il meglio del modello consentendogli di rispondere senza vincoli. Ciò consente inoltre agli utenti di aggiungere il proprio allineamento personalizzato su come l'IA dovrebbe agire o rispondere in base a un determinato prompt.

Vuoi testare un modello addestrato utilizzando un metodo di apprendimento unico? Orca Mini è un'implementazione non ufficiale del documento di ricerca Orca di Microsoft. Questo modello viene addestrato utilizzando un approccio di apprendimento insegnante-studente, in cui il set di dati è riempito di spiegazioni anziché solo di richieste e risposte. In teoria, questo dovrebbe rendere lo studente più intelligente, in quanto il modello riesce a comprendere il problema anziché limitarsi a cercare coppie di input e output, come avviene nel tradizionale LLM.

Llama 2 è il successore dell'originale Llama LLM e offre prestazioni e versatilità migliorate. La variante 13B Chat GPTQ è ottimizzata per le applicazioni di intelligenza artificiale conversazionale per il dialogo in inglese.
Alcuni dei modelli sopra elencati sono disponibili in più versioni in termini di specifiche. In generale, le versioni con specifiche più elevate producono risultati migliori ma richiedono hardware più potente, mentre le versioni con specifiche più basse producono risultati di qualità inferiore ma possono essere eseguite su hardware di fascia bassa. Se non sei sicuro che il tuo PC possa supportare questo modello, prova prima una versione con specifiche inferiori, quindi continua finché non ritieni che il calo delle prestazioni non sia più accettabile.
Nel 2023 Microsoft ha puntato molto sull'intelligenza artificiale e sulla partnership con OpenAI per rendere Copilot una realtà.
Nvidia ha appena annunciato il rilascio di un modello di linguaggio di grandi dimensioni (LLM) open source che si dice abbia prestazioni paragonabili ai principali modelli proprietari di OpenAI, Anthropic, Meta e Google.
Foxconn, l'azienda nota per la produzione di iPhone e altri prodotti hardware Apple, ha appena sorpreso tutti annunciando il suo primo modello linguistico di grandi dimensioni (LLM), denominato FoxBrain, che dovrebbe essere utilizzato per migliorare la produzione e la gestione della catena di fornitura.
Problemi con l'errore di chat di Microsoft Teams che non invia messaggi? Scopri le soluzioni dettagliate per gli ultimi problemi di Teams, dalla cancellazione della cache alle modifiche di rete. Torna a chattare senza problemi in pochi minuti!
Stanco di crash di Microsoft Teams con errori gravi? Ottieni la comprovata correzione del registro 2026 che risolve il problema in pochi minuti. Guida passo passo, screenshot e suggerimenti per una risoluzione definitiva. Funziona con le versioni più recenti!
Hai problemi con il portachiavi di errore di Microsoft Teams su Mac? Scopri soluzioni comprovate e dettagliate per macOS per tornare a collaborare senza problemi. Soluzioni rapide all'interno!
Hai problemi con il caricamento della scheda Wiki di Microsoft Teams? Scopri soluzioni passo passo comprovate per risolvere rapidamente il problema, ripristinare le schede Wiki e aumentare la produttività del team senza problemi.
Stanco di sentire l'audio ovattato o assente nel microfono di Microsoft Teams? Scopri come risolvere i problemi del microfono di Microsoft Teams con passaggi rapidi e comprovati. Un audio nitido ti aspetta!
Stanco degli errori di sincronizzazione di Gestione Attività di Microsoft Teams che interrompono il tuo flusso di lavoro? Segui le nostre soluzioni dettagliate e dettagliate per ripristinare la perfetta sincronizzazione delle attività tra Teams, Planner e To Do. Soluzioni rapide per un sollievo immediato!
Hai problemi con la lentezza di Microsoft Teams? Scopri come svuotare la cache di Microsoft Teams passo dopo passo per risolvere problemi di prestazioni, ritardi, arresti anomali e aumentare la velocità su Windows, Mac, web e dispositivi mobili. Soluzioni rapide e efficaci!
Problemi di rete di Microsoft Teams su una rete Wi-Fi pubblica? Ottieni soluzioni immediate come modifiche alla VPN, controlli delle porte e cancellazione della cache per ripristinare chiamate e riunioni senza problemi. Guida passo passo per un rapido sollievo.
Hai difficoltà a trovare il tuo ID Microsoft Teams o i dettagli del tuo account? Questa guida dettagliata mostra esattamente dove trovare il tuo ID Microsoft Teams e le informazioni del tuo account su desktop, web, dispositivi mobili e altro ancora, per una collaborazione senza interruzioni.
Stanco dell'errore 1200 di Microsoft Teams che blocca le tue chiamate al telefono? Scopri soluzioni rapide e dettagliate per iOS e Android per tornare a lavorare in team senza intoppi, senza bisogno di competenze tecniche!
Hai difficoltà a trovare la cartella di installazione di Microsoft Teams sul tuo PC? Questa guida dettagliata ti mostrerà i percorsi esatti per le installazioni di Teams, sia nuove che classiche, per utente e per computer. Risparmia tempo nella risoluzione dei problemi!
Scopri come creare e gestire un bot in Microsoft Teams (2026) con questa guida esperta. Dalla configurazione alla gestione avanzata, aumenta la produttività utilizzando gli ultimi strumenti di Bot Framework e Azure.
Frustrato perché la tua registrazione su Microsoft Teams non è riuscita? Scopri le cause più comuni, come problemi di autorizzazioni, limiti di spazio di archiviazione e problemi di rete, oltre a soluzioni dettagliate per prevenire futuri errori e registrare in modo impeccabile ogni volta.
Problemi di accesso a Microsoft Teams su Chromebook? Scopri le soluzioni dettagliate per risolvere rapidamente i problemi di accesso. Svuota la cache, aggiorna le app e altro ancora per un lavoro di squadra senza intoppi. Compatibile con l'ultima versione di Chrome OS!
Scopri come mantenere Microsoft Teams attivo e disponibile tutto il giorno. Suggerimenti, strumenti e impostazioni comprovati per evitare lo stato "Assente", aumentare la produttività e non perdere mai un colpo durante la tua giornata lavorativa.