Microsoft aggiunge GPT-4 Turbo LLM alla versione gratuita di Copilot
Nel 2023 Microsoft ha puntato molto sull'intelligenza artificiale e sulla partnership con OpenAI per rendere Copilot una realtà.
Con gli LLM quantistici ora disponibili su HuggingFace e gli ecosistemi di intelligenza artificiale come H20, Text Gen e GPT4All che consentono di caricare i pesi LLM sul computer, ora hai un'opzione per un'intelligenza artificiale gratuita, flessibile e sicura. Ecco i 9 migliori LLM locali/offline che puoi provare subito!
Sommario
Hermes 2 Pro è un modello linguistico avanzato messo a punto da Nous Research. Utilizza una versione aggiornata e semplificata del set di dati OpenHermes 2.5, insieme ai nuovi set di dati Function Calling e JSON sviluppati dalla stessa azienda. Questo modello si basa sull'architettura Mistral 7B ed è stato addestrato su 1.000.000 di istruzioni/conversazioni di qualità GPT-4 o superiore, per lo più dati sintetici.
Modello |
Hermes 2 Pro GPTQ |
---|---|
Dimensioni del modello |
7,26 GB |
Parametri |
7 miliardi |
Quantizzazione |
4 bit |
Tipo |
Maestrale |
Licenza |
Apache 2.0 |
L'Hermes 2 Pro sul Mistral 7B è il nuovo modello di punta dell'Hermes 7B, che offre prestazioni migliorate in una varietà di benchmark, tra cui AGIEval, BigBench Reasoning, GPT4All e TruthfulQA. Le sue funzionalità avanzate lo rendono adatto a numerose attività di elaborazione del linguaggio naturale (NLP), come la generazione di codice, la creazione di contenuti e le applicazioni di intelligenza artificiale conversazionale.
Zephyr è una serie di modelli linguistici addestrati per fungere da assistenti utili. Zephyr-7B-Beta è il secondo modello della serie, perfezionato da Mistral-7B-v0.1 utilizzando la Direct Preference Optimization (DPO) su una combinazione di set di dati sintetici disponibili al pubblico.
Modello |
Zephyr 7B Beta |
---|---|
Dimensioni del modello |
7,26 GB |
Parametri |
7 miliardi |
Quantizzazione |
4 bit |
Tipo |
Maestrale |
Licenza |
Apache 2.0 |
Eliminando l'allineamento incorporato dei set di dati di addestramento, Zephyr-7B-Beta dimostra prestazioni migliorate su benchmark come MT-Bench, aumentando la sua utilità in una varietà di attività. Tuttavia, questa modifica può dare luogo a una generazione di testo problematica quando richiesta in determinati modi.
Questa versione quantizzata di Falcon si basa su un'architettura esclusivamente decodificatrice, perfezionata sul modello grezzo Falcon-7b di TII. Il modello base Falcon viene addestrato utilizzando 1,5 trilioni di token in circolazione provenienti dalla rete Internet pubblica. Falcon Instruct è un modello di decodifica basato solo sui comandi e con licenza Apache 2, perfetto per le piccole aziende che cercano un modello da utilizzare per la traduzione linguistica e l'inserimento di dati.
Modello |
Falcon-7B-Istruzione |
---|---|
Dimensioni del modello |
7,58 GB |
Parametri |
7 miliardi |
Quantizzazione |
4 bit |
Tipo |
Falco |
Licenza |
Apache 2.0 |
Tuttavia, questa versione di Falcon non è ideale per la messa a punto fine ed è pensata solo per l'inferenza. Per ottimizzare Falcon, è necessario utilizzare il modello raw, il che potrebbe richiedere l'accesso ad hardware di formazione di livello aziendale come NVIDIA DGX o AMD Instinct AI Accelerators.
GPT4All-J Groovy è un modello esclusivamente decoder ottimizzato da Nomic AI e concesso in licenza con Apache 2.0. GPT4ALL-J Groovy si basa sul modello GPT-J originale, noto per la sua efficacia nel generare testo dai prompt. GPT4ALL -J Groovy è stato modificato in un modello conversazionale, ideale per applicazioni di generazione di testo rapide e creative. Ciò rende GPT4All-J Groovy ideale per i creatori di contenuti, in quanto li supporta nella scrittura e composizione, che si tratti di poesia, musica o racconti.
Modello |
GPT4ALL-J Groovy |
---|---|
Dimensioni del modello |
3,53 GB |
Parametri |
7 miliardi |
Quantizzazione |
4 bit |
Tipo |
GPT-J |
Licenza |
Apache 2.0 |
Sfortunatamente, il modello di base GPT-J è stato addestrato su un set di dati solo in inglese, il che significa che anche questo modello GPT4ALL-J perfezionato può conversare ed eseguire applicazioni di generazione di testo solo in inglese.
DeepSeek Coder V2 è un modello linguistico avanzato che migliora la programmazione e il ragionamento matematico. DeepSeek Coder V2 supporta numerosi linguaggi di programmazione e offre una lunghezza di contesto estesa, rendendolo uno strumento versatile per gli sviluppatori.
Modello |
Istruzioni DeepSeek Coder V2 |
---|---|
Dimensioni del modello |
13 GB |
Parametri |
33 miliardi |
Quantizzazione |
4 bit |
Tipo |
Ricerca profonda |
Licenza |
Apache 2.0 |
Rispetto al suo predecessore, DeepSeek Coder V2 presenta miglioramenti significativi nelle attività relative al codice, al ragionamento e alle capacità generali. Estende il supporto per i linguaggi di programmazione da 86 a 338 ed estende la lunghezza del contesto da 16K a 128K token. Nei benchmark, supera modelli come GPT-4 Turbo, Claude 3 Opus e Gemini 1.5 Pro nei benchmark crittografici e matematici.
Mixtral-8x7B è una combinazione di modelli esperti (MoE) sviluppata da Mistral AI. Dispone di 8 esperti per MLP, per un totale di 45 miliardi di parametri. Tuttavia, durante l'inferenza vengono attivati solo due esperti per token, il che lo rende computazionalmente efficiente, con velocità e costi paragonabili a un modello da 12 miliardi di parametri.
Modello |
Mixtral-8x7B |
---|---|
Dimensioni del modello |
12 GB |
Parametri |
45 miliardi (8 esperti) |
Quantizzazione |
4 bit |
Tipo |
Mistral MoE |
Licenza |
Apache 2.0 |
Mixtral supporta una lunghezza di contesto di 32k token e supera Llama 2 di 70B nella maggior parte dei benchmark, eguagliando o superando le prestazioni di GPT-3.5. Parla fluentemente diverse lingue, tra cui inglese, francese, tedesco, spagnolo e italiano, il che lo rende una scelta versatile per una varietà di attività di PNL.
Wizard-Vicuna GPTQ è la versione quantistica di Wizard Vicuna basata sul modello LlaMA. A differenza della maggior parte degli LLM resi pubblici, Wizard-Vicuna è un modello non censurato, in cui l'associazione è stata rimossa. Ciò significa che il modello non ha gli stessi standard di sicurezza ed etici della maggior parte degli altri modelli.
Modello |
Wizard-Vicuna-30B-Uncensored-GPTQ |
---|---|
Dimensioni del modello |
16,94 GB |
Parametri |
30 miliardi |
Quantizzazione |
4 bit |
Tipo |
Lama |
Licenza |
GPL 3 |
Sebbene possa rappresentare un problema per il controllo dell'allineamento dell'IA, avere un LLM non censurato fa emergere il meglio del modello consentendogli di rispondere senza vincoli. Ciò consente inoltre agli utenti di aggiungere il proprio allineamento personalizzato su come l'IA dovrebbe agire o rispondere in base a un determinato prompt.
Vuoi testare un modello addestrato utilizzando un metodo di apprendimento unico? Orca Mini è un'implementazione non ufficiale del documento di ricerca Orca di Microsoft. Questo modello viene addestrato utilizzando un approccio di apprendimento insegnante-studente, in cui il set di dati è riempito di spiegazioni anziché solo di richieste e risposte. In teoria, questo dovrebbe rendere lo studente più intelligente, in quanto il modello riesce a comprendere il problema anziché limitarsi a cercare coppie di input e output, come avviene nel tradizionale LLM.
Llama 2 è il successore dell'originale Llama LLM e offre prestazioni e versatilità migliorate. La variante 13B Chat GPTQ è ottimizzata per le applicazioni di intelligenza artificiale conversazionale per il dialogo in inglese.
Alcuni dei modelli sopra elencati sono disponibili in più versioni in termini di specifiche. In generale, le versioni con specifiche più elevate producono risultati migliori ma richiedono hardware più potente, mentre le versioni con specifiche più basse producono risultati di qualità inferiore ma possono essere eseguite su hardware di fascia bassa. Se non sei sicuro che il tuo PC possa supportare questo modello, prova prima una versione con specifiche inferiori, quindi continua finché non ritieni che il calo delle prestazioni non sia più accettabile.
Nel 2023 Microsoft ha puntato molto sull'intelligenza artificiale e sulla partnership con OpenAI per rendere Copilot una realtà.
Nvidia ha appena annunciato il rilascio di un modello di linguaggio di grandi dimensioni (LLM) open source che si dice abbia prestazioni paragonabili ai principali modelli proprietari di OpenAI, Anthropic, Meta e Google.
Foxconn, l'azienda nota per la produzione di iPhone e altri prodotti hardware Apple, ha appena sorpreso tutti annunciando il suo primo modello linguistico di grandi dimensioni (LLM), denominato FoxBrain, che dovrebbe essere utilizzato per migliorare la produzione e la gestione della catena di fornitura.
Le smart TV hanno davvero preso d'assalto il mondo. Grazie alle sue numerose funzionalità e alla connettività Internet, la tecnologia ha cambiato il nostro modo di guardare la TV.
I frigoriferi sono elettrodomestici comuni nelle case. I frigoriferi hanno solitamente 2 scomparti: lo scomparto freddo è spazioso e ha una luce che si accende automaticamente ogni volta che l'utente lo apre, mentre lo scomparto congelatore è stretto e non ha luce.
Oltre ai router, alla larghezza di banda e alle interferenze, le reti Wi-Fi sono influenzate da molti fattori, ma esistono alcuni modi intelligenti per potenziare la propria rete.
Se vuoi tornare alla versione stabile di iOS 16 sul tuo telefono, ecco la guida di base per disinstallare iOS 17 ed effettuare il downgrade da iOS 17 a 16.
Lo yogurt è un alimento meraviglioso. Fa bene mangiare yogurt tutti i giorni? Se mangiassi yogurt ogni giorno, come cambierebbe il tuo corpo? Scopriamolo insieme!
In questo articolo vengono illustrati i tipi di riso più nutrienti e come sfruttare al massimo i benefici per la salute offerti dal tipo di riso scelto.
Tra le misure che possono aiutarti a dormire meglio e a svegliarti puntuale al mattino c'è quella di stabilire un orario per dormire e una routine per andare a dormire, cambiare la sveglia e modificare la tua dieta.
Affitto per favore! Landlord Sim è un gioco di simulazione per dispositivi mobili, disponibile per iOS e Android. Giocherai nei panni del proprietario di un complesso di appartamenti e inizierai ad affittare un appartamento con l'obiettivo di migliorarne gli interni e prepararli per gli inquilini.
Ottieni il codice del gioco Roblox Bathroom Tower Defense e riscattalo per ottenere fantastiche ricompense. Ti aiuteranno a potenziare o sbloccare torri con danni maggiori.
Impariamo a conoscere la struttura, i simboli e i principi di funzionamento dei trasformatori nel modo più accurato.
Dalla migliore qualità dell'immagine e del suono al controllo vocale e molto altro, queste funzionalità basate sull'intelligenza artificiale stanno rendendo le smart TV molto migliori!
Inizialmente le aspettative per DeepSeek erano alte. In quanto chatbot basato sull'intelligenza artificiale, pubblicizzato come un forte concorrente di ChatGPT, promette funzionalità ed esperienze di chat intelligenti.
È facile trascurare dettagli importanti quando si prendono appunti di altre cose essenziali, e cercare di prendere appunti mentre si chiacchiera può distrarre. Fireflies.ai è la soluzione.
Gli Axolot di Minecraft saranno degli ottimi aiutanti per i giocatori che operano sott'acqua, se sapranno come usarli.
La configurazione di A Quiet Place: The Road Ahead ha ricevuto recensioni piuttosto positive, quindi è opportuno valutarla attentamente prima di decidere di scaricarla.