Microsoft aggiunge GPT-4 Turbo LLM alla versione gratuita di Copilot
Nel 2023 Microsoft ha puntato molto sull'intelligenza artificiale e sulla partnership con OpenAI per rendere Copilot una realtà.
Con gli LLM quantistici ora disponibili su HuggingFace e gli ecosistemi di intelligenza artificiale come H20, Text Gen e GPT4All che consentono di caricare i pesi LLM sul computer, ora hai un'opzione per un'intelligenza artificiale gratuita, flessibile e sicura. Ecco i 9 migliori LLM locali/offline che puoi provare subito!
Sommario
Hermes 2 Pro è un modello linguistico avanzato messo a punto da Nous Research. Utilizza una versione aggiornata e semplificata del set di dati OpenHermes 2.5, insieme ai nuovi set di dati Function Calling e JSON sviluppati dalla stessa azienda. Questo modello si basa sull'architettura Mistral 7B ed è stato addestrato su 1.000.000 di istruzioni/conversazioni di qualità GPT-4 o superiore, per lo più dati sintetici.
Modello |
Hermes 2 Pro GPTQ |
---|---|
Dimensioni del modello |
7,26 GB |
Parametri |
7 miliardi |
Quantizzazione |
4 bit |
Tipo |
Maestrale |
Licenza |
Apache 2.0 |
L'Hermes 2 Pro sul Mistral 7B è il nuovo modello di punta dell'Hermes 7B, che offre prestazioni migliorate in una varietà di benchmark, tra cui AGIEval, BigBench Reasoning, GPT4All e TruthfulQA. Le sue funzionalità avanzate lo rendono adatto a numerose attività di elaborazione del linguaggio naturale (NLP), come la generazione di codice, la creazione di contenuti e le applicazioni di intelligenza artificiale conversazionale.
Zephyr è una serie di modelli linguistici addestrati per fungere da assistenti utili. Zephyr-7B-Beta è il secondo modello della serie, perfezionato da Mistral-7B-v0.1 utilizzando la Direct Preference Optimization (DPO) su una combinazione di set di dati sintetici disponibili al pubblico.
Modello |
Zephyr 7B Beta |
---|---|
Dimensioni del modello |
7,26 GB |
Parametri |
7 miliardi |
Quantizzazione |
4 bit |
Tipo |
Maestrale |
Licenza |
Apache 2.0 |
Eliminando l'allineamento incorporato dei set di dati di addestramento, Zephyr-7B-Beta dimostra prestazioni migliorate su benchmark come MT-Bench, aumentando la sua utilità in una varietà di attività. Tuttavia, questa modifica può dare luogo a una generazione di testo problematica quando richiesta in determinati modi.
Questa versione quantizzata di Falcon si basa su un'architettura esclusivamente decodificatrice, perfezionata sul modello grezzo Falcon-7b di TII. Il modello base Falcon viene addestrato utilizzando 1,5 trilioni di token in circolazione provenienti dalla rete Internet pubblica. Falcon Instruct è un modello di decodifica basato solo sui comandi e con licenza Apache 2, perfetto per le piccole aziende che cercano un modello da utilizzare per la traduzione linguistica e l'inserimento di dati.
Modello |
Falcon-7B-Istruzione |
---|---|
Dimensioni del modello |
7,58 GB |
Parametri |
7 miliardi |
Quantizzazione |
4 bit |
Tipo |
Falco |
Licenza |
Apache 2.0 |
Tuttavia, questa versione di Falcon non è ideale per la messa a punto fine ed è pensata solo per l'inferenza. Per ottimizzare Falcon, è necessario utilizzare il modello raw, il che potrebbe richiedere l'accesso ad hardware di formazione di livello aziendale come NVIDIA DGX o AMD Instinct AI Accelerators.
GPT4All-J Groovy è un modello esclusivamente decoder ottimizzato da Nomic AI e concesso in licenza con Apache 2.0. GPT4ALL-J Groovy si basa sul modello GPT-J originale, noto per la sua efficacia nel generare testo dai prompt. GPT4ALL -J Groovy è stato modificato in un modello conversazionale, ideale per applicazioni di generazione di testo rapide e creative. Ciò rende GPT4All-J Groovy ideale per i creatori di contenuti, in quanto li supporta nella scrittura e composizione, che si tratti di poesia, musica o racconti.
Modello |
GPT4ALL-J Groovy |
---|---|
Dimensioni del modello |
3,53 GB |
Parametri |
7 miliardi |
Quantizzazione |
4 bit |
Tipo |
GPT-J |
Licenza |
Apache 2.0 |
Sfortunatamente, il modello di base GPT-J è stato addestrato su un set di dati solo in inglese, il che significa che anche questo modello GPT4ALL-J perfezionato può conversare ed eseguire applicazioni di generazione di testo solo in inglese.
DeepSeek Coder V2 è un modello linguistico avanzato che migliora la programmazione e il ragionamento matematico. DeepSeek Coder V2 supporta numerosi linguaggi di programmazione e offre una lunghezza di contesto estesa, rendendolo uno strumento versatile per gli sviluppatori.
Modello |
Istruzioni DeepSeek Coder V2 |
---|---|
Dimensioni del modello |
13 GB |
Parametri |
33 miliardi |
Quantizzazione |
4 bit |
Tipo |
Ricerca profonda |
Licenza |
Apache 2.0 |
Rispetto al suo predecessore, DeepSeek Coder V2 presenta miglioramenti significativi nelle attività relative al codice, al ragionamento e alle capacità generali. Estende il supporto per i linguaggi di programmazione da 86 a 338 ed estende la lunghezza del contesto da 16K a 128K token. Nei benchmark, supera modelli come GPT-4 Turbo, Claude 3 Opus e Gemini 1.5 Pro nei benchmark crittografici e matematici.
Mixtral-8x7B è una combinazione di modelli esperti (MoE) sviluppata da Mistral AI. Dispone di 8 esperti per MLP, per un totale di 45 miliardi di parametri. Tuttavia, durante l'inferenza vengono attivati solo due esperti per token, il che lo rende computazionalmente efficiente, con velocità e costi paragonabili a un modello da 12 miliardi di parametri.
Modello |
Mixtral-8x7B |
---|---|
Dimensioni del modello |
12 GB |
Parametri |
45 miliardi (8 esperti) |
Quantizzazione |
4 bit |
Tipo |
Mistral MoE |
Licenza |
Apache 2.0 |
Mixtral supporta una lunghezza di contesto di 32k token e supera Llama 2 di 70B nella maggior parte dei benchmark, eguagliando o superando le prestazioni di GPT-3.5. Parla fluentemente diverse lingue, tra cui inglese, francese, tedesco, spagnolo e italiano, il che lo rende una scelta versatile per una varietà di attività di PNL.
Wizard-Vicuna GPTQ è la versione quantistica di Wizard Vicuna basata sul modello LlaMA. A differenza della maggior parte degli LLM resi pubblici, Wizard-Vicuna è un modello non censurato, in cui l'associazione è stata rimossa. Ciò significa che il modello non ha gli stessi standard di sicurezza ed etici della maggior parte degli altri modelli.
Modello |
Wizard-Vicuna-30B-Uncensored-GPTQ |
---|---|
Dimensioni del modello |
16,94 GB |
Parametri |
30 miliardi |
Quantizzazione |
4 bit |
Tipo |
Lama |
Licenza |
GPL 3 |
Sebbene possa rappresentare un problema per il controllo dell'allineamento dell'IA, avere un LLM non censurato fa emergere il meglio del modello consentendogli di rispondere senza vincoli. Ciò consente inoltre agli utenti di aggiungere il proprio allineamento personalizzato su come l'IA dovrebbe agire o rispondere in base a un determinato prompt.
Vuoi testare un modello addestrato utilizzando un metodo di apprendimento unico? Orca Mini è un'implementazione non ufficiale del documento di ricerca Orca di Microsoft. Questo modello viene addestrato utilizzando un approccio di apprendimento insegnante-studente, in cui il set di dati è riempito di spiegazioni anziché solo di richieste e risposte. In teoria, questo dovrebbe rendere lo studente più intelligente, in quanto il modello riesce a comprendere il problema anziché limitarsi a cercare coppie di input e output, come avviene nel tradizionale LLM.
Llama 2 è il successore dell'originale Llama LLM e offre prestazioni e versatilità migliorate. La variante 13B Chat GPTQ è ottimizzata per le applicazioni di intelligenza artificiale conversazionale per il dialogo in inglese.
Alcuni dei modelli sopra elencati sono disponibili in più versioni in termini di specifiche. In generale, le versioni con specifiche più elevate producono risultati migliori ma richiedono hardware più potente, mentre le versioni con specifiche più basse producono risultati di qualità inferiore ma possono essere eseguite su hardware di fascia bassa. Se non sei sicuro che il tuo PC possa supportare questo modello, prova prima una versione con specifiche inferiori, quindi continua finché non ritieni che il calo delle prestazioni non sia più accettabile.
Nel 2023 Microsoft ha puntato molto sull'intelligenza artificiale e sulla partnership con OpenAI per rendere Copilot una realtà.
Nvidia ha appena annunciato il rilascio di un modello di linguaggio di grandi dimensioni (LLM) open source che si dice abbia prestazioni paragonabili ai principali modelli proprietari di OpenAI, Anthropic, Meta e Google.
Foxconn, l'azienda nota per la produzione di iPhone e altri prodotti hardware Apple, ha appena sorpreso tutti annunciando il suo primo modello linguistico di grandi dimensioni (LLM), denominato FoxBrain, che dovrebbe essere utilizzato per migliorare la produzione e la gestione della catena di fornitura.
Gli esperti di sicurezza di Palo Alto Networks hanno scoperto una nuova campagna di attacco che diffonde malware tramite i risultati di ricerca di Google.
Google sta aggiungendo una piccola ma attesa novità al Play Store.
Dopo che Tim Cook assunse la carica di CEO nel 2011, nel tentativo di preservare la fiducia del pubblico in Apple, mantenne i dipendenti senior pagandoli senza obbligarli a lavorare.
Dead Pool è una delle aree a tema Mortal Kombat aggiunte a Fortnite con l'aggiornamento v34.21.
Dovresti usare il telefono durante tuoni e fulmini? I segnali dei telefoni cellulari possono essere interrotti dai fulmini? Un telefono in modalità aereo ma che utilizza ancora il Wi-Fi attira i fulmini?
Una nuova ricerca condotta da un team di ricercatori provenienti da Australia e Cina suggerisce che la prima pioggia è comparsa sulla Terra circa 4 miliardi di anni fa, 500 milioni di anni prima di quanto si pensasse in precedenza.
Questo oggetto si trova nella zona di Chernobyl, in Ucraina, ed è il risultato di una delle più terribili fughe radioattive della storia. Questo oggetto ha la forma di un piede gigante e per questo è chiamato Piede d'Elefante.
Il codice di gioco Chu Cong Xung Xung Xung consente ai giocatori di ricevere supporto quando accedono per la prima volta al gioco. Queste ricompense ti aiuteranno a familiarizzare più velocemente con il gioco e attireranno sicuramente nuovi giocatori. Inserisci il codice di gioco Chu Cong Xung Xung Xung qui sotto per ricevere un regalo.
Con gli LLM quantistici ora disponibili su HuggingFace e gli ecosistemi di intelligenza artificiale come H20, Text Gen e GPT4All che consentono di caricare i pesi LLM sul computer, ora hai un'opzione per un'intelligenza artificiale gratuita, flessibile e sicura.
Il registratore vocale predefinito sui telefoni Android è imperfetto e privo di funzionalità essenziali come un'efficace cancellazione del rumore e potenti strumenti di modifica.
Impostare un livello di volume predefinito per ogni applicazione può essere utile in alcuni casi, ad esempio quando si guarda un video con l'applicazione Youtube e si desidera ridurre il volume della suoneria e del tono dei messaggi per non essere disturbati.
Per le unghie di San Valentino sono particolarmente indicati i glitter rosa e lo smalto rosso. Cosa potrebbe esserci di meglio? In questo articolo vi illustreremo alcuni bellissimi design per unghie adatti a un dolce appuntamento a San Valentino.
Di seguito sono riportati stati e didascalie sul cambiamento di te stesso che ti aiuteranno ad avere più motivazione per adattarti ai cambiamenti della vita.
Verso la fine di giugno dello scorso anno, Bloomberg ha riferito che Apple aveva avviato lo sviluppo di iOS 19, macOS 16, watchOS 12 e VisionOS 3 per l'anno prossimo.
Lo sviluppatore NTDEV ha creato una versione ridotta di Windows 11 che pesa appena 100 MB.