Home
» Wiki
»
Microsoft annuncia un nuovo strumento per rilevare e correggere i contenuti allucinatori nelloutput dellintelligenza artificiale
Microsoft annuncia un nuovo strumento per rilevare e correggere i contenuti allucinatori nelloutput dellintelligenza artificiale
Azure AI Content Safety è il servizio di intelligenza artificiale di Microsoft che aiuta a rilevare contenuti dannosi generati dall'intelligenza artificiale in app, servizi e piattaforme. Questa utility fornisce API sia di testo che di immagini, consentendo agli sviluppatori di identificare i contenuti indesiderati.
L'API Groundedness in Azure AI Content Safety è in grado di identificare se la risposta da un modello linguistico di grandi dimensioni si basa su un documento di origine selezionato dall'utente. Poiché gli attuali modelli linguistici di grandi dimensioni possono produrre informazioni imprecise o false (informazioni illusorie), questa API aiuta gli sviluppatori a identificare tali contenuti nei dati di output dell'IA.
Oggi Microsoft ha annunciato un'anteprima della correzione. Di conseguenza, gli sviluppatori possono ora rilevare e correggere in tempo reale i contenuti "illusori" nei dati di output dell'IA, garantendo che gli utenti finali ricevano sempre contenuti generati dall'IA effettivamente accurati. Questa funzionalità funziona come segue:
Lo sviluppatore dell'app abilita le funzionalità di modifica.
Quando vengono rilevati dati infondati, viene inviata una nuova richiesta al modello di intelligenza artificiale per correggere l'errore.
L'algoritmo LLM valuterà il punteggio complessivo sulla base di documenti autorevoli.
Le frasi che non sono pertinenti al documento sottostante autenticato potrebbero essere completamente filtrate.
Se il contenuto deriva da un documento base, il modello base riscriverà la frase non comprovata in modo che corrisponda al documento.
Oltre alla funzionalità di modifica, Microsoft ha annunciato anche un'anteprima pubblica di Hybrid Azure AI Content Safety (AACS). Questa funzionalità consente agli sviluppatori di implementare meccanismi di sicurezza dei contenuti nel cloud e sul dispositivo. L'SDK incorporato di AACS consente controlli di sicurezza dei contenuti in tempo reale direttamente sul dispositivo, anche in assenza di connessione Internet.
Infine, Microsoft ha annunciato un'anteprima di Protected Materials Detection for Code che può essere utilizzata con applicazioni di intelligenza artificiale che generano codice per rilevare se LLM sta generando codice protetto. In precedenza questa funzionalità era disponibile solo tramite il servizio Azure OpenAI. Microsoft sta ora rendendo disponibile ai clienti la funzionalità Protected Materials Detection for Code, da utilizzare insieme ad altri modelli di intelligenza artificiale che generano codice.