Stability AI lancia modelli di linguaggio simili a ChatGPT per sfidare GPT-4

da Livio Varriale
0 commenti 2 minuti leggi

Stability AI, la startup dietro lo strumento di arte generativa Stable Diffusion, ha rilasciato una suite di modelli di generazione di testo basati sull’intelligenza artificiale, chiamata StableLM, per competere con sistemi come GPT-4 di OpenAI.

StableLM, un nuovo concorrente nel campo dei modelli di linguaggio

StableLM, disponibile in versione “alpha” su GitHub e Hugging Face, è stato progettato per generare sia codice che testo, dimostrando come modelli piccoli ed efficienti possano offrire alte prestazioni con un addestramento appropriato. Stability AI mira a rendere accessibili a tutti la progettazione e l’utilizzo dei modelli di linguaggio.

Annunci

L’addestramento di StableLM sui dati de The Pile

I modelli di StableLM sono stati addestrati su un dataset chiamato The Pile, una raccolta di campioni di testo prelevati dal web da siti come PubMed, StackExchange e Wikipedia. Tuttavia, Stability AI afferma di aver creato un set di addestramento personalizzato che espande le dimensioni del Pile standard fino a tre volte.

Limitazioni e capacità dei modelli StableLM

Stability AI non ha specificato se i modelli StableLM presentano le stesse limitazioni di altri sistemi simili, come la tendenza a generare risposte tossiche o a inventare informazioni. Tuttavia, è possibile che ciò avvenga, dato che The Pile contiene linguaggio profano, volgare e talvolta offensivo.

I modelli StableLM e le loro funzionalità

I modelli StableLM sembrano essere abbastanza capaci in termini di ciò che possono realizzare, in particolare le versioni ottimizzate incluse nella versione alpha. Addestrati con una tecnica chiamata Alpaca, sviluppata da Stanford, e utilizzando dataset open source, i modelli StableLM sono in grado di rispondere a istruzioni come “scrivi una lettera di presentazione per uno sviluppatore software” o “scrivi il testo per una canzone rap epica”.

Il dibattito sull’open source e la sicurezza dei modelli di linguaggio

La pubblicazione di modelli open source come StableLM è stata criticata in passato, poiché potrebbero essere utilizzati per scopi non etici, come la creazione di e-mail di phishing o il supporto ad attacchi informatici. Tuttavia, Stability AI sostiene che l’approccio open source promuove la trasparenza e la fiducia, consentendo alla comunità di ricerca di sviluppare tecniche di interpretazione e sicurezza.

Si può anche come

MatriceDigitale.it – Copyright © 2024, Livio Varriale – Registrazione Tribunale di Napoli n° 60 del 18/11/2021. – P.IVA IT10498911212 Privacy Policy e Cookies

Developed with love by Giuseppe Ferrara