Sommario
ChatGPT, il modello di linguaggio AI sviluppato da OpenAI, ha suscitato grande interesse nel mondo tecnologico. Tuttavia, l’espansione rapida del modello ha sollevato preoccupazioni riguardo a una potenziale carenza di unità di elaborazione grafica (GPU), essenziali per l’addestramento e l’esecuzione di grandi modelli di linguaggio come ChatGPT.
La carenza di GPU ostacola il progresso di ChatGPT
Secondo Fortune, Sam Altman, CEO di OpenAI, ha rivelato in un incontro privato che la grave carenza di GPU ha ostacolato il progresso di ChatGPT. Altman ha spiegato che la mancanza di GPU ha ritardato molti sforzi per ottimizzare ChatGPT. Gli utenti si sono lamentati della velocità e dell’affidabilità dell’interfaccia API di ChatGPT, problemi che Altman attribuisce principalmente alla carenza di GPU.
L’impatto della carenza di GPU su ChatGPT
La carenza di GPU ha reso più difficile per OpenAI permettere agli utenti di inviare più dati attraverso i grandi modelli di linguaggio che sottendono il suo software, come ChatGPT. Questo ha rallentato il lancio previsto di nuove funzionalità e servizi da parte dell’azienda. Ha anche reso i servizi esistenti di OpenAI più lenti e meno affidabili, un problema significativo per molti utenti che li rende riluttanti a costruire applicazioni aziendali sulla tecnologia di OpenAI.
Soluzioni potenziali alla carenza di GPU
Una soluzione potenziale alla carenza di GPU potrebbe essere l’aumento della capacità di produzione da parte delle aziende di semiconduttori. Tuttavia, la pandemia ha interrotto le catene di approvvigionamento e ha reso più difficile per le aziende accedere ai componenti necessari per produrre GPU. Un’altra soluzione potenziale potrebbe essere per le aziende trovare modi alternativi per addestrare ed eseguire grandi modelli di linguaggio come ChatGPT. Ad esempio, OpenAI ha trattenuto il suo nuovo potente modello di linguaggio, GPT-4, dalla versione gratuita di ChatGPT, che esegue ancora un modello GPT-3.5 più debole, a causa dell’alto costo di esecuzione di GPT-4.