Sommario
Microsoft, uno dei maggiori investitori in OpenAI, ha temporaneamente limitato l’accesso dei propri dipendenti a ChatGPT, il popolare chatbot AI, il 9 novembre 2023, citando “preoccupazioni per la sicurezza e i dati”. La restrizione è stata rapidamente annullata e l’accesso a ChatGPT è stato ripristinato dopo che l’azienda ha identificato il proprio errore.
Sicurezza e privacy: una priorità per i servizi AI
Il servizio ChatGPT, che conta oltre 100 milioni di utenti e che è stato addestrato su vasti dati internet, è stato temporaneamente inaccessibile per il personale di Microsoft a causa di preoccupazioni legate alla sicurezza e alla privacy. Un rapporto di CNBC ha rivelato che l’accesso a ChatGPT è stato limitato per alcuni dipendenti. Durante il divieto, si sosteneva che Microsoft avesse imposto la restrizione per proteggere la condivisione di dati confidenziali.
La risposta di Microsoft e le implicazioni
Un portavoce di Microsoft ha dichiarato che il divieto di accesso temporaneo si è verificato mentre l’azienda stava testando il Large Language Model (LLM). Durante i test del sistema di controllo terminale LLM, si è verificato un errore, ma è stato consigliato ai dipendenti di utilizzare Bing Chat Enterprise e ChatGPT Enterprise, prodotti ritenuti più sicuri per la sicurezza e la privacy. Il portavoce ha chiarito che il divieto è stato un errore e non intenzionale.
Reazioni e implicazioni del blocco temporaneo
Il blocco temporaneo dell’accesso a ChatGPT da parte dei dipendenti Microsoft ha sollevato preoccupazioni sull’uso di servizi AI come ChatGPT. Molti grandi marchi hanno limitato l’accesso a ChatGPT, spesso per prevenire la condivisione di dati confidenziali. L’incidente sottolinea la necessità per le aziende di essere caute nell’utilizzo di servizi AI di terze parti e di assicurarsi che i dati degli utenti rimangano sicuri.