Categorie
Tech

OpenAI rende ChatGPT più diretto e meno prolisso

Tempo di lettura: 2 minuti. OpenAI aggiorna ChatGPT rendendolo più diretto e meno prolisso per gli utenti premium, migliorando scrittura e logica.

Tempo di lettura: 2 minuti.

OpenAI ha annunciato un importante aggiornamento per ChatGPT, rendendo il popolare chatbot AI-powered più diretto e meno prolisso. Questo miglioramento è destinato agli utenti premium di ChatGPT, inclusi quelli dei piani ChatGPT Plus, Team o Enterprise

Dettagli dell’aggiornamento
La nuova versione migliorata, denominata GPT-4 Turbo (versione “gpt-4-turbo-2024-04-09”), è stata aggiornata per offrire miglioramenti significativi nelle capacità di scrittura, matematica, ragionamento logico e programmazione. Il modello si basa su dati pubblici disponibili fino a dicembre 2023, rispetto alla precedente versione di GPT-4 Turbo che aveva un taglio ai dati di aprile 2023. OpenAI sostiene che con questo aggiornamento, ChatGPT sarà in grado di fornire risposte più concise e utilizzare un linguaggio più conversazionale.

Contesto e ulteriori sviluppi
L’aggiornamento di ChatGPT arriva in un momento critico per OpenAI, che ha recentemente affrontato una settimana di critiche. Reportage di The Intercept ha rivelato che Microsoft ha proposto il modello DALL-E di OpenAI, capace di generare immagini a partire da testo, come strumento bellico per l’esercito statunitense. Secondo i documenti, il Pentagono potrebbe utilizzare DALL-E per la formazione di sistemi di gestione della battaglia, che sono software di comando e controllo che aiutano i leader militari a coordinare operazioni come il fuoco di artiglieria, l’identificazione di bersagli per attacchi aerei e i movimenti delle truppe. L’idea è che le immagini artificiali generate da DALL-E possano migliorare la capacità dei computer del Pentagono di “vedere” le condizioni sul campo di battaglia, un vantaggio notevole per l’identificazione e l’annientamento di bersagli.

Reazioni e implicazioni Etiche
L’uso proposto di DALL-E ha sollevato questioni etiche significative, in particolare riguardo al potenziale impatto sulla distinzione tra uso civile e militare dell’IA. Esperti di etica della tecnologia hanno espresso preoccupazioni sul fatto che, anche se l’uso di DALL-E potrebbe essere inteso per addestramento, la realtà è che contribuisce alla preparazione per il combattimento, il che potrebbe inevitabilmente portare a danni civili.

Risposte di Microsoft e OpenAI
In risposta alle preoccupazioni sollevate, un portavoce di Microsoft ha affermato che, sebbene abbiano proposto l’uso di DALL-E per addestrare il software di battaglia, tale uso non è ancora stato implementato. OpenAI, attraverso il portavoce Liz Bourgeous, ha chiarito che non era coinvolta nella proposta di Microsoft e che le politiche di OpenAI proibiscono l’uso dei suoi strumenti per sviluppare o utilizzare armi, ferire persone o distruggere proprietà.

Inoltre, secondo quanto riportato da The Information, OpenAI ha licenziato due ricercatori per presunte fughe di informazioni, inclusa una figura vicina al chief scientist Ilya Sutskever.

Dettagli del licenziamento
Aschenbrenner, che lavorava in un team dedicato alla sicurezza dell’intelligenza artificiale, era noto anche per essere un alleato di Ilya Sutskever, il chief scientist di OpenAI. Sutskever aveva precedentemente partecipato a un tentativo non riuscito di rimuovere il CEO di OpenAI, Sam Altman. Izmailov, d’altro canto, era un ricercatore focalizzato sul ragionamento e aveva anch’egli esperienze precedenti nel team di sicurezza.

Contesto organizzativo
I licenziamenti sono avvenuti dopo un’indagine condotta dal consiglio di amministrazione nonprofit di OpenAI, che ha esonerato Altman da azioni che avevano portato al suo breve allontanamento lo scorso novembre. Altman ha ripreso il suo posto nel consiglio di amministrazione di OpenAI a marzo, segnando una stabilizzazione della sua posizione all’interno dell’organizzazione.

Implicazioni e considerazioni Etiche
Questi licenziamenti sollevano questioni riguardanti la gestione delle informazioni sensibili e l’etica del lavoro all’interno di un’organizzazione che si occupa di tecnologie avanzate come l’intelligenza artificiale. Le tensioni interne e le questioni di fiducia tra il personale possono influenzare non solo l’ambiente lavorativo ma anche la percezione pubblica dell’organizzazione.

Di Livio Varriale

Giornalista e scrittore: le sue specializzazioni sono in Politica, Crimine Informatico, Comunicazione Istituzionale, Cultura e Trasformazione digitale. Autore del saggio sul Dark Web e il futuro della società digitale “La prigione dell’umanità” e di “Cultura digitale”. Appassionato di Osint e autore di diverse ricerche pubblicate da testate Nazionali. Attivista contro l’abuso dei minori, il suo motto è “Coerenza, Costanza, CoScienza”.

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version