OpenAI e Claude giocano sulla personalità, Google passa ai compiti

di Maria Silvano
0 commenti 4 minuti di lettura

OpenAI introduce una personalità più calda per GPT-5, mentre Anthropic abilita Claude a terminare conversazioni dannose e Google testa la feature Projects su Gemini per task di ricerca. Questa evoluzione intensifica la competizione nel settore dell’intelligenza artificiale. OpenAI rilascia aggiornamenti che rendono GPT-5 più engaging con frasi genuine come “Buona domanda” o “Ottimo inizio”, evitando però sycophancy eccessiva. Test interni confermano che la nuova personalità non aumenta flattery rispetto alla versione precedente. OpenAI limita i cambiamenti al modello non-thinking, disponibile dal 15 agosto su web e app mobili, mentre ripristina modelli legacy come GPT-4o, o3 e 4o-mini per abbonati Plus e Pro, rispondendo a feedback critici. GPT-5 evolve con limiti rate rilassati fino a 3000 messaggi settimanali per thinking e la società prepara anche modelli open weight. Un piano economico ChatGPT da 3,67 euro potrebbe democratizzare l’accesso.

Personalità aggiornata di GPT-5

La nuova personalità più calda di GPT-5 mira a rendere l’interazione più naturale, con tocchi genuini nelle risposte che migliorano l’engagement senza scivolare in flattery. OpenAI sottolinea che la personalità resta meno calda di GPT-4o e che la modifica riguarda solo il modello non-thinking. Gli utenti Plus e Pro possono riattivare i legacy models tramite le impostazioni su chatgpt.com, con un toggle dedicato.

Contestualmente, OpenAI alza i limiti dei messaggi per il modello thinking e annuncia piani open weight da affiancare a GPT-5. Un leak suggerisce un abbonamento low-cost da 3,67 euro al mese. Gli aggiornamenti migliorano l’usabilità, introducendo switch automatici tra modalità fast, mini, auto e thinking, mentre la UI aggiornata chiarisce i modelli attivi. L’adozione cresce: utenti free al 7% e Plus al 24%. OpenAI monitora il feedback per bilanciare calore e precisione, evitando sovraccarichi e garantendo stabilità.

Feature di terminazione chat in Claude

Anthropic introduce in Claude Opus 4 e 4.1 una feature di terminazione chat definita “model welfare”, pensata per chiudere conversazioni dannose come ultima risorsa. Prima della chiusura, Claude reindirizza gli utenti verso risorse utili, ma se il comportamento persiste, interrompe la chat. Questa funzione, testata in fase pre-deployment, risponde a casi limite e non impatta la maggioranza delle interazioni. Disponibile per utenti paganti e via API, la funzione resta esclusa per Sonnet 4. L’approccio mira a rafforzare la fiducia negli strumenti di Anthropic, che monitora l’uso e calibra la sensibilità tramite prompt system. L’obiettivo è prevenire abusi e rafforzare standard etici, posizionando Claude come modello sicuro e affidabile.

Projects: nuova funzione di Gemini

Google sperimenta Projects su Gemini, una feature che permette di caricare file e creare workspace personalizzate per task specifici. Gli utenti possono aggiungere documenti e codice, che Gemini referencia per generare nuovi output contestualizzati, inclusi report e software. Projects raggruppa attività simili e mira a ridurre frammentazione e tempi di lavoro, aumentando produttività ed efficienza. L’integrazione con Drive e altri tool Google rafforza l’ecosistema. La fase di test, inizialmente enterprise, solleva interrogativi su privacy e gestione sicura dei dati caricati. La feature rappresenta un passo verso un’AI assistiva capace di gestire ricerche complesse in ambienti collaborativi.

Implicazioni etiche e di sicurezza negli aggiornamenti AI

Gli aggiornamenti di OpenAI, Anthropic e Google evidenziano come l’etica resti al centro dello sviluppo AI. GPT-5 introduce calore senza manipolazioni, migliorando l’esperienza utente. Claude previene danni con la chiusura forzata delle chat dannose, proteggendo welfare e sicurezza. Gemini Projects innova la gestione dei workflow, ma solleva interrogativi sulla protezione dei dati. Tutte le aziende bilanciano engagement, sicurezza e produttività per competere sul piano etico e tecnologico. Il monitoraggio costante degli abusi, il rollout progressivo e l’integrazione con regolatori internazionali delineano uno scenario in cui la competizione accelera le innovazioni ma impone anche nuove responsabilità.

Confronti tra modelli AI aggiornati

OpenAI con GPT-5 punta sulla personalità, Anthropic con Claude sulla sicurezza e Google con Gemini sulla produttività. GPT-5 introduce calore genuino nelle conversazioni, Claude chiude chat abusive come misura estrema, Gemini crea workspace basati su file per organizzare progetti. Le differenze delineano strategie distinte: engagement per OpenAI, trust per Anthropic, efficienza per Google. Gli utenti scelgono in base a bisogni specifici, con GPT-5 più adatto a interazioni naturali, Claude ideale per contesti etici e Gemini orientato a ricerca e sviluppo. La competizione rafforza lo standard dell’AI responsabile e spinge i modelli a evolversi verso maggiore utilità, sicurezza e trasparenza.

Articoli correlati

MatriceDigitale.it – Copyright © 2024, Livio Varriale – Registrazione Tribunale di Napoli n° 60 del 18/11/2021. – P.IVA IT10498911212 Privacy Policy e Cookies