Tech
OpenAI, 100 milioni di utenti e lancia GPT-4 Turbo
Tempo di lettura: 5 minuti. OpenAI lancia API DALL-E 3 e migliora GPT-4, con 100 milioni di utenti settimanali ChatGPT e garantisce la protezione copyright dei clienti.
OpenAI ha annunciato miglioramenti significativi ai suoi modelli di linguaggio avanzati, GPT-4 nella versione turbo e GPT-3.5, tra cui basi di conoscenza aggiornate e una finestra di contesto molto più ampia. La compagnia segue le orme di Google e Microsoft nell’offrire protezione ai clienti contro le cause per violazione del copyright.
GPT-4 Turbo: addestramento e anteprima API
GPT-4 Turbo, attualmente disponibile in anteprima API, è stato addestrato con informazioni aggiornate ad aprile 2023, come annunciato lunedì durante la prima conferenza per sviluppatori organizzata dall’azienda. La versione precedente di GPT-4, rilasciata a marzo, si basava su dati aggiornati a settembre 2021. OpenAI prevede di rilasciare un modello Turbo pronto per la produzione nelle prossime settimane, senza fornire una data precisa.
GPT-4 Turbo: più dati e costi ridotti per gli sviluppatori
GPT-4 Turbo sarà in grado di “vedere” più dati, con una finestra di contesto di 128K, che OpenAI afferma essere “equivalente a più di 300 pagine di testo in un unico prompt”. Generalmente, finestre di contesto più ampie permettono ai modelli di linguaggio avanzati come GPT di comprendere meglio la domanda e offrire risposte più ponderate. In precedenza, OpenAI aveva rilasciato due versioni di GPT-4, una con una finestra di contesto di soli 8K e un’altra di 32K.
Economia e accessibilità di GPT-4 Turbo
OpenAI dichiara che GPT-4 Turbo è più economico da eseguire per gli sviluppatori. L’input costerà solo $0.01 per 1.000 token — l’unità base di testo o codice per i LLM da leggere — rispetto ai $0.03 di GPT-4. Ogni output costerà $0.03 per 1.000 token. Nel complesso, OpenAI afferma che la nuova versione di GPT-4 è tre volte più economica rispetto alle precedenti.
Questa nuova versione di GPT-4 accetterà ancora prompt visivi, richieste di testo-parlato e integrerà DALL-E 3, una funzionalità annunciata per la prima volta a ottobre.
Le migliorie apportate a GPT-4 Turbo significano che gli utenti possono chiedere al modello di eseguire compiti più complessi in un unico prompt. Gli utenti possono persino specificare a GPT-4 Turbo di utilizzare il linguaggio di codifica di loro scelta per i risultati, come codice in XML o JSON.
Anche le aziende che utilizzano il modello GPT-3.5 Turbo beneficeranno di miglioramenti nelle finestre di contesto, funzionalità e prezzi. Avrà una finestra di contesto di 16K per impostazione predefinita e gli stessi aggiornamenti funzionali di GPT-4 Turbo. GPT-3.5 Turbo costerà $0.01 per input e $0.002 per output.
OpenAI ha rilasciato GPT-3.5 Turbo a marzo, presentandolo come il miglior modello per usi non legati alla chat. Ad agosto, l’azienda ha rilasciato una versione che può essere personalizzata.
OpenAI rinnova GPT-4 e introduce protezioni copyright
Oltre ai miglioramenti al modello di punta, OpenAI ha anche annunciato che seguirà l’esempio di Microsoft e Google fornendo un’indennità di copyright agli utenti aziendali attraverso un programma chiamato Copyright Shield.
“Interverremo ora a difendere i nostri clienti e pagheremo i costi sostenuti se doveste affrontare rivendicazioni legali per violazione del copyright,” ha dichiarato l’azienda.
Copyright Shield coprirà le funzionalità generalmente disponibili di ChatGPT Enterprise e la piattaforma di sviluppo di OpenAI.
Google ha dichiarato che assumerà la responsabilità legale se i clienti che utilizzano le sue funzionalità di AI generativa incorporata vengono citati in giudizio per violazione del copyright. Microsoft ha esteso le stesse protezioni agli utenti aziendali dei suoi prodotti AI Copilot.
OpenAI presenta l’API di DALL-E 3 e nuovi modelli di Testo-Parlato
OpenAI ha lanciato una serie di nuove API durante il suo primo Developer Day, segnando un passo avanti significativo nella disponibilità di modelli di intelligenza artificiale avanzati.
DALL-E 3, il modello di OpenAI che trasforma il testo in immagini, è ora accessibile tramite API dopo essere stato introdotto in ChatGPT e Bing Chat. Allo stesso modo della versione precedente, l’API di DALL-E incorpora un sistema di moderazione integrato per prevenire usi impropri, secondo quanto affermato da OpenAI.
L’API di DALL-E 3 offre diverse opzioni di formato e qualità, con prezzi che partono da $0.04 per immagine generata.
In un altro ambito, OpenAI fornisce ora un’API di testo-parlato che propone sei voci preimpostate tra cui scegliere e due varianti del modello di AI generativa. È disponibile da oggi, con prezzi che iniziano da $0.015 per ogni 1.000 caratteri inseriti.
“Questo è molto più naturale di qualsiasi altra cosa abbiamo sentito finora, il che può rendere le app più naturali nell’interazione e più accessibili,” ha dichiarato Sam Altman di OpenAI sul palco. “Inoltre, sblocca molti casi d’uso come l’apprendimento delle lingue e l’assistenza vocale.”
In un annuncio correlato, OpenAI ha lanciato la prossima versione del suo modello open source di riconoscimento automatico della parola, Whisper large-v3, che l’azienda sostiene offra prestazioni migliorate in diverse lingue.
ChatGPT di OpenAI: 100 milioni di utenti settimanali
OpenAI ha annunciato che ChatGPT ha raggiunto i 100 milioni di utenti settimanali, un traguardo impressionante per un servizio lanciato meno di un anno fa. Durante la sua prima conferenza per sviluppatori, il CEO di OpenAI, Sam Altman, ha rivelato che oltre due milioni di sviluppatori stanno attualmente costruendo applicazioni sulla sua API, inclusa la maggior parte delle aziende Fortune 500.
La piattaforma ha introdotto una serie di nuove funzionalità, tra cui una piattaforma per costruire versioni personalizzate di ChatGPT per assistere con compiti specifici e GPT-4 Turbo, un nuovo modello aggiornato con eventi mondiali fino ad aprile 2023 e capace di gestire l’equivalente di oltre 300 pagine di testo in un unico prompt.
Il successo inarrestabile di ChatGPT
ChatGPT è stato considerato l’app di internet per consumatori con la crescita più rapida di tutti i tempi, raggiungendo 100 milioni di utenti mensili in soli due mesi dal lancio. Per confronto, Facebook ha impiegato circa quattro anni e mezzo per raggiungere 100 milioni di utenti, Twitter più di cinque anni, e Instagram poco più di due anni.
Microsoft ha riferito che il suo motore di ricerca Bing, che ha integrato le funzionalità di AI generativa alimentate da GPT-4 di OpenAI all’inizio di quest’anno, ha superato i 100 milioni di utenti attivi giornalieri a marzo, più di un decennio dopo il suo lancio nel 2009. Il record di ChatGPT è stato superato da Threads di Meta, che ha accumulato 100 milioni di utenti in meno di una settimana dal suo lancio a luglio, ma l’utilizzo di Threads sembra essere diminuito nei mesi successivi, con poco meno di 100 milioni di utenti attivi mensili a ottobre.
Indipendentemente dal modo in cui si analizzano i numeri, ChatGPT rimane estremamente popolare e non ha ancora festeggiato il suo primo compleanno come servizio pubblico.
Risposta ai report sui cali di popolarità
Non è la prima volta che vediamo numeri di utenti così elevati associati al chatbot di OpenAI. Già a febbraio, Similarweb aveva stimato che lo strumento aveva raggiunto il traguardo di 100 milioni di visitatori unici in un solo mese e 25 milioni di visitatori al giorno. Tuttavia, l’annuncio di oggi è notevole per essere un dato ufficiale fornito direttamente da OpenAI piuttosto che una stima di terze parti.
La divulgazione dei numeri sembra essere un tentativo di contrastare recenti report dei media che sostengono che la popolarità di ChatGPT stia iniziando a calare dal suo rilascio a novembre dell’anno scorso.
Intelligenza Artificiale
Email mostrano perchè Microsoft ha investito in OpenAI
Tempo di lettura: 2 minuti. Le email rivelano che l’investimento miliardario di Microsoft in OpenAI è stato motivato dalla preoccupazione che Google fosse molto avanti nello sviluppo dell’IA.
Un recente rilascio di email interne mostra che il notevole investimento di Microsoft in OpenAI, che ammonta a oltre 1 miliardo di dollari, è stato in gran parte motivato dalla preoccupazione che Google fosse anni avanti nello sviluppo delle proprie capacità di intelligenza artificiale.
Contesto dell’investimento
Le email, diventate pubbliche in seguito a un caso antitrust del Dipartimento di Giustizia degli Stati Uniti contro Google, includono una discussione tra il CTO di Microsoft, Kevin Scott, il CEO Satya Nadella e il co-fondatore Bill Gates. Scott esprimeva preoccupazione per il fatto che Microsoft fosse “molti anni indietro rispetto alla concorrenza in termini di scala di apprendimento automatico,” citando la difficoltà di Microsoft nell’eguagliare i modelli di linguaggio di Google come BERT.
Dettagli dell’Email
Nell’email datata 12 giugno 2019, Scott racconta di come ci siano voluti sei mesi agli ingegneri di Microsoft per replicare e addestrare il modello linguistico BERT di Google, a causa delle carenze dell’infrastruttura di Microsoft. Le impressioni iniziali di Scott sugli sforzi AI di Google erano di scetticismo, ma cambiò rapidamente opinione quando i modelli di elaborazione del linguaggio naturale entrarono in gioco, riconoscendo i significativi vantaggi competitivi che Google aveva acquisito.
Risposte e Azioni di Microsoft
La risposta di Nadella alle preoccupazioni di Scott fu rapida, evidenziando l’urgenza di investire in OpenAI come mezzo per colmare il divario con Google. Questa mossa è stata successivamente supportata da Amy Hood, CFO di Microsoft, che ha giocato un ruolo chiave nella gestione degli obiettivi finanziari dell’azienda.
Impatto dell’investimento
Da allora, Microsoft ha investito più di 13 miliardi di dollari in OpenAI, integrando i suoi modelli in applicazioni di Office, nel motore di ricerca Bing, nel browser Edge e persino nel sistema operativo Windows. Questi passi hanno aiutato Microsoft a posizionarsi come un leader nel campo dell’IA, contrariamente alle paure di rimanere indietro espresse cinque anni fa.
Focalizzazione futura
Satya Nadella ha recentemente dichiarato che l’IA e la sicurezza sono le due principali aree di focus per Microsoft nel 2024 e oltre, segnalando che l’integrazione delle funzionalità IA nei prodotti Microsoft continuerà ad espandersi.
Intelligenza Artificiale
iOS, Claude AI di Anthropic arriva su iPhone e iPad
Tempo di lettura: < 1 minuto. Anthropic lancia Claude AI su iPhone e iPad, offrendo sincronizzazione avanzata e analisi visiva direttamente dai dispositivi iOS.
Anthropic ha finalmente lanciato Claude, il suo modello di intelligenza artificiale, su dispositivi iOS. Mentre modelli come ChatGPT di OpenAI e Gemini di Google erano già disponibili su iPhone, Claude era rimasto notevolmente assente. Ora, gli utenti di iPhone possono godere delle capacità avanzate di Claude direttamente sui loro dispositivi.
Caratteristiche principali di Claude su iPhone
- Sincronizzazione senza soluzione di continuità con le chat web: Gli utenti possono riprendere le loro conversazioni da dove le avevano lasciate, indipendentemente dal dispositivo utilizzato.
- Capacità visive: Claude su iPhone permette agli utenti di utilizzare foto dalla libreria, scattare nuove foto o caricare file per un’analisi delle immagini in tempo reale. Questo include la comprensione contestuale e casi d’uso specifici per la mobilità.
- Accesso aperto: L’app è disponibile gratuitamente per tutti gli utenti, inclusi quelli dei piani Pro e Team.
Utilizzo e funzionalità
L’app di Claude su iOS è in grado di analizzare oggetti, immagini e l’ambiente circostante presentato dagli utenti. Questo la rende uno strumento particolarmente utile per coloro che necessitano di funzionalità di intelligenza artificiale avanzate on-the-go.
Disponibilità
Claude per iPhone e iPad è scaricabile gratuitamente dall’App Store. Al momento non è supportato su Mac per la versione iPad, ma è possibile utilizzare Claude anche tramite browser per familiarizzare con lo stato attuale dell’intelligenza artificiale e dei modelli di linguaggio di grandi dimensioni.
L’arrivo di Claude su iOS segna un importante ampliamento dell’accessibilità degli strumenti AI avanzati per gli utenti Apple. Con funzionalità di sincronizzazione e analisi visiva, Claude si posiziona come un’opzione robusta per gli utenti che cercano di integrare l’intelligenza artificiale nelle loro attività quotidiane.
Intelligenza Artificiale
Nvidia arricchisce ChatRTX con nuovi modelli AI e Supporto a Query Vocali
Tempo di lettura: 2 minuti. Gli aggiornamenti di Nvidia ChatRTX includono nuovi modelli AI come Google Gemma e capacità di query vocali
Nvidia sta rivoluzionando il computing locale con importanti aggiornamenti al suo chatbot ChatRTX, progettato per funzionare su PC Windows. Gli aggiornamenti includono l’estensione del supporto ai modelli AI e la nuova capacità di gestire query vocali, migliorando l’utilità e la flessibilità di questo potente strumento.
Integrazione di nuovi modelli AI
L’ultima versione di ChatRTX aggiunge il supporto a diversi modelli AI di alto profilo:
- Google’s Gemma: Ottimizzato per operare direttamente su PC potenti, rendendolo perfetto per le elevate esigenze di prestazioni di ChatRTX.
- ChatGLM3: Un modello linguistico grande e bilingue (inglese e cinese) che amplia l’utilità di ChatRTX per un’ampia gamma di utenti e applicazioni.
- CLIP di OpenAI: Questo modello potenzia la capacità del chatbot di interagire con e riconoscere immagini, aggiungendo un livello di comprensione visiva che complementa le sue capacità di analisi testuale.
Specifiche tecniche e requisiti
ChatRTX funziona come un server locale accessibile tramite browser, dove gli utenti possono inserire documenti personali e contenuti multimediali come video di YouTube per analisi dettagliate e interrogazioni. Per eseguire ChatRTX, gli utenti avranno bisogno di una GPU RTX serie 30 o 40 con almeno 8GB di VRAM. L’applicazione stessa è un download sostanziale, richiedendo 36GB di spazio, disponibile attraverso il sito web di Nvidia.
Capacità di Query Vocali
Una delle nuove caratteristiche più importanti è l’integrazione delle query vocali. Incorporando il sistema di riconoscimento vocale Whisper di Nvidia, gli utenti di ChatRTX possono ora interagire con i loro dati verbalmente. Questa aggiunta è particolarmente vantaggiosa per gli utenti che cercano un’operazione hands-free o che preferiscono l’interazione vocale rispetto alla digitazione.
ChatRTX di Nvidia, scaricalo qui, è destinato a trasformare l’interazione con i dati personali attraverso il supporto di modelli AI avanzati e nuove funzionalità di query vocali. Questi miglioramenti rendono ChatRTX uno strumento più versatile e potente per l’analisi dei dati personali e la gestione multimediale su PC dotati di Nvidia.
- Editoriali2 settimane fa
Università, Israele e licenziamenti BigTech
- Robotica2 settimane fa
Atlas di Boston Dynamics non è morto
- Editoriali2 settimane fa
MITRE vittima di zero day Ivanti: anche i migliori le prendono
- Inchieste1 settimana fa
Mercato ITC in Italia nel 2024: numeri e crescita vertiginosa rispetto al paese
- Inchieste1 settimana fa
Managed Service Providers in Italia: numeri di un mercato in crescita
- Inchieste1 settimana fa
Cloud Italiano qual è il Trend del 2024? Aziende e servizi disponibili
- Inchieste1 settimana fa
Cloud Provider Italiani: quali sono le caratteristiche preferite dagli specialisti IT?
- Economia2 settimane fa
Apple rimuove WhatsApp e Threads dall’App Store in Cina