Tech
Galaxy XCover 7: le prestazioni del processore MediaTek
Samsung si appresta a lanciare il Galaxy XCover 7, un nuovo smartphone robusto che promette di combinare prestazioni avanzate e resistenza. Recentemente, sono state rivelate alcune delle specifiche più importanti di questo dispositivo.
Un Cuore Potente: MediaTek Dimensity 6100+
Il Galaxy XCover 7, con numero di modello SM-G556B, è stato individuato nel database di Geekbench. Questo smartphone rugged sembra essere dotato di un processore di fascia media prodotto da MediaTek, posizionandolo così nella categoria degli smartphone mid-range. Secondo Geekbench, il Galaxy XCover 7 utilizza un processore MediaTek con due core CPU ad alte prestazioni a 2.2GHz e sei core CPU efficienti dal punto di vista energetico a 2GHz. Il numero di modello suggerisce che si tratti di uno smartphone 5G, il che fa pensare all’uso del processore MediaTek Dimensity 6100+.
Questo chipset, prodotto con tecnologia a 6nm da TSMC, può essere considerato una versione 5G del MediaTek Helio G99. Include due core CPU ARM Cortex-A76 a 2.2GHz, sei core CPU ARM Cortex-A55 a 2GHz e la GPU ARM Mali-G57 MC2. Il telefono è inoltre dotato di 6GB di RAM e del sistema operativo Android 14 (One UI 6.0). Le immagini trapelate mostrano uno schermo con meno cornici rispetto al Galaxy XCover 5.
Design Robusto e Funzionalità Avanzate
In termini di design, il Galaxy XCover 7 si distingue per la sua robustezza. È prevista una certificazione IP68 per la resistenza a polvere e acqua e una conformità allo standard MIL-STD-810 G per la resistenza agli urti. Inoltre, il dispositivo include un pulsante hardware aggiuntivo, probabilmente per la funzionalità Push To Talk (PTT).
Dalle specifiche del telefono, dalla tempistica delle sue apparizioni e dalla versione del sistema operativo, si prevede che Samsung possa lanciare il Galaxy XCover 7 nel primo trimestre del 2024.
Tech
Meta, arriva la modalità viaggio per Quest 2 e 3 per Aereo
Tempo di lettura: 2 minuti. Meta lancia la Travel Mode per i visori Quest 2 e 3, migliorando l’uso in aereo e sfidando le funzionalità di Apple Vision Pro.
Meta ha recentemente annunciato una nuova funzionalità per i suoi visori Quest 2 e Quest 3: la “Travel Mode” modalità viaggio. Questa modalità è stata progettata per migliorare l’esperienza d’uso dei dispositivi durante i voli, affrontando specificamente il problema delle finestre che “scivolano via” dal campo visivo dell’utente a causa del movimento dell’aereo.
Dettagli dell’Annuncio
La Travel Mode è attualmente disponibile come funzionalità sperimentale sui dispositivi che eseguono la versione software 65 o successiva. Gli utenti possono attivare la modalità nelle impostazioni sperimentali del dispositivo e accedervi rapidamente dal pannello delle impostazioni rapide. Questa funzione permette di mantenere una visione chiara e stabile anche durante i movimenti tipici di un volo aereo, come turbolenze o inclinazioni dell’aeromobile.
Funzionalità e Limitazioni
Mentre la Travel Mode è ottimizzata per l’uso in aereo, Meta ha precisato che non è ancora pronta per altri mezzi di trasporto, come auto o treni, ma prevede di espandere la compatibilità in futuro. Inoltre, le applicazioni che richiedono una connessione internet continueranno a necessitare di Wi-Fi disponibile sull’aereo per funzionare correttamente.
Confronto con Apple Vision Pro
Questa nuova modalità sembra essere una risposta diretta alle funzionalità simili offerte da Apple con il suo Vision Pro, che include una modalità di viaggio analoga. La concorrenza tra queste due grandi aziende tecnologiche continua a spingere l’innovazione nel campo della realtà virtuale e aumentata, con Meta che cerca di posizionarsi come un’alternativa più accessibile rispetto al più costoso Vision Pro di Apple.
Con l’introduzione della Modalità Viaggio, Meta mira a rendere i suoi visori Quest 2 e 3, guarda le offerte su Amazon, più amichevoli per i viaggiatori, migliorando l’esperienza utente in contesti specifici come i voli aerei. Questa mossa non solo arricchisce le funzionalità dei dispositivi di Meta ma segnala anche un impegno continuo nell’adattare la tecnologia VR alle esigenze reali degli utenti. Questa innovazione segna un passo importante per Meta nel campo della realtà virtuale, migliorando significativamente la praticità e l’accessibilità della tecnologia VR per i viaggiatori frequenti.
Intelligenza Artificiale
ChatGPT di OpenAI approda su Mac: verso WWDC e oltre
Tempo di lettura: < 1 minuto. OpenAI lancia una nuova app ChatGPT per Mac, anticipando un’integrazione più ampia con iOS 18 e rafforzando la collaborazione con Apple.
OpenAI ha annunciato l’imminente arrivo di ChatGPT su Mac attraverso una nuova app desktop, ampliando ulteriormente l’accessibilità e l’integrazione delle sue potenti capacità AI nel quotidiano degli utenti Apple.
Dettagli dell’annuncio
Nel corso del keynote di aggiornamento primaverile di OpenAI, è stata rivelata l’introduzione di una nuova applicazione desktop specificamente progettata per Mac. Questa mossa anticipa una collaborazione più ampia tra Apple e OpenAI, la quale si prevede porti ChatGPT come opzione di chatbot integrata nel sistema con iOS 18.
Caratteristiche dell’App ChatGPT per Mac
La nuova app ChatGPT mira a rendere l’assistente AI di OpenAI più facilmente accessibile e costantemente disponibile per gli utenti Mac. Questa integrazione desktop è pensata per fornire un’esperienza utente fluida e interattiva, consentendo agli utenti di sfruttare le capacità di ChatGPT senza necessità di browser web o configurazioni complesse.
Prospettive e integrazione futura
Oltre al lancio dell’app per Mac, vi sono aspettative crescenti per l’integrazione di ChatGPT in iOS 18, come parte della partnership tra Apple e OpenAI. Questa integrazione promette di portare capacità conversazionali avanzate direttamente nell’ecosistema Apple, rendendo ChatGPT una funzionalità sistematica e potenzialmente rivoluzionaria per tutti gli utenti iOS.
L’arrivo di ChatGPT su Mac rappresenta un significativo passo avanti nell’adozione dell’intelligenza artificiale generativa, con OpenAI che continua a espandere la portata e l’impatto delle sue tecnologie. Gli utenti Apple possono ora aspettarsi un’interazione ancora più diretta e integrata con ChatGPT, segnando l’inizio di una nuova era di assistenti AI personalizzati all’interno del loro ambiente operativo preferito. Con questi sviluppi, OpenAI e Apple stanno configurando il futuro delle interazioni digitali, integrando capacità AI avanzate direttamente nei dispositivi e sistemi operativi più usati al mondo.
Intelligenza Artificiale
OpenAI GPT-4o: lancio dell’AI per video e audio
Tempo di lettura: 2 minuti. OpenAI introduce GPT-4o, un modello AI che estende le sue capacità a testo, immagini e audio, promettendo un’interazione più naturale e intuitiva.
OpenAI ha annunciato il lancio di GPT-4o, l’ultimo modello nell’evoluzione della sua tecnologia AI, che integra capacità avanzate per il trattamento di testo, immagini e ora anche audio. Questa nuova iterazione del modello promette di portare l’intelligenza artificiale generativa a un livello superiore, estendendo la sua applicabilità a una più ampia varietà di contesti.
Caratteristiche e Capacità di GPT-4o
Durante una presentazione chiave negli uffici di OpenAI, il CTO Muri Murati ha illustrato le capacità di GPT-4o, sottolineando che, pur mantenendo l’intelligenza di livello GPT-4, il nuovo modello migliora significativamente nell’elaborazione non solo di testo e immagini, ma ora anche di audio. Questo permette a GPT-4o di ragionare e integrare informazioni attraverso diversi formati di comunicazione, aumentando la sua utilità in scenari multi-sensoriali.
Applicazioni Pratiche di GPT-4o
GPT-4, il predecessore di GPT-4o, era già capace di analizzare immagini e testi per compiere compiti come l’estrazione di testo da immagini o la descrizione dei loro contenuti. Con l’aggiunta delle capacità audio, GPT-4o può ora gestire anche l’interpretazione e la sintesi vocale, ampliando le possibilità di utilizzo in settori come l’assistenza clienti, l’educazione, e molte altre aree dove la comunicazione multimodale è fondamentale.
Nuove Interfacce Utente e Accessibilità
In concomitanza con il rilascio di GPT-4o, OpenAI ha anche presentato una versione desktop di ChatGPT e un’interfaccia utente rinnovata. Queste innovazioni mirano a rendere l’interazione con le AI di OpenAI più naturale e intuitiva, consentendo agli utenti di concentrarsi sulla collaborazione con il modello piuttosto che sulla navigazione dell’interfaccia.
Il lancio di GPT-4o segna un passo significativo nella missione di OpenAI di rendere l’intelligenza artificiale sempre più versatile e accessibile. Con il suo approccio iterativo e l’integrazione di nuove capacità sensoriali, GPT-4o è destinato a ridefinire il modo in cui interagiamo e ci avvaliamo delle tecnologie AI. Con GPT-4o, OpenAI continua a spingere i confini dell’intelligenza artificiale, offrendo soluzioni che potrebbero rivoluzionare numerosi settori e migliorare significativamente l’efficienza e l’efficacia delle interazioni uomo-macchina.
- Editoriali2 settimane fa
Chip e smartphone cinesi ci avvisano del declino Occidentale
- Inchieste1 settimana fa
Ransomware in Italia: come cambia la percezione del fenomeno nell’IT
- Economia1 settimana fa
Internet via satellite: progetto europeo IRIS² in grande difficoltà
- Editoriali1 settimana fa
Anche su Giovanna Pedretti avevamo ragione
- L'Altra Bolla1 settimana fa
Jack Dorsey getta la spugna e lascia Bluesky
- Smartphone1 settimana fa
Richiesta di Class Action contro Samsung per il Galaxy S24 Ultra
- Inchieste6 giorni fa
Perchè il motore di ricerca OpenAI fa paura ai giornalisti?
- Economia1 settimana fa
Culture di lavoro a confronto: Meta vs Google