Tech
iPhone Ultra rivoluziona la fotografia mobile con “Apple Vision Pro”
Tempo di lettura: 2 minuti. L’iPhone Ultra potrebbe introdurre una rivoluzionaria funzione “Apple Vision Pro” che permette di catturare foto e video spaziali, offrendo un’esperienza immersiva e rivoluzionando il concetto di fotografia mobile.
Il prossimo modello di iPhone Ultra potrebbe portare una rivoluzione nel mondo della fotografia e videografia mobile, grazie a una presunta funzione chiamata “Apple Vision Pro”. Questa funzione permetterebbe di catturare “foto e video spaziali”, utilizzando la fotocamera dello smartphone, secondo le ultime voci circolanti.
Un salto nel futuro della fotografia mobile
Le voci, provenienti da un account Weibo non nominato ma con una buona reputazione per le previsioni relative agli iPhone, suggeriscono che il supporto per foto spaziali potrebbe permettere alle persone di “registrare contenuti immersivi in 3D” utilizzando le “fotocamere esterne” dello smartphone. Questi contenuti, in teoria, potrebbero poi essere caricati e visualizzati sul Vision Pro. Tuttavia, sembra che l’iPhone Ultra non permetterà di visualizzare direttamente le foto spaziali, necessitando invece del visore per godere del contenuto ‘immersivo’ su un grande schermo VR fluttuante.
Le potenzialità della fotografia spaziale
La tecnologia dietro la fotografia spaziale, presentata per la prima volta durante il WWDC 2023 nel corso della rivelazione del Vision Pro, mira a permettere alle persone di rivivere momenti importanti della vita, creando una sensazione di presenza fisica in quei momenti. Ad esempio, come dimostrato nelle demo di Apple, si potrebbe rivivere il compleanno di una figlia o i giochi dei bambini in giardino. Apple ha sottolineato che la registrazione spaziale è un aspetto fondamentale dell’esperienza Vision Pro, tanto da dedicare un pulsante meccanico specifico per attivarla.
Un’innovazione ancora avvolta nel mistero
Nonostante l’entusiasmo che circonda questa novità, è consigliabile mantenere un certo scetticismo. La fonte della notizia è considerata dubbia da alcuni e, inoltre, non è ancora chiaro se ci sia abbastanza spazio su un iPhone per una configurazione di fotocamera spaziale. Gli sviluppatori di applicazioni di scansione 3D hanno suggerito che potrebbe essere necessaria una fotocamera aggiuntiva posizionata a una certa distanza dalle fotocamere principali per ottenere la profondità necessaria. Inoltre, l’iPhone Ultra rimane, al momento, un rumor, senza conferme ufficiali da parte di Apple.
Intelligenza Artificiale
Android 15 integra Gemini AI: nuove funzionalità e miglioramenti
Tempo di lettura: 2 minuti. Google integra Gemini AI in Android 15, con nuove funzionalità di ricerca, assistente contestuale e miglioramenti on-device per privacy e efficienza
Google ha annunciato una serie di nuove funzionalità AI integrate nel sistema operativo Android 15, offrendo uno sguardo su cosa dovrà competere il sistema operativo dell’iPhone di Apple entro la fine dell’anno. Android 15 è stato progettato con l’IA al suo centro, e Gemini rappresenta una parte fondamentale dell’esperienza Android a livello di sistema.
Caratteristiche principali di Gemini AI su Android 15
Barra di ricerca AI e Circle to Search
Una delle nuove funzionalità è una barra di ricerca alimentata dall’IA che può essere utilizzata per rispondere a domande e cercare informazioni. La funzione Circle to Search permette di risolvere problemi di matematica e fisica o di ottenere aiuto con i compiti.
Assistente AI contestuale
Gemini serve come assistente AI su Android, sostituendo Google Assistant. Questo assistente può essere richiamato come overlay su qualsiasi app in uso, offrendo supporto contestuale in tempo reale. Può creare immagini per testi e social media, rispondere a domande su video in riproduzione, interpretare PDF, siti web e altri contenuti, fornendo riassunti e traduzioni.
Privacy e elaborazione on-device
Google utilizza l’IA on-device per alcune funzionalità al fine di mantenere i dati sensibili privati, simile alla strategia di Apple. Gemini Nano, l’IA on-device di Google, genera risposte intelligenti nelle app di messaggistica e riassume memo vocali. Gemini Nano con Multimodalità arriverà sui telefoni Pixel entro la fine dell’anno, introducendo nuove funzionalità come TalkBack per aiutare utenti ciechi e ipovedenti a interpretare meglio il mondo circostante. Un’altra funzione in sviluppo è lo screening delle chiamate, che ascolta attivamente le chiamate e avvisa gli utenti se sembrano truffe.
Modelli Gemini 1.5 Flash e Pro
Google ha anche annunciato Gemini 1.5 Flash, una versione leggera del modello AI Gemini Pro. Gemini Flash è più efficiente, meno costoso e ha una latenza inferiore, ideale per distribuzioni su larga scala. Questo modello eccelle in riassunti, applicazioni di chat, didascalie di immagini e video, e estrazione di dati da documenti lunghi.
Gemini 1.5 Pro è stato migliorato e può seguire istruzioni sempre più complesse e sfumate, inclusa l’interpretazione di documenti fino a 1.500 pagine o un’ora di contenuti video. Gli utenti possono interagire con Gemini in Google Messages, e gli abbonati a Gemini Advanced possono sperimentare una nuova esperienza conversazionale mobile.
Project Astra
Project Astra è un altro sforzo di Google che si concentra su agenti AI utili nella vita quotidiana. Durante una demo, Google ha mostrato prototipi di agenti in grado di identificare oggetti, fornire contesto sulle informazioni dalla fotocamera e richiamare una sequenza temporale di eventi per trovare un oggetto perso.
Prossimi annunci
Google fornirà ulteriori informazioni sulle nuove funzionalità in arrivo su Android 15 entro questa settimana.
Intelligenza Artificiale
Perchè Google ha chiamato la sua AI “Gemini”?
Tempo di lettura: 2 minuti. Google spiega l’origine del nome “Gemini” per le sue funzionalità AI, ispirato alla mitologia greca, alla costellazione dei Gemelli e al Project Gemini della NASA.
Dal Google I/O 2023, “Gemini” è diventato il nome che raggruppa tutte le funzionalità AI di Google. Questa settimana, Google ha ufficialmente spiegato l’origine del nome.
Origini e significato del nome “Gemini”
Inizialmente, il progetto aveva il nome provvisorio “Titan”, ispirato alla mitologia greca e alla luna più grande di Saturno. Tuttavia, Jeff Dean, co-leader tecnico di Gemini, non era un grande fan di questo nome, ma esso gli ha dato l’idea di un nome legato allo spazio.
Così, Google ha scelto “Gemini”, che in latino significa “gemelli”. In astronomia, Gemelli è una costellazione associata ai gemelli mitologici greci Castore e Polluce, i cui nomi sono stati dati alle sue due stelle più brillanti. Questo significato duplice si adattava perfettamente al modello AI di Google.
Il team di Google ha trovato che la personalità duale del segno zodiacale dei Gemelli, capace di adattarsi rapidamente, connettersi con un’ampia gamma di persone e vedere le cose da molteplici prospettive, fosse ideale per il momento in cui Google stava unendo i team di DeepMind e Google Research “Brain”.
L’importanza della collaborazione tra i team
Jeff Dean ha spiegato che lo sforzo di Gemini è nato dal desiderio di avvicinare i team che lavoravano sulla modellazione del linguaggio. La metafora dei gemelli rappresentava bene questa fusione: i membri del team legacy di Brain e di DeepMind hanno iniziato a lavorare insieme su questo ambizioso progetto multimodale.
Riferimento al Project Gemini della NASA
Il nome “Gemini” è anche un omaggio al Project Gemini della NASA, attivo dal 1965 al 1968, che ha testato tecnologie cruciali per il successo del programma Apollo. Oriol Vinyals, co-leader tecnico, ha trovato che l’enorme sforzo richiesto per l’addestramento dei modelli linguistici di grandi dimensioni risuonava con lo spirito dei lanci di razzi del Project Gemini.
Evoluzione e denominazione dei modelli
Google ha anche considerato di dare ai modelli nomi di stelle, ma attualmente i nomi utilizzati sono Nano, Flash, Pro e Ultra. L’intervista ha rivelato che la decisione di utilizzare “Gemini” anche come nome per le funzionalità AI visibili agli utenti è stata presa per trasmettere il continuo miglioramento, la creatività e l’innovazione che i team di ricerca di Google porteranno direttamente agli utenti.
Intelligenza Artificiale
ChatGPT piena interazione con Google Drive e OneDrive
Tempo di lettura: < 1 minuto. ChatGPT ora consente agli utenti di caricare file direttamente da Google Drive e OneDrive, migliorando l’analisi dei dati e la visualizzazione dei grafici.
OpenAI ha annunciato una nuova funzionalità per ChatGPT che consente agli utenti di caricare file direttamente dai loro account Google Drive o OneDrive. Questa funzione, disponibile per gli utenti a pagamento di ChatGPT nelle prossime settimane, semplifica il processo di analisi dei dati, eliminando la necessità di scaricare e ricaricare i file.
Dettagli della nuova funzionalità
Con l’accesso a questa nuova funzione, gli utenti di ChatGPT Plus, Enterprise e Teams dovranno solo concedere l’accesso al chatbot ai loro account Google Drive o OneDrive. Secondo un post sul blog di OpenAI, questa integrazione permette a ChatGPT di leggere rapidamente file Excel, Word, PowerPoint e i loro equivalenti di Google.
Miglioramenti nell’analisi dei dati
La funzione di analisi dei dati migliorata è disponibile solo tramite GPT-4o, la versione più veloce e migliorata di GPT-4, che alimenta la versione a pagamento del chatbot. OpenAI ha anche potenziato la capacità di ChatGPT di comprendere i dataset da istruzioni scritte in linguaggio naturale. Gli utenti possono chiedere al chatbot di eseguire codici Python per l’analisi, unire o pulire dataset e creare grafici dalle informazioni sui file.
Interazioni con tabelle e grafici
ChatGPT ora consente agli utenti di interagire con le tabelle e i grafici che crea, espandendo la visualizzazione delle tabelle e personalizzando la visualizzazione dei dati, ad esempio cambiando i colori o facendo domande aggiuntive sulle celle. Attualmente, ChatGPT supporta grafici a barre, lineari, a torta e a dispersione per visualizzazioni interattive e genererà versioni statiche per i tipi di grafici che non supporta ancora.
Privacy e sicurezza dei dati
OpenAI ha ribadito che non addestrerà modelli di intelligenza artificiale con i dati caricati dagli utenti di ChatGPT Enterprise e Teams, e gli abbonati a ChatGPT Plus possono scegliere di non partecipare all’addestramento.
- L'Altra Bolla1 settimana fa
Meta testa la condivisione incrociata da Instagram a Threads
- L'Altra Bolla1 settimana fa
X sotto indagine dell’Unione Europea
- Robotica1 settimana fa
Come controllare dei Robot morbidi ? MIT ha un’idea geniale
- Inchieste4 giorni fa
Melinda lascia la Bill Gates Foundation e ritira 12,5 Miliardi di Dollari
- L'Altra Bolla5 giorni fa
Discord celebra il nono compleanno con aggiornamenti e Giveaway
- Sicurezza Informatica1 settimana fa
Nuovo attacco “Pathfinder” alle CPU Intel: è il nuovo Spectre?
- Economia1 settimana fa
Chi sarà il successore di Tim Cook in Apple?
- Sicurezza Informatica1 settimana fa
BogusBazaar falsi e-commerce usati per una truffa da 50 milioni