Tech
iOS 17 porta i video cinematici nelle app di terze parti
Tempo di lettura: 2 minuti. Con iOS 17 e macOS Sonoma, Apple introduce una nuova API Cinematic che permette alle app di terze parti di supportare e modificare i video cinematici.
Con l’iPhone 13, Apple ha introdotto una nuova funzione chiamata “Modalità Cinematica”, che applica la stessa idea della Modalità Ritratto ai video, ottenendo un effetto sfocato sullo sfondo simile a quello ottenuto con le telecamere professionali. Fino ad ora, l’unico modo per modificare i video Cinematici era utilizzare Apple Photos, iMovie o Final Cut. Ma questo cambia con iOS 17 e macOS Sonoma.
I video cinematici arrivano nelle app di terze parti
Come annunciato da Apple in una sessione del WWDC 2023, iOS 17 e macOS Sonoma introducono una nuova API Cinematica. Come suggerisce il nome, permette agli sviluppatori di aggiungere il supporto per i video cinematici nelle loro app. L’API funziona sia per la riproduzione che per la modifica, quindi anche altri editor di terze parti potranno permettere agli utenti di aggiungere tali video ai loro progetti.
Composizione dei video cinematici
I video cinematici sono composti da due file. Uno di essi ha il video finale renderizzato che si può condividere con altre app, mentre l’altro file contiene tutti i metadati che generano l’effetto sfocato, in modo che l’utente possa modificare il video in modo non distruttivo.
Modifiche con l’API Cinematica
Attualmente, se si tenta di importare un video Cinematico in un editor video di terze parti, può solo leggere il video finale renderizzato senza permettere di modificare cose come il campo di profondità e il fuoco principale – qualcosa che si può fare utilizzando una delle app di Apple. Ma con la nuova API, le app avranno accesso al secondo file con tutti i metadati, quindi potranno anche modificare l’effetto su questi video.
Possibilità infinite con l’API Cinematica
E poiché l’API non è limitata agli editor video professionali, le possibilità sono infinite. Le app di social networking possono anche sfruttarla per permettere agli utenti di caricare, modificare e condividere video Cinematici senza lasciare l’app, ad esempio.
Limitazioni nell’uso dei video cinematici
Vale la pena notare, tuttavia, che la registrazione di video Cinematici richiede ancora l’uso dell’app Camera nativa di iOS. È inoltre necessario avere un iPhone 13 o successivo. Un altro aspetto da tenere a mente è che semplicemente aggiornando i tuoi dispositivi a iOS 17 o macOS Sonoma non ti permetterà di modificare i video Cinematici nelle app di terze parti, poiché queste app devono essere aggiornate con la nuova API.
Intelligenza Artificiale
Android 15 integra Gemini AI: nuove funzionalità e miglioramenti
Tempo di lettura: 2 minuti. Google integra Gemini AI in Android 15, con nuove funzionalità di ricerca, assistente contestuale e miglioramenti on-device per privacy e efficienza
Google ha annunciato una serie di nuove funzionalità AI integrate nel sistema operativo Android 15, offrendo uno sguardo su cosa dovrà competere il sistema operativo dell’iPhone di Apple entro la fine dell’anno. Android 15 è stato progettato con l’IA al suo centro, e Gemini rappresenta una parte fondamentale dell’esperienza Android a livello di sistema.
Caratteristiche principali di Gemini AI su Android 15
Barra di ricerca AI e Circle to Search
Una delle nuove funzionalità è una barra di ricerca alimentata dall’IA che può essere utilizzata per rispondere a domande e cercare informazioni. La funzione Circle to Search permette di risolvere problemi di matematica e fisica o di ottenere aiuto con i compiti.
Assistente AI contestuale
Gemini serve come assistente AI su Android, sostituendo Google Assistant. Questo assistente può essere richiamato come overlay su qualsiasi app in uso, offrendo supporto contestuale in tempo reale. Può creare immagini per testi e social media, rispondere a domande su video in riproduzione, interpretare PDF, siti web e altri contenuti, fornendo riassunti e traduzioni.
Privacy e elaborazione on-device
Google utilizza l’IA on-device per alcune funzionalità al fine di mantenere i dati sensibili privati, simile alla strategia di Apple. Gemini Nano, l’IA on-device di Google, genera risposte intelligenti nelle app di messaggistica e riassume memo vocali. Gemini Nano con Multimodalità arriverà sui telefoni Pixel entro la fine dell’anno, introducendo nuove funzionalità come TalkBack per aiutare utenti ciechi e ipovedenti a interpretare meglio il mondo circostante. Un’altra funzione in sviluppo è lo screening delle chiamate, che ascolta attivamente le chiamate e avvisa gli utenti se sembrano truffe.
Modelli Gemini 1.5 Flash e Pro
Google ha anche annunciato Gemini 1.5 Flash, una versione leggera del modello AI Gemini Pro. Gemini Flash è più efficiente, meno costoso e ha una latenza inferiore, ideale per distribuzioni su larga scala. Questo modello eccelle in riassunti, applicazioni di chat, didascalie di immagini e video, e estrazione di dati da documenti lunghi.
Gemini 1.5 Pro è stato migliorato e può seguire istruzioni sempre più complesse e sfumate, inclusa l’interpretazione di documenti fino a 1.500 pagine o un’ora di contenuti video. Gli utenti possono interagire con Gemini in Google Messages, e gli abbonati a Gemini Advanced possono sperimentare una nuova esperienza conversazionale mobile.
Project Astra
Project Astra è un altro sforzo di Google che si concentra su agenti AI utili nella vita quotidiana. Durante una demo, Google ha mostrato prototipi di agenti in grado di identificare oggetti, fornire contesto sulle informazioni dalla fotocamera e richiamare una sequenza temporale di eventi per trovare un oggetto perso.
Prossimi annunci
Google fornirà ulteriori informazioni sulle nuove funzionalità in arrivo su Android 15 entro questa settimana.
Intelligenza Artificiale
Perchè Google ha chiamato la sua AI “Gemini”?
Tempo di lettura: 2 minuti. Google spiega l’origine del nome “Gemini” per le sue funzionalità AI, ispirato alla mitologia greca, alla costellazione dei Gemelli e al Project Gemini della NASA.
Dal Google I/O 2023, “Gemini” è diventato il nome che raggruppa tutte le funzionalità AI di Google. Questa settimana, Google ha ufficialmente spiegato l’origine del nome.
Origini e significato del nome “Gemini”
Inizialmente, il progetto aveva il nome provvisorio “Titan”, ispirato alla mitologia greca e alla luna più grande di Saturno. Tuttavia, Jeff Dean, co-leader tecnico di Gemini, non era un grande fan di questo nome, ma esso gli ha dato l’idea di un nome legato allo spazio.
Così, Google ha scelto “Gemini”, che in latino significa “gemelli”. In astronomia, Gemelli è una costellazione associata ai gemelli mitologici greci Castore e Polluce, i cui nomi sono stati dati alle sue due stelle più brillanti. Questo significato duplice si adattava perfettamente al modello AI di Google.
Il team di Google ha trovato che la personalità duale del segno zodiacale dei Gemelli, capace di adattarsi rapidamente, connettersi con un’ampia gamma di persone e vedere le cose da molteplici prospettive, fosse ideale per il momento in cui Google stava unendo i team di DeepMind e Google Research “Brain”.
L’importanza della collaborazione tra i team
Jeff Dean ha spiegato che lo sforzo di Gemini è nato dal desiderio di avvicinare i team che lavoravano sulla modellazione del linguaggio. La metafora dei gemelli rappresentava bene questa fusione: i membri del team legacy di Brain e di DeepMind hanno iniziato a lavorare insieme su questo ambizioso progetto multimodale.
Riferimento al Project Gemini della NASA
Il nome “Gemini” è anche un omaggio al Project Gemini della NASA, attivo dal 1965 al 1968, che ha testato tecnologie cruciali per il successo del programma Apollo. Oriol Vinyals, co-leader tecnico, ha trovato che l’enorme sforzo richiesto per l’addestramento dei modelli linguistici di grandi dimensioni risuonava con lo spirito dei lanci di razzi del Project Gemini.
Evoluzione e denominazione dei modelli
Google ha anche considerato di dare ai modelli nomi di stelle, ma attualmente i nomi utilizzati sono Nano, Flash, Pro e Ultra. L’intervista ha rivelato che la decisione di utilizzare “Gemini” anche come nome per le funzionalità AI visibili agli utenti è stata presa per trasmettere il continuo miglioramento, la creatività e l’innovazione che i team di ricerca di Google porteranno direttamente agli utenti.
Intelligenza Artificiale
ChatGPT piena interazione con Google Drive e OneDrive
Tempo di lettura: < 1 minuto. ChatGPT ora consente agli utenti di caricare file direttamente da Google Drive e OneDrive, migliorando l’analisi dei dati e la visualizzazione dei grafici.
OpenAI ha annunciato una nuova funzionalità per ChatGPT che consente agli utenti di caricare file direttamente dai loro account Google Drive o OneDrive. Questa funzione, disponibile per gli utenti a pagamento di ChatGPT nelle prossime settimane, semplifica il processo di analisi dei dati, eliminando la necessità di scaricare e ricaricare i file.
Dettagli della nuova funzionalità
Con l’accesso a questa nuova funzione, gli utenti di ChatGPT Plus, Enterprise e Teams dovranno solo concedere l’accesso al chatbot ai loro account Google Drive o OneDrive. Secondo un post sul blog di OpenAI, questa integrazione permette a ChatGPT di leggere rapidamente file Excel, Word, PowerPoint e i loro equivalenti di Google.
Miglioramenti nell’analisi dei dati
La funzione di analisi dei dati migliorata è disponibile solo tramite GPT-4o, la versione più veloce e migliorata di GPT-4, che alimenta la versione a pagamento del chatbot. OpenAI ha anche potenziato la capacità di ChatGPT di comprendere i dataset da istruzioni scritte in linguaggio naturale. Gli utenti possono chiedere al chatbot di eseguire codici Python per l’analisi, unire o pulire dataset e creare grafici dalle informazioni sui file.
Interazioni con tabelle e grafici
ChatGPT ora consente agli utenti di interagire con le tabelle e i grafici che crea, espandendo la visualizzazione delle tabelle e personalizzando la visualizzazione dei dati, ad esempio cambiando i colori o facendo domande aggiuntive sulle celle. Attualmente, ChatGPT supporta grafici a barre, lineari, a torta e a dispersione per visualizzazioni interattive e genererà versioni statiche per i tipi di grafici che non supporta ancora.
Privacy e sicurezza dei dati
OpenAI ha ribadito che non addestrerà modelli di intelligenza artificiale con i dati caricati dagli utenti di ChatGPT Enterprise e Teams, e gli abbonati a ChatGPT Plus possono scegliere di non partecipare all’addestramento.
- L'Altra Bolla1 settimana fa
Meta testa la condivisione incrociata da Instagram a Threads
- L'Altra Bolla1 settimana fa
X sotto indagine dell’Unione Europea
- Robotica1 settimana fa
Come controllare dei Robot morbidi ? MIT ha un’idea geniale
- Inchieste4 giorni fa
Melinda lascia la Bill Gates Foundation e ritira 12,5 Miliardi di Dollari
- L'Altra Bolla5 giorni fa
Discord celebra il nono compleanno con aggiornamenti e Giveaway
- Sicurezza Informatica1 settimana fa
Nuovo attacco “Pathfinder” alle CPU Intel: è il nuovo Spectre?
- Economia1 settimana fa
Chi sarà il successore di Tim Cook in Apple?
- Sicurezza Informatica1 settimana fa
BogusBazaar falsi e-commerce usati per una truffa da 50 milioni