Tech
Funzionalità AI del Galaxy S24 in Arrivo su S23
Samsung ha recentemente svelato la serie Galaxy S24, introducendo diverse funzionalità alimentate dall’intelligenza artificiale (AI), tra cui la traduzione in tempo reale durante le chiamate vocali, la sintesi delle note, l’assistenza grammaticale durante la messaggistica e la modifica delle immagini guidata dall’AI. Solitamente, alcune nuove funzionalità vengono rilasciate anche sui telefoni Galaxy esistenti, ma Samsung non aveva specificato se queste funzionalità AI sarebbero state disponibili sui dispositivi di fascia alta già in commercio.
Tuttavia, ora abbiamo alcune informazioni in merito. Secondo il sito web di Samsung, il Galaxy S23 Ultra riceverà alcune funzionalità alimentate dall’AI, tra cui Circle To Search, Live Translation, Note Assist e Photo Assist. Il sito indica che queste funzionalità arriveranno presto, sebbene non fornisca una tempistica specifica. In una tabella comparativa, Samsung suggerisce che queste funzionalità AI potrebbero non arrivare sul Galaxy S22 Ultra, sul Galaxy Z Flip 4 e sul Galaxy Z Fold 4. È probabile che queste funzionalità AI non saranno disponibili nemmeno sul Galaxy A34 e sul Galaxy A54.
Samsung potrebbe rilasciare queste funzionalità AI per la serie Galaxy S23 con l’aggiornamento One UI 6.1. L’azienda sudcoreana aveva menzionato che l’aggiornamento One UI 6.1 sarebbe stato rilasciato su smartphone e tablet compatibili prima della fine del primo semestre di quest’anno.
Circle to Search è una funzionalità che consente di cercare qualsiasi cosa corrispondente al contenuto in qualsiasi parte dello schermo. È alimentata da Google ed è estremamente simile a Google Lens, ma funziona più velocemente. Questa funzionalità è stata rilasciata sulla serie Pixel 8 pochi giorni fa. Live Translation permette la traduzione in tempo reale durante le chiamate vocali e può tradurre una lingua in un’altra per i chiamanti da entrambi i lati della chiamata.
La funzionalità Note Assist può riassumere il testo all’interno di Samsung Notes e organizzarlo in modelli facili da leggere. La funzionalità Photo Assist utilizza l’AI per consentire di regolare l’angolazione delle immagini e riempire lo spazio vuoto con contenuti AI generativi per adattarsi alla scena. Consente anche di raccogliere oggetti in un’immagine e regolarne la posizione o le dimensioni, oltre a consentire di rimuovere oggetti o persone indesiderati dall’immagine. Dopo questa notizia, potrebbe essere conveniente valutare un Galaxy S23 Ultra risparmiando dei soldi godendo allo stesso tempo dei servizi AI.
Intelligenza Artificiale
Android 15 integra Gemini AI: nuove funzionalità e miglioramenti
Tempo di lettura: 2 minuti. Google integra Gemini AI in Android 15, con nuove funzionalità di ricerca, assistente contestuale e miglioramenti on-device per privacy e efficienza
Google ha annunciato una serie di nuove funzionalità AI integrate nel sistema operativo Android 15, offrendo uno sguardo su cosa dovrà competere il sistema operativo dell’iPhone di Apple entro la fine dell’anno. Android 15 è stato progettato con l’IA al suo centro, e Gemini rappresenta una parte fondamentale dell’esperienza Android a livello di sistema.
Caratteristiche principali di Gemini AI su Android 15
Barra di ricerca AI e Circle to Search
Una delle nuove funzionalità è una barra di ricerca alimentata dall’IA che può essere utilizzata per rispondere a domande e cercare informazioni. La funzione Circle to Search permette di risolvere problemi di matematica e fisica o di ottenere aiuto con i compiti.
Assistente AI contestuale
Gemini serve come assistente AI su Android, sostituendo Google Assistant. Questo assistente può essere richiamato come overlay su qualsiasi app in uso, offrendo supporto contestuale in tempo reale. Può creare immagini per testi e social media, rispondere a domande su video in riproduzione, interpretare PDF, siti web e altri contenuti, fornendo riassunti e traduzioni.
Privacy e elaborazione on-device
Google utilizza l’IA on-device per alcune funzionalità al fine di mantenere i dati sensibili privati, simile alla strategia di Apple. Gemini Nano, l’IA on-device di Google, genera risposte intelligenti nelle app di messaggistica e riassume memo vocali. Gemini Nano con Multimodalità arriverà sui telefoni Pixel entro la fine dell’anno, introducendo nuove funzionalità come TalkBack per aiutare utenti ciechi e ipovedenti a interpretare meglio il mondo circostante. Un’altra funzione in sviluppo è lo screening delle chiamate, che ascolta attivamente le chiamate e avvisa gli utenti se sembrano truffe.
Modelli Gemini 1.5 Flash e Pro
Google ha anche annunciato Gemini 1.5 Flash, una versione leggera del modello AI Gemini Pro. Gemini Flash è più efficiente, meno costoso e ha una latenza inferiore, ideale per distribuzioni su larga scala. Questo modello eccelle in riassunti, applicazioni di chat, didascalie di immagini e video, e estrazione di dati da documenti lunghi.
Gemini 1.5 Pro è stato migliorato e può seguire istruzioni sempre più complesse e sfumate, inclusa l’interpretazione di documenti fino a 1.500 pagine o un’ora di contenuti video. Gli utenti possono interagire con Gemini in Google Messages, e gli abbonati a Gemini Advanced possono sperimentare una nuova esperienza conversazionale mobile.
Project Astra
Project Astra è un altro sforzo di Google che si concentra su agenti AI utili nella vita quotidiana. Durante una demo, Google ha mostrato prototipi di agenti in grado di identificare oggetti, fornire contesto sulle informazioni dalla fotocamera e richiamare una sequenza temporale di eventi per trovare un oggetto perso.
Prossimi annunci
Google fornirà ulteriori informazioni sulle nuove funzionalità in arrivo su Android 15 entro questa settimana.
Intelligenza Artificiale
Perchè Google ha chiamato la sua AI “Gemini”?
Tempo di lettura: 2 minuti. Google spiega l’origine del nome “Gemini” per le sue funzionalità AI, ispirato alla mitologia greca, alla costellazione dei Gemelli e al Project Gemini della NASA.
Dal Google I/O 2023, “Gemini” è diventato il nome che raggruppa tutte le funzionalità AI di Google. Questa settimana, Google ha ufficialmente spiegato l’origine del nome.
Origini e significato del nome “Gemini”
Inizialmente, il progetto aveva il nome provvisorio “Titan”, ispirato alla mitologia greca e alla luna più grande di Saturno. Tuttavia, Jeff Dean, co-leader tecnico di Gemini, non era un grande fan di questo nome, ma esso gli ha dato l’idea di un nome legato allo spazio.
Così, Google ha scelto “Gemini”, che in latino significa “gemelli”. In astronomia, Gemelli è una costellazione associata ai gemelli mitologici greci Castore e Polluce, i cui nomi sono stati dati alle sue due stelle più brillanti. Questo significato duplice si adattava perfettamente al modello AI di Google.
Il team di Google ha trovato che la personalità duale del segno zodiacale dei Gemelli, capace di adattarsi rapidamente, connettersi con un’ampia gamma di persone e vedere le cose da molteplici prospettive, fosse ideale per il momento in cui Google stava unendo i team di DeepMind e Google Research “Brain”.
L’importanza della collaborazione tra i team
Jeff Dean ha spiegato che lo sforzo di Gemini è nato dal desiderio di avvicinare i team che lavoravano sulla modellazione del linguaggio. La metafora dei gemelli rappresentava bene questa fusione: i membri del team legacy di Brain e di DeepMind hanno iniziato a lavorare insieme su questo ambizioso progetto multimodale.
Riferimento al Project Gemini della NASA
Il nome “Gemini” è anche un omaggio al Project Gemini della NASA, attivo dal 1965 al 1968, che ha testato tecnologie cruciali per il successo del programma Apollo. Oriol Vinyals, co-leader tecnico, ha trovato che l’enorme sforzo richiesto per l’addestramento dei modelli linguistici di grandi dimensioni risuonava con lo spirito dei lanci di razzi del Project Gemini.
Evoluzione e denominazione dei modelli
Google ha anche considerato di dare ai modelli nomi di stelle, ma attualmente i nomi utilizzati sono Nano, Flash, Pro e Ultra. L’intervista ha rivelato che la decisione di utilizzare “Gemini” anche come nome per le funzionalità AI visibili agli utenti è stata presa per trasmettere il continuo miglioramento, la creatività e l’innovazione che i team di ricerca di Google porteranno direttamente agli utenti.
Intelligenza Artificiale
ChatGPT piena interazione con Google Drive e OneDrive
Tempo di lettura: < 1 minuto. ChatGPT ora consente agli utenti di caricare file direttamente da Google Drive e OneDrive, migliorando l’analisi dei dati e la visualizzazione dei grafici.
OpenAI ha annunciato una nuova funzionalità per ChatGPT che consente agli utenti di caricare file direttamente dai loro account Google Drive o OneDrive. Questa funzione, disponibile per gli utenti a pagamento di ChatGPT nelle prossime settimane, semplifica il processo di analisi dei dati, eliminando la necessità di scaricare e ricaricare i file.
Dettagli della nuova funzionalità
Con l’accesso a questa nuova funzione, gli utenti di ChatGPT Plus, Enterprise e Teams dovranno solo concedere l’accesso al chatbot ai loro account Google Drive o OneDrive. Secondo un post sul blog di OpenAI, questa integrazione permette a ChatGPT di leggere rapidamente file Excel, Word, PowerPoint e i loro equivalenti di Google.
Miglioramenti nell’analisi dei dati
La funzione di analisi dei dati migliorata è disponibile solo tramite GPT-4o, la versione più veloce e migliorata di GPT-4, che alimenta la versione a pagamento del chatbot. OpenAI ha anche potenziato la capacità di ChatGPT di comprendere i dataset da istruzioni scritte in linguaggio naturale. Gli utenti possono chiedere al chatbot di eseguire codici Python per l’analisi, unire o pulire dataset e creare grafici dalle informazioni sui file.
Interazioni con tabelle e grafici
ChatGPT ora consente agli utenti di interagire con le tabelle e i grafici che crea, espandendo la visualizzazione delle tabelle e personalizzando la visualizzazione dei dati, ad esempio cambiando i colori o facendo domande aggiuntive sulle celle. Attualmente, ChatGPT supporta grafici a barre, lineari, a torta e a dispersione per visualizzazioni interattive e genererà versioni statiche per i tipi di grafici che non supporta ancora.
Privacy e sicurezza dei dati
OpenAI ha ribadito che non addestrerà modelli di intelligenza artificiale con i dati caricati dagli utenti di ChatGPT Enterprise e Teams, e gli abbonati a ChatGPT Plus possono scegliere di non partecipare all’addestramento.
- L'Altra Bolla1 settimana fa
Meta testa la condivisione incrociata da Instagram a Threads
- L'Altra Bolla1 settimana fa
X sotto indagine dell’Unione Europea
- Robotica1 settimana fa
Come controllare dei Robot morbidi ? MIT ha un’idea geniale
- Inchieste4 giorni fa
Melinda lascia la Bill Gates Foundation e ritira 12,5 Miliardi di Dollari
- L'Altra Bolla5 giorni fa
Discord celebra il nono compleanno con aggiornamenti e Giveaway
- Sicurezza Informatica1 settimana fa
Nuovo attacco “Pathfinder” alle CPU Intel: è il nuovo Spectre?
- Economia1 settimana fa
Chi sarà il successore di Tim Cook in Apple?
- Sicurezza Informatica1 settimana fa
BogusBazaar falsi e-commerce usati per una truffa da 50 milioni