Tech
Apple iOS 17 Beta 6: nuove modifiche al tasto di chiusura chiamata
Tempo di lettura: 2 minuti. Apple rilascia la sesta beta di iOS 17 agli sviluppatori, introducendo correzioni e spostando nuovamente il pulsante di chiusura chiamata.
Martedì, Apple ha rilasciato iOS 17 beta 6 agli sviluppatori, esattamente una settimana dopo la disponibilità della beta 5. Con il rilascio ufficiale di iOS 17 previsto per il prossimo mese, l’azienda si sta concentrando sulla risoluzione di bug e sulla preparazione del sistema per gli utenti.
Dettagli sulla Beta 6 di iOS 17
Apple ha presentato iOS 17 durante la sua annuale Worldwide Developers Conference il 5 giugno, mostrando nuove funzionalità per iPhone, tra cui StandBy, Live Voicemail, aggiornamenti AirDrop e molto altro. La versione pre-release di iOS 17 è disponibile da giugno. Apple ha anche esteso i test di iOS 17 attraverso il suo programma beta pubblico. Oltre a iOS 17 beta 6, Apple ha rilasciato nuove build anche per gli utenti di watchOS 10 e tvOS 17 beta.
Il pulsante di chiusura chiamata cambia posizione
Con l’ultima beta di iOS 17, Apple ha spostato nuovamente il pulsante per terminare la chiamata. Ora si trova nella parte centrale inferiore dello schermo della chiamata, anziché nella parte inferiore destra. Questa modifica potrebbe sembrare minima, ma potrebbe influire sulla percezione degli utenti quando Apple rilascerà ufficialmente il nuovo software. Il pulsante di chiusura chiamata ha cambiato posizione sin dalla prima beta di iOS 17 rilasciata a giugno. Tuttavia, ha attirato l’attenzione recentemente dopo che alcune pubblicazioni hanno segnalato la sua posizione allineata a destra. Molte persone non hanno apprezzato la nuova posizione del pulsante, e questa reazione negativa potrebbe aver contribuito alla decisione di Apple di riposizionare il pulsante al centro.
Motivazioni dietro al cambiamento
Apple potrebbe aver spostato i controlli dello schermo di chiamata più in basso per fare spazio ai nuovi “Contact Posters” di iOS 17, progettati per mostrare i volti delle persone con cui si sta parlando. I controlli di chiamata più bassi rendono anche l’uso più semplice su schermi di telefoni più grandi.
Con l’avvicinarsi del rilascio ufficiale di iOS 17, Apple continua a perfezionare e affinare il sistema operativo per garantire la migliore esperienza possibile agli utenti. Questi piccoli aggiustamenti, come lo spostamento del pulsante di chiusura chiamata, mostrano l’impegno dell’azienda nel rispondere al feedback degli utenti e nell’adattare il software alle loro esigenze.
Intelligenza Artificiale
Android 15 integra Gemini AI: nuove funzionalità e miglioramenti
Tempo di lettura: 2 minuti. Google integra Gemini AI in Android 15, con nuove funzionalità di ricerca, assistente contestuale e miglioramenti on-device per privacy e efficienza
Google ha annunciato una serie di nuove funzionalità AI integrate nel sistema operativo Android 15, offrendo uno sguardo su cosa dovrà competere il sistema operativo dell’iPhone di Apple entro la fine dell’anno. Android 15 è stato progettato con l’IA al suo centro, e Gemini rappresenta una parte fondamentale dell’esperienza Android a livello di sistema.
Caratteristiche principali di Gemini AI su Android 15
Barra di ricerca AI e Circle to Search
Una delle nuove funzionalità è una barra di ricerca alimentata dall’IA che può essere utilizzata per rispondere a domande e cercare informazioni. La funzione Circle to Search permette di risolvere problemi di matematica e fisica o di ottenere aiuto con i compiti.
Assistente AI contestuale
Gemini serve come assistente AI su Android, sostituendo Google Assistant. Questo assistente può essere richiamato come overlay su qualsiasi app in uso, offrendo supporto contestuale in tempo reale. Può creare immagini per testi e social media, rispondere a domande su video in riproduzione, interpretare PDF, siti web e altri contenuti, fornendo riassunti e traduzioni.
Privacy e elaborazione on-device
Google utilizza l’IA on-device per alcune funzionalità al fine di mantenere i dati sensibili privati, simile alla strategia di Apple. Gemini Nano, l’IA on-device di Google, genera risposte intelligenti nelle app di messaggistica e riassume memo vocali. Gemini Nano con Multimodalità arriverà sui telefoni Pixel entro la fine dell’anno, introducendo nuove funzionalità come TalkBack per aiutare utenti ciechi e ipovedenti a interpretare meglio il mondo circostante. Un’altra funzione in sviluppo è lo screening delle chiamate, che ascolta attivamente le chiamate e avvisa gli utenti se sembrano truffe.
Modelli Gemini 1.5 Flash e Pro
Google ha anche annunciato Gemini 1.5 Flash, una versione leggera del modello AI Gemini Pro. Gemini Flash è più efficiente, meno costoso e ha una latenza inferiore, ideale per distribuzioni su larga scala. Questo modello eccelle in riassunti, applicazioni di chat, didascalie di immagini e video, e estrazione di dati da documenti lunghi.
Gemini 1.5 Pro è stato migliorato e può seguire istruzioni sempre più complesse e sfumate, inclusa l’interpretazione di documenti fino a 1.500 pagine o un’ora di contenuti video. Gli utenti possono interagire con Gemini in Google Messages, e gli abbonati a Gemini Advanced possono sperimentare una nuova esperienza conversazionale mobile.
Project Astra
Project Astra è un altro sforzo di Google che si concentra su agenti AI utili nella vita quotidiana. Durante una demo, Google ha mostrato prototipi di agenti in grado di identificare oggetti, fornire contesto sulle informazioni dalla fotocamera e richiamare una sequenza temporale di eventi per trovare un oggetto perso.
Prossimi annunci
Google fornirà ulteriori informazioni sulle nuove funzionalità in arrivo su Android 15 entro questa settimana.
Intelligenza Artificiale
Perchè Google ha chiamato la sua AI “Gemini”?
Tempo di lettura: 2 minuti. Google spiega l’origine del nome “Gemini” per le sue funzionalità AI, ispirato alla mitologia greca, alla costellazione dei Gemelli e al Project Gemini della NASA.
Dal Google I/O 2023, “Gemini” è diventato il nome che raggruppa tutte le funzionalità AI di Google. Questa settimana, Google ha ufficialmente spiegato l’origine del nome.
Origini e significato del nome “Gemini”
Inizialmente, il progetto aveva il nome provvisorio “Titan”, ispirato alla mitologia greca e alla luna più grande di Saturno. Tuttavia, Jeff Dean, co-leader tecnico di Gemini, non era un grande fan di questo nome, ma esso gli ha dato l’idea di un nome legato allo spazio.
Così, Google ha scelto “Gemini”, che in latino significa “gemelli”. In astronomia, Gemelli è una costellazione associata ai gemelli mitologici greci Castore e Polluce, i cui nomi sono stati dati alle sue due stelle più brillanti. Questo significato duplice si adattava perfettamente al modello AI di Google.
Il team di Google ha trovato che la personalità duale del segno zodiacale dei Gemelli, capace di adattarsi rapidamente, connettersi con un’ampia gamma di persone e vedere le cose da molteplici prospettive, fosse ideale per il momento in cui Google stava unendo i team di DeepMind e Google Research “Brain”.
L’importanza della collaborazione tra i team
Jeff Dean ha spiegato che lo sforzo di Gemini è nato dal desiderio di avvicinare i team che lavoravano sulla modellazione del linguaggio. La metafora dei gemelli rappresentava bene questa fusione: i membri del team legacy di Brain e di DeepMind hanno iniziato a lavorare insieme su questo ambizioso progetto multimodale.
Riferimento al Project Gemini della NASA
Il nome “Gemini” è anche un omaggio al Project Gemini della NASA, attivo dal 1965 al 1968, che ha testato tecnologie cruciali per il successo del programma Apollo. Oriol Vinyals, co-leader tecnico, ha trovato che l’enorme sforzo richiesto per l’addestramento dei modelli linguistici di grandi dimensioni risuonava con lo spirito dei lanci di razzi del Project Gemini.
Evoluzione e denominazione dei modelli
Google ha anche considerato di dare ai modelli nomi di stelle, ma attualmente i nomi utilizzati sono Nano, Flash, Pro e Ultra. L’intervista ha rivelato che la decisione di utilizzare “Gemini” anche come nome per le funzionalità AI visibili agli utenti è stata presa per trasmettere il continuo miglioramento, la creatività e l’innovazione che i team di ricerca di Google porteranno direttamente agli utenti.
Intelligenza Artificiale
ChatGPT piena interazione con Google Drive e OneDrive
Tempo di lettura: < 1 minuto. ChatGPT ora consente agli utenti di caricare file direttamente da Google Drive e OneDrive, migliorando l’analisi dei dati e la visualizzazione dei grafici.
OpenAI ha annunciato una nuova funzionalità per ChatGPT che consente agli utenti di caricare file direttamente dai loro account Google Drive o OneDrive. Questa funzione, disponibile per gli utenti a pagamento di ChatGPT nelle prossime settimane, semplifica il processo di analisi dei dati, eliminando la necessità di scaricare e ricaricare i file.
Dettagli della nuova funzionalità
Con l’accesso a questa nuova funzione, gli utenti di ChatGPT Plus, Enterprise e Teams dovranno solo concedere l’accesso al chatbot ai loro account Google Drive o OneDrive. Secondo un post sul blog di OpenAI, questa integrazione permette a ChatGPT di leggere rapidamente file Excel, Word, PowerPoint e i loro equivalenti di Google.
Miglioramenti nell’analisi dei dati
La funzione di analisi dei dati migliorata è disponibile solo tramite GPT-4o, la versione più veloce e migliorata di GPT-4, che alimenta la versione a pagamento del chatbot. OpenAI ha anche potenziato la capacità di ChatGPT di comprendere i dataset da istruzioni scritte in linguaggio naturale. Gli utenti possono chiedere al chatbot di eseguire codici Python per l’analisi, unire o pulire dataset e creare grafici dalle informazioni sui file.
Interazioni con tabelle e grafici
ChatGPT ora consente agli utenti di interagire con le tabelle e i grafici che crea, espandendo la visualizzazione delle tabelle e personalizzando la visualizzazione dei dati, ad esempio cambiando i colori o facendo domande aggiuntive sulle celle. Attualmente, ChatGPT supporta grafici a barre, lineari, a torta e a dispersione per visualizzazioni interattive e genererà versioni statiche per i tipi di grafici che non supporta ancora.
Privacy e sicurezza dei dati
OpenAI ha ribadito che non addestrerà modelli di intelligenza artificiale con i dati caricati dagli utenti di ChatGPT Enterprise e Teams, e gli abbonati a ChatGPT Plus possono scegliere di non partecipare all’addestramento.
- L'Altra Bolla1 settimana fa
Meta testa la condivisione incrociata da Instagram a Threads
- L'Altra Bolla1 settimana fa
X sotto indagine dell’Unione Europea
- Robotica1 settimana fa
Come controllare dei Robot morbidi ? MIT ha un’idea geniale
- Inchieste4 giorni fa
Melinda lascia la Bill Gates Foundation e ritira 12,5 Miliardi di Dollari
- L'Altra Bolla5 giorni fa
Discord celebra il nono compleanno con aggiornamenti e Giveaway
- Sicurezza Informatica1 settimana fa
Nuovo attacco “Pathfinder” alle CPU Intel: è il nuovo Spectre?
- Sicurezza Informatica1 settimana fa
BogusBazaar falsi e-commerce usati per una truffa da 50 milioni
- Economia1 settimana fa
Chi sarà il successore di Tim Cook in Apple?