Tech
traduzione in tempo reale su Galaxy S24, Google Messages e WhatsApp pronte
Recenti rapporti rivelano sviluppi innovativi nei servizi di messaggistica per gli utenti Samsung Galaxy S24 sia su WhatsApp sia su Google Messages, ampliando le capacità di comunicazione e interazione in diverse lingue.
Galaxy S24: Traduzione del Testo in Tempo Reale su WhatsApp
Nuove Caratteristiche AI di Galaxy S24
Samsung ha introdotto diverse nuove funzionalità AI per la serie Galaxy S24, alimentate da potenti NPU presenti nei processori Exynos 2400 e Snapdragon 8 Gen 3. Tra queste, spicca la traduzione del testo in tempo reale durante le chiamate vocali e i messaggi.
Traduzione su WhatsApp
Sebbene Samsung abbia mostrato la traduzione di testo tramite l’app Messaggi integrata, SamMobile riporta che questa funzionalità funziona anche con WhatsApp. Gli utenti possono aspettarsi traduzioni rapide e in tempo reale, anche senza connessione Internet attiva.
Google Messages: Integrazione con l’AI Bard
Bard in Google Messages
Assemble Debug segnala che l’app Google Messages potrebbe presto includere Bard, il chatbot AI di Google. La funzionalità è stata individuata nell’ultima versione beta dell’app e permetterà agli utenti di avviare chat RCS con Bard.
Capacità di Bard
Bard sarà in grado di aiutare gli utenti a scrivere messaggi, tradurre lingue, identificare immagini ed esplorare altri interessi. Studierà la posizione e le chat passate dell’utente per fornire risposte appropriate. Tuttavia, a differenza di altre chat RCS, le conversazioni con Bard non saranno crittografate end-to-end.
Sicurezza e Privacy
Google sottolinea che i dati delle chat con Bard saranno salvati per 18 mesi e consiglia agli utenti di non scrivere messaggi che non vorrebbero fossero visti da un revisore. I dati possono essere gestiti e cancellati manualmente dall’utente.
Impatto sulla Comunicazione Digitale
Questi sviluppi in Samsung Galaxy S24 (Compralo su Amazon) e Google Messages rappresentano passi significativi nell’integrazione dell’intelligenza artificiale nella comunicazione quotidiana, offrendo agli utenti strumenti avanzati per superare le barriere linguistiche e migliorare l’interazione digitale.
Robotica
Robot autonomi con cervelli AI animali
Tempo di lettura: 2 minuti. Scopri come l’intelligenza artificiale ispirata al cervello animale sta rivoluzionando i droni autonomi, rendendoli più veloci ed efficienti dal punto di vista energetico.
Un team di ricercatori della Delft University of Technology ha sviluppato un drone che vola autonomamente utilizzando l’elaborazione delle immagini neuromorfica e il controllo basato sul funzionamento dei cervelli animali. I cervelli animali usano meno dati ed energia rispetto alle attuali reti neurali profonde che funzionano su GPU. I processori neuromorfici sono quindi molto adatti per piccoli droni poiché non necessitano di hardware e batterie pesanti. I risultati sono straordinari: durante il volo, la rete neurale profonda del drone elabora i dati fino a 64 volte più velocemente e consuma tre volte meno energia rispetto a una GPU.
Apprendimento dai cervelli animali: reti neurali a Spike
L’intelligenza artificiale può fornire ai robot autonomi l’intelligenza necessaria per le applicazioni nel mondo reale. Tuttavia, l’attuale AI si basa su reti neurali profonde che richiedono una notevole potenza di calcolo. I processori per eseguire le reti neurali profonde (GPU) consumano molta energia, un problema per piccoli robot come i droni volanti che possono trasportare risorse limitate.
I cervelli animali elaborano le informazioni in modo diverso dalle reti neurali su GPU. I neuroni biologici elaborano le informazioni in modo asincrono, comunicando principalmente tramite impulsi elettrici chiamati spike. L’invio di tali spike consuma energia, quindi il cervello minimizza gli spike, portando a un’elaborazione sparsa. I processori neuromorfici permettono di eseguire reti neurali a spike, risultando molto più veloci ed efficienti dal punto di vista energetico.
Prima Visione e controllo neuromorfici di un Drone Volante
In un articolo pubblicato su Science Robotics, i ricercatori dimostrano per la prima volta un drone che utilizza la visione e il controllo neuromorfici per il volo autonomo. Hanno sviluppato una rete neurale a spike che elabora i segnali da una fotocamera neuromorfica e fornisce comandi di controllo per determinare la posizione e la spinta del drone. La rete è stata implementata su un processore neuromorfico, il chip di ricerca neuromorfico Loihi di Intel, a bordo di un drone.
Con la sua visione e controllo neuromorfici, il drone può volare a diverse velocità in condizioni di luce variabili, da scure a luminose. Può persino volare con luci tremolanti, che fanno inviare alla fotocamera neuromorfica un gran numero di segnali non correlati al movimento.
Applicazioni future dell’AI Neuromorfica per Piccoli Robot
“L’AI neuromorfica permetterà a tutti i robot autonomi di essere più intelligenti,” afferma Guido de Croon, professore di droni bio-ispirati. “Ma è un fattore abilitante assoluto per piccoli robot autonomi.” All’Università di Tecnologia di Delft, i ricercatori lavorano su piccoli droni autonomi utilizzabili per applicazioni che vanno dal monitoraggio delle colture nelle serre al controllo delle scorte nei magazzini. I vantaggi dei piccoli droni includono sicurezza, capacità di navigare in ambienti stretti e costi ridotti, permettendo di essere dispiegati in sciami. La realizzazione di queste applicazioni dipenderà dall’ulteriore miniaturizzazione dell’hardware neuromorfico e dall’espansione delle capacità verso compiti più complessi come la navigazione.
Tech
Android 15 Beta ecco i telefoni di terze parti dove si può installare
Tempo di lettura: < 1 minuto. La beta di Android 15 è ora disponibile su dispositivi di terze parti come Xiaomi, OnePlus e Nothing ecco come installarla
Google ha appena rilasciato la seconda beta pubblica di Android 15, introducendo una serie di nuove funzionalità. Questa seconda beta è disponibile su dispositivi di produttori terzi come Xiaomi, Nothing, Honor, OnePlus, OPPO, Vivo, iQOO e altri. Sebbene la beta sia utilizzabile, presenta ancora diversi bug, quindi è consigliabile non installarla su un dispositivo di uso quotidiano.
Dispositivi supportati
Ecco l’elenco dei dispositivi che possono installare la beta di Android 15:
- Honor: Honor Magic 6 Pro, Honor Magic V2
- Xiaomi: Xiaomi 14, Xiaomi 13T Pro, Xiaomi Pad 6S Pro 12.4
- OnePlus: OnePlus 12, OnePlus Open
- OPPO: Find X7
- Vivo: Vivo X100
- iQOO: iQOO 12
- Nothing: Nothing Phone 2a
- Realme: Realme 12 Pro+ 5G
- Lenovo: Lenovo Tab Extreme
- Sharp: Sharp Aquos sense8
- Tecno: Tecno Camon 30 Pro 5G
Considerazioni per l’installazione
Installare la beta di Android 15 su un dispositivo secondario è consigliato per chi è interessato a provare le nuove funzionalità, considerando che ci sono molti bug relativi alla connettività e alla fotocamera. Per installare la beta, visita i link forniti per ciascun produttore per scaricare e flashare la build sul tuo dispositivo.
Tech
Controlla il tuo iPhone o iPad con gli occhi
Tempo di lettura: < 1 minuto. Apple introduce il tracciamento oculare su iPhone e iPad con iOS 18, insieme a nuove funzionalità di accessibilità per migliorare l’esperienza utente.
Apple annuncia una nuova serie di funzionalità di accessibilità in arrivo “entro quest’anno” per i suoi iPhone e iPad, presumibilmente parte di iOS 18 e iPadOS 18 e la più interessante tra queste è il tracciamento oculare, che consentirà di controllare i dispositivi con gli occhi.
Tracciamento oculare
Il tracciamento oculare, alimentato dall’intelligenza artificiale, sarà supportato su entrambi i dispositivi iPhone e iPad e questa funzione è progettata principalmente per utenti con disabilità fisiche, che potranno così usare gli occhi, ma sarà accessibile a tutti. Dopo una breve fase di calibrazione tramite la fotocamera frontale, gli utenti potranno navigare tra gli elementi delle app con gli occhi e attivarli con il controllo di fissazione.
Altre funzionalità
Oltre al tracciamento oculare, Apple introdurrà altre funzionalità:
Music Haptics: Il motore Taptic riprodurrà vibrazioni sincronizzate con la musica, inizialmente disponibile solo con Apple Music, ma sarà aperto agli sviluppatori tramite API.
Vehicle Motion Cues: Aiuta a ridurre il mal di movimento per i passeggeri con animazioni che rappresentano i cambiamenti nel movimento del veicolo.
Controllo Vocale per CarPlay: Consente di navigare e controllare CarPlay con la voce.
Sound Recognition: Notifica ai non udenti la presenza di clacson e sirene.
Filtri di Colore: Migliora la visibilità per gli utenti daltonici.
Queste nuove funzionalità dimostrano l’impegno di Apple nel rendere i suoi dispositivi più accessibili e utili per tutti gli utenti, migliorando l’interazione e l’esperienza complessiva.
- Editoriali2 settimane fa
Chip e smartphone cinesi ci avvisano del declino Occidentale
- Inchieste2 settimane fa
Ransomware in Italia: come cambia la percezione del fenomeno nell’IT
- Economia2 settimane fa
Internet via satellite: progetto europeo IRIS² in grande difficoltà
- Editoriali1 settimana fa
Anche su Giovanna Pedretti avevamo ragione
- L'Altra Bolla1 settimana fa
Jack Dorsey getta la spugna e lascia Bluesky
- Inchieste1 settimana fa
Perchè il motore di ricerca OpenAI fa paura ai giornalisti?
- L'Altra Bolla1 settimana fa
Meta arriva l’intelligenza artificiale per la Pubblicità
- L'Altra Bolla1 settimana fa
TikTok: azione legale contro Stati Uniti per bloccare il divieto