Tech
GNOME 46 introduce il supporto sperimentale per VRR
Tempo di lettura: 2 minuti. GNOME 46 introduce supporto VRR sperimentale per un’esperienza visiva fluida. Attivalo con un comando e goditi contenuti dinamici senza scatti.
GNOME 46, la prossima versione del popolare ambiente desktop, introdurrà finalmente il supporto sperimentale per la variabile refresh rate (VRR), una caratteristica molto attesa che arriva dopo oltre tre anni di sviluppo da parte dei creatori di Mutter, il gestore delle finestre e compositore di GNOME.
Questa novità, pur essendo in fase sperimentale e non visibile di default agli utenti, potrà essere attivata mediante un comando specifico da eseguire in un emulatore di terminale, seguito da un riavvio della sessione. Una volta attivata, la funzionalità VRR permetterà di modificare il refresh rate del monitor attraverso la sezione Display nelle impostazioni di GNOME, garantendo un’esperienza visiva più fluida e senza interruzioni, soprattutto in contenuti dinamici come i videogiochi.
Al momento dell’annuncio, il supporto VRR in GNOME 46 presenta alcune limitazioni, tra cui la possibilità di incontrare scatti nel movimento del cursore in presenza di client a schermo intero che si aggiornano passivamente. Si spera che tali limiti vengano superati con l’aggiornamento successivo, GNOME 47, previsto per settembre 2024.
La richiesta di merge !1154 su GitLab per il progetto GNOME / mutter introduce il supporto per la variabile refresh rate (VRR) come caratteristica sperimentale in GNOME. Questa funzionalità, attesa da tempo, richiede l’attivazione manuale attraverso il comando:
arduinoCopy code
gsettings set org.gnome.mutter experimental-features "['variable-refresh-rate']"
Dopo aver eseguito il comando, è necessario riavviare la sessione per abilitare il VRR. Questa implementazione permette ai monitor compatibili di adattare il loro refresh rate al frame rate dei contenuti, migliorando così l’esperienza visiva in situazioni come i giochi, riducendo lo stuttering o il tearing.
Tuttavia, ci sono alcune limitazioni, come il potenziale stuttering nel movimento del cursore con client a schermo intero che si aggiornano passivamente. Questa limitazione deriva dall’API atomic KMS che non permette aggiornamenti del cursore più frequenti del contenuto visualizzato. Come soluzione parziale, il refresh rate del cursore non scenderà sotto i 30 Hz, anche se questa soglia potrebbe essere percepita come insufficiente da alcuni utenti.
Al momento, non esiste un protocollo Wayland che permetta di annunciare il supporto per VRR ai client, quindi si assume che tutte le finestre Wayland e X11 siano compatibili con VRR. Questo potrebbe causare problemi di compatibilità con applicazioni che non gestiscono bene il VRR.
La richiesta di merge !1154 è accompagnata da altre richieste correlate che affrontano vari aspetti tecnici per migliorare l’integrazione e la performance del VRR in GNOME.
Il rilascio di GNOME 46 è previsto per il 20 marzo 2024 e porterà con sé importanti novità come una modalità di Ricerca Globale dedicata per il gestore di file Nautilus, supporto per l’autenticazione tramite smart card PKCS #11 in Epiphany, nuove e riorganizzate impostazioni, maggiori porting a GTK4 e un’ampia gamma di applicazioni aggiornate.
Robotica
Robot autonomi con cervelli AI animali
Tempo di lettura: 2 minuti. Scopri come l’intelligenza artificiale ispirata al cervello animale sta rivoluzionando i droni autonomi, rendendoli più veloci ed efficienti dal punto di vista energetico.
Un team di ricercatori della Delft University of Technology ha sviluppato un drone che vola autonomamente utilizzando l’elaborazione delle immagini neuromorfica e il controllo basato sul funzionamento dei cervelli animali. I cervelli animali usano meno dati ed energia rispetto alle attuali reti neurali profonde che funzionano su GPU. I processori neuromorfici sono quindi molto adatti per piccoli droni poiché non necessitano di hardware e batterie pesanti. I risultati sono straordinari: durante il volo, la rete neurale profonda del drone elabora i dati fino a 64 volte più velocemente e consuma tre volte meno energia rispetto a una GPU.
Apprendimento dai cervelli animali: reti neurali a Spike
L’intelligenza artificiale può fornire ai robot autonomi l’intelligenza necessaria per le applicazioni nel mondo reale. Tuttavia, l’attuale AI si basa su reti neurali profonde che richiedono una notevole potenza di calcolo. I processori per eseguire le reti neurali profonde (GPU) consumano molta energia, un problema per piccoli robot come i droni volanti che possono trasportare risorse limitate.
I cervelli animali elaborano le informazioni in modo diverso dalle reti neurali su GPU. I neuroni biologici elaborano le informazioni in modo asincrono, comunicando principalmente tramite impulsi elettrici chiamati spike. L’invio di tali spike consuma energia, quindi il cervello minimizza gli spike, portando a un’elaborazione sparsa. I processori neuromorfici permettono di eseguire reti neurali a spike, risultando molto più veloci ed efficienti dal punto di vista energetico.
Prima Visione e controllo neuromorfici di un Drone Volante
In un articolo pubblicato su Science Robotics, i ricercatori dimostrano per la prima volta un drone che utilizza la visione e il controllo neuromorfici per il volo autonomo. Hanno sviluppato una rete neurale a spike che elabora i segnali da una fotocamera neuromorfica e fornisce comandi di controllo per determinare la posizione e la spinta del drone. La rete è stata implementata su un processore neuromorfico, il chip di ricerca neuromorfico Loihi di Intel, a bordo di un drone.
Con la sua visione e controllo neuromorfici, il drone può volare a diverse velocità in condizioni di luce variabili, da scure a luminose. Può persino volare con luci tremolanti, che fanno inviare alla fotocamera neuromorfica un gran numero di segnali non correlati al movimento.
Applicazioni future dell’AI Neuromorfica per Piccoli Robot
“L’AI neuromorfica permetterà a tutti i robot autonomi di essere più intelligenti,” afferma Guido de Croon, professore di droni bio-ispirati. “Ma è un fattore abilitante assoluto per piccoli robot autonomi.” All’Università di Tecnologia di Delft, i ricercatori lavorano su piccoli droni autonomi utilizzabili per applicazioni che vanno dal monitoraggio delle colture nelle serre al controllo delle scorte nei magazzini. I vantaggi dei piccoli droni includono sicurezza, capacità di navigare in ambienti stretti e costi ridotti, permettendo di essere dispiegati in sciami. La realizzazione di queste applicazioni dipenderà dall’ulteriore miniaturizzazione dell’hardware neuromorfico e dall’espansione delle capacità verso compiti più complessi come la navigazione.
Tech
Android 15 Beta ecco i telefoni di terze parti dove si può installare
Tempo di lettura: < 1 minuto. La beta di Android 15 è ora disponibile su dispositivi di terze parti come Xiaomi, OnePlus e Nothing ecco come installarla
Google ha appena rilasciato la seconda beta pubblica di Android 15, introducendo una serie di nuove funzionalità. Questa seconda beta è disponibile su dispositivi di produttori terzi come Xiaomi, Nothing, Honor, OnePlus, OPPO, Vivo, iQOO e altri. Sebbene la beta sia utilizzabile, presenta ancora diversi bug, quindi è consigliabile non installarla su un dispositivo di uso quotidiano.
Dispositivi supportati
Ecco l’elenco dei dispositivi che possono installare la beta di Android 15:
- Honor: Honor Magic 6 Pro, Honor Magic V2
- Xiaomi: Xiaomi 14, Xiaomi 13T Pro, Xiaomi Pad 6S Pro 12.4
- OnePlus: OnePlus 12, OnePlus Open
- OPPO: Find X7
- Vivo: Vivo X100
- iQOO: iQOO 12
- Nothing: Nothing Phone 2a
- Realme: Realme 12 Pro+ 5G
- Lenovo: Lenovo Tab Extreme
- Sharp: Sharp Aquos sense8
- Tecno: Tecno Camon 30 Pro 5G
Considerazioni per l’installazione
Installare la beta di Android 15 su un dispositivo secondario è consigliato per chi è interessato a provare le nuove funzionalità, considerando che ci sono molti bug relativi alla connettività e alla fotocamera. Per installare la beta, visita i link forniti per ciascun produttore per scaricare e flashare la build sul tuo dispositivo.
Tech
Controlla il tuo iPhone o iPad con gli occhi
Tempo di lettura: < 1 minuto. Apple introduce il tracciamento oculare su iPhone e iPad con iOS 18, insieme a nuove funzionalità di accessibilità per migliorare l’esperienza utente.
Apple annuncia una nuova serie di funzionalità di accessibilità in arrivo “entro quest’anno” per i suoi iPhone e iPad, presumibilmente parte di iOS 18 e iPadOS 18 e la più interessante tra queste è il tracciamento oculare, che consentirà di controllare i dispositivi con gli occhi.
Tracciamento oculare
Il tracciamento oculare, alimentato dall’intelligenza artificiale, sarà supportato su entrambi i dispositivi iPhone e iPad e questa funzione è progettata principalmente per utenti con disabilità fisiche, che potranno così usare gli occhi, ma sarà accessibile a tutti. Dopo una breve fase di calibrazione tramite la fotocamera frontale, gli utenti potranno navigare tra gli elementi delle app con gli occhi e attivarli con il controllo di fissazione.
Altre funzionalità
Oltre al tracciamento oculare, Apple introdurrà altre funzionalità:
Music Haptics: Il motore Taptic riprodurrà vibrazioni sincronizzate con la musica, inizialmente disponibile solo con Apple Music, ma sarà aperto agli sviluppatori tramite API.
Vehicle Motion Cues: Aiuta a ridurre il mal di movimento per i passeggeri con animazioni che rappresentano i cambiamenti nel movimento del veicolo.
Controllo Vocale per CarPlay: Consente di navigare e controllare CarPlay con la voce.
Sound Recognition: Notifica ai non udenti la presenza di clacson e sirene.
Filtri di Colore: Migliora la visibilità per gli utenti daltonici.
Queste nuove funzionalità dimostrano l’impegno di Apple nel rendere i suoi dispositivi più accessibili e utili per tutti gli utenti, migliorando l’interazione e l’esperienza complessiva.
- Editoriali2 settimane fa
Chip e smartphone cinesi ci avvisano del declino Occidentale
- Inchieste2 settimane fa
Ransomware in Italia: come cambia la percezione del fenomeno nell’IT
- Economia2 settimane fa
Internet via satellite: progetto europeo IRIS² in grande difficoltà
- Editoriali1 settimana fa
Anche su Giovanna Pedretti avevamo ragione
- L'Altra Bolla1 settimana fa
Jack Dorsey getta la spugna e lascia Bluesky
- Inchieste1 settimana fa
Perchè il motore di ricerca OpenAI fa paura ai giornalisti?
- L'Altra Bolla1 settimana fa
Meta arriva l’intelligenza artificiale per la Pubblicità
- L'Altra Bolla1 settimana fa
TikTok: azione legale contro Stati Uniti per bloccare il divieto