Tech
Generative Edit di S24 vs Magic Editor di Google Pixel 8: il confronto
Tempo di lettura: 2 minuti. Confronto tra Generative Edit di Samsung S24 e Magic Editor di Google Pixel 8: differenze, modalità di operazione e risultati dell’editing.
Samsung Galaxy S24 e Google Pixel 8 presentano entrambi funzionalità di editing fotografico basate su AI generativa, ma con differenze sostanziali sia nelle modalità di utilizzo che nei risultati finali. Sebbene Samsung utilizzi i motori AI di Google per il suo strumento Generative Edit, le due funzionalità offrono esperienze diverse.
Differenze Chiave e Prestazioni
- Modalità di Operazione: Magic Editor su Pixel permette modifiche iterative, consentendo la selezione tra diverse immagini generate e offrendo la possibilità di fare ulteriori modifiche o di annullare quelle precedenti. In contrasto, Generative Edit su Galaxy S24 consente di effettuare più modifiche in un’unica sessione, ma una volta generato il risultato, non è possibile annullare singoli passaggi.
- Numero di Immagini Generate: Mentre Samsung produce un’unica immagine per modifica, Google ne crea quattro, aumentando le chance di ottenere il risultato desiderato.
- Presenza di Filigrana: Le immagini modificate con Generative Edit di Samsung presentano una filigrana, un dettaglio che manca nelle immagini modificate con Magic Editor di Google, rendendo meno ovvio il fatto che una foto sia stata editata.
Prestazioni e Funzionalità
Nonostante le somiglianze superficiali, i due editor differiscono significativamente in termini di selezione degli oggetti e risultati dell’editing. Google offre più controllo nella selezione, consentendo di eliminare parti di una selezione, mentre Samsung aggrega gli elementi senza permettere selezioni se non esiste un chiaro contrasto.
Risultati dell’Editing
I test hanno mostrato che Magic Editor tende a fornire risultati più realistici, specialmente nell’eliminazione di oggetti e persone dalle foto. D’altra parte, Generative Edit offre guide di allineamento durante lo spostamento o il ridimensionamento degli oggetti, una caratteristica non presente in Magic Editor.
Innovazioni Esclusive
- Samsung introduce la possibilità di ruotare oggetti e persone all’interno di un’immagine, una funzione non disponibile in Magic Editor.
- Samsung consente anche di aggiungere elementi da altre foto e di rimuovere ombre, riflessi e effetti moiré direttamente dalla galleria.
Entrambi gli strumenti di editing si dimostrano efficaci, ognuno con i propri punti di forza. La scelta tra Generative Edit e Magic Editor dipenderà dalle preferenze personali e dalle specifiche esigenze di editing. Per maggiori info sul confronto c’è androidauthority
E tu? quale scegli? Generative Edit di S24 (guarda offerte Amazon) vs Magic Editor di Google Pixel 8 (in sconto su Amazon)
Robotica
Robot autonomi con cervelli AI animali
Tempo di lettura: 2 minuti. Scopri come l’intelligenza artificiale ispirata al cervello animale sta rivoluzionando i droni autonomi, rendendoli più veloci ed efficienti dal punto di vista energetico.
Un team di ricercatori della Delft University of Technology ha sviluppato un drone che vola autonomamente utilizzando l’elaborazione delle immagini neuromorfica e il controllo basato sul funzionamento dei cervelli animali. I cervelli animali usano meno dati ed energia rispetto alle attuali reti neurali profonde che funzionano su GPU. I processori neuromorfici sono quindi molto adatti per piccoli droni poiché non necessitano di hardware e batterie pesanti. I risultati sono straordinari: durante il volo, la rete neurale profonda del drone elabora i dati fino a 64 volte più velocemente e consuma tre volte meno energia rispetto a una GPU.
Apprendimento dai cervelli animali: reti neurali a Spike
L’intelligenza artificiale può fornire ai robot autonomi l’intelligenza necessaria per le applicazioni nel mondo reale. Tuttavia, l’attuale AI si basa su reti neurali profonde che richiedono una notevole potenza di calcolo. I processori per eseguire le reti neurali profonde (GPU) consumano molta energia, un problema per piccoli robot come i droni volanti che possono trasportare risorse limitate.
I cervelli animali elaborano le informazioni in modo diverso dalle reti neurali su GPU. I neuroni biologici elaborano le informazioni in modo asincrono, comunicando principalmente tramite impulsi elettrici chiamati spike. L’invio di tali spike consuma energia, quindi il cervello minimizza gli spike, portando a un’elaborazione sparsa. I processori neuromorfici permettono di eseguire reti neurali a spike, risultando molto più veloci ed efficienti dal punto di vista energetico.
Prima Visione e controllo neuromorfici di un Drone Volante
In un articolo pubblicato su Science Robotics, i ricercatori dimostrano per la prima volta un drone che utilizza la visione e il controllo neuromorfici per il volo autonomo. Hanno sviluppato una rete neurale a spike che elabora i segnali da una fotocamera neuromorfica e fornisce comandi di controllo per determinare la posizione e la spinta del drone. La rete è stata implementata su un processore neuromorfico, il chip di ricerca neuromorfico Loihi di Intel, a bordo di un drone.
Con la sua visione e controllo neuromorfici, il drone può volare a diverse velocità in condizioni di luce variabili, da scure a luminose. Può persino volare con luci tremolanti, che fanno inviare alla fotocamera neuromorfica un gran numero di segnali non correlati al movimento.
Applicazioni future dell’AI Neuromorfica per Piccoli Robot
“L’AI neuromorfica permetterà a tutti i robot autonomi di essere più intelligenti,” afferma Guido de Croon, professore di droni bio-ispirati. “Ma è un fattore abilitante assoluto per piccoli robot autonomi.” All’Università di Tecnologia di Delft, i ricercatori lavorano su piccoli droni autonomi utilizzabili per applicazioni che vanno dal monitoraggio delle colture nelle serre al controllo delle scorte nei magazzini. I vantaggi dei piccoli droni includono sicurezza, capacità di navigare in ambienti stretti e costi ridotti, permettendo di essere dispiegati in sciami. La realizzazione di queste applicazioni dipenderà dall’ulteriore miniaturizzazione dell’hardware neuromorfico e dall’espansione delle capacità verso compiti più complessi come la navigazione.
Tech
Android 15 Beta ecco i telefoni di terze parti dove si può installare
Tempo di lettura: < 1 minuto. La beta di Android 15 è ora disponibile su dispositivi di terze parti come Xiaomi, OnePlus e Nothing ecco come installarla
Google ha appena rilasciato la seconda beta pubblica di Android 15, introducendo una serie di nuove funzionalità. Questa seconda beta è disponibile su dispositivi di produttori terzi come Xiaomi, Nothing, Honor, OnePlus, OPPO, Vivo, iQOO e altri. Sebbene la beta sia utilizzabile, presenta ancora diversi bug, quindi è consigliabile non installarla su un dispositivo di uso quotidiano.
Dispositivi supportati
Ecco l’elenco dei dispositivi che possono installare la beta di Android 15:
- Honor: Honor Magic 6 Pro, Honor Magic V2
- Xiaomi: Xiaomi 14, Xiaomi 13T Pro, Xiaomi Pad 6S Pro 12.4
- OnePlus: OnePlus 12, OnePlus Open
- OPPO: Find X7
- Vivo: Vivo X100
- iQOO: iQOO 12
- Nothing: Nothing Phone 2a
- Realme: Realme 12 Pro+ 5G
- Lenovo: Lenovo Tab Extreme
- Sharp: Sharp Aquos sense8
- Tecno: Tecno Camon 30 Pro 5G
Considerazioni per l’installazione
Installare la beta di Android 15 su un dispositivo secondario è consigliato per chi è interessato a provare le nuove funzionalità, considerando che ci sono molti bug relativi alla connettività e alla fotocamera. Per installare la beta, visita i link forniti per ciascun produttore per scaricare e flashare la build sul tuo dispositivo.
Tech
Controlla il tuo iPhone o iPad con gli occhi
Tempo di lettura: < 1 minuto. Apple introduce il tracciamento oculare su iPhone e iPad con iOS 18, insieme a nuove funzionalità di accessibilità per migliorare l’esperienza utente.
Apple annuncia una nuova serie di funzionalità di accessibilità in arrivo “entro quest’anno” per i suoi iPhone e iPad, presumibilmente parte di iOS 18 e iPadOS 18 e la più interessante tra queste è il tracciamento oculare, che consentirà di controllare i dispositivi con gli occhi.
Tracciamento oculare
Il tracciamento oculare, alimentato dall’intelligenza artificiale, sarà supportato su entrambi i dispositivi iPhone e iPad e questa funzione è progettata principalmente per utenti con disabilità fisiche, che potranno così usare gli occhi, ma sarà accessibile a tutti. Dopo una breve fase di calibrazione tramite la fotocamera frontale, gli utenti potranno navigare tra gli elementi delle app con gli occhi e attivarli con il controllo di fissazione.
Altre funzionalità
Oltre al tracciamento oculare, Apple introdurrà altre funzionalità:
Music Haptics: Il motore Taptic riprodurrà vibrazioni sincronizzate con la musica, inizialmente disponibile solo con Apple Music, ma sarà aperto agli sviluppatori tramite API.
Vehicle Motion Cues: Aiuta a ridurre il mal di movimento per i passeggeri con animazioni che rappresentano i cambiamenti nel movimento del veicolo.
Controllo Vocale per CarPlay: Consente di navigare e controllare CarPlay con la voce.
Sound Recognition: Notifica ai non udenti la presenza di clacson e sirene.
Filtri di Colore: Migliora la visibilità per gli utenti daltonici.
Queste nuove funzionalità dimostrano l’impegno di Apple nel rendere i suoi dispositivi più accessibili e utili per tutti gli utenti, migliorando l’interazione e l’esperienza complessiva.
- Editoriali2 settimane fa
Chip e smartphone cinesi ci avvisano del declino Occidentale
- Inchieste2 settimane fa
Ransomware in Italia: come cambia la percezione del fenomeno nell’IT
- Economia2 settimane fa
Internet via satellite: progetto europeo IRIS² in grande difficoltà
- Editoriali1 settimana fa
Anche su Giovanna Pedretti avevamo ragione
- L'Altra Bolla1 settimana fa
Jack Dorsey getta la spugna e lascia Bluesky
- Inchieste1 settimana fa
Perchè il motore di ricerca OpenAI fa paura ai giornalisti?
- L'Altra Bolla1 settimana fa
Meta arriva l’intelligenza artificiale per la Pubblicità
- L'Altra Bolla1 settimana fa
TikTok: azione legale contro Stati Uniti per bloccare il divieto