Tech
Gli abbonati di Getty Images otterranno accesso a generatore immagini basato su IA
Tempo di lettura: 2 minuti. Gli abbonati di Getty Images otterranno accesso a un nuovo strumento di generazione di immagini IA, con l’agenzia che si assume la piena responsabilità per eventuali controversie sul copyright e si impegna a pagare gli artisti su base ricorrente.
Getty Images fornirà a centinaia di migliaia di utenti l’accesso a un nuovo strumento di generazione di immagini basato su intelligenza artificiale, mentre si intensifica un dibattito globale sulla proprietà intellettuale legata a questa tecnologia in rapida evoluzione. Getty Images, una delle più grandi agenzie fotografiche al mondo con oltre 135 milioni di immagini protette da copyright nei suoi archivi, ha lanciato uno strumento IA che può creare immagini basate su prompt degli utenti. Ha anche stabilito un piano di pagamento per coloro le cui immagini sono state utilizzate per addestrare il sistema IA.
Dettagli Principali
- Protezione degli Utenti: Getty si impegna a proteggere gli oltre 800.000 utenti con un’indennizzazione illimitata legata al prodotto, assumendosi la piena responsabilità legale e finanziaria per eventuali controversie sul copyright.
- Pagamenti agli Artisti: Getty pagherà gli artisti che hanno contribuito a formare il suo sistema IA su base “ricorrente”, affermando che il mercato dei prodotti IA generativi crescerà e si svilupperanno in flussi di entrate significativi.
- Partenariato con Nvidia: Il nuovo prodotto di Getty, sviluppato in partnership con Nvidia, è stato addestrato sulla sua vasta libreria di immagini. Tutti i contenuti generati usando la sua IA apparterranno al cliente e non verranno aggiunti alle biblioteche di contenuti esistenti di Getty.
Contesto
Il lancio del prodotto di Getty segue l’aggiornamento della settimana scorsa di DALL-E di OpenAI, uno strumento di generazione di immagini popolare. Gli strumenti di arte IA offerti da aziende come OpenAI, Midjourney e Stability AI sono al centro di un dibattito sulla proprietà intellettuale nell’era dell’IA. Getty ha presentato quest’anno un reclamo di copyright contro Stability AI, affermando che aveva “copiato e elaborato illegalmente milioni di immagini protette da copyright”.
Conclusione
La creazione di prodotti protetti da diritti di proprietà intellettuale che compensano equamente gli artisti umani è la via da seguire per l’industria, secondo il CEO di Getty, Craig Peters. Getty si impegna a garantire che tutti i contenuti generati utilizzando la sua IA appartengano al cliente, evitando di mescolare immagini autentiche e generate da IA nei suoi database.
Robotica
Robot autonomi con cervelli AI animali
Tempo di lettura: 2 minuti. Scopri come l’intelligenza artificiale ispirata al cervello animale sta rivoluzionando i droni autonomi, rendendoli più veloci ed efficienti dal punto di vista energetico.
Un team di ricercatori della Delft University of Technology ha sviluppato un drone che vola autonomamente utilizzando l’elaborazione delle immagini neuromorfica e il controllo basato sul funzionamento dei cervelli animali. I cervelli animali usano meno dati ed energia rispetto alle attuali reti neurali profonde che funzionano su GPU. I processori neuromorfici sono quindi molto adatti per piccoli droni poiché non necessitano di hardware e batterie pesanti. I risultati sono straordinari: durante il volo, la rete neurale profonda del drone elabora i dati fino a 64 volte più velocemente e consuma tre volte meno energia rispetto a una GPU.
Apprendimento dai cervelli animali: reti neurali a Spike
L’intelligenza artificiale può fornire ai robot autonomi l’intelligenza necessaria per le applicazioni nel mondo reale. Tuttavia, l’attuale AI si basa su reti neurali profonde che richiedono una notevole potenza di calcolo. I processori per eseguire le reti neurali profonde (GPU) consumano molta energia, un problema per piccoli robot come i droni volanti che possono trasportare risorse limitate.
I cervelli animali elaborano le informazioni in modo diverso dalle reti neurali su GPU. I neuroni biologici elaborano le informazioni in modo asincrono, comunicando principalmente tramite impulsi elettrici chiamati spike. L’invio di tali spike consuma energia, quindi il cervello minimizza gli spike, portando a un’elaborazione sparsa. I processori neuromorfici permettono di eseguire reti neurali a spike, risultando molto più veloci ed efficienti dal punto di vista energetico.
Prima Visione e controllo neuromorfici di un Drone Volante
In un articolo pubblicato su Science Robotics, i ricercatori dimostrano per la prima volta un drone che utilizza la visione e il controllo neuromorfici per il volo autonomo. Hanno sviluppato una rete neurale a spike che elabora i segnali da una fotocamera neuromorfica e fornisce comandi di controllo per determinare la posizione e la spinta del drone. La rete è stata implementata su un processore neuromorfico, il chip di ricerca neuromorfico Loihi di Intel, a bordo di un drone.
Con la sua visione e controllo neuromorfici, il drone può volare a diverse velocità in condizioni di luce variabili, da scure a luminose. Può persino volare con luci tremolanti, che fanno inviare alla fotocamera neuromorfica un gran numero di segnali non correlati al movimento.
Applicazioni future dell’AI Neuromorfica per Piccoli Robot
“L’AI neuromorfica permetterà a tutti i robot autonomi di essere più intelligenti,” afferma Guido de Croon, professore di droni bio-ispirati. “Ma è un fattore abilitante assoluto per piccoli robot autonomi.” All’Università di Tecnologia di Delft, i ricercatori lavorano su piccoli droni autonomi utilizzabili per applicazioni che vanno dal monitoraggio delle colture nelle serre al controllo delle scorte nei magazzini. I vantaggi dei piccoli droni includono sicurezza, capacità di navigare in ambienti stretti e costi ridotti, permettendo di essere dispiegati in sciami. La realizzazione di queste applicazioni dipenderà dall’ulteriore miniaturizzazione dell’hardware neuromorfico e dall’espansione delle capacità verso compiti più complessi come la navigazione.
Tech
Android 15 Beta ecco i telefoni di terze parti dove si può installare
Tempo di lettura: < 1 minuto. La beta di Android 15 è ora disponibile su dispositivi di terze parti come Xiaomi, OnePlus e Nothing ecco come installarla
Google ha appena rilasciato la seconda beta pubblica di Android 15, introducendo una serie di nuove funzionalità. Questa seconda beta è disponibile su dispositivi di produttori terzi come Xiaomi, Nothing, Honor, OnePlus, OPPO, Vivo, iQOO e altri. Sebbene la beta sia utilizzabile, presenta ancora diversi bug, quindi è consigliabile non installarla su un dispositivo di uso quotidiano.
Dispositivi supportati
Ecco l’elenco dei dispositivi che possono installare la beta di Android 15:
- Honor: Honor Magic 6 Pro, Honor Magic V2
- Xiaomi: Xiaomi 14, Xiaomi 13T Pro, Xiaomi Pad 6S Pro 12.4
- OnePlus: OnePlus 12, OnePlus Open
- OPPO: Find X7
- Vivo: Vivo X100
- iQOO: iQOO 12
- Nothing: Nothing Phone 2a
- Realme: Realme 12 Pro+ 5G
- Lenovo: Lenovo Tab Extreme
- Sharp: Sharp Aquos sense8
- Tecno: Tecno Camon 30 Pro 5G
Considerazioni per l’installazione
Installare la beta di Android 15 su un dispositivo secondario è consigliato per chi è interessato a provare le nuove funzionalità, considerando che ci sono molti bug relativi alla connettività e alla fotocamera. Per installare la beta, visita i link forniti per ciascun produttore per scaricare e flashare la build sul tuo dispositivo.
Tech
Controlla il tuo iPhone o iPad con gli occhi
Tempo di lettura: < 1 minuto. Apple introduce il tracciamento oculare su iPhone e iPad con iOS 18, insieme a nuove funzionalità di accessibilità per migliorare l’esperienza utente.
Apple annuncia una nuova serie di funzionalità di accessibilità in arrivo “entro quest’anno” per i suoi iPhone e iPad, presumibilmente parte di iOS 18 e iPadOS 18 e la più interessante tra queste è il tracciamento oculare, che consentirà di controllare i dispositivi con gli occhi.
Tracciamento oculare
Il tracciamento oculare, alimentato dall’intelligenza artificiale, sarà supportato su entrambi i dispositivi iPhone e iPad e questa funzione è progettata principalmente per utenti con disabilità fisiche, che potranno così usare gli occhi, ma sarà accessibile a tutti. Dopo una breve fase di calibrazione tramite la fotocamera frontale, gli utenti potranno navigare tra gli elementi delle app con gli occhi e attivarli con il controllo di fissazione.
Altre funzionalità
Oltre al tracciamento oculare, Apple introdurrà altre funzionalità:
Music Haptics: Il motore Taptic riprodurrà vibrazioni sincronizzate con la musica, inizialmente disponibile solo con Apple Music, ma sarà aperto agli sviluppatori tramite API.
Vehicle Motion Cues: Aiuta a ridurre il mal di movimento per i passeggeri con animazioni che rappresentano i cambiamenti nel movimento del veicolo.
Controllo Vocale per CarPlay: Consente di navigare e controllare CarPlay con la voce.
Sound Recognition: Notifica ai non udenti la presenza di clacson e sirene.
Filtri di Colore: Migliora la visibilità per gli utenti daltonici.
Queste nuove funzionalità dimostrano l’impegno di Apple nel rendere i suoi dispositivi più accessibili e utili per tutti gli utenti, migliorando l’interazione e l’esperienza complessiva.
- Editoriali2 settimane fa
Chip e smartphone cinesi ci avvisano del declino Occidentale
- Inchieste2 settimane fa
Ransomware in Italia: come cambia la percezione del fenomeno nell’IT
- Economia2 settimane fa
Internet via satellite: progetto europeo IRIS² in grande difficoltà
- Editoriali1 settimana fa
Anche su Giovanna Pedretti avevamo ragione
- L'Altra Bolla1 settimana fa
Jack Dorsey getta la spugna e lascia Bluesky
- Inchieste1 settimana fa
Perchè il motore di ricerca OpenAI fa paura ai giornalisti?
- L'Altra Bolla1 settimana fa
Meta arriva l’intelligenza artificiale per la Pubblicità
- L'Altra Bolla1 settimana fa
TikTok: azione legale contro Stati Uniti per bloccare il divieto