Robotica
Samsung due nuovi Sensori ISOCELL Vizion per Robotica e XR
Samsung Electronics, leader mondiale nella tecnologia dei semiconduttori, ha introdotto due nuovi sensori della serie ISOCELL Vizion: il sensore time-of-flight (ToF) ISOCELL Vizion 63D e il sensore a otturatore globale ISOCELL Vizion 931. Questi sensori sono stati progettati specificamente per migliorare le capacità visive in un’ampia gamma di applicazioni mobili, commerciali e industriali di nuova generazione.
ISOCELL Vizion 63D: Sensore ToF per Immagini 3D ad Alta Risoluzione
Il sensore ISOCELL Vizion 63D è un sensore iToF (indirect ToF) che misura lo spostamento di fase tra la luce emessa e quella riflessa per rilevare gli oggetti in tre dimensioni. Con una precisione e chiarezza eccezionali, il Vizion 63D è ideale per robot di servizio e industriali, dispositivi XR e autenticazione facciale, dove sono cruciali misurazioni di profondità precise e ad alta risoluzione.
Il Vizion 63D è il primo sensore iToF del settore con un processore di segnale di immagine (ISP) integrato per la rilevazione della profondità, consentendo una riduzione fino al 40% del consumo energetico del sistema rispetto al precedente prodotto ISOCELL Vizion 33D. Il sensore può elaborare immagini fino a 60 fotogrammi al secondo in risoluzione QVGA (320×240), una risoluzione molto richiesta nei mercati commerciali e industriali.
ISOCELL Vizion 931: Sensore a Otturatore Globale per Movimenti Dinamici
Il sensore ISOCELL Vizion 931 è un sensore a otturatore globale progettato per catturare movimenti rapidi senza distorsioni. A differenza dei sensori a otturatore rotante, che acquisiscono la scena linea per linea, l’otturatore globale cattura l’intera scena contemporaneamente, consentendo al Vizion 931 di catturare immagini nitide e non distorte di oggetti in movimento. Questo lo rende adatto per il tracciamento dei movimenti in dispositivi XR, sistemi di gioco, robot di servizio e logistica, nonché droni.
Progettato con una risoluzione VGA (640 x 640) in un rapporto uno a uno, il Vizion 931 è ottimale per il riconoscimento dell’iride, il tracciamento degli occhi e il rilevamento facciale e gestuale in dispositivi come gli headset XR. Il Vizion 931 raggiunge anche il livello più alto di efficienza quantica del settore, con un impressionante 60% a una lunghezza d’onda della luce infrarossa di 850 nm.
Conclusione e Disponibilità
I sensori Samsung ISOCELL Vizion 63D e ISOCELL Vizion 931 sono attualmente in fase di campionamento per gli OEM in tutto il mondo, promettendo di rivoluzionare il campo della robotica e delle applicazioni XR con le loro capacità avanzate di cattura delle immagini.
Robotica
Robot autonomi con cervelli AI animali
Tempo di lettura: 2 minuti. Scopri come l’intelligenza artificiale ispirata al cervello animale sta rivoluzionando i droni autonomi, rendendoli più veloci ed efficienti dal punto di vista energetico.
Un team di ricercatori della Delft University of Technology ha sviluppato un drone che vola autonomamente utilizzando l’elaborazione delle immagini neuromorfica e il controllo basato sul funzionamento dei cervelli animali. I cervelli animali usano meno dati ed energia rispetto alle attuali reti neurali profonde che funzionano su GPU. I processori neuromorfici sono quindi molto adatti per piccoli droni poiché non necessitano di hardware e batterie pesanti. I risultati sono straordinari: durante il volo, la rete neurale profonda del drone elabora i dati fino a 64 volte più velocemente e consuma tre volte meno energia rispetto a una GPU.
Apprendimento dai cervelli animali: reti neurali a Spike
L’intelligenza artificiale può fornire ai robot autonomi l’intelligenza necessaria per le applicazioni nel mondo reale. Tuttavia, l’attuale AI si basa su reti neurali profonde che richiedono una notevole potenza di calcolo. I processori per eseguire le reti neurali profonde (GPU) consumano molta energia, un problema per piccoli robot come i droni volanti che possono trasportare risorse limitate.
I cervelli animali elaborano le informazioni in modo diverso dalle reti neurali su GPU. I neuroni biologici elaborano le informazioni in modo asincrono, comunicando principalmente tramite impulsi elettrici chiamati spike. L’invio di tali spike consuma energia, quindi il cervello minimizza gli spike, portando a un’elaborazione sparsa. I processori neuromorfici permettono di eseguire reti neurali a spike, risultando molto più veloci ed efficienti dal punto di vista energetico.
Prima Visione e controllo neuromorfici di un Drone Volante
In un articolo pubblicato su Science Robotics, i ricercatori dimostrano per la prima volta un drone che utilizza la visione e il controllo neuromorfici per il volo autonomo. Hanno sviluppato una rete neurale a spike che elabora i segnali da una fotocamera neuromorfica e fornisce comandi di controllo per determinare la posizione e la spinta del drone. La rete è stata implementata su un processore neuromorfico, il chip di ricerca neuromorfico Loihi di Intel, a bordo di un drone.
Con la sua visione e controllo neuromorfici, il drone può volare a diverse velocità in condizioni di luce variabili, da scure a luminose. Può persino volare con luci tremolanti, che fanno inviare alla fotocamera neuromorfica un gran numero di segnali non correlati al movimento.
Applicazioni future dell’AI Neuromorfica per Piccoli Robot
“L’AI neuromorfica permetterà a tutti i robot autonomi di essere più intelligenti,” afferma Guido de Croon, professore di droni bio-ispirati. “Ma è un fattore abilitante assoluto per piccoli robot autonomi.” All’Università di Tecnologia di Delft, i ricercatori lavorano su piccoli droni autonomi utilizzabili per applicazioni che vanno dal monitoraggio delle colture nelle serre al controllo delle scorte nei magazzini. I vantaggi dei piccoli droni includono sicurezza, capacità di navigare in ambienti stretti e costi ridotti, permettendo di essere dispiegati in sciami. La realizzazione di queste applicazioni dipenderà dall’ulteriore miniaturizzazione dell’hardware neuromorfico e dall’espansione delle capacità verso compiti più complessi come la navigazione.
Robotica
Gatti e Robot: studio mostra cosa occorre per fidarsi
Tempo di lettura: 2 minuti. Scopri come uno studio innovativo ha utilizzato gatti e un braccio robotico per esplorare la fiducia interspecie nei robot, offrendo intuizioni sul design dei robot e sull’interazione in ambienti multispecie.
Uno studio innovativo dell’Università dello Stato dell’Ohio esplora la fiducia nei confronti dei robot attraverso un’interazione particolare tra felini e tecnologia. Questa ricerca, condotta in collaborazione con artisti di Blast Theory, ha esaminato come i gatti reagiscono e interagiscono con un braccio robotico in un ambiente controllato, fornendo intuizioni sulla fiducia interspecie nei confronti delle macchine.
Dettagli dello Studio
L’esperimento, chiamato Cat Royale, si è svolto in un ambiente appositamente progettato dove tre gatti e un braccio robotico hanno convissuto per sei ore al giorno in un periodo di dodici giorni. L’installazione, parte di un progetto artistico, ha vinto un Webby Award per la sua esperienza creativa. L’obiettivo era osservare e analizzare come i gatti interagiscono con il robot e quale ambiente facilita una coesistenza armoniosa.
Caratteristiche dell’installazione
Il robot era programmato per eseguire attività come trascinare un giocattolo a forma di topo, sollevare un “uccello” di piume e offrire premi alimentari. Un’intelligenza artificiale è stata addestrata per personalizzare l’esperienza basandosi sulle preferenze di gioco individuate per ciascun gatto. Il design dell’ambiente includeva spazi sicuri da cui i gatti potevano osservare o avvicinarsi al robot, oltre a decorazioni che aiutavano il robot a riconoscere i gatti in avvicinamento.
Implicazioni della Ricerca
Questo studio non solo mette in luce l’importanza di considerare il design dell’ambiente in cui i robot operano, ma evidenzia anche la necessità di coinvolgimento umano per la manutenzione e il benessere degli animali. Le conclusioni suggeriscono che la fiducia nei robot può essere costruita attraverso interazioni positive e un ambiente ben progettato, aspetti fondamentali per il futuro della robotica in contesti multispecie.
La ricerca dimostra che la progettazione di mondi multispecie per robot, gatti e umani richiede un’approfondita considerazione di molti elementi, tra cui il benessere degli animali, il design dell’ambiente e le interazioni tecnologiche. Questi risultati possono influenzare il modo in cui i robot vengono integrati in ambienti domestici e altre aree della vita quotidiana, promuovendo una coesistenza armoniosa tra umani, animali e macchine. Scopri come uno studio innovativo ha utilizzato gatti e un braccio robotico per esplorare la fiducia interspecie nei robot, offrendo intuizioni sul design dei robot e sull’interazione in ambienti multispecie. Questo studio rappresenta un passo importante nella comprensione della dinamica di fiducia tra umani e robot, offrendo spunti fondamentali per i futuri sviluppi in questo campo emergente.
Robotica
Come controllare dei Robot morbidi ? MIT ha un’idea geniale
Tempo di lettura: 2 minuti. I ricercatori del MIT sviluppano un nuovo metodo per controllare i robot morbidi trasformabili, permettendo cambiamenti dinamici della forma per vari compiti.
Un team di ricercatori del MIT ha sviluppato un nuovo metodo per controllare robot morbidi trasformabili che possono cambiare forma in modo dinamico. Questi robot, che potrebbero trovare applicazioni nell’assistenza sanitaria, nei dispositivi indossabili e nei sistemi industriali, presentano sfide uniche di controllo a causa della loro capacità di alterare completamente la propria forma.
Tecnologia e metodo di controllo
I ricercatori hanno creato un algoritmo di controllo che impara autonomamente come muovere, allungare e modellare un robot trasformabile per completare specifici compiti. Questo algoritmo è stato testato con successo su una serie di attività complesse che richiedono cambiamenti di forma multipli. Ad esempio, in uno dei test, il robot doveva ridurre la sua altezza mentre cresceva due piccole gambe per passare attraverso un tubo stretto, poi “retrarre” le gambe e allungare il suo corpo per aprire il coperchio del tubo.
Simulatore DittoGym
Per testare ulteriormente l’efficacia del loro algoritmo, i ricercatori hanno sviluppato un ambiente di simulazione chiamato DittoGym. Questo ambiente presenta otto compiti che valutano la capacità di un robot trasformabile di cambiare forma dinamicamente. Le sfide includono navigare attorno agli ostacoli per raggiungere un punto specifico e cambiare forma per imitare lettere dell’alfabeto o oggetti come stelle.
Implicazioni e potenziali applicazioni
Mentre i robot trasformabili sono ancora in una fase iniziale di sviluppo, la tecnica del MIT potrebbe un giorno consentire la creazione di robot a scopo generale capaci di adattare le loro forme per compiere una vasta gamma di compiti. Questi avanzamenti potrebbero rivoluzionare settori come la medicina, dove robot simili potrebbero essere utilizzati per procedure invasive minime, o nell’industria per compiti che richiedono una grande adattabilità.
Il lavoro del MIT non solo spinge i confini del possibile nel campo dei robot morbidi e trasformabili, ma offre anche nuove prospettive su come questi sistemi possano essere controllati più efficacemente, aprendo la strada a future innovazioni e applicazioni pratiche.
- Editoriali2 settimane fa
Chip e smartphone cinesi ci avvisano del declino Occidentale
- Inchieste2 settimane fa
Ransomware in Italia: come cambia la percezione del fenomeno nell’IT
- Economia2 settimane fa
Internet via satellite: progetto europeo IRIS² in grande difficoltà
- Editoriali1 settimana fa
Anche su Giovanna Pedretti avevamo ragione
- L'Altra Bolla1 settimana fa
Jack Dorsey getta la spugna e lascia Bluesky
- Inchieste1 settimana fa
Perchè il motore di ricerca OpenAI fa paura ai giornalisti?
- L'Altra Bolla1 settimana fa
Meta arriva l’intelligenza artificiale per la Pubblicità
- L'Altra Bolla1 settimana fa
TikTok: azione legale contro Stati Uniti per bloccare il divieto