Robotica
Clio permette ai robot di concentrarsi sugli oggetti di interesse
Tempo di lettura: 2 minuti. Clio è un sistema sviluppato dal MIT che aiuta i robot a focalizzarsi sugli oggetti rilevanti per un compito specifico, semplificando la navigazione e l’esecuzione delle attività.
Gli ingegneri del MIT hanno sviluppato una nuova tecnologia chiamata Clio, progettata per permettere ai robot di identificare e focalizzarsi solo sugli oggetti di un ambiente che sono rilevanti per i compiti che devono svolgere. Grazie a Clio, i robot possono “capire” quali elementi di una scena sono importanti, memorizzandoli in base alle richieste di un determinato compito, senza la necessità di interpretare l’intera scena in dettaglio.
Come funziona Clio
Clio utilizza avanzate tecniche di computer vision e modelli di linguaggio naturale. Quando un robot riceve un elenco di compiti, Clio aiuta il robot a determinare il livello di dettaglio necessario per completare quelle specifiche attività. Per esempio, se il compito è “spostare un rack di riviste”, Clio si focalizzerà sul rack intero. Se, invece, il compito è “prendere il primo soccorso”, il robot ignorerà tutto il resto dell’ambiente tranne il kit di pronto soccorso.
Il sistema lavora in tempo reale, utilizzando algoritmi per segmentare una scena e identificare gli elementi visivamente rilevanti per il compito specifico. Ad esempio, quando un robot con Clio esplora un edificio, si focalizzerà solo sugli oggetti che sono funzionali al suo compito, come individuare un giocattolo per cani e ignorare gli altri oggetti presenti.
Applicazioni di Clio in scenari reali
In diversi esperimenti condotti in ambienti reali, come un ufficio e un edificio di cinque piani nel campus del MIT, Clio ha dimostrato di poter segmentare scene a vari livelli di dettaglio in base ai compiti descritti in linguaggio naturale. Questo consente al robot di creare una mappa semplificata degli oggetti necessari, permettendogli di eseguire il compito con efficienza.
In uno scenario di “search and rescue” (ricerca e salvataggio), il sistema Clio può aiutare un robot a trovare oggetti essenziali, come strumenti di sopravvivenza o altre persone. Ma le potenziali applicazioni vanno oltre il salvataggio, estendendosi a contesti come la robotica domestica o l’automazione industriale, dove Clio può aiutare i robot a comprendere e navigare nei loro ambienti con precisione.
La tecnologia di Clio
La tecnologia di Clio si basa su avanzati modelli di deep learning, addestrati su milioni di immagini e testi open-source per aiutare a identificare oggetti comuni. Inoltre, Clio adotta il concetto di “information bottleneck” dall’informazione teorica, che consente di ridurre la quantità di dati da memorizzare solo agli elementi più rilevanti per il compito.
Il team del MIT ha testato Clio in vari contesti, inclusa una sperimentazione “no-nonsense” in un appartamento disordinato, dimostrando come Clio sia in grado di individuare rapidamente gli oggetti rilevanti per i compiti specifici, come “spostare un mucchio di vestiti”. Clio è stata testata anche in tempo reale su un robot quadrupede, in cui ha elaborato scene e segmentato oggetti in tempo reale mentre il robot esplorava un edificio.
Futuro di Clio
Gli sviluppatori mirano ad estendere le capacità di Clio a compiti di livello superiore, consentendo ai robot di rispondere a comandi più complessi e astratti, come “trova i superstiti” o “ripristina la corrente”. L’obiettivo è arrivare a una comprensione più umana e sofisticata delle scene e dei compiti da svolgere.
Robotica
Display AR: occhiali di realtà aumentata saranno più compatti
Tempo di lettura: 2 minuti. Una nuova tecnologia combina metasuperfici e lenti refrattive con schermi microLED per miniaturizzare i display AR, migliorando la qualità delle immagini per occhiali più compatti.
I sistemi di realtà aumentata (AR), come quelli presenti in visori ingombranti e display head-up nelle automobili, richiedono componenti ottici portatili. Tuttavia, ridurre i classici sistemi AR a quattro lenti alle dimensioni di un paio di occhiali spesso compromette la qualità dell’immagine generata al computer e ne limita il campo visivo. Youguang Ma e il suo team potrebbero aver trovato una soluzione per comprimere questa tecnologia: una combinazione di due tecnologie ottiche, una metasuperficie e una lente refrattiva, insieme a uno schermo microLED per creare un design compatto a lente singola.
La metasuperficie del display è costituita da un film ultrasottile e leggero in nitruro di silicio, inciso con un motivo che modella e mette a fuoco la luce emessa dai microLED verdi. Su una lente refrattiva in polimero sintetico si forma quindi un’immagine in bianco e verde, che affina e riduce le aberrazioni della luce proiettata. L’immagine finale viene proiettata dal sistema e sovrapposta a un oggetto o a uno schermo. Per migliorare ulteriormente la risoluzione dell’immagine proiettata, Ma e il suo team hanno utilizzato algoritmi informatici per identificare le minime imperfezioni del sistema ottico e correggerle prima che la luce lasci lo schermo microLED.
Test del prototipo e miglioramenti delle immagini
Il team ha integrato il display AR ibrido in un paio di occhiali e ha testato le prestazioni del prototipo utilizzando algoritmi di elaborazione delle immagini. Le immagini proiettate dal sistema a lente singola presentavano meno del 2% di distorsione su un campo visivo di 30 gradi, offrendo una qualità d’immagine paragonabile alle attuali piattaforme AR commerciali a quattro lenti. Gli algoritmi informatici di pre-elaborazione hanno permesso inoltre di migliorare la qualità dell’immagine proiettata: la riproduzione AR di una foto di un panda rosso è risultata essere simile all’originale per il 74,3%, un miglioramento del 4% rispetto all’immagine proiettata senza correzioni.
Con ulteriori sviluppi, i ricercatori affermano che la piattaforma potrebbe espandersi dal verde a colori completi, aprendo la strada a una nuova generazione di occhiali AR mainstream.
Robotica
Moduli esagonali trasformano robot in forme versatili
Tempo di lettura: < 1 minuto. I nuovi moduli elettroidraulici esagonali HEXEL sviluppati dal Max Planck Institute permettono di creare robot riconfigurabili per missioni spaziali e di soccorso.
Un team di ricercatori del Max Planck Institute for Intelligent Systems ha sviluppato moduli robotici esagonali, noti come HEXEL, che possono assemblarsi rapidamente per creare robot riconfigurabili ad alta velocità. Questi moduli, dotati di muscoli artificiali integrati in un esoscheletro rigido, sono in grado di collegarsi meccanicamente ed elettricamente ad altri moduli grazie a magneti incorporati, consentendo ai robot di assumere diverse forme e capacità.
Il design flessibile e riutilizzabile dei moduli permette di creare robot adatti a molteplici applicazioni, come missioni spaziali o di soccorso, in ambienti dove le risorse sono limitate. L’uso dei HEXEL garantisce una progettazione sostenibile, riducendo la necessità di costruire robot specializzati per ogni scopo.
Composizione e funzionamento dei Moduli HEXEL
Ogni modulo è costituito da sei piastre rigide in fibra di vetro che formano l’esoscheletro, mentre le articolazioni interne sono attivate da muscoli artificiali HASEL, che rispondono a tensioni elevate. I moduli possono cambiare rapidamente forma, adattandosi alle esigenze di movimento del robot. In combinazione, i moduli possono essere utilizzati per creare nuove geometrie di robot e riconfigurarsi in base ai compiti da svolgere.
In un video dimostrativo, il team ha mostrato come i moduli esagonali possano strisciare attraverso spazi ristretti, saltare in aria e formare robot capaci di rotolare rapidamente su terreni difficili. La ricerca sottolinea il potenziale di creare sistemi robotici modulari che possono essere modificati su richiesta, aumentando la versatilità rispetto ai sistemi specializzati.
Robotica
Robot microscopico in stile kirigami: innovazione millimetrica
Tempo di lettura: 2 minuti. Cornell sviluppa un robot microscopico ispirato al kirigami, capace di trasformarsi in forme 3D e muoversi autonomamente grazie a cerniere attivabili elettrochimicamente.
Il team di ricerca di Cornell ha sviluppato un nuovo robot microscopico ispirato al kirigami, capace di trasformarsi da un foglio bidimensionale a complesse strutture tridimensionali e muoversi autonomamente. Questo robot, grande meno di 1 millimetro, è realizzato come un “metasheet” esagonale, che attraverso una scarica elettrica si piega in forme pre-programmate e può anche strisciare su superfici. Grazie al suo design innovativo, il robot utilizza tagli sottili nel materiale per piegarsi, espandersi e muoversi.
Questa tecnologia è descritta nel recente articolo “Electronically Configurable Microscopic Metasheet Robots”, pubblicato su Nature Materials. I principali autori sono Qingkun Liu e Wei Wang, due ricercatori post-dottorato, sotto la supervisione di Itai Cohen, professore di fisica alla Cornell.
Innovazione basata sul kirigami
Il kirigami, variante dell’origami, consente al robot di piegarsi in forme 3D senza dover nascondere materiale in eccesso, rendendo l’approccio molto più efficiente nella creazione di strutture tridimensionali. Questo robot è composto da circa 100 pannelli di biossido di silicio collegati tramite oltre 200 cerniere attuabili, ognuna delle quali è spessa appena 10 nanometri. Queste cerniere, attivate elettrochimicamente, permettono al robot di cambiare forma, espandersi e contrarsi fino al 40%, oltre che avvolgersi attorno a oggetti.
Uno degli obiettivi del progetto era creare una macchina microscopica in grado di muoversi autonomamente, superando le sfide del contatto e dell’attrito a livello microscopico. Il robot riesce a muoversi attraverso il suo ambiente cambiando forma, sfruttando le forze di resistenza fluidodinamica per nuotare, simile al movimento in un fluido viscoso come il miele.
Applicazioni future
Il team di Cohen prevede di combinare queste strutture flessibili con controlli elettronici, creando materiali “elastronici” in grado di rispondere in modo ultra-reattivo agli stimoli. Questi materiali potrebbero trovare applicazione in micromacchine riconfigurabili, dispositivi biomedicali miniaturizzati e materiali intelligenti che reagiscono agli impatti alla velocità della luce.
- Inchieste1 settimana fa
Metaverso Politico: Meloni è la regina del dibattito social
- L'Altra Bolla6 giorni fa
Privacy sui Social Media: le migliori e le peggiori
- Smartphone1 settimana fa
Motorola Razr 50s e OnePlus Ace 5: benchmark e certificazioni
- Sicurezza Informatica4 giorni fa
APT IRGC Iran minacciano Trump e spiano gli USA
- Editoriali1 settimana fa
Telegram e X si piegano alla giustizia. Vi abbiamo detto la verità
- Sicurezza Informatica6 giorni fa
Automattic Blocca WP Engine: Accesso Limitato alle Risorse di WordPress.org
- Smartphone1 settimana fa
Il marketing ingannevole dell’iPhone 16: critiche e qualche sorpresa
- Tech1 settimana fa
Problemi con Microsoft Office 365 e macOS Sequoia: cosa fare?