Robotica
Display AR: occhiali di realtà aumentata saranno più compatti
Tempo di lettura: 2 minuti. Una nuova tecnologia combina metasuperfici e lenti refrattive con schermi microLED per miniaturizzare i display AR, migliorando la qualità delle immagini per occhiali più compatti.
I sistemi di realtà aumentata (AR), come quelli presenti in visori ingombranti e display head-up nelle automobili, richiedono componenti ottici portatili. Tuttavia, ridurre i classici sistemi AR a quattro lenti alle dimensioni di un paio di occhiali spesso compromette la qualità dell’immagine generata al computer e ne limita il campo visivo. Youguang Ma e il suo team potrebbero aver trovato una soluzione per comprimere questa tecnologia: una combinazione di due tecnologie ottiche, una metasuperficie e una lente refrattiva, insieme a uno schermo microLED per creare un design compatto a lente singola.
La metasuperficie del display è costituita da un film ultrasottile e leggero in nitruro di silicio, inciso con un motivo che modella e mette a fuoco la luce emessa dai microLED verdi. Su una lente refrattiva in polimero sintetico si forma quindi un’immagine in bianco e verde, che affina e riduce le aberrazioni della luce proiettata. L’immagine finale viene proiettata dal sistema e sovrapposta a un oggetto o a uno schermo. Per migliorare ulteriormente la risoluzione dell’immagine proiettata, Ma e il suo team hanno utilizzato algoritmi informatici per identificare le minime imperfezioni del sistema ottico e correggerle prima che la luce lasci lo schermo microLED.
Test del prototipo e miglioramenti delle immagini
Il team ha integrato il display AR ibrido in un paio di occhiali e ha testato le prestazioni del prototipo utilizzando algoritmi di elaborazione delle immagini. Le immagini proiettate dal sistema a lente singola presentavano meno del 2% di distorsione su un campo visivo di 30 gradi, offrendo una qualità d’immagine paragonabile alle attuali piattaforme AR commerciali a quattro lenti. Gli algoritmi informatici di pre-elaborazione hanno permesso inoltre di migliorare la qualità dell’immagine proiettata: la riproduzione AR di una foto di un panda rosso è risultata essere simile all’originale per il 74,3%, un miglioramento del 4% rispetto all’immagine proiettata senza correzioni.
Con ulteriori sviluppi, i ricercatori affermano che la piattaforma potrebbe espandersi dal verde a colori completi, aprendo la strada a una nuova generazione di occhiali AR mainstream.
Robotica
Moduli esagonali trasformano robot in forme versatili
Tempo di lettura: < 1 minuto. I nuovi moduli elettroidraulici esagonali HEXEL sviluppati dal Max Planck Institute permettono di creare robot riconfigurabili per missioni spaziali e di soccorso.
Un team di ricercatori del Max Planck Institute for Intelligent Systems ha sviluppato moduli robotici esagonali, noti come HEXEL, che possono assemblarsi rapidamente per creare robot riconfigurabili ad alta velocità. Questi moduli, dotati di muscoli artificiali integrati in un esoscheletro rigido, sono in grado di collegarsi meccanicamente ed elettricamente ad altri moduli grazie a magneti incorporati, consentendo ai robot di assumere diverse forme e capacità.
Il design flessibile e riutilizzabile dei moduli permette di creare robot adatti a molteplici applicazioni, come missioni spaziali o di soccorso, in ambienti dove le risorse sono limitate. L’uso dei HEXEL garantisce una progettazione sostenibile, riducendo la necessità di costruire robot specializzati per ogni scopo.
Composizione e funzionamento dei Moduli HEXEL
Ogni modulo è costituito da sei piastre rigide in fibra di vetro che formano l’esoscheletro, mentre le articolazioni interne sono attivate da muscoli artificiali HASEL, che rispondono a tensioni elevate. I moduli possono cambiare rapidamente forma, adattandosi alle esigenze di movimento del robot. In combinazione, i moduli possono essere utilizzati per creare nuove geometrie di robot e riconfigurarsi in base ai compiti da svolgere.
In un video dimostrativo, il team ha mostrato come i moduli esagonali possano strisciare attraverso spazi ristretti, saltare in aria e formare robot capaci di rotolare rapidamente su terreni difficili. La ricerca sottolinea il potenziale di creare sistemi robotici modulari che possono essere modificati su richiesta, aumentando la versatilità rispetto ai sistemi specializzati.
Robotica
Robot microscopico in stile kirigami: innovazione millimetrica
Tempo di lettura: 2 minuti. Cornell sviluppa un robot microscopico ispirato al kirigami, capace di trasformarsi in forme 3D e muoversi autonomamente grazie a cerniere attivabili elettrochimicamente.
Il team di ricerca di Cornell ha sviluppato un nuovo robot microscopico ispirato al kirigami, capace di trasformarsi da un foglio bidimensionale a complesse strutture tridimensionali e muoversi autonomamente. Questo robot, grande meno di 1 millimetro, è realizzato come un “metasheet” esagonale, che attraverso una scarica elettrica si piega in forme pre-programmate e può anche strisciare su superfici. Grazie al suo design innovativo, il robot utilizza tagli sottili nel materiale per piegarsi, espandersi e muoversi.
Questa tecnologia è descritta nel recente articolo “Electronically Configurable Microscopic Metasheet Robots”, pubblicato su Nature Materials. I principali autori sono Qingkun Liu e Wei Wang, due ricercatori post-dottorato, sotto la supervisione di Itai Cohen, professore di fisica alla Cornell.
Innovazione basata sul kirigami
Il kirigami, variante dell’origami, consente al robot di piegarsi in forme 3D senza dover nascondere materiale in eccesso, rendendo l’approccio molto più efficiente nella creazione di strutture tridimensionali. Questo robot è composto da circa 100 pannelli di biossido di silicio collegati tramite oltre 200 cerniere attuabili, ognuna delle quali è spessa appena 10 nanometri. Queste cerniere, attivate elettrochimicamente, permettono al robot di cambiare forma, espandersi e contrarsi fino al 40%, oltre che avvolgersi attorno a oggetti.
Uno degli obiettivi del progetto era creare una macchina microscopica in grado di muoversi autonomamente, superando le sfide del contatto e dell’attrito a livello microscopico. Il robot riesce a muoversi attraverso il suo ambiente cambiando forma, sfruttando le forze di resistenza fluidodinamica per nuotare, simile al movimento in un fluido viscoso come il miele.
Applicazioni future
Il team di Cohen prevede di combinare queste strutture flessibili con controlli elettronici, creando materiali “elastronici” in grado di rispondere in modo ultra-reattivo agli stimoli. Questi materiali potrebbero trovare applicazione in micromacchine riconfigurabili, dispositivi biomedicali miniaturizzati e materiali intelligenti che reagiscono agli impatti alla velocità della luce.
Robotica
AI riconosce i pattern cerebrali legati a specifici comportamenti
Tempo di lettura: 2 minuti. Un nuovo algoritmo AI sviluppato da USC separa i pattern cerebrali legati a comportamenti specifici, migliorando le interfacce cervello-computer.
Un team di ricercatori guidato da Maryam Shanechi, direttrice del USC Center for Neurotechnology, ha sviluppato un algoritmo di intelligenza artificiale (AI) capace di separare i pattern cerebrali legati a comportamenti specifici. Questo progresso apre nuove possibilità per le interfacce cervello-computer, con applicazioni che potrebbero migliorare la qualità della vita dei pazienti paralizzati. Il lavoro è stato pubblicato sulla rivista Nature Neuroscience.
Come l’AI distingue i comportamenti nel cervello
Il cervello umano codifica simultaneamente molteplici comportamenti, come i movimenti del corpo o stati interni come la fame. Questa codifica simultanea rende difficile identificare i pattern associati a un comportamento specifico, come il movimento di un braccio, da tutto il resto dell’attività cerebrale. Per esempio, per ripristinare la funzione motoria nei pazienti paralizzati, le interfacce cervello-computer devono decodificare l’intenzione di movimento dal cervello e tradurla in azioni, come muovere un braccio robotico.
L’algoritmo DPAD (Dissociative Prioritized Analysis of Dynamics), sviluppato da Shanechi e dal suo ex studente di dottorato Omid Sani, affronta questo problema separando i pattern cerebrali legati a un comportamento specifico dagli altri pattern presenti. Ciò permette una decodifica più precisa dei movimenti e potrebbe migliorare notevolmente l’efficacia delle interfacce cervello-computer.
Applicazioni future per disturbi del movimento e della salute mentale
L’algoritmo DPAD non si limita al riconoscimento dei movimenti, ma può potenzialmente essere utilizzato per decodificare stati mentali come dolore o depressione. Questo potrebbe aprire la strada a nuovi trattamenti per disturbi della salute mentale, consentendo un monitoraggio più preciso dei sintomi e adattando le terapie in base ai bisogni dei pazienti.
L’algoritmo AI DPAD di Shanechi e il suo team rappresenta un importante passo avanti nel campo delle interfacce cervello-computer, con potenziali applicazioni non solo per i disturbi motori, ma anche per la salute mentale.
- Inchieste7 giorni fa
Hezbollah, guerra elettronica o cibernetica? Quando accadrà a noi?
- Inchieste5 giorni fa
Metaverso Politico: Meloni è la regina del dibattito social
- Sicurezza Informatica1 settimana fa
Iran spia il comitato di Trump e mobilita l’APT UNC1860
- Sicurezza Informatica1 settimana fa
Lazarus continua con offerte di lavoro
- Sicurezza Informatica1 settimana fa
FTC denuncia i social media: adolescenti spiati come adulti
- L'Altra Bolla3 giorni fa
Privacy sui Social Media: le migliori e le peggiori
- Smartphone1 settimana fa
Nothing Phone 2a Plus vs OPPO F27 Pro Plus: quale scegliere?
- Economia1 settimana fa
Apple sotto pressione in Europa e poche vendite di iPhone 16