Robotica
MAMA BEAR: novità Stampa 3D e nell’apprendimento automatico
Tempo di lettura: 2 minuti. Un robot autonomo presso la Boston University crea forme innovative per l’assorbimento di energia, migliorando la sicurezza di caschi e imballaggi
Un robot autonomo, MAMA BEAR, presso il College of Engineering della Boston University ha creato una forma assorbente di energia che nessun umano avrebbe mai potuto ideare. Questa innovazione ha implicazioni significative per la progettazione di caschi più sicuri, imballaggi, paraurti per auto e molto altro.
L’Innovazione di MAMA BEAR
All’interno di un laboratorio della Boston University, un braccio robotico, chiamato MAMA BEAR (Mechanics of Additively Manufactured Architectures Bayesian Experimental Autonomous Researcher), esegue esperimenti autonomi per creare strutture di plastica stampate in 3D. Queste strutture sono progettate per assorbire l’energia in modo efficiente quando vengono schiacciate. MAMA BEAR utilizza un algoritmo di ottimizzazione bayesiana per migliorare progressivamente i design delle strutture basandosi sui risultati di migliaia di esperimenti precedenti.
Processo di esperimento
Il robot stampa una piccola struttura di plastica, ne registra la forma e la dimensione, e poi la schiaccia con una pressione equivalente al peso di un cavallo adulto che si appoggia su una moneta da 25 centesimi. Dopo aver misurato quanta energia la struttura ha assorbito e come la sua forma è cambiata, il robot registra tutti i dettagli in un vasto database. Ogni nuova struttura è leggermente diversa dalla precedente, con design e dimensioni modificati dall’algoritmo del robot.
Risultati rilevanti
- Efficienza Energetica: Prima di MAMA BEAR, la struttura migliore osservata aveva un’efficienza del 71% nell’assorbimento dell’energia. Nel gennaio 2023, il robot ha raggiunto un’efficienza del 75%, stabilendo un nuovo record.
- Applicazioni: Le strutture create da MAMA BEAR hanno un vasto potenziale, inclusi l’imbottitura per caschi, imballaggi per elettronica delicata, ginocchiere e protezioni per polsi per atleti. Attualmente, i dati raccolti vengono utilizzati per progettare nuovi inserti per caschi per i soldati dell’esercito statunitense.
Collaborazioni e Futuri Sviluppi
Il laboratorio KABlab della BU, guidato dal professore associato di ingegneria meccanica Keith Brown, continua a collaborare con altre istituzioni e ricercatori per espandere l’uso della ricerca autonoma. Il team sta anche esplorando modi per riciclare i materiali delle strutture schiacciate, riutilizzandoli per ulteriori esperimenti.
L’importanza della Ricerca Autonoma
La ricerca autonoma, come quella eseguita da MAMA BEAR, consente di condurre esperimenti in modo più rapido ed efficiente rispetto ai metodi tradizionali. Questo approccio non solo accelera il processo di scoperta, ma permette anche di raggiungere risultati che sarebbero stati troppo costosi e lunghi da ottenere con metodi convenzionali.
Robotica
Robot molecolari Autoassemblanti e Autodissocianti: innovazione nella nanotecnologia
Tempo di lettura: 2 minuti. I ricercatori di Tohoku e Kyoto sviluppano un controllore molecolare a DNA per robot molecolari autoassemblanti, avanzando nella nanotecnologia.
I ricercatori delle università di Tohoku e Kyoto hanno sviluppato con successo un controllore molecolare a base di DNA che dirige autonomamente l’assemblaggio e la disassemblaggio di robot molecolari. Questa tecnologia pionieristica rappresenta un significativo passo avanti verso sistemi molecolari autonomi avanzati, con potenziali applicazioni in medicina e nanotecnologia.
Controllo Autonomo dei Robot Molecolari
Il nuovo controllore molecolare, composto da molecole di DNA artificialmente progettate e da enzimi, coesiste con i robot molecolari e li controlla emettendo specifiche molecole di DNA. Questo permette ai robot molecolari di autoassemblarsi e autodissociarsi automaticamente, senza bisogno di manipolazione esterna. Questa operazione autonoma è cruciale poiché consente ai robot molecolari di svolgere compiti in ambienti dove i segnali esterni non possono arrivare.
La ricerca, guidata dal professor Shin-ichiro M. Nomura della Graduate School of Engineering dell’Università di Tohoku e dal professor Ibuki Kawamata della Graduate School of Science dell’Università di Kyoto, ha coinvolto anche Kohei Nishiyama e Akira Kakugo. La precedente ricerca di Kakugo e colleghi aveva sviluppato robot molecolari di tipo swarm che si muovono individualmente, assemblandosi e disassemblandosi tramite manipolazione esterna. Tuttavia, grazie al nuovo controllore molecolare, i robot possono autoassemblarsi e autodissociarsi secondo una sequenza programmata.
Funzionamento del Controllore Molecolare
Il controllore molecolare avvia il processo emettendo un segnale di DNA specifico equivalente al comando “assembrati”. I microtubuli nella stessa soluzione, modificati con DNA e spinti da motori molecolari kinesinici, ricevono il segnale di DNA, allineano la loro direzione di movimento e si assemblano automaticamente in una struttura raggruppata. Successivamente, il controllore emette un segnale di “disassemblaggio”, causando la disassemblaggio automatico dei fasci di microtubuli. Questo cambiamento dinamico è stato ottenuto attraverso un controllo preciso del circuito molecolare, che funziona come un sofisticato processore di segnali.
Implicazioni future
L’avanzamento di questa tecnologia contribuirà allo sviluppo di sistemi molecolari autonomi più complessi e avanzati. I robot molecolari potranno svolgere compiti che non possono essere compiuti da soli, assemblandosi secondo i comandi e poi disperdendosi per esplorare obiettivi. Inoltre, questa ricerca ha ampliato le condizioni di attività dei robot molecolari integrando diversi gruppi molecolari, come il sistema di circuiti DNA e il sistema operativo delle proteine motrici.
Secondo Nomura, combinando il controllore molecolare con circuiti DNA sempre più sofisticati e precisi, dispositivi di amplificazione delle informazioni molecolari e tecnologie di progettazione biomolecolare, si prevede che i robot molecolari di tipo swarm elaboreranno automaticamente una gamma più diversificata di informazioni biomolecolari. Questo progresso potrebbe portare alla realizzazione di tecnologie innovative nella nanotecnologia e nel campo medico, come nanomacchine per il riconoscimento molecolare in situ e la diagnosi o sistemi intelligenti di somministrazione di farmaci.
I dettagli della scoperta sono stati pubblicati sulla rivista Science Advances il 31 maggio 2024.
Robotica
LLM usati per aiutare i robot nella navigazione
Tempo di lettura: 2 minuti. Il MIT utilizza grandi modelli linguistici per migliorare la navigazione dei robot, superando le limitazioni dei metodi visivi tradizionali.
La recente ricerca condotta dal MIT, in collaborazione con il MIT-IBM Watson AI Lab, esplora una metodologia innovativa per migliorare la navigazione dei robot utilizzando i grandi modelli linguistici (LLM). Questo approccio mira a superare le limitazioni delle tecniche tradizionali basate su rappresentazioni visive, che richiedono grandi quantità di dati visivi e un notevole sforzo umano per la costruzione dei modelli.
Soluzione a un problema di visione con il linguaggio
Gli attuali approcci alla navigazione dei robot utilizzano molteplici modelli di machine learning, ognuno specializzato in una parte del compito. Questi metodi necessitano di grandi quantità di dati visivi, spesso difficili da ottenere. I ricercatori del MIT hanno ideato una soluzione che converte le rappresentazioni visive in descrizioni testuali, che vengono poi elaborate da un grande modello linguistico per determinare le azioni che il robot deve compiere.
Il metodo proposto sfrutta modelli di captioning per ottenere descrizioni testuali delle osservazioni visive del robot. Queste descrizioni vengono combinate con le istruzioni linguistiche dell’utente e inserite in un modello linguistico, che decide il passo successivo per la navigazione. Questo approccio permette di generare rapidamente una grande quantità di dati di addestramento sintetici, utilizzando meno risorse computazionali rispetto alle tecniche basate su immagini complesse.
Vantaggi dell’utilizzo del linguaggio
Nonostante il metodo non superi le tecniche basate sulla visione in termini di prestazioni, presenta diversi vantaggi. La generazione di dati testuali richiede meno risorse computazionali, permettendo di creare rapidamente grandi quantità di dati di addestramento sintetici. Inoltre, il linguaggio può colmare il divario tra gli ambienti simulati e il mondo reale, dove le immagini generate al computer possono differire significativamente dalle scene reali.
Le rappresentazioni testuali sono più comprensibili per gli esseri umani, facilitando l’identificazione dei punti di fallimento del robot. Questo metodo può essere applicato a una varietà di compiti e ambienti, poiché utilizza un unico tipo di input: il linguaggio. Tuttavia, un limite di questa metodologia è la perdita di informazioni che sarebbero catturate da modelli basati sulla visione, come le informazioni sulla profondità.
Prospettive future
I ricercatori intendono esplorare ulteriormente la combinazione delle rappresentazioni basate sul linguaggio con i metodi basati sulla visione, che ha mostrato miglioramenti nelle capacità di navigazione dei robot. Un’area di interesse futuro è lo sviluppo di un modello di captioning orientato alla navigazione per migliorare ulteriormente le prestazioni. Inoltre, si vuole indagare la capacità dei grandi modelli linguistici di mostrare consapevolezza spaziale e come ciò possa supportare la navigazione basata sul linguaggio.
Questa ricerca, supportata dal MIT-IBM Watson AI Lab, rappresenta un passo significativo verso l’integrazione di tecniche linguistiche e visive per migliorare la navigazione dei robot, rendendola più efficiente e comprensibile grazie agli LLM.
Robotica
Grazie a un ratto virtuale renderemo i robot più agili?
Tempo di lettura: 2 minuti. Neuroscienziati di Harvard e Google DeepMind hanno creato un ratto virtuale per studiare il controllo del movimento cerebrale, con applicazioni nella robotica.
L’agilità con cui umani e animali si muovono è un miracolo evolutivo che nessun robot è ancora riuscito a emulare perfettamente e, per esplorare il mistero di come il cervello controlla e coordina questi movimenti, neuroscienziati di Harvard hanno creato un ratto virtuale con un cervello artificiale capace di muoversi come un vero roditore.
Il progetto del ratto virtuale
Bence Ölveczky, professore nel Dipartimento di Biologia Organismica ed Evolutiva, ha guidato un gruppo di ricercatori in collaborazione con gli scienziati del laboratorio AI DeepMind di Google per costruire un modello digitale biomeccanicamente realistico di un ratto. Utilizzando dati ad alta risoluzione registrati da ratti reali, hanno addestrato una rete neurale artificiale – il “cervello” del ratto virtuale – a controllare il corpo virtuale in un simulatore fisico chiamato MuJoco, dove sono presenti gravità e altre forze. I risultati sono promettenti.
Risultati promettenti
I ricercatori di Harvard e Google hanno scoperto che le attivazioni nella rete di controllo virtuale prevedevano accuratamente l’attività neurale misurata dai cervelli di ratti reali che producevano gli stessi comportamenti. Questo rappresenta un nuovo approccio per studiare come il cervello controlla il movimento, sfruttando i progressi nel deep reinforcement learning e nell’AI, così come il tracciamento 3D dei movimenti negli animali che si comportano liberamente.
Collaborazione fruttuosa
“La collaborazione è stata fantastica,” ha detto Ölveczky. “DeepMind aveva sviluppato una pipeline per addestrare agenti biomeccanici a muoversi in ambienti complessi. Non avevamo le risorse per eseguire simulazioni del genere e addestrare queste reti.” Lavorare con i ricercatori di Harvard è stata “un’opportunità davvero entusiasmante,” ha detto Matthew Botvinick, co-autore e Senior Director of Research di Google DeepMind.
Applicazioni nel controllo robotico
Questi simulazioni potrebbero avviare una nuova area di neuroscienze virtuali in cui animali simulati con AI, addestrati a comportarsi come quelli reali, offrono modelli trasparenti per studiare i circuiti neurali e come tali circuiti sono compromessi nelle malattie. Mentre il laboratorio di Ölveczky è interessato a domande fondamentali su come funziona il cervello, la piattaforma potrebbe essere utilizzata, ad esempio, per progettare migliori sistemi di controllo robotico.
Passi futuri
Il prossimo passo potrebbe essere quello di dare all’animale virtuale l’autonomia di risolvere compiti simili a quelli incontrati dai ratti reali. “Dai nostri esperimenti, abbiamo molte idee su come tali compiti sono risolti e come gli algoritmi di apprendimento che sottendono l’acquisizione di abilità sono implementati,” ha continuato Ölveczky. “Vogliamo iniziare a usare i ratti virtuali per testare queste idee e aiutare ad avanzare la nostra comprensione di come i cervelli reali generano comportamenti complessi.”
- Smartphone1 settimana fa
Xiaomi Redmi 13 con fotocamera da 108MP e Ricarica Rapida
- Smartphone6 giorni fa
Google Pixel 8a vs. Pixel 9: acquistare ora o aspettare?
- Sicurezza Informatica1 settimana fa
Microsoft Recall a rischio con il Tool TotalRecall
- L'Altra Bolla1 settimana fa
YouTube banna i video di armi?
- Economia1 settimana fa
Turchia indaga Apple per Blocco sistemi pagamento di Terze Parti
- Sicurezza Informatica1 settimana fa
FBI recupera 7.000 chiavi di decrittazione LockBit
- Sicurezza Informatica1 settimana fa
Aumento delle truffe di Sextortion Finanziaria: Cosa Sapere
- Smartphone1 settimana fa
Samsung Galaxy S25 Ultra: svelato IMEI