
Per molte applicazioni, i soft robot sono più utili dei robot tradizionali realizzati con componenti rigidi. Un robot progettato per assistere un chirurgo in una procedura delicata, ad esempio, ha meno probabilità di causare danni involontari a un paziente se è realizzato con materiali morbidi. E un robot che deve infilarsi in spazi ristretti avrà molte meno probabilità di rimanere incastrato se può piegarsi e schiacciarsi per adattarsi a qualsiasi ostacolo.
Tuttavia, i soft robot sono ancora relativamente rari al di fuori dei laboratori di ricerca. Uno dei motivi principali per cui non hanno avuto successo sono le difficoltà associate al controllo dei loro movimenti. Quando i robot tendono a dimenarsi, è molto difficile prevedere come i loro attuatori debbano essere regolati per produrre un’azione specifica. Inutile dire che, se non è possibile ottenere movimenti precisi, non è opportuno che queste macchine eseguano un intervento chirurgico su di un essere vivente.
Tuttavia, questo problema potrebbe non essere così pronunciato per i soft robot nel prossimo futuro. Un gruppo di ricercatori del MIT ha sviluppato un approccio basato sul deep learning che consente loro di prevedere esattamente come i soft robot risponderanno agli input di controllo. E il loro sistema non richiede installazioni hardware eccessivamente grandi o costose per renderlo possibile: una singola telecamera è sufficiente per svolgere il lavoro.

L’approccio, chiamato Natural Jacobian Fields (NJF), sostituisce le tecniche di modellazione tradizionali con un sistema di controllo auto-apprendente basato sulla visione. Anziché richiedere modelli matematici precisi, sensori fisici o sistemi di motion capture, NJF insegna al robot a comprendere il proprio corpo attraverso l’osservazione. Durante l’addestramento, un robot viene registrato mentre esegue movimenti casuali utilizzando una configurazione multi-telecamera. Da questi soli input visivi, NJF apprende sia la forma del robot sia come diversi segnali di controllo influenzano il suo movimento.
Una volta addestrato, il robot non ha più bisogno di tutte quelle telecamere. Una singola telecamera monoculare è sufficiente per tracciare e controllare i suoi movimenti in tempo reale. Ciò consente ai robot di operare in modo autonomo e preciso nel mondo reale, anche quando sono realizzati con materiali morbidi o irregolari. Nei test, il sistema ha raggiunto un errore inferiore a tre gradi nel movimento delle articolazioni e una precisione subcentimetrica nel posizionamento della punta delle dita, il tutto senza sensori integrati.

Questo lavoro potrebbe ampliare significativamente gli utilizzi pratici della Soft Robotics. A differenza dei bracci industriali rigidi che richiedono costosi sensori e una calibrazione precisa, i robot dotati di NJF possono adattarsi ad ambienti disordinati e non strutturati, come aziende agricole, magazzini o zone colpite da calamità, utilizzando solo un feedback visivo. Apre inoltre le porte a progetti hardware più creativi e sperimentali, poiché gli ingegneri non devono più costruire i loro robot attorno ai limiti delle tecniche di modellazione tradizionali.
NJF si ispira al modo in cui gli esseri umani imparano a muoversi, ovvero attraverso tentativi ed errori, guidati da ciò che vedono. È anche un esempio di un più ampio passaggio dalla logica di controllo hard-coded a sistemi basati sull’apprendimento in grado di adattarsi e migliorare nel tempo. Fornendo ai robot una percezione interna del funzionamento del loro corpo, il sistema consente movimenti più fluidi e naturali. E questo potrebbe avvicinarci a un mondo in cui i robot sono flessibili, adattabili e accessibili a tutti. Se volete leggere l’articolo completo (in inglese – NDR), potete trovarlo sul sito di nature.com
Iscriviti ai nostri gruppi Telegram
Link utili