Klára Ponczová, 12. 01. 21
Lidská ruka, vrchol evolučního inženýrství. Posetá hustou sítí nejrůznějších senzorů, které nám umožňují velice citlivě vnímat dotek, teplotu i tlak. Desítky kloubů, které nám ve vzájemné synergii poskytují pozoruhodnou obratnost.
A pak geniální propojení ruky s myslí, díky kterému zvládneme otevřít dveře a zvednout hrnek s kávou i za absolutní tmy jen na základě našeho pocitu. Otázka zní, proč jsme toto všechno ještě nenaučili roboty?
O něčem podobném sní robotičtí inženýři už dlouho. Ale až v posledních letech to konečně začíná vypadat realizovatelně. Obecně totiž lépe rozumíme tomu, jak hmat u lidí vůbec funguje. A taky máme k dispozici strojové učení, s pomocí kterého dokážeme naše vlastní biologické procesy přetavit do křemíku. Roboti s rukama podobnýma těm lidským a sebeřízení umělou inteligencí by hravě dokázali připravovat jídlo, věšet a skládat prádlo, ale taky operovat nebo vyrážet na záchranné mise.
Jak vlastně funguje lidský hmat?
Představte si, že v dlani zmáčknete minci. Senzory zabudované do kůže, nazývané mechanoreceptory tento tlak zachytí a „přeloží“ jej do elektrických signálů. Tyto signály putují skrze nervová vlákna na vaší ruce po páteři až do mozku, kde jsou interpretovány jako „dotek“.
Kdybychom se přiblížili ještě víc, viděli bychom buňky na naší ruce, jak shromažďují dotykové signály. Tyto buňky nazýváme hmatovými neurony „prvního řádu“ a vypadají jako stromy obrácené kořeny vzhůru. Jejich složité větve jsou pak zasazeny hluboko v naší kůži.
Každý neuron má svou malou oblast, kterou spravuje, nazvanou „receptorové pole“, přičemž některá pole se vzájemně překrývají. Jakýkoli signál, který se následně přenáší do vyšších pozic – míchy a mozku – je pak integrován hned z několika polí najednou.
Zjednodušeně pak spolu hmatové neurony ruky komunikují prostřednictvím něčeho jako je Morseova abeceda. Přenáší informace prostřednictvím různých frekvencí elektrických výbojů. Jsou tak schopné přenášet zprávy o velikosti, struktuře, hmotnosti a dalších vlastnostech objektu do mozku a zároveň jej okamžitě žádat o vyhodnocení a adekvátní reakci.
Od biologie ke strojům
Začátkem loňského roku tým vědců z Columbie zkonstruoval „cítící“ robotický prst. Fungoval na bázi vzájemně se překrývajících světelných zářičů a senzorů, tedy způsobem, který byl vzdáleně podobný polím lidských hmatových neuronů.
Zapojené světelné zářiče byly poté analyzovány metodou hlubokého učení a výsledkem bylo určení místa kontaktu a jeho intenzity.
Robotická ruka, která „vidí“
Slibný je i pokrok ve využití vizuálních dat a jejich následné kombinace s hmatem. Počítačové vidění se rychle rozvíjí díky všudypřítomným kamerám a ohromným objemům obrazových dat, což umožňuje trénovat výkonné, ale na data náročné algoritmy, jako jsou hluboké konvoluční neuronové sítě.
Zjednodušeně řečeno bychom tak mohli robotickým rukám „přidat oči“, které by je informovaly o tom, co se jim děje, a jak na to mají reagovat. Robotická ruka by tak mohla „naskenovat objekt“, určit ideální pohyb pro jeho uchopení a pomocí zpětné vazby už přímo z ruky upravit jeho uchopení.
Jenže spoléhat se do velké míry na „robotický zrak“ není úplně dobrý nápad. Představte si robota, který ve válečné zóně skenuje širokou oblast sutin a hledá známky života. Pokud je dotek závislý na zraku, pak by bylo potřeba, aby mohl vizuální analýzu provádět souvisle. A zkuste si to v rychle se měnícím, chaotickém prostředí. To je něco, v čem počítačové vidění zatím úplně neexceluje.
Stačilo by spojit hmat a zrak dohromady
Rychle se rozvíjející oblast strojového učení však může výzvy hmatového i vizuálního zpracovávání dat brzy vyřešit. U robotického vidění by šlo o protřídění složitých obrazů na ty podstatné a následný převod do pokynů. U doteku by bylo možné provádět totéž. Kdyby se pak „strojový zrak“ a „hmat“ spojily dohromady a dokázaly kooperovat, pak máme robotickou superruku.
Jak dát ruce pokyn?
A protože se analýza doteku zatím ukázala jako účinná, do budoucna je na řadě také analýza mozku a toho, jak vlastně pokyny ruce vysílá, což by mělo vést k propojení biologického mozku s mechanickou rukou.
Před dvěma roky zkusil jeden vědecký tým připojit robotickou ruku k amputované paži. Paže se jmenovala DEKA LUKE. Cílem bylo propojit, co cítí ruka s tím, co vnímají nervová zakončení v pacientově paži a tedy i pacient samotný. Tlak vyvinutý na robotickou ruku aktivoval implantované nervové rozhraní, které se dotklo zbývajících pacientových nervů a mozek jej zpracoval jako dotek. Pacient tak dokázal po hmatu identifikovat různé objekty i se zavřenýma očima.
Dalším krokem by pak mělo být zvýšení hustoty senzorů. Spíše než tlakový senzor totiž potřebujeme něco, co bude schopné zachytit a zanalyzovat nesčetné množství dotykových vjemů. Od pošimrání po těžký úder, přes rozpoznání vibrací až po analýzu teploty. A právě stromová architektura podobná naší síti neuronů prvního řádu by mohla pomoct organizovat, integrovat a zpracovat data shromážděná z těchto senzorů.
Ještě před deseti lety byla myslí ovládaná robotika považována za nedosažitelnou neurotechnologickou fantazii. Nyní to vypadá, že nejenže budeme myšlenkou ovládat pohyb robotické končetiny, ale robotická končetina nám bude sama posílat zprávy o tom, jak na tom zrovna je a co se s ní děje.
Tento článek je chráněn pomocí blockchainové služby Mytitle.