カメラを使った触覚画像センサ(「理工系研究交流会」講演から)
立命館大学理工学部ロボティクス学科 下ノ村 和弘
2018年12月13日にBKCで開催された「理工系研究交流会」という会で講演の機会を頂いた。この会は、理工学部、情報理工学部執行部のご提案で、両学部間の情報交換等のために、この秋セメスターから月1回のペースで開催されている。その第3回において話題提供を担当し、この講演内容についての記事の執筆依頼をいただいた。講演では、ドローンの高所作業応用、触覚画像センサ、超高速イメージング等の最近の研究を紹介したが、本稿では、“カメラを使った触覚画像センサ”に絞って述べたい。
産業用ロボットが工場で活躍し自動化が進む一方で、人の手作業により行われている仕事もいまだ多い。様々なパーツを組み合わせる機械や電子製品の組み立て作業、様々な種類の食材を扱う弁当詰め作業などはその典型例であり、ティーチング・アンド・プレイバック方式による繰り返し動作で行うことは難しい。ロボットがこのような作業を実行するために不可欠な要素のひとつは、人の手や指先にあるような高度な触覚であると考えている。
例えば、ボルトをネジ穴に挿入し、仮締めする作業を考える。まずボルトを手に取り、視覚により目標となる穴の位置を確認し、ボルト先端をそこに挿入する。人は、挿入すべき穴のおおよその位置をあらかじめ知っていれば、それが直接目視できなかったとしても、手先の触覚情報を頼りにして穴の位置を探り当て、ボルトの先端を挿入し、締めることができる。このとき,どのような触覚情報が必要であろうか。まず、ボルト先端を穴に向けて差し込むために、手にとったボルトの手の中での位置および姿勢を知る必要がある。この情報に基づいて、ボルト先端を目標の穴に向けることができる。次に、ボルトが穴に入ったかどうかを判断するために、ボルト先端に加わる力の向きと大きさを知る必要がある。これらの情報を取得できれば、ロボットが触覚情報のみに基づいてボルト挿入作業ができると考えた。
ハンド内物体位置・姿勢と荷重をひとつのデバイスで取得するために,“カメラを利用した触覚画像センサ”を提案した。提案する触覚センサの表面部分(対象物との接触部)は,透明エラストマシートの表面側を反射膜(銀色の塗料)でコーティングしたものである.LED側位照明により,エラストマシート表面の凹凸が、これを撮影したカメラ画像上で強調される。このシートの下に、4つのマーカを配置した透明アクリル板を挟んで、より柔らかい透明エラストマ材料を重ねた。この構造を裏側からカメラで撮影する。センサ表面に物体が接触に力が加えられると、物体外形や表面テクスチャを反映した陰影像がカメラ画像中央部に現れる。このパターンから画像処理により接触物体の位置や姿勢を計算できる。また、より柔らかいエラストマ層は、荷重により大きく変形する。これにより生じた4つのマーカの変位を同じカメラ画像から求め、力計測に用いる。
この触覚センサを取り付けたグリッパをロボットに搭載し、触覚のみに基づいてボルト挿入作業を行った。すなわち、触覚センサによるハンド内ボルト位置・姿勢計測の結果に基づいて、与えられた目標のネジ穴にボルトを挿入する。ボルトがネジ穴に入ったかどうかは、同じ触覚センサから得られる力計測の結果に基づいて判断する。ハンド内ボルト位置・姿勢計測の誤差などにより、一度でボルトがネジ穴に入らなかった場合には、人もそうするように、その付近でボルト先端を滑らせながらわずかに動かして、ネジ穴を探索する。この場合にも、ボルトがネジ穴に入ったかどうかの判断は、触覚センサによる力計測の結果に基づいて行う。把持したボルトのハンド内位置・姿勢にばらつきがあっても、触覚のみにより、目標のネジ穴に挿入、仮締めを行うことができた。
この触覚センサは、出力が画像として得られるため、CNNを用いたディープニューラルネットワークによる画像解析と相性がよい。これまでに、対象物表面の曲率の小さな違いを識別したり、凹凸テクスチャの微妙な違いを識別することができた。抽出した触覚情報を、ロボットやハンドの動きに結びつけ、これまでロボットの適用が難しかった作業を実現していくことが今後の課題である。
このような、ロボットによる触覚に基づく作業を、様々な現場の実問題に適用していきたい。関連しそうな課題をお持ちの方、ご興味のある方は是非ご一報頂けましたら幸いです。なお、「理工系研究交流会」は今後、第5回が2月28日に予定されている。