障害物や歩行者を回避しながら、視覚障害者をナビゲートするロボット「AIスーツケース」ってどんなもの?
出来たばかりの商業施設を訪れてみたり、いつもと違う道を散歩してみたり……。私たちは日常生活の中で「移動の自由」が保障されており、個人の判断で好きな場所に行くことができます。 しかし、この社会にはそれが難しい方々がいます。目が見えない、見えづらい、視覚障害者もその一部です。 視覚障害者は視覚以外の情報から自身の位置を判断し、移動します。しかし、目で確認ができないゆえに、道が間違っていないか不安が常に伴います。もしも道に迷ってしまったら、軌道修正をすることも難しい。そんな移動における困難を常に抱えています。 そんな視覚障害者の現状を打破すべく開発されているのが、「AIスーツケース」です。これは自律走行型ナビゲーションロボットで、日本科学未来館の館長・IBMフェローで、自身も全盲の浅川智恵子(あさかわ・ちえこ)さんが牽引する「未来館アクセシビリティラボ」が、外部機関との連携の下、研究開発を進めています。 このAIスーツケースの登場によって、視覚障害者の生活はどのように変わるのか? 日本科学未来館の副館長であり、アクセシビリティラボ(研究推進室)の室長を務める高木啓伸(たかぎ・ひろのぶ)さんにお話を伺いました。
時代が進んでも視覚障害者の「移動の困難」は変わっていない
――視覚障害者の方々は現状、どういった困難に直面しているのでしょうか? 高木さん(以下、敬称略):当事者はさまざまな困難に直面しますが、例えばその1つが、「情報へのアクセス」です。印刷した文字や、ディスプレイに表示された文字も読めないですし、絵やグラフも見えません。そうなると仕事や学習するのにも苦労します。 しかし、1997年に、浅川智恵子をはじめとする日本IBMのチームが、Webページを音声で読み上げる「ホームページ・リーダー」というブラウザを開発し、製品化しました。その後もさまざまな情報アクセスのための技術が開発され、視覚障害者の情報環境は飛躍的に改善されました。 現在ではスマートフォンを使ってニュースを聞いたり、銀行口座を調べたり、オンラインショッピングをしたりと、いろいろなことができるようになってきました。 「移動の困難」も視覚障害者の生活の大きな影響があります。移動のためのツールはいまでも白杖が主流です。晴眼者(せいがんしゃ)は、周囲にあるものを目で確かめますが、視覚障害者は白杖を含めた視覚以外の感覚でランドマーク(目標)を確認しながら進んでいきます。 例えば、通っている学校や職場への道を記憶しておき、「ここに壁があるから左に曲がるはずだ」「雰囲気(環境音)が変わったから開けた場所に出たはずだ」と、視覚以外のランドマークを複数組み合わせて、目的地へ向かうんです。となると、初めての場所に一人で行くのは難しい。 盲導犬を伴っている場合も同じです。盲導犬は曲がり角や段差を教えてくれたり、危険を回避してくれたりはしますが、目的地に連れて行ってくれるわけではありません。交差点をまっすぐ進むのか曲がるのか、その判断はあくまでもユーザーである視覚障害者に委ねられます。 ですので、晴眼者とは異なり、一人で知らないまち並みを楽しみながら散歩する、といったことが非常に難しいのが、視覚障害者の置かれている現状なんです。 ――そういった現場を打破するために開発されているのが「AIスーツケース」なんでしょうか? 高木:はい。「AIスーツケース」は、視覚障害者のためのナビゲーションロボットです。周囲を認識しながら、人や障害物を回避し、目的地まで誘導してくれます。 未来館内で使用する場合は、ナビゲートしている途中で「目的地となる展示はどんな内容か」や「通路が狭いので注意するように」といった音声アナウンスも適宜流れます。 また、突然ロボットが方向を変えてユーザーを驚かせないように、曲がる直前には振動でそれを伝える仕組みも取り入れていますし、万が一のときはハンドルから手を離せばその場で停止するようにもなっているんです。 ――音声や振動といった視覚以外の情報も取り入れながら、視覚障害者を目的地まで案内してくれるロボットなんですね。 高木:そうですね。安全に誘導するために複数のセンサーを搭載しています。一番重要なものとしては、自動運転自動車や自律走行のロボットが周囲の環境を認識できるように開発された「LiDAR(ライダー)」というセンサー。これによって周囲の壁の形から自分の位置も推定しています。 また、「深度カメラ」というセンサーも搭載していて、これは映した被写体との距離を把握するものです。これを3方向に取り付けていて、周囲の人がどれくらいのスピードでどこへ向かって歩いているのかが分かるので、衝突事故も防げるんです。