取材記事

街の風景に溶け込む、スーツケース型の視覚障害者向け誘導ロボット「AIスーツケース」を開発する日本科学未来館

街の風景に溶け込む、スーツケース型の視覚障害者向け誘導ロボット「AIスーツケース」を開発する日本科学未来館

2025年日本国際博覧会(⼤阪・関⻄万博、以下「万博」)では、「未来社会の実験場」をコンセプトに、万博会場を多様なプレイヤーによるイノベーションを誘発し、それらを社会実装していくための巨⼤な装置と位置付けている。「未来社会ショーケース事業」においては、会場内で次世代のさまざまなロボットを実装・実証する「ロボットエクスぺリエンス」の展開が計画されているが、そこに日本科学未来館(以下、「未来館」)らが開発を進める「AIスーツケース」も参加予定だ。

AIスーツケースは、視覚障害者を目的地まで安全に誘導することを目的に開発されている自律型ナビゲーションロボット。未来館が一般社団法人 次世代移動支援技術開発コンソーシアム(*1)と協働し、これまで大型ショッピングモールや空港など、屋内外で一般ユーザーによる実証実験を重ねてきた。2024年4月からは、未来館において来場者がAIスーツケースによるナビゲーションを体験する試験運用を毎日行い、人混みでの誘導や障害物の回避などのナビゲーション技術のさらなる向上や社会的理解の促進に取り組んでいる。

今回は、未来館の副館長である高木啓伸さんに、AIスーツケースの開発経緯や、万博での実証実験で実装される新機能、AIスーツケースによって実現したい未来像などについてお話を伺った。

(*1……通称、 AIスーツケース・コンソーシアム。アルプスアルパイン(株)、オムロン(株)、清水建設(株)、日本アイ・ビー・エム(株)の4社が正会員として活動。視覚障害者の生活の質の向上を目指して、AIを活用した先進的移動支援技術の研究開発を進めている)

ハンドルを持つだけでユーザーを安全に誘導してくれるAIスーツケース

AIスーツケース

――AIスーツケースの仕組みや使い方について教えてください。

高木さん:スーツケースの外見をした自律型ナビゲーションロボットで、筐体には鞄メーカーのエース株式会社さんから販売されているスーツケースをそのまま採用しています。

筐体上部に設置しているのはLiDARセンサーとRGB-Dカメラです。LiDARセンサーは自動運転自動車などにも採用されているもので、レーザー光を飛ばしてリアルタイムで周囲の状況を認識し、事前に測定した壁や障害物のデータと照らし合わせることで、相対的に自己位置を割り出します。RGB-Dカメラは色情報(RGB)に加えて奥行き(Depth)も測定できるカメラで、画像認識技術を組み合わせることで進行方向にいる歩行者を見分けて、対象との距離や動きを把握できます。屋外を走るモデルの場合は、自己位置を測位するための壁が少ないため、ここに人工衛星の電波を受信するアンテナを加えることで補完する形です。

AIスーツケースの内部。上部に搭載されているのがLiDARセンサーとRGB-Dカメラ。

内部にはセンサーから取り込んだ情報を処理するコンピューターやバッテリー、後輪を駆動させるためのモーターなどを組み込んでいます。ハンドル部分はオリジナルで制作したもので、タッチセンサーがついたハンドルを握るとAIスーツケースが動き出し、ハンドルを離すと停止する仕組みです。動いている間は十字ボタンで速度調整ができ、方向転換の際はユーザーを驚かせないよう、両側面についたバイブレーター(振動子)で曲がる方向を知らせます。

ハンドル部分。ハンドルの下部にタッチセンサーがついている。

インターフェイスは内部のコンピューターと連携したスマートフォンで、現在未来館で定常運用しているものは、専用アプリを用いて画面タッチで目的地を指定します。目的地を複数設定し、ツアーのように館内を巡ることもできます。移動中は、目的の展示などを音声で解説します。

AIスーツケースのナビゲーションによるツアー体験の様子。ハンドルは左手で持ち、前に出すぎるとセンサーが反応するため、AIスーツケースを斜め前に構えて歩行する。これは盲導犬を伴った歩き方と同様だ。
ツアー体験の様子。ただ解説を聞くだけではなく、触れる展示に誘導される場面もあった。

――インタビューの前に、実際にAIスーツケースをお借りして常設展のツアーを体験させていただきましたが、身を任せても無理な誘導はしないな、安心できるなと、ユーザーフレンドリーな調整を随所で感じました。たとえば、動き出しや停止の際の動きが非常に優しいですよね。

高木さん:ゆっくり動き出してゆっくり止まる、その加減はかなり難しくて、速度を早めに設定している場合でもカーブを曲がるときは少し減速するなど、細かい制御は常に改善を続けています。また、進行方向に人がいる場合に、進行するか、迂回するかなど、状況判断の性能も定常運用を始めてからずいぶん向上しました。

ツアー体験の様子。AIスーツケースは進行方向に人がいると止まり、しばらく待っても動かなければ迂回する動きを見せた。

2024年の4月から、累計で約2,000人の来館者にAIスーツケースを体験していただきましたが、その規模感で毎日運用してこられたというのは非常に重要だと感じています。未来館にはさまざまな年代、国籍の方々がいらっしゃいます。この中でナビゲーションロボットを動かすというのは簡単なことではなく、本当にさまざまな事象が観測できるんです。こんなことも起きるのか、と頭を抱えながら日々修正を加えているので、そういう意味では定常運用の成果と言えると思います。

スーツケースがロボットになって空港を誘導してくれたら――浅川館長の経験が開発のきっかけ

――AIスーツケースはどのような経緯で開発されたのですか?

高木さん:館長の浅川(*2)と私は、2014年頃からIBMの研究員として、視覚障害者向けのナビゲーションソフトウェアの研究開発をしていました。

(*2……浅川智恵子さん。IBMフェロー、米国カーネギーメロン大学客員教授を兼務。全盲のコンピューターサイエンティストで、30年以上にわたりアクセシビリティ技術の研究開発に携わってきた)

当初は、屋外に比べて測位が難しい屋内で、白杖で確認可能な誤差1.5m程度の測位ができるスマートフォン用のナビゲーションシステムの開発を目指していました。しかし、スマートフォンの性能で可能なのは、測位に基づいた固定ルートのナビゲーションでしかなく、周りの人や障害物といったリアルタイムな情報は分からないんですね。そこで、人や障害物などのリアルタイムな周辺情報を認識した上で、とにかく案内に従うだけでいい、視覚障害のある方が安心してついていける、そういった技術ができないかと議論しているタイミングで、浅川が思いついたのがスーツケース型のロボットだったんです。

というのも、浅川が海外の空港でトランジットのために手引きしてくれる人を待っていたときに、「持っていたスーツケースがロボットになってゲートまで案内してくれればいいのに。そうしたら人を待つ必要もないのに」と思ったそうなんです。スーツケースを前方に押しながら歩けば、白杖のように壁や段差などを認識でき、安心してついていけると。

きっかけはそのようなものでしたが、スーツケース型で行こうと決めた理由は他にもいくつかあります。まず、その形状がエルゴノミクス(人間工学)的に優れている点です。内部にモーターやバッテリー、コンピューターなどを入れられるため、開発がしやすいというところも魅力でした。

そしてなによりも、街中で持っていても目立たないことが重要でした。視覚障害者が目立つロボットに誘導されることで、周囲から変に注目されるような状況にはしたくないという浅川の強い希望があったんです。よく言っていたのは「表参道を颯爽と、ファッショナブルに歩けるようなものにしたい」と。そうした点でもスーツケースは理想的でした。

2017年頃の開発当初は、浅川が客員教授を務めるカーネギーメロン大学の研究室での活動をIBMが支援するような形でしたが、うまく軌道に乗ってきたところでいくつかの日本企業にお声掛けをしてコンソーシアムを組みました。そして、2021年に浅川と私が未来館の館長と副館長に就任したことをきっかけに、未来館をアクセシブルにするための技術を研究開発するラボを立ち上げ、未来館もコンソーシアムに加盟することになったという経緯です。

――試験運用を始めて、視覚障害のあるユーザーからの反応はいかがですか?

高木さん:全般的にかなり好評で、「このまま持って帰りたい」、「一人で歩いている感覚が新鮮で楽しい」、「たくさん周りのことを教えてもらえると嬉しい」という声をよくいただいています。意外なところでは、AIスーツケースに名前を付けたがる方が多いです。「私の盲導犬と同じ名前にしたい」とおっしゃる方もいて、使っているうちにだんだん愛着を感じるようになるみたいですね。

また、先ほどもお話ししましたが、スーツケース型なので、普通に歩いていても周りに視覚障害者だと気づかれません。それに心地よさを感じる方と、気づかれたほうが安心という方が半々くらいの割合でいらっしゃる印象です。

現在の日本の道路交通法では、視覚障害者が単独歩行をする際、白杖か盲導犬を伴って周りに視覚障害者とわかるようにすると定められています。社会側ではなく視覚障害者側にそうした義務付けをする法律は世界的に見ても珍しいのですが、日本ではそれが文化的になじんでいる方が多いのではないでしょうか。「気づかれたほうが安心」という意見は、アピールすることで周りが助けてくれるという安心感が背景にあるようです。

万博で登場する新型モデルで、社会実装へ一歩前進

万博で運用される新型モデル

――万博で実証実験をするAIスーツケースには新機能が実装されるとうかがいました。具体的にどのように変わるのか教えてください。

高木さん:まず、今までは市販のスーツケースを改造してロボットの筐体に使用していましたが、新型は初めからオリジナルでデザインしたので故障しにくくなりましたし、メンテナンス性も向上しました。

新機能としては、たとえば周辺の建物や歩行者に関する情報などをRGB-Dカメラで撮影し、AI音声でアナウンスする「リアルタイム状況説明」機能を実装します。また、駆動する後輪を大きくし、スムーズな段差乗り越えを実現する新車輪機構や、子ども用の踏み台のような低い位置にある障害物も認識できる低位置センサーを新しく採用しました。

ユーザビリティ面では、ハンドルをユーザーの利き手を選ばないデザインにして、高さも調節できるようにしたほか、冬季の利用を想定して手袋利用にも対応しました。また、ハンドルにディスク型の方向提示装置を実装しました。それに触れると、ロボットの筐体は動いていなくとも、いま右のほうに動きたいんだなとか、右に行こうとしたけれど混雑しているから断念して、左に行ったんだなとか、ロボットがとろうとしている進路がリアルタイムでわかるようになります。

どのパビリオンをどのように案内するかは現在調整中ですが、万博の開催期間中(2025年4月から10月まで)は通期で複数台の新型を貸し出す予定です。

――着々と社会実装に近づいている印象を受けますが、今後の課題と感じられていることはありますか?

高木さん:課題はたくさんあります。技術面でいうと、例えば周囲の人の動きに合わせたナビゲーション技術の向上です。今は混雑など周りに人が多いと走行が止まってしまうので、人の波に乗るようにAIスーツケースも動くといったアルゴリズムを確立すべく検討を重ねています。

インフラ面では、建物内で自由にサービスロボットが動けるような、ロボットフレンドリーな環境の整備が望まれます。現在はAIスーツケースがエレベーターを乗降する場合、人にボタンを押してもらう必要がありますが、望ましいのは人を介さず、エレベーターとロボットが直接通信して完結すること。国がロボットフレンドリーなインフラ環境を整える事業を進めているところなので、順次対応していきたいです。

ロボットを建物内で自由に動かすためのインフラ整備が求められる。

また、自動車用信号と異なり、歩行者用信号の情報を発信するような規格が今の日本にないため、AIスーツケースが自律的に判断して信号を横断することが難しい状況です。歩行者用信号の情報を発信してもらえれば視覚障害者の歩行や自律ロボットの走行などにも役立ちますので、そのための仕組みづくりの活動に私たちも協力させていただいているところです。

あとは、今はとにかく安全性重視で、センサーをたくさん積み、コンピューターも早いものを使って贅沢な装備になっているため、コストがかかっています。ちょっとした車くらいの額になってしまうので、しっかりデータを積み重ねて、コストを下げられるところは下げていかないと普及は難しいと考えています。今のところビジネスモデルとして想定される形は、科学館のような大規模な施設、テーマパークや空港、病院などにレンタルモデルとして導入していただくことです。今回の万博への参加も、テーマパークのような空間を移動するサービスモデルの実証という観点を含んでいます。

サービスロボットの社会実装を助ける環境づくりへの期待

――国土交通省が推進する歩行空間ナビ・プロジェクトに関してもお聞きできればと思います。本プロジェクトで扱うデータ(歩行空間ネットワークデータ・施設データ等)をオープンデータとして公開した場合、それらがAIスーツケースと連携する可能性はありますか? また、限定的なエリアではなく、もっと汎用的に使っていただけるデータにするために、どういった情報が集まると良いと思いますか?

高木さん:AIスーツケースを動かすためには3種類の地図情報が必要です。一つ目が歩行空間ネットワークデータのリンクとノードの情報です。もっと一般的に言うとトポロジカルルートマップ、ルート情報ですね。二つ目が、これも歩行空間ネットワークデータでカバーされているPOI(*3)です。

(*3……POI、ポイントオブインタレストとは、ナビゲーションエリア内にある施設のことを指す。建物、店舗、レストラン、看板、トイレ、案内所など。ロボットはこのPOIマップを基に周辺環境を説明するため、POIマップの充実は移動を楽しいものにするために重要である)

POIは歩行空間ネットワークデータでもカバーされていますが、私たちはそれをかなり拡張していて、たとえば施設情報であれば、その施設の入り口の場所、その入り口のエレベーターの脇についているボタンの場所など、非常に細かいところまで網羅しています。こうしたPOIがある程度の規模で、緯度経度なども正確に分かった状態になっているなら、汎用的に使うためのベースになります。

さらに、工事が始まって通行止めになったときなどは、常にその状況が、信頼できる情報としてアップデートされる形になっていることも重要です。実際に未来館ではそうやって毎日メンテナンスをしていますし、そのようなデータを提供していただけるなら使いやすくなると思います。

三つ目はLiDARスキャナーで得た3D点群データです。技術的に共通化できるのかは検証が必要ですが、やはり3D点群データは自動運転自動車やデリバリーロボットでも標準的に使われているデータですし、みんなが共通に使えるようになったら提供範囲が広がっていいなと思います。

加えて、私たちは歩行空間ネットワークデータをGeoJSONという地理空間データ交換フォーマットに変換して使っています。そうした別のフォーマットとの相互互換性や変換容易性を考慮していただけるとありがたいです。

――本プロジェクトに今後期待されることを聞かせてください。

いよいよ自律型のサービスロボットが街中を走る時代になったわけですが、そういうものを走らせるときのデータ基盤や街のインフラが共通化されていけば普及が早いはずです。公共インフラに関して日本は先進国だと認識しているので、歩行空間ネットワークや基本的なPOIを整備して、エレベーターなどのインフラもロボットフレンドリーにして、社会実装を助ける環境づくりを推進してほしいです。

自動運転という観点で、自動車は外国でもいろいろな開発が進んでいますが、歩行空間の自律型サービスロボットの分野では、日本がトップランナーになれる可能性はまだあるはず。ロボットがたくさん移動している日本にするために頑張ってほしいです。

――ありがとうございました。最後に、AIスーツケースを将来どのようなサービスにしていきたいか教えてください。

高木さん:浅川は、「AIスーツケースだけを持って旅行をすることが夢だ」と話しています。「初めての空港でも問題なく飛行機に乗って、タクシーやバスや電車で移動して、ワイナリーに行って、おいしいワインを飲むんだ」と。超えるべきハードルはまだたくさんありますが、そうした夢を当たり前に叶えるものとして、日本のみならず世界中の視覚障害者の方に使っていただけるようなものにしていきたい。そのための十分な安全性の確保を目指しています。

繰り返しになりますが、未来館で毎日AIスーツケースを走らせているというのは非常に重要で、私たちが調べる限り、こうした自律型の視覚障害者ナビゲーションロボットを定常運用しているのは世界でも当館だけなんです。ですので、現場で鍛えることの意義を感じながら、集められたデータや経験をきちんと蓄積し、日々ソフトウェアを向上させています。来館される視覚障害者の方の中には、科学館のような施設に生まれて初めて来たという方も少なくありません。「AIスーツケースがあることを知って遊びに来た」と。皆さんからの期待をひしひしと感じるので緊張感もありますが、その期待に応えられるように頑張っていきます。

Return Top PAGE TOP