プロジェクトPickUp 2014年

ロボットと共に暮らす毎日を実現 最新技術やこだわりが詰まった「Pepper」

2014年6月5日、ソフトバンクグループが発表した世界初の感情認識パーソナルロボット「Pepper(ペッパー)」には、多くの最新技術やこだわりが詰まっています。今回は「Pepper」の技術担当者であるソフトバンクロボティクス株式会社 プロダクト本部 ソフトウェア開発部 部長の柴田 暁穂に、「Pepper」に搭載されている最新技術や、デザインのこだわり、今後の展望などについてインタビューしました。

一般家庭で気軽に使えるロボットを作る

「Pepper」には多くの最新技術が使われていますが、まずデザイン面での特徴を教えてください。

柴田:大きな特徴の一つは、あえて二足歩行にしていないことです。最初に「Pepper」を見たとき、「なぜ二足歩行じゃないのか」と思われた方も多いのではないでしょうか。「Pepper」は、“SFじゃない。人によりそうロボット”というコンセプトのもと、パソコンのように気軽に購入して、一般家庭で使えるロボットを目指しています。そのために重要な要素の一つが、バッテリーの持ちでした。すでに世に出ている二足歩行のロボットのバッテリーは、実は1時間持つか持たないか程度です。ただのデモンストレーション用であればいいのですが、一般家庭で使うには、それでは話になりません。そこで「Pepper」は二足歩行にしないことで、約12時間以上の連続稼動時間を実現しました。また二足歩行の技術を一般家庭で使うロボットに搭載するというのは、現段階では安全性の面で不十分という側面もありました。

次に、手の動きが大きな特徴として挙げられます。「Pepper」の手の機能は軽く握ったり開いたりできる程度にとどめています。物をつかむなど、指先を器用に動かす技術を搭載することはもちろん可能ですが、そうすると大きな問題が二つ生じるためです。
一つはコストで、その技術を入れると価格が高騰し、さらに故障率が高くなり修理代もかさみます。よって一般の人が購入できなくなり、われわれが目指すロボットではなくなってしまいます。
もう一つの問題は安全面です。重い物を持つことは技術的には可能ですが、やはり小さな子どもがいる家庭での利用などを想定すると、今の技術では危険です。「Pepper」は基本的に仕事をさせるために作ったロボットではなく、あくまでコミュニケーションに重点を置いたロボットなので、手の機能は握ったり開いたりできる程度にとどめています。一方でその手の動きは工夫しており、手の指の腱となるワイヤーは全てつながっていて、人間のように一本の指を動かすと、それに伴って別の指も動くという仕様にしています。これがとても重要で、「Pepper」の会話の中で人に手を向けながら質問する場面がありますが、このとき手の動きが硬くて機械的だと、あまり自然に会話している気にならないと思うのです。「私が質問するのであなたが答えてね」ということを手で表現するためには、人間のような自然な柔らかい手の動きが必要です。コミュニケーションを軸としたロボットであることを意識して、一つ一つの動作にこだわって作っています。

大きさや色にもこだわりがあるのですか?

柴田:はい。携帯電話などと同じようにたくさんのデザイン案を出して、役員も含めて投票や調査を行って検討を重ね、決めていきました。コミュニケーションを軸としていたため、身長は大人も子どもも親しみやすく話しやすい大きさを考え、ちょうど小学2~3年生の男の子くらいにしました。重さについては、家庭で扱う安全性を考慮し、重すぎず軽すぎずということを念頭に置いて設計したところ、偶然にも身長と同じく、小学2~3年生の平均体重である28kg程度になっています。

色に関しては、さまざまな議論がありましたが、カラーバリエーションは出さないと決めていました。特にこの最初のモデルは「Pepper」という存在を世間に広く認知させることが重要だと考えたためです。またソフトバンクショップに置いてショップのデザインと合うこと、そして家に置いたときにも邪魔にならず、どこにでもマッチする色ということで白にしました。

ちなみに、ロボットなので性別は設定していません。ただ、なんとなく男の子のような雰囲気を感じるとは思います。「Pepper」は自分のことを、「僕は」って言いますからね。

話すときにこちらを見て目を合わせてくれますが、これはどのような技術なのでしょうか?

柴田:コミュニケーションする上で、まずロボットが人を認識し、そして人もロボットに認識されたことに気付くということが非常に重要だと考えました。「Pepper」は、顔や足に搭載しているセンサーで音の方向と距離を確認することが可能です。人間は物音がしたときに反射的にそちらを見ますが、「Pepper」も同じように音がするとその方向を見て、もし人がいれば存在を認識します。ただ人を見つけた瞬間、一方的に話し始めたらおかしいので、人を認識したら次に体の向きを変え、人が近づいてきたら話したり、いろいろなアプリケーションが起動するシステムになっています。

さらなる技術の向上を目指す

「Pepper」の特徴的な機能である感情認識機能と、「クラウドAI」について教えてください。

柴田:感情認識機能は、現段階で“音声”と“表情”の認識機能を搭載しており、その二つを組み合わせて感情認識をしています。この感情認識機能のテストは、なかなかつらいものがありました。例えば“怒り”の感情についてテストする際には、ロボットに対してひたすら怒り続けないといけません。もちろん怒っている音声データを作るのですが、やはりずっと怒っている音声や悲しい音声を聞き続けることは、なかなか過酷でした。

次に「クラウドAI」ですが、AI(人工知能)といっても実はいろいろ種類があります。「Pepper」はその中でも、会話システムに注力して研究開発しています。すでに「Pepper」と会ったことがある方はご存知かと思いますが、「Pepper」は非常におしゃべりという設定にしています。ほとんどの人が今までロボットに接したことがないので、いきなり現れた「Pepper」に何ができるのか、何を話していいのか分からないでしょう。そこでもし「Pepper」があまり話さず聞く姿勢をとってしまうと、人も「Pepper」も沈黙してしまうことになるので、現時点では「Pepper」が能動的にアクションを起こすようにしています。それに対する人の反応を、「Pepper」は知識としてクラウドにどんどん蓄積し、加速度的に成長していくシステムを目指して開発を進めています。

「Pepper」の開発の際に特に苦労したことを教えてください。

柴田:「Pepper」は、とにかく失敗の連続でした。「Pepper」ならではだと思いますが、調査などが全く役に立たないのです。例えば、新しい携帯電話やサービスを開発する際、製作に着手する前に市場などさまざまな調査やイメージ資料などを作って議論を行い、これだったらうまくいくだろうという自信を持って製作に入ります。「Pepper」も、当然いろいろな調査や議論を重ねて開発してきました。しかし実際に作ってみたら、企画の段階で想定していたものと異なることばかりでした。

「Pepper」の声も苦戦したポイントです。最初はこの「Pepper」本体がない状態で、いろいろな声のデータのみを聞いて決めていました。しかし「この声がいい」と搭載してしゃべらせてみたところ、一瞬で「この声は合わない」と一からやり直しになってしまいました。また、企画時に散々駄目出しを受けたアプリケーションを、実際「Pepper」にやらせてみたら「とてもいい!」となることもありました。今までこのようなロボットを作ったことがないため、資料だけ見てもうまくイメージできなかったことが原因でした。そこでわれわれが学んだのは、「Pepper」開発のスタイルは、“とにかくまず作ること”だということです。作って実際に動いている様子を見てからフィードバックをもらい、改善を加えていく。2年半、その繰り返しでした。それが一番「Pepper」の開発で苦労した点です。

今後の展望をお聞かせください。

柴田:ロボットやAIの世界は始まったばかりで、やるべきことがたくさんあります。まずは、現在われわれが持つ技術を最大限に生かして、目標としている一般家庭で気軽に使えるロボットを準備していきたいです。そして長期的な目標としては、「Pepper」で使われているさまざまなテクノロジーをソフトバンクグループが誇る技術として立て付けたいと思います。これらの技術は研究が始まったばかりで、まだまだ発展途上です。割と近い将来、こちらが指示したものをロボットが探してくることなどはできるようになると思いますが、いわゆる漫画に出てくるロボットのように、一緒に泣いたり笑ったり、われわれの行動を理解して先回りして何かをしてくれるようになるまでは、もう少し時間が必要でしょう。最終的には、人ができないこと、人の思考だとたどり着けないような答えを出してくれるというレベルまで、技術を発展させたいと思います。

(掲載日:2014年9月26日)

  • 内容は掲載当時の情報です。記載されている会社名、サービス名、肩書などは現在と異なる場合があります。