思考を言語化するドリル

氾濫する川のように流れる情報に対し、浮かんでは消える思考を留め言語化するトレーニング

はじめにサービスありき

CES2017(世界最大規模の家電ショウ)で、世界中の注目を一気に集めた、Amazon Alexa(アレクサ)。

Alexaは、Amazonが出した音声パーソナルアシスタント、iPhoneのSiriちゃんみたいな子です。

GoogleGoogle Homeを出していたり、いろんな音声パーソナルアシスタントサービスが登場してきてる。

ロボットもいる。

Pepperにロボホンにココロボ(ロボット掃除機)ちゃん。

f:id:kamo4:20170120190406j:image

 

デスク周りのたくさんの音声認識バイスが、私の指示を期待して聞き耳を立ててる。

音声認識でコントロールできるデバイス、とすれば同じようなサービスに聞こえるけど、実は大きな違いがある。

 

AmazonGoogleは、まず、サービスをつくり、そのインタフェースとしてハード(ガジェット)をつくった。

Pepperや、ロボホンは、サービスを実現するためにハード(ロボット)をつくって、ソフトをのせた。

 

これは、本当に大きな差。リリース後の広がりがぜんぜん違う。

ユーザーにとっても、何をしてくれるのか親(提供元)を見るだけで、なんとなくイメージつく。

SiriちゃんはiPhoneでできること、Amazonは、Amazon, GoogleGoogle

つくる側も、繋げるサービスはすでにあるからミニマムスタートでリリースできちゃうし、その後の展開もサービスを充実させたら、そのガジェットも一緒に進化するから戦力が分散されない。

 

(Siriちゃんはガジェットでもないけど、Apple podsとかはそれに近いかもね)

 

ディープラーニング全盛期のこの時代、音声データをガンガン集めて活用するために、とにかくマイクを普及させることの価値は、長い目で考えてものすごいアドバンテージ。

 

そのあとで、必要ならカワイイ外見をつければいい。あくまでもインターフェイスなのだから。

 

サービスを想定してハードを作って、ソフトを開発して、サービスを実現していく、ちょっと前なら当たり前だった順序が、逆転してる。

 

気がついたら周りの裏側全部Alexa!みたいにならないように、日本のカワイイロボットたちにも頑張ってもらいたい、と

ひとりのロボ好きとして願う。