思考を言語化するドリル

氾濫する川のように流れる情報に対し、浮かんでは消える思考を留め言語化するトレーニング

本音と建前、理想と現実。人工知能はどちらから学ぶべき?

トロッコ(トロリー問題)と呼ばれる道徳的ジレンマの古典的な思考実験をご存知だろうか。

トロッコ問題 - Wikipedia

f:id:kamo4:20170131005256p:image

 

トロッコが走っている線路の先に5人の人間が縛られている。あなたがポイントを作動させれば、5人は助かるが、進路変更した先にいる1人が死ぬことになる。あなたはポイントを作動させるべきか?

多くの人は犠牲者の数が少ないことを望みポイントを動かすべきだ、と苦渋の選択をするようです。

でも、少し条件が変わると、答えも違ってくるよう。

あなたがいるのは橋の上で、隣に見知らぬ人がいる。この人を橋から突き落とせば5人が助かる。この状況下の場合は、5人>1人の理論は働かず多くの人が突き落とすことを躊躇するようです。

 

ポイントを切り替えることと、突き落とすこと、5人の代わりに1人を犠牲にするという合理的な結論はおなじでも、状況が変われば、倫理上の価値観は異なる。

 

あくまでも倫理上の思考実験のはずだったこの問題が、最近の自動運転技術の登場により、現実的な課題として改めて考え直さなければいけない状況に来ている。

 

MIT Media Lab のIyad Rahwan先生が率いるScalable Cooperation Groupの興味深い研究がある。

自動運転車に搭載される人工知能が、学ぶべき倫理的な判断がどうあるべきか、道徳的ジレンマに対する人々の考えを集約したり、議論を深めるためのプラットホームを公開した。

Moral Machine

日本語で、誰でも参加できるので是非試してみてほしい。

 

倫理的な問題のため、正解はない。周りの人と議論した時に、周囲の人と答えが違っていてちょっと、ビビってしまったのですが、それはそれとして。

多数決で決めてしまうべき問題ではないが、多くの意見を集め、議論を深めるきっかけになればと思う。さらに、国民性による価値観の違いもあるだろうし、日本からも意見がたくさん集まるといいな、と思う。

 

なにより、思考実験は大好物だ。

 

この質問で得られる結果は、あくまでもあるべき理想の集合知になるだろうと思う。実際、こんな現場に居合わせたら怖くて、あるいはタイムリミットまでに決心ができず、何もできずに5人を見殺しにしてしまう人が大半なんじゃないだろうか?

 

と、なると1つの疑問が生じる。

この理想的な人工知能向けの集合知と、もし人間なら起こるであろう実績とでは、結果が変わってくる可能性がある。

もし、人間の運転なら助かっていたはずの大切な人が、理想的集合知に殺されたとしたら、、、、許せるだろうか?

 

私の意見としては、理想的な集合知だけじゃなくて、これまでの人間が、机上の思考実験だけではなく、実際に起こってしまった時、どんな判断をしてるか、結果はどうなってしまったのか、もちゃんと人工知能ちゃんには飲み込んでほしいと思う。

 

人がやっても、機械がやっても、同じ結果だったよ。残念だけどあれは避けられない事故だったんだよって言えるように。

 

自動運転は、一時期盛り上がったけど、いまは少しトーンダウンして、現実的な運転アシストの方向にシフトしつつある。この間に多くの人間のデータを取得して、人間の実績を収集し始めデータをしはじめたらいいなと思う。