2018年4月2日月曜日

ロボットはどうやって「道徳」を身に付けるのか

今話題の「考え、議論する道徳」については、「これが大切」という論調が世に溢れている。
道徳の教科化にあたり、文科省が明確に打ち出している方針であり、世論として当然である。

よって、ここに敢えて疑問を呈する形で書く。

次の本を読んでの気付き。

『ロボットは東大に入れるか』 新井紀子 著 イースト・プレス
http://eastpress.co.jp/shosai.php?serial=2125

この本の最後の方で、著者の新井氏が次のように述べている。
==========
(引用開始)
じつは、人間らしい仕事とは、人間が学校に行かなくてもできることなのではないかというふうに考えられる。
学校の勉強のうちの大半は、本当は機械に置き換えることができるんだけれど、
いままでそういう機会がなかったから我慢してやってたんだな、みたいな話。
(引用終了)
==========

「東ロボ君」は、既に8割の大学の合格圏内にいる。
つまり、学校で教えた上でテストしたいことの大半が、機械にできてしまう内容という事実の裏返しでもある。

ただし、ロボットには、「本質的な読解力」がない。
文脈から感情を読み取ることもできない。
ここが致命的なのである。
(だから「東ロボ君」は、国語のテストが一番苦手である。)

この事実から、これからの学校でどんな力を身に付けるべきか、ということを考えるヒントが得られる。

さて、ここから、私見。
学校の教育内容において、ロボットにはどうしてもできなそうなものは何か。
道徳である。
感情も伴う道徳は「人間らしさ」を表す指標になり得る。
そこで、ロボットに、道徳が身に付けられるか、ということを考えてみた。

ご存知、「コルタナ」や「ペッパー君」のように、「会話のようなもの」ができるロボットは既に存在する。
例えば「元気かい?」と話しかければ、それなりの応答をする。

しかしこれは当然だが、感情があるのでは決してない。
会話しているように返してくれることもあるが、ほとんどが的外れな対応である。
なぜかというと、単に気が遠くなるほどの多くの会話パターンが記憶されているだけだからである。
物凄いデータ量の中から、最適と思われる「1対1対応」を選んでいるだけである。
「ビッグデータ」を用いたとしても、文脈を読み取れないA.I.にとって、これはかなり難しいと思われる。

要は、例題と答えに関する膨大な量のデータである。
これをA.I.用語で「教師データ」という。
読んで字の如く、A.I.には「教師」が必要なのである。
そしてその「教師」には、人間以外はなり得ない。
だから、人間が入力する以上、教師データ量には限界があるということである。
(そして新井氏によれば、ここを解決する手段である「シンギュラリティ」は、決して来ないということである。)

そう考えた上で、A.I.に対して道徳を身に付けさせるにはどうするか。
ずばり、文科省が明確に否定している「特定の価値観の注入・押しつけ」をここで行えばよい。
ネット上から集めた膨大な量の「正解」パターンを入力する。
パターンである以上、すべてはありとあらゆる「特定の価値観」の寄せ集めである。

ただしA.I.は、入力に対して道徳的判断もしないし、否定もしない。
だから、「教師データ」自体に悪意があれば、ファシズム讃美のような危険な「道徳」を仕込むこともできる。
(実際、既にそういう事案が発生して問題化している。)

人間の子どもに対し、ここを避けたいが故の、
「特定の価値観を押し付けたり、
主体性をもたず言われるままに行動するよう指導したりすることは、
道徳教育が目指す方向の対極にあるものと言わなければならない」
という文科省のお達しなのである。

ロボットみたいな人間を育てたくないのである。
それは全くその通りである。

では、実際に人間が道徳を身に付けていく過程をどうするか。
「考え、議論する道徳」はどう実現し得るか。

長くなったので次号。

0 件のコメント:

コメントを投稿

  • SEOブログパーツ
人気ブログランキングへ
ブログランキング

にほんブログ村ランキング