連載02
ブラックボックスなAIとの付き合い方
Series Report
第1回
説明もせず、責任も取らない機械を信じられますか?
2019.8.30
人工知能(AI)が、近未来の生活と社会を一変させることに疑問を抱く人はもはやいない。既に、自動翻訳や自動運転車、資産運用、新素材開発、医療など様々な分野で、AIが目覚ましい成果を挙げている。ただし、私たちはAIの威力を目にしてただ驚くだけで、その特性について驚くほど知らない。AIの思考形態は、従来のコンピュータと大きく異なる。最大の相違点は、AIが出す答えや判断は極めて正しいのに、それがどのように求められたのか、処理手順も根拠も示されない点だ。AIは、ブラックボックス化した解答マシーンなのだ。これから私たちは、分かり合えない異質な知性と共存することになる。本連載では、第1回で現代のAIがブラックボックスである理由とそれによって生じる不都合について、第2回で分かり合えないAIとの付き合い方を模索する動きについて、第3回でAI内部での処理を透明化するための技術開発について解説する。
人間の知性を戦わせる将棋の世界では、近年、プロ棋士の勉強法や観戦者のスタイルが大きく変わってきているという。形勢の判断が難しい序盤や中盤での差し回しの良し悪しを、将棋ソフトの“評価値”を基準にして判断できるようになったからだ。プロ棋士は、駒をどう動かせば評価値が高くなるのか参考にしながら勉強し、見えにくい有利な指し方を研究する。一方、観戦者は、応援する棋士がソフト予想の最善手を指すかどうかで、一喜一憂する。
この例で驚くべきことは、将棋ソフトに対する圧倒的な信頼感である。評価値とは、盤面の配置や持ち駒を分析して、対局者それぞれの形勢を数値化した指標なのだが、それがあたかも“将棋を極めた大先生の言葉”であるかのような権威を帯びている。
よく当たる占いの結果に身を委ねてよいのか
実は、コンピュータの判断が、人間の判断以上の権威を持ち始めたのは、将棋の世界だけではない。資産運用や従業員の採用、さらには病気の診断まで、ソフトの分析結果を頼りにしながら専門家が決断を下すようになった分野は多くある。そして、こうした傾向は、現代AIの隆盛を支える技術であるディープラーニング(深層学習)が進歩し、答えや判断の精度が格段に上がったことで、さらに顕著になってきた。
ディープラーニングの効果は絶大だ。2012年にはトロント大学が画像認識の競技会であるILSVRCで衝撃的な勝利を収めて以来、爆発的な進化を遂げ、2015年には米マイクロソフトのAIが人間の認識率を超えるまでになった。技術の汎用性の高さから応用の拡大も進み、2016年には特定分野の最高知性を持つと言えるトップ囲碁棋士に、英ディープマインドのAIが勝利した。いまでは、熟練工にもできなかった工場設備の故障予知、ベテラン警察官でもできない犯罪が発生する可能性が高い時刻と場所のピンポイント予想といった、予言者の領域に入ってきている。
ところが、深層学習という技術の特徴をよく知るエンジニアは、「現在のAIは、“よく当たる占い”のようなもの。その判断を当てにして、無闇に重要な判断を委ねるのは危険だ」という。なぜならば、現在のAIの解答能力は極めて高いが、人間には、AIが出した答えの根拠が一切分からないからだ。つまり、現代のAIは、確からしい答えを出す「ブラックボックス化した解答マシーン」なのだ(図1)。
私たちは、医者や弁護士など専門性の高い知識を持つ人からのアドバイスを、その根拠を問い正すことなく受け取ることが多い。親切な専門家は、一般人にも分かりやすく判断の根拠を説明してくれるが、完全理解するには至らないのが普通だ。医学的見解や法的見解といった、一般人には理解できない知的作業の結果を投げかけられれば、それを信じるしかない。現代のAIが出す答えも、その根拠が示されないがゆえに、そうした専門家の言葉に近い、権威と神秘性を帯び始めている。冒頭の将棋の例は、まさに私たちの近未来の社会そのものであろう。