AIにおける難題「ブラックボックス問題」の解決策はあるのか?

2018年

ニュース

AIが産業で実用化が進むほどに問題になるのが「ブラックボックス問題」だという。

「ブラックボックス問題」とは、膨大なデータを入力し学習させるディープラーニング(深層学習)で得られえた結果にどうやって辿り着いたかを知るすべがない事。

この途中のプロセスが分からない事の何が問題になるのか。

関連記事のexciteニュースが取り上げた例として「AIが黒人女性をゴリラと判断した」事があげられている。

これが企業のAIが何らかのプレゼンテーションで導き出したとしたら単なる人権問題だけでは済まなくなる。

実際、記事ではある企業のAIが一時 稼働停止に追い込まれたとしている。

また自動運転の世界で道路を逸脱した(AIが判断を誤った)場合は何故、何を誤ってしまったのがエンジニアが知ることが出来ない。

その事は開発上、または事故が起きた時のトライアンドエラーが出来ない事を意味する。

それでもAI・ディープラーニングの革新性というか必要性は否定できない。

記事は締めくくりとして、

「AIが人間より優れた判断をする時代がやってくる、そのとき人間はAIを妄信するのか、機械の考えを理解して使いこなすのか」

「人間の知の限界と機械との共存のあり方に問題提起しているのがブラックボックス問題」

と締めくくっている。

関連記事

Forbes AI研究における「ブラックボックス問題」とは何か

独り言

現在のAIは自分で判断する事ができない。

そして疲れる・楽しいといった感情を持たず、「勇気」「希望」といった抽象的な概念は理解できない。

人と会話するロボットの完成度は一見高いように見える。

でも、それはAIが学習した情報の中で判断できなければ最終手段としてオウム返しを使っているに過ぎない。

例えば人間の「何か食べない?」に対しAIは、

「何が食べたいの」と返せば一応会話が成立しているように思ってしまう。

人間が発した文章を細分化して「何」と「食べる」を組み合わせて返すという手法を使っている。

AIが理解できない質問や言葉を投げかけられた時も同様。

それゆえ、知性を持って何かを判断するという時代はまだ先の世界の様だ。

もしAIが知性を持つようになれば何故そのような結論を出したのか問いただし答えを得られるかもしれない。

でも、今は不可能。

だとすればAIの基本であるニューラルネットワークの層から層へ移る部分(例えばノード)にタグを付ける様にすれば後でエラーの原因をだどりやすくなるのではなかろうか。

いずれにせよ現代のAIは人間が結果にせよ途中経過にせよ取捨選択できる構造にしておくより理解する方法はないではないかと思われる。

関連記事

ウィキペディア ニューラルネットワーク

ウィキペディア ノード

合わせて読みたい記事

お薦め>>>***人気の記事一覧***

**「エントロピー増大の投稿」を御覧 頂きありがとうございます。**