AIのブラックボックス問題が危険?ホワイトボックス型次世代AIも話題

 

Pocket

AIのブラックボックスが問題になっているのをご存知でしょうか。
AIが多様な思考プロセスを経由しながら算出した答えなのかが曖昧なケースが増えているとのこと。
最近よく、ブラックボックスを解消する手立てのような情報をききますが、AIの構造的なブラックボックスはしばらく解決できないので注意が必要です。
このようなAIのブラックボックス問題を解決するために、ホワイトボックス型でもある次世代AI「説明可能なAI」が話題になっています。
仕事現場でみられるヒューマンエラーを予防するために別の人がダブルチェックしていた時代に似ています。
元々プログラミングを正しく組んでいればインプットによって期待に最適なアウトプットを出すものでした。
人間の脳の構造に似せて作成すると、曖昧なデータでもうまい具合に判別して処理してくれて有難い存在です。
ところが、今となっては人間の頭脳に似せたシステムが、人的な予測不能なミスを起こすようになった。
その対策として、別のAIを稼働させてダブルチェックするというプロセスなのでしょうか。
AIが中で、「データをどのように学習しているのか」は、今の段階では十分に判明していません。それをブラックボックスと呼びます
説明可能なAIにするために、様々な視点から結果に対する根拠を検出するのは重要です。
一方、説明できないAIが存在するとして、ブラックボックスによって発生する危険を認識しておくことも必要だと考えられます。
ブラックボックスによるリスクが許容範囲内であれば、そもそもブラックボックス自体が問題にはならないかもしれません。
いずれにしても、AIのように繊細で高度な技術を求められる分野ではブラックボックスのようなAIを活用するのはリスクが付きまとうのを理解しておくべきでしょう。
ホワイトボックスのAIはとても重要になってきます。
これからはさまざまな対象にAIが活用されていくのが確実だとしても、どのようなAIが活用されているかはプログラム化していない限りわからないです。
仮説として、飲食店などの本部とフランチャイズ契約が同じ基本路線のままだとします。
本部から算出してAIはメリットあるとして活用するように指令が下ったとしたら、フランチャイズ店は本部の命令とあれば従わなければいけません。
これで需要と供給の最大化を図れるかもしれません、
しかし、最終的に本部の売上が最大化になる一方で、フランチャイズの売上が現状維持あるいは減少するかもしれません。
現状はAIは目の届く範囲で稼働する程度で大丈夫ですけど、ホワイトボックス化が本当に実現するならば、高性能なAIが活用できるでしょう。

この記事へのコメントはこちら

メールアドレスは公開されませんのでご安心ください。
また、* が付いている欄は必須項目となりますので、必ずご記入をお願いします。

内容に問題なければ、下記の「コメント送信」ボタンを押してください。

CAPTCHA