「説明可能なAI」に企業が注目 欧州規制案などに対応

  • 📰 nikkei
  • ⏱ Reading Time:
  • 30 sec. here
  • 2 min. at publisher
  • 📊 Quality Score:
  • News: 15%
  • Publisher: 51%

日本 見出し ニュース

人工知能(AI)の活用に規制をかける動きが世界で強まっている。AIは意図せぬ結論を出したり、その理由が説明できなかったりすることが少なくないためで、欧州連合(EU)が2021年4月に公表した規制案では厳格な利用条件を設け、違反企業には罰金を科す。企業は規制強化に対応し、判断理由を提示できる「説明可能なAI(XAI)」の開発を急いでいる。企業はAIの活用で約束される自動化や効率化の恩恵を得ようとし

米IBMは2017年、こうした問題によって6200万ドルを投じたAI医療プロジェクトの打ち切りを余儀なくされた。このAIシステムは電子健康記録(EHR)を構文解析し、がん患者に最善の治療を勧めるよう設計されていた。実証実験では医師の9割と同じ治療計画を提示したが、AIの学習データが古くなったため、システムは臨床利用の承認を受けられなかった。

AIの社会的偏見も企業にとって大きな問題だ。研究開発コストを回収できなくなり、企業の評判にダメージを及ぼしかねないからだ。例えば、米アマゾン・ドット・コムは18年、アルゴリズムが男性の採用候補者を優先していたことが判明し、AI人事採用ツールの利用を取りやめた。 政府の契約では今や、企業にアルゴリズムの透明性を高めるよう義務付けている。各社は規制の圧力の高まりに直面しており、判断に至る経緯を示した「説明可能なAI(XAI)」の普及が進む下地ができつつある。今回のリポートでは、AIの「ブラックボックス」問題に焦点を当て、説明可能なAIの市場の重要な側面について取り上げる。だが、AIはブラックボックス化する問題を抱えている。自ら学習するアルゴリズムは複雑なため、利用者がシステムの判断基準を理解できない場合があるからだ。つまり、アルゴリズムの偏りが見過ごされている可能性がある。XAIを使えば、アルゴリズムの意思決定プロセスの透明性を高め、学習データの質のチェックからAIの実験に関するあらゆるメタデータ(属性情報)の記録に至るまで、AI開発のライフサイクルの各段階で偏りを軽減できる。リアルタイムでの常時モニタリングにより、すでに実用化されているAIモデルを追跡することも可能だ。メディアによる「説明可能なAI」への言及回数は増加傾向...

 

コメントありがとうございます。コメントは審査後に公開されます。

AI弁護士作ってよ。

このニュースをすぐに読めるように要約しました。ニュースに興味がある場合は、ここで全文を読むことができます。 続きを読む:

 /  🏆 135. in JP

日本 最新ニュース, 日本 見出し

Similar News:他のニュース ソースから収集した、これに似たニュース記事を読むこともできます。