米IBMは2017年、こうした問題によって6200万ドルを投じたAI医療プロジェクトの打ち切りを余儀なくされた。このAIシステムは電子健康記録(EHR)を構文解析し、がん患者に最善の治療を勧めるよう設計されていた。実証実験では医師の9割と同じ治療計画を提示したが、AIの学習データが古くなったため、システムは臨床利用の承認を受けられなかった。
AIの社会的偏見も企業にとって大きな問題だ。研究開発コストを回収できなくなり、企業の評判にダメージを及ぼしかねないからだ。例えば、米アマゾン・ドット・コムは18年、アルゴリズムが男性の採用候補者を優先していたことが判明し、AI人事採用ツールの利用を取りやめた。 政府の契約では今や、企業にアルゴリズムの透明性を高めるよう義務付けている。各社は規制の圧力の高まりに直面しており、判断に至る経緯を示した「説明可能なAI(XAI)」の普及が進む下地ができつつある。今回のリポートでは、AIの「ブラックボックス」問題に焦点を当て、説明可能なAIの市場の重要な側面について取り上げる。だが、AIはブラックボックス化する問題を抱えている。自ら学習するアルゴリズムは複雑なため、利用者がシステムの判断基準を理解できない場合があるからだ。つまり、アルゴリズムの偏りが見過ごされている可能性がある。XAIを使えば、アルゴリズムの意思決定プロセスの透明性を高め、学習データの質のチェックからAIの実験に関するあらゆるメタデータ(属性情報)の記録に至るまで、AI開発のライフサイクルの各段階で偏りを軽減できる。リアルタイムでの常時モニタリングにより、すでに実用化されているAIモデルを追跡することも可能だ。メディアによる「説明可能なAI」への言及回数は増加傾向...
AI弁護士作ってよ。
日本 最新ニュース, 日本 見出し
Similar News:他のニュース ソースから収集した、これに似たニュース記事を読むこともできます。