さらに、責任ある技術の使用には「時間の経過とともに生じる可能性のある影響」についても調査する必要があるとTwitterは述べました。実際、Twitterのサービスに機械学習を導入すると、1日あたり数億件のツイートに影響を与える可能性があり、場合によってはシステムの設計方法が意図したものとは異なる動作を開始する可能性もあるとのこと。このような微妙な変化はTwitterユーザーにも影響をおよぼす可能性があるため、変更がおよぼす影響を調査し、より良い製品を構築するために徹底していくとのことです。
ただし、技術的な解決策だけではアルゴリズムによる決定に潜む有害な影響を解決することができないケースもあります。そこで、「責任ある機械学習」に取り組むワーキンググループは、Twitter社内の技術、研究、信頼と安全、製品などさまざまなチームに所属する学際的な人々で構成されます。 「責任ある機械学習」を主導するのは機械学習倫理・透明性・説明責任チームです。エンジニア、研究者、データサイエンティストなどで構成される専任グループが協力し、アルゴリズムの意図しない危害を評価し、Twitterが取り組むべき問題に優先順位をつける手助けをします。 Twitterによる「責任ある機械学習」への取り組み方は、「機械学習の決定の影響を調査して理解すること。使用するアルゴリズムに潜在的な危害が存在するか否かを評価するために詳細な分析・調査を行うこと。今後数カ月以内にアクセスできる分析を示すこと」だそうです。なお、Twitterが一般向けに公開する分析データは、以下の通りになります。
日本 最新ニュース, 日本 見出し
Similar News:他のニュース ソースから収集した、これに似たニュース記事を読むこともできます。