この話題は、より広い意味合いを持つ話として私の心に響いた。あらゆる分野の組織が、AIを採用して物事をより安全に、あるいはより効率的にする方法を考えている。この病院の例が示しているのは、その状況が必ずしも単純明快なものではなく、避ける必要がある多くの落とし穴があるということだ。グランチャロフ教授は、外科医にこのブラックボックスを使わせるための唯一の方法は、自分たちが起こりうる影響から守られていると感じさせることだとすぐに気づいた。そこで同教授は、行動を記録しつつも患者とスタッフの身元はどちらも隠し、さらに30日以内にすべての記録が削除されるようにシステムを設計した。ミスをしたことによって個人が罰されるべきではない、というのがグランチャロフ教授の考えだ。
しかし、このプロセスは完璧ではない。30日経過した記録が自動的に削除される前に、病院の管理者は手術室の番号、手術の時刻、患者の医療記録番号を見ることができるのだ。そのため、技術的に身元が特定できないようになっているとしても、本当の意味での匿名にはなっていない。その結果、「ビッグブラザーが見ている」という感覚が生まれると、7つの手術室にブラックボックスを設置しているデューク大学病院のクリストファー・マンティー臨床運営副部長は言う。当たり前の感覚として、人々はしばしば新しいツールに対し疑いの感情を抱く。そして、このシステムにプライバシーに関する欠陥があることは、スタッフが受け入れを躊躇してきた理由の一部である。多くの医師や看護師が、この新しい監視ツールを積極的にボイコットした。ある病院では、カメラが向きを変えられたり、故意にプラグを抜かれたりするなどして、妨害工作がなされた。一部の外科医やスタッフは、監視ツールが設置された部屋で働くことを拒否した。
日本 最新ニュース, 日本 見出し
Similar News:他のニュース ソースから収集した、これに似たニュース記事を読むこともできます。
ソース: weeklyascii - 🏆 94. / 51 続きを読む »
ソース: weeklyascii - 🏆 94. / 51 続きを読む »
ソース: weeklyascii - 🏆 94. / 51 続きを読む »
ソース: asciijpeditors - 🏆 98. / 51 続きを読む »
ソース: asciijpeditors - 🏆 98. / 51 続きを読む »
ソース: asciijpeditors - 🏆 98. / 51 続きを読む »