実際に、「Motion2Vec」にダ・ヴィンチを操作させたところ、精度は85.5%以上で、誤差は平均して0.94cmと、それまでのAIよりも高い成績を収めました。また、このトレーニングに必要とした映像資料はわずか78本だったとのことです。
論文の共著者であるケン・ゴールドバーグ氏は、今回の研究の意義について「例えばYouTubeは、1分ごとに500時間の映像資料を得られる素晴らしいデータベースです。しかし、人間なら大抵の映像を見るだけでその意味を理解できますが、ロボットは映像をピクセルの推移としか認識できません。そこで我々は今回、ロボットが映像を見てそれを分析し、ムービーを意味のある映像として捉えられるようにすることを目的としました」と話しました。 また、今後の展望について「我々は、まだ外科医をロボットに置き換えることまではできません。当面の目標は、システムを利用している外科医が『ここに縫合が必要だ』と言えば、ロボットがそれを理解して取りかかれるようにすることです。そうすれば、外科医はより複雑で繊細な手術に集中できるようになります」と話しました。
外科は安心、とも言っていられないな
マジか😱? 今後は誰に礼を言えば…
日本 最新ニュース, 日本 見出し
Similar News:他のニュース ソースから収集した、これに似たニュース記事を読むこともできます。
ソース: shunkannews - 🏆 17. / 63 続きを読む »
ソース: gigazine - 🏆 80. / 51 続きを読む »