チャットGPTの医療への応用は慎重にも慎重であって欲しい
医師の診療においても、AIをどこまで利用し、利用しないのか、よく考えなければならない時代になってきたように思います。AIの利用によって、経験の深い医師と同じレベルの、精度の高い医療が実施できるようになるのかもしれません。しかし、ある面ではまったく違っていることもありうるのです。
■医師が自分で考えなくなる恐れ
たとえば、内視鏡検査では、カメラを操作するのは医師です。検査中に少し広い隆起がある箇所を見つけた場合、AIは「生検の指示」をしてくれます。それによって、診断がより正確になる、見落としが減る、熟練した医師の目の代わりになってくれるかもしれません。
見つけた隆起のどこを生検するのかは、医師のスキルや手技にも関係してきます。それが、AIに頼り切ってしまうようなことにならないか、私は心配になります。なぜ、AIが生検を指示したのか、検査医がそこを考えなくなることはないのでしょうか? 相手は機械です。まったくの間違いなのかもしれないのです。
検査医がAIの指示通りに従い、自分が見ている場所が本当にがんなのかどうかも考えなくなるのではないか、やはり心配なのです。医師のスキルアップはどうしても必要です。機械であるAIが責任を持ってくれるわけはないのです。人は先に答えを見てしまうと深く考えなくなるのではないか、と危惧するのは愚考でしょうか?