海外コメンタリー

医師免許試験に合格できるAIは医者になるべきか

Rajiv Rao (Special to ZDNET.com) 翻訳校正: 石橋啓一郎

2023-04-28 06:30

 医療の分野では最近、1つの大きな出来事が起こった。それは驚きと、嫌悪と、ある種の恐怖さえも引き起こした。

聴診器を持つロボットの手を描いたイラスト
提供:Getty Images/Kilito Chan

 Googleは医療に関して多くの取り組みを行っているが、2022年に発表された医療分野に特化した大規模言語モデル(LLM)である「Med-Palm」の最新版ほど注目を集めたものはない。

AI医師

 医療に特化したLLMであるMed-Palmとその後継モデル「Med-Palm 2」には、厳格に医療関連だけに絞った情報が入力されている。Googleは、このモデルに(医者の卵や不安を抱えるその親にとっては苦痛の種である)米国の医師免許試験(USMLE)の設問を受けさせた。USMLEは難易度が高いことで有名で、合格するには数百時間もの猛勉強が必要だと言われている。

 ところがMed-Palm 2は、期待をはるかに上回る成果を挙げ、前モデルの得点よりも18%高い、85%の得点を記録した。これは専門家の医師レベルの成績であり、このモデルをコーディングした「親」たちは、その夜パブでその成果を自慢げに語ったに違いない。

 一方、医療関連のデータセットではなく、汎用のデータセットを使用した汎用のAIモデルをベースにしている「ChatGPT」にUSMLEを受けさせたところ、その結果は合格基準である60%にわずかに及ばなかった。ただしこれは、2022年の結果であり、近い将来、新しいバージョンのChatGPTが試験に合格するであろうことは想像に難くない。

AIのバイアスと人間の偏見

 しかし、誰もがこうした新たに生み出された天才医師に好意的なわけではない。

 Googleが、新しいチャットボットである「Bard」をお披露目したあと、このAIが宇宙望遠鏡に関する基本的な質問に誤った回答をして、同社の時価総額が1000億ドル(約13兆円)失われるという屈辱的な事態に苦しんだのはたった数カ月前のことだ。

 この回答の誤りは、AIシステムの正確さと社会への影響についての論争を呼び起こし、その論争は今も続いている。

 懸念が広がっているのは、医療システムに使用されている商用アルゴリズムが、人種的な偏見に侵されている傾向があるためだ。米国の医療システムに使用されているあるアルゴリズムが、白人患者と、はるかに病気が重い黒人患者に同じリスクを割り当てており、黒人に選択される追加的な治療が半数以下になっていたという、有名な事例がある

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

マイナンバーカードの利用状況を教えてください

NEWSLETTERS

エンタープライズコンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]