世界保健機関(WHO)が発表した新しいガイダンスによると、高所得国の個人から収集したデータに基づくヘルスケアソリューションを低中所得国などの環境で使用した場合、高所得国ほどうまく機能しない可能性があるという。
WHOは、「Ethics and governance of artificial intelligence for health(ヘルス向け人工知能の倫理とガバナンス)」というレポートで、「人工知能(AI)システムは、社会経済環境や医療環境の多様性を反映するよう注意深く設計される必要があり、デジタルスキル、コミュニティーエンゲージメント、意識向上の訓練が伴わなければならない。主に高所得国の個人のデータに基づくシステムは、低中所得の環境で個人にうまく機能しない可能性がある」としている。
「したがって、AIとサポートするインフラストラクチャーへの国家による投資は、医療サービスを公平に提供し、アクセスすることに悪影響を及ぼすようバイアスを変換するAIを避けることで、効果的な医療システムの構築に寄与するべきだ」
AIベースのヘルスケアソリューションを開発する際に「適切な対策」が講じられなければ、「プロバイダーと患者によって下されるべき決定が機械に委ねられ、人間の自律性が損なわれる状況」が発生しかねないとWHOは述べている。また、AIが急増することで、ヘルスケアサービスが「規制されていない状況で、規制されていないプロバイダーによって」提供されることにつながり、「政府による医療の管理に課題が生じる可能性がある」としている。
このほか、非倫理的な健康データの収集と使用、アルゴリズムへのバイアスのエンコード、患者の安全とサイバーセキュリティなどに関するリスクがあるとWHOは指摘している。
このレポートには、WHOが指名した倫理、デジタルテクノロジー、法律、人権などの専門家パネルが関わっており、約2年の成果がまとめられている。レポートによると、AIには、世界中で医療と医学の改善に寄与する大きな可能性があるが、それは倫理的な配慮と人権を中心に据えて、設計と開発、展開が行われた場合に限られるという。
WHOのTedros Adhanom Ghebreyesus事務局長は、「すべての新しいテクノロジーと同じように、AIは世界中で多くの人々の健康を改善する非常に大きな可能性を有しているが、すべてのテクノロジーと同様に、悪用され、害を及ぼす恐れもある」と述べた。「この重要な新しいレポートは、AIのリスクを最小化し、危険を回避するとともに、AIのメリットを最大化する手段について各国に貴重な指針を提示する」
レポートでは、AIが診断や臨床ケアを改善して、医療の研究や創薬を向上させるほか、疾病監視、アウトブレイクへの対応、ヘルスシステムの管理といったさまざまな公衆衛生的介入の導入を支援することが可能だと説明されている。
また、AIベースのツールは、政府が十分なサービスを受けていない人々にヘルスケアサービスを拡大するほか、公衆衛生監視を改善したり、ヘルスケアプロバイダーがより患者に注意を払い、複雑なケアに従事できるようにする上で有用だという。
このレポートの中で、WHOは政府やテクノロジー開発者、企業、市民社会の組織が医療向けのAIを開発する際の原則として利用することを想定した6つの指針を提示している。プライバシーと機密性の保護を保障するとともに、人がヘルスケアシステムや医療の意思決定に関して自律性を持つ、人のウェルビーイング、安全、公共の利益を促進する、透明性や説明可能性を確保する、責任を持ち続ける、インクルーシブで平等であることを保障する、適切な対応が可能であり持続可能性のあるAIを推進するといったことが挙げられている。
世界経済フォーラムも2020年末に、組織がどのように倫理的なアプローチでテクノロジーを設計し、適切な対応ができるようにするかということに関して詳細をまとめたレポートを公開した。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。