「肌の色が濃い人では正常に機能しない」という医療機器に英国で対応を求める声
英国の健康格差に関する報告書が公表された後、活動家たちは、パルスオキシメーターのような医療機器における人種的バイアスに対して「ただちに行動を起こすべきだ」と呼びかけている。 マーガレット・ホワイトヘッドが率いた調査によれば、偏見のある技術が、少数民族グループや女性の誤診や治療の遅れにつながる可能性があると専門家は警告している。 ■パルスオキシメーター 英国政府は、色素の濃い肌を持つ人にはパルスオキシメーター(酸素レベルを測るツール)が正常に機能しないのではないかという懸念を受けて、偏見とテクノロジーに関する独立した調査を委託した。 英国の少数民族グループは、新型コロナウイルス感染症によって特に大きな打撃を受けたが、NHS Race and Health Observatory(NHS人種と健康観察所)などの組織は当時、この機器が要因ではないかとの見解を示していた。 パルスオキシメーターと呼ばれるこのツールは、指先に光を当てることで機能する。どれだけの光が透過したかに基づいて、血中の酸素量を推定するのだ。 英国時間3月11日に発表された調査で、この機器は色素の濃い肌を持つ人には「過剰」に酸素レベルを算出するという「広範な証拠」が見つかったという。この間違いは、治療の遅れにつながる可能性がある。 さらに悪いことに、パルスオキシメーターやその他の光学機器は、肌の色が明るい人々でテストされることが多く、その結果が「標準」とみなされている。 装置の再校正や使用ガイダンスを修正することで、この「価値ある臨床ツール」のより信頼性の高い結果が得られるようになるだろうと報告書の著者らは述べている。 そして、現在の臨床現場における人種的バイアスを減らすため、使用ガイダンスをただちに更新すべきだと付け加えている。
AI医療機器にもバイアスが
■人工知能 人工知能(AI)はヘルスケア分野で大きな可能性を秘めており、すでに一部の臨床応用に使用されている。しかしAIツールは、学習に用いたデータの内容によって偏った結果を生じることも知られている。 例えば、皮膚ガンのAIによる検出モデルが、肌の明るい患者の画像でトレーニングされていた場合、肌の濃い人では誤診が増えると考えられる。また、男性の画像データでモデルがトレーニングされていれば、女性のX線画像では心臓病を発見できない可能性もある。 このような潜在的な偏見の影響を測定するためのデータがまだ比較的少ないため、著者たちは、(ChatGPTのような)大規模言語モデルが健康の公平性にどのような影響を与えるかを評価するためのタスクフォースを設立するよう呼びかけている。 ■「早急な対応」が必要 Race Equality Foundation(人種平等基金)の最高責任者であるジャベール・バットは、この調査結果に基き「早急な対応が必要です」と語り「私たちは医療機器の公平性評価やより厳しい規制などを、迅速に実施しなければなりません」と強調した。そして「人種や肌の色に関係なく、質の高い医療を受けられるのは当然の権利です。偏見を取り除き、医療ツールがすべての人に対して効果的に機能することを、担保する必要があります」と述べた。 バットは今回の報告書を歓迎しつつ「健康研究にはさらに多様性を確保し、公平性を高め、協力的なアプローチをとる必要があります」とも訴えた。 そうしなければ、医療機器、臨床評価そして医療介入における人種偏見は「持続するでしょう」とバットは付け加えた。「それでは患者の状態を改善するどころか、害を与えることにも繋がりかねません」 バットの懸念は、NHS人種と健康観察所のCEOであるハビブ・ナクビ教授の懸念とも一致している。 「医療研究における多様性の欠如、公平性への配慮の欠如、協働的アプローチの不足が医療機器、臨床評価、その他の医療介入における人種的バイアスにつながっていることは明らかです」とナクビ教授は声明で述べた。 同氏はさらに、研究分野において、臨床試験で少数民族患者が占める割合を増やす必要があると強調した。「公共医療システムにおける民族データの記録の質を向上させ、医療画像データバンクや臨床試験で幅広い多様な肌の色調が使用されるようにする必要があります」と彼は述べた。 そして、医療機器は「コンセプトから製造、供給、販売に至るまで、公平性を考慮する必要があるのです」と付け加えた。
Katherine Hignett