「AIドクター」が薬を処方する時代──ユタ州の実験が突きつける、医療の未来と倫理の境界線

KEYWORD SYNC

「あなたの薬、AIが処方します」──そう聞いて、あなたはどう感じるだろうか。

米ユタ州で、世界初の「AIによる精神科薬の処方」が現実になった。Y Combinator出身のスタートアップ「Legion Health」が、同州の規制サンドボックス制度のもと、AIによる精神科薬の処方認可を取得したのだ。

何が起きているのか

ユタ州では2026年1月から、AIによる処方薬のリフィル(更新)を認める全米初のパイロットプログラムが稼働している。最初に認可されたのはDoctronic社で、190種類の一般的な慢性疾患薬を1回4ドルでAIが自動更新できる仕組みだ。

そして今回、Legion Healthがさらに一歩先へ進んだ。精神科薬──つまりSSRI(選択的セロトニン再取り込み阻害薬)などの抗うつ薬を含む薬剤を、AIが処方できる世界初の認可を得たのだ。

なぜこれが重要なのか

ポイントは「精神科」という領域にある。血圧の薬やピルのリフィルとは次元が異なる。精神科薬は用量調整が繊細で、患者の状態変化を見逃すリスクが高い。にもかかわらず認可に踏み切った背景には、アメリカの深刻な精神科医不足がある。

Legion Healthの仕組みは、いきなり完全自動化ではない。段階的なロールアウトが設計されている:

  • 第1段階:最初の250件は医師が処方前に直接監督
  • 第2段階:次の1,000件は処方後に医師がレビュー
  • 第3段階:両段階を通過後、AIが自律的に運用開始

非エンジニアが押さえるべき本質

この話の本質は「AIが医師を置き換えるか否か」ではない。「人間にしかできない判断」と「AIに任せて良い判断」の境界線を、社会がどう引くかという問いだ。

Doctronic社のデータでは、AIの判断と医師の判断の一致率は99.2%とされる。ただし、これは同社の非査読データであり、独立した検証はまだない。「99.2%の一致」が安全を意味するのか、0.8%の不一致が致命的なのかは、まさに医療の文脈で問われる問題だ。

さらに、AI処方が誤った場合の責任の所在も未整備だ。従来の医療過誤の枠組みは人間の判断者を前提としており、アルゴリズムが誤判断した場合の法的責任はグレーゾーンのままだ。

ビジネスパーソンへの示唆

医療は「AIの社会実装」の最前線だ。今後、金融、法務、人事など他の専門領域でも同じ議論が起きる。「AIに任せていい範囲」を自社でどう定義するか──経営者として今から考えておくべきテーマだろう。

テキサス州、アリゾナ州、ミズーリ州もDoctronic社との提携を検討中で、「AIドクター」の波は全米に広がる可能性がある。日本でも遠くない未来、同様の議論が始まるはずだ。

SYNCONの視点

AIが薬を処方する世界は、SFではなくなった。問われているのは技術の精度ではなく、社会の覚悟だ。「99.2%の精度」を安心と見るか不安と見るか──その判断基準を持つことが、AI時代のリテラシーになる。

ソース

SYNCON FREE DIAGNOSIS

あなたの業務に最適なAIツール、
まだ見つかっていませんか?

8つの質問に答えるだけ。約2分で完了。
SYNCON編集部が、あなた専用のAI活用プランをお届けします。

無料AI活用診断を受ける →

コメント

タイトルとURLをコピーしました