「対話型AIと医療情報との向き合い方」当事者が知っておきたいポイント

遺伝性疾患プラス編集部

目次

目次をもっと見る

最近、ChatGPTなどの対話型AIが話題にあがる機会が増えてきました。実際に、対話型AIを使って情報収集を行い、「便利なツールだ」と実感された方もいらっしゃるのではないでしょうか。一方で、医療など専門的な情報の正確性については、現状、課題があると指摘されています。遺伝性疾患の当事者・ご家族からは、関わりのある疾患の情報を対話型AIで調べることに対して、「期待」と「不安」の声をお寄せいただいています。

そこで、今回は、対話型AIで得た医療情報との向き合い方について、千葉大学治療学人工知能(AI)研究センター長/人工知能(AI)医学教授の川上英良先生にお話を伺いました。川上先生は、医師免許を持つ研究者として現在、最先端のAI・データサイエンス技術を用い、疾患の発症・予後予測等の研究を進められています。記事の後半では、遺伝性疾患プラス読者より寄せられた質問や疑問について、川上先生にお答えいただきました。

Drkawakami 01
千葉大学国際高等研究基幹 教授/千葉大学治療学人工知能(AI)研究センター長/千葉大学大学院医学研究院人工知能(AI)医学 教授 川上英良先生

これだけは押さえておきたい、対話型AIによる情報収集の基本

対話型AIによる一般的な情報収集について、メリット・デメリットを教えてください

メリットとしては、利便性の高さがあげられます。今までは、インターネットでキーワードを検索して、ウェブサイトをいろいろ見て、自分で情報を整理して、まとめて…と対応していた部分が、対話型AIに適切なプロンプト(指示文)を入れるだけで、欲しい情報を整理された形で引き出すことができるようになりました。これは、画期的な変化だと考えます。私は、ChatGPTなど大規模言語モデルに基づいた対話型AIは、「検索」という概念を変えるのではないかと考えています。ただし、欲しい情報を引き出すためには、適切なプロンプトを用いることが重要になります。

一方で、デメリットは大きく2つあります。1つ目は、対話型AIから得られる情報の中には誤った情報が含まれる可能性があるということです。対話型AIから情報を引き出す際には、情報の根拠を確認することが必要です。対話型AIでは、「幻覚」と言って、誤った情報をAIがいかにも正しい情報のように提示してくるケースがあります。なぜそんなことが起こるかというと、対話型AIの情報源は、インターネット上にある情報だからです。そのため、例えば、インターネット上にない情報を聞いた場合には、無理やり他の情報を補って、誤った情報を出してくる場合があるのです。ですから、対話型AIが出してきた「情報の根拠を確認する」ことが大切です。これは医療情報に限らず、一般的に対話型AIを使って情報を得る際には必ず気をつけなければなりません。

また、対話型AIが誤った情報をもとに回答してくる可能性もあります。医療情報の場合、例えば、医療従事者でない方が発信している誤った情報がChatGPTから出てくることは十分に起こりえます。これまでは、ウェブサイトごとに「これは政府の発信するウェブサイトだから、信頼できる情報だ」などと判断できました。しかし、対話型AIから得た情報では、そのように確認できない場合があります。ですから、ご自身で情報の根拠を確認した上で、情報の取捨選択をすることが大切なのです。

2つ目は、個人情報の取扱いに注意が必要だということです。ChatGPTの場合、学習に使わないようにモードを切り替えて利用できるようになっています。しかし、基本的には、対話型AIを使用する際に個人情報など機密情報に当たるようなものを入れないようにして利用しましょう。誤って、個人名を入れて学習させた場合、その後、全然関係ない文脈でその個人名が出てくるということがあり得るからです。

利用する側の対話型AIに対するリテラシーによって、得られる情報の内容にも差が出てきますか?

そうですね。利用する側の、対話型AIに関するリテラシーは重要になってくると考えます。例えば、プロンプトを少し工夫するだけで、対話型AIが示す回答のクオリティが上がることが知られています。あるキーワードについて知りたい場合、単純に「〇〇って何?」と聞いただけでは、知りたいことの全ての情報は得られません。また、聞き方によっては、偏った情報を引き出す可能性もあります。こういったことを理解した上で、対話型AIを利用することが大切です。

対話型AIを用いて医療情報(病気や治療の情報)を調べる際に、当事者やご家族はどのようなことに注意したら良いでしょうか?

まず、大前提として、対話型AIによる情報集は「情報をざっくりと調べる手段の1つ」として捉えましょう。医療情報であれば、例えば、「〇〇は、どのような病気ですか?」といった使い方です。

医療情報で何かしらの判断を求める内容については、必ず医療従事者に確認することが大切です。対話型AIが出す回答は、あくまでもインターネット上にある言語情報に基づくものです。ですから、その元のデータが誤っていたり、偏った情報だったりすると、対話型AIの回答はそれに引きずられる内容になります。医療情報の場合は、命に関わる内容となることがあります。対話型AIに「〇〇の症状がある。病院に行ったほうがいい?」と聞いて、対話型AIが「病院に行かなくていいです」と回答した結果、実は重い病気で、すぐに病院行かないといけなかった、ということになる可能性は完全には否定できません。ですから、対話型AIでは判断を求めるような医療情報の質問をするのは控えましょう。「どのような治療がいいのか」「病院を受診したほうがいいのか」など、判断が必要なものは必ず、病院で医療従事者に確認するようにしてください。

Drkawakami 02
「医療情報で何かしらの判断を求める内容については、必ず医療従事者に確認することが大切です」と、川上先生

次に、繰り返しになりますが、情報の根拠の確認は必ず行いましょう。医療情報であれば、厚生労働省、大学病院などの医療施設、研究機関などの公的機関のウェブサイトなどで、情報の裏取りをすると良いと思います。その他、ご自身で判断できないことについては必ず医療従事者に確認するようにしましょう。なお、ChatGPTの場合は、医療従事者の判断が必要な情報については「医師に相談し、適切な指示を受けましょう」といった文言を一緒に示す仕組みになっています(2023年7月現在)。

医療などの専門的な情報について、今後、対話型AIの情報精度は改善されるでしょうか?

今後、改善されていくと考えられます。例えば、2023年7月現在のChatGPTの情報源は、2021年9月までのもので止まっています。これは、ChatGPTが不正確な情報を際限なく学習する可能性を考慮して、あえて止めているためです。医療情報については、今後、医師向けの病気に関わるガイドラインの追加学習などにより、情報精度が改善されると考えられます。

川上先生が解説!遺伝性疾患プラス読者からの質問・疑問

同じ疾患であっても、痛みの程度や症状の現れ方には個人差があると考えています。このように個人差があるようなものについて対話型AIに聞きたい場合、聞き方のコツはありますか?

個人差があるような症状について聞きたい場合、例えば、ある疾患で非典型的な症状が現れていて「別の疾患による症状なのではないか?」と思った時を考えてみます。それは、判断を求めるような質問となりますので、先ほど説明したように、医療従事者に確認するようにしましょう。

一方で、「ある疾患で、たまに現れる症状やよく現れる症状をリスト化して表示してください」といった使い方であれば、回答が得られやすいのではないでしょうか。また、「ある疾患で、〇〇の症状は何%ぐらいの人で現れますか?」といった使い方も良いでしょう。ただし、希少疾患などで知りたい情報がインターネット上にない、またはとても少ない場合には、正しい情報が得られない可能性があるので注意しましょう。

自身の病気には治療方法がないため、研究段階の治療法(遺伝子治療など)や治験情報を知りたいです。ただ、対話型AIに聞いて正しい情報を得られませんでした。どのように聞いたら正しい情報を得られるでしょうか?

研究段階の治療情報や治験情報を対話型AIに聞くのは、避けましょう。なぜなら、最新情報の確認が必要となるからです。特に、治験情報であれば、「直接、治験情報を掲載しているウェブサイトで確認する」または「医療従事者に確認する」などして、最新情報を確認しましょう。

同じ質問に対してであっても、対話型AIの種類によって異なる回答が得られると思います。複数の対話型AIを使って情報を得ることも大切なのでしょうか?

実際に情報を比較したわけではないのですが、複数の対話型AIを用いることで情報の信頼度が向上することは考えにくいです。なぜなら、どの対話型AIも、基本的にインターネット上にある情報が元になっているからです。そのため、複数の対話型AIを使うよりも、1つの対話型AIで得た情報の裏取りをすることのほうが大切です。

Drkawakami 03
「複数の対話型AIを使うよりも、1つの対話型AIで得た情報の裏取りをすることのほうが大切です」と、川上先生

ただ、先程も少し触れましたが、医療情報であれば、今後、病気に関わるガイドラインの追加学習によりさらに情報精度が向上する可能性はあります。その場合、ガイドラインを追加学習させた対話型AIは、追加学習させていない対話型AIに比べて、さらに精度の高い情報を出すということは考えられるでしょう。

対話型AIに質問する背景には、「自分が望む答え」があると感じています。そのため、自分が望む回答が出ない場合、望む回答が出るような聞き方に変えることもあります。このような使い方は、問題ないでしょうか?

これは、非常に難しい問題ですね。対話型AIを用いる場合に、「正しい情報を知りたいのか」「自分が安心できる情報が欲しいのか」を区別することが大切だと考えます。特に、医療情報の場合は命に関わる可能性があることからも、この区別は重要です。「自分が安心できる情報が欲しい」と考えて対話型AIを用いると、例えば、治療の情報などで、有効性・安全性が確認されていない民間療法に誘導されていく可能性が考えられます。そういったリスクを避けるためにも、気を付けて対話型AIを利用しましょう。

私も、自分や家族が病気になった時のことを考えると、やっぱり不安になります。その不安に対して、「大丈夫だよ」と言ってくれるような情報が欲しいという気持ちになると思います。もし、治療法がない遺伝性疾患と向き合っている場合であれば、なおさらでしょう。現状、治療法がないので最新治療の情報を探したいと考えた場合、対話型AIを用いるのは適していません。最新情報を知りたい場合には、ご自身でインターネット検索する、または医療従事者に確認するようにしましょう。

自身の病気について聞くと、「明らかに間違っている答え」「当たり障りのない無難な答え」が多いと感じました。これは、対話型AIの参照している情報が間違っている・少ないからですか?

これは、おっしゃる通りだと思います。もう少し詳しく解説すると、対話型AIの参照している情報が間違っているというのは、参照している情報源がそもそも間違っている場合と、参照できる情報がないために対話型AIが無理やり他の情報を補って言葉を埋めている場合が考えられます。後者は、先程ご紹介した対話型AIの「幻覚」という現象です。最近確立されたばかりの疾患や、希少疾患ではインターネット上の情報が少ないことが考えられるので、このような現象が起こります。そのため、ご自身の病気が希少疾患で、欲しい情報がある場合、医療従事者に確認するようにしましょう。

対話型AIが誤った情報を拡散することで、病気を知らない人が遺伝性疾患へ偏見を持つきっかけにならないか心配です。もし対処する方法があれば、教えてください

これも、非常に難しい問題です。少し補足させていただくと、対話型AIが誤った情報を拡散するのではなく、情報を得た人がSNSなどで誤った情報を拡散するケースのことですね。これは現状、完全に対処する方法はないと考えます。

一方、SNSでは誤った情報の拡散を食い止める動きも出てきています。例えば、Twitterでは「コミュニティノート」という機能が日本でもリリースされ、誤解を招く可能性がある投稿に対して、ユーザーが情報提供できるようになりました(2023年7月現在)。SNSを通じて誤った情報が拡散されていくケースは今後もなくならないと思いますので、SNS側のこういった仕組みづくりが求められていくと思います。

遺伝性疾患の中でも特に患者数の少ない希少疾患の場合、対話型AIを通じて個人情報に特定につながらないか心配です。こういったリスクは、実際にあり得るのでしょうか?

可能性はあると思いますが、対話型AIだけで詳細な個人情報を特定することまでは考えにくいのではないかと思います。例えば、日本で限られた人数しか患者さんがいないような希少疾患で、「20代、男性、東京都在住の患者さんがいます」といったレベルの情報が対話型AIから得られる可能性があるかもしれません。しかし、「その患者さんは、〇〇さんです」という個人情報は、対話型AIが学習している情報の中では公開されていないと考えられます。

一方で、対話型AIから得た情報をもとに、誰かがSNSで「その患者さんは、〇〇さんじゃないか?」と投稿して拡散する可能性はあるでしょう。そうなると、質問者が心配される個人情報の特定につながるかもしれません。そのため、SNSでの情報発信のあり方を考えることが大切です。

また、繰り返しになりますが、私たちが対話型AIを用いる際に、個人名など個人情報を入力して学習させないことも大切です。例えば、ChatGPTであれば「個人名を表示させない」など、相当トレーニングされていると聞きます。しかし、リスクが全くないとは言い切れないので、私たちが気を付けて利用することが大切です。

川上先生の研究テーマと読者へのメッセージ

先生の研究テーマ「予防・先制医療に向けた疾患層別化と予測」について、教えてください

私は、AI・データサイエンス技術などを用いて、病気の発症を予測して予防したり、病気の重症化といった大きなイベントが起こる前にその人にあった治療を行ったり、といったことをテーマに研究に取り組んでいます。

まず、「層別化」というのは、グループ分けのことです。同じ病気の中に、どういったグループがあるのかを見ていく考え方です。例えば、アトピー性皮膚炎の場合、炎症の種類や生じている部位などによっていくつかのタイプがあります。タイプが違うアトピー性皮膚炎を同じように扱って治療したり、予防したりということは難しいので、層別化が大切になってくるのです。

次に、「予測」については、これまで医療の現場で明確に行われてきませんでした。医師は、ある程度「この患者さんは、1年後にはどうなっているか」と考えながら治療を行っていますが、明確に予測するということは行われていません。

そのため、私たちは研究テーマとして、主にバイオマーカーを用いて「1年後の患者さんの状態を予測し、その予測結果に基づいて治療を考えていく」といったことや、「特定の病気になりやすい集団を見つけ、検査の回数を増やすことで早期診断につなげる」といったことに取り組んでいます。

遺伝性疾患プラスの読者にメッセージをお願いいたします

対話型AIは、AIの歴史におけるターニングポイントになりうる技術だと考えています。皆さんには、ぜひ対話型AIをうまく使っていただきたいと思います。そうすることで、今までは一般の人にはなかなかアクセスすることが難しかったような情報にも、アクセスできるようになることが期待されます。特に、希少疾患や遺伝性疾患の当事者やご家族で、今までは欲しい情報にアクセスするのが難しいと感じていた場合であっても、対話型AIを用いることで改善できる余地はあるのではないかと思います。

一方で、今回ご紹介したように、対話型AIの使用には、メリットだけでなくデメリットがあることも事実です。まだまだ改善が必要な点もあるので、そのことも理解した上で、対話型AIとうまく付き合っていきましょう。対話型AIとうまく付き合うことで、今後、皆さんの生活の質を向上していっていただければと思います。


対話型AIと医療情報との向き合い方について、皆さんの疑問は解消されたでしょうか?今回、編集部も対話型AIを使い始めたばかりの状況だったのですが、川上先生のわかりやすいお話を伺い、より理解を深めることができました。対話型AIのメリットとデメリットを両方理解した上で、うまく使っていくことが大切だと言えそうです。特に、医療情報は命の関わる可能性があります。ご自身で判断が難しい場合は、必ず医療従事者に確認することが大切だと、改めて理解することができました。

また、先生が取り組まれている研究については、JST(科学技術振興機構)ムーンショット型研究開発事業のYouTubeで動画が公開されています。興味を持たれた方は、ぜひこちらもあわせてご覧ください。(遺伝性疾患プラス編集部)

関連リンク

川上 英良先生

川上 英良先生

千葉大学国際高等研究基幹 教授/千葉大学治療学人工知能(AI)研究センター長/千葉大学大学院医学研究院人工知能(AI)医学 教授。理化学研究所情報統合本部先端データサイエンスプロジェクト医療データ数理推論チーム チームリーダー。2007年に東京大学医学部医学科卒業、2011年東京大学大学院医学系研究科博士課程病因病理学専攻修了。博士(医学)。2019年より現職。所属学会は、日本メディカルAI学会、日本バイオインフォマティクス学会、日本分子生物学会、日本免疫学会、日本人類遺伝学会、日本股関節学会。