最近の臨床会議で発表された研究によると、人工知能プログラムであるChatGPTは、薬物関連の質問の75%近くに対して不正確または不完全な回答を提供することが判明した。この研究では、AIプログラムが一部の対応を裏付けるために虚偽の引用さえも生成しており、患者を危険にさらす可能性があることが明らかになったという。

この研究は、16力月間にわたって医薬品情報サービスに寄せられた実際の質問をChatGPTに挑戦した研究者チームによって実施された。この研究に参加した薬剤師は、まず45の質問を調査して回答し、その後、ChatGPTによって生成された回答と比較するための標準として使用された。ChatGPTに回答を求められた39の質問のうち、満足できると判断されたのは10の回答のみだったという。

ChatGPTからの残りの29件の回答は、質問に直接対処していないか、不正確または不完全だった。さらに、研究者らは、提供された情報を確認するために、ChatGPTに各質問の参考文献を提供するよう依頼した。ただし、参考文献が提供されたのは8件の回答のみであり、そのそれぞれに存在しない参考文献が含まれていたという。

ある例では、新型コロナウイルス感染症(COVID-19)抗ウイルス薬パクスロビッドと血圧降下薬ベラパミルとの間の薬物相互作用の可能性について質問された際、ChatGPTは、この薬の組み合わせでは相互作用は報告されていないと誤って述べたという。これは、重要な健康情報をAIに依存することの潜在的な危険性を浮き彫りにしていると述べた。

出典:プレスリリース