ACROは、医薬品開発におけるAIの適用を強化することを目的とした一連のガイドラインである責任あるAIの原則を発表した。これらの原則は臨床研究とテクノロジーの専門家によって策定され、思慮深い設計、透明性、説明責任に重点を置いたAIの責任ある使用に焦点を当てているとのこと。

この組織の原則は、特に国立標準技術研究所(NIST)の既存のフレームワークに基づいている。ACROの文書では、特に臨床研究の状況に合わせて、AIテクノロジーを開発および実装する際に組織が考慮すべき10の推奨事項が提供されているという。

ACROの「責任あるAIのための原則」では、中心的な推奨事項に加えて、医薬品開発部門に特に関連する補足的なガイドラインと参考資料を提供している。この取り組みは、業界内でのAIの倫理的かつ効果的な統合を促進し、これらのテクノロジーが医薬品開発プロセスのサポートと強化に確実に使用されるようにするというACROの取り組みを反映しているとのことだ。

出典:プレスリリース