Center for AI Safety(CAIS)がCAIS Philosophy Fellowshipの募集を開始した

AIの機能が急速に進歩するにつれて、安全性研究の必要性がますます明らかになってきている。ただし、この分野は比較的歴史が浅いため、概念的な基礎の多くはまだ検討の余地がある。

CAIS Philosophy Fellowshipはさまざまな背景を持つ哲学者を招待してAIの安全性の現状を掘り下げることで、このギャップを埋めることを目指している。彼らの目標は、新しい研究の方向性に貢献し、この分野の概念的な課題についてのより深い理解を提供することだ。

フェローシップのウェブサイトのページによれば、このフェローシップは3段階のアプローチを採る。AIにおける概念的な問題の特定、学術哲学を通じたこれらの問題の明確化、およびより広範な社会技術的展望の方向性の模索だ。

CAISによるとこのフェローシップは、研究とフィールド構築を狙っている。

哲学者のチームは、既存の概念的なAI安全性文献を批判・拡張し、技術研究を導くための新しいフレームワークを提供する。過去のフェローたちは、AIの安全性に関連するさまざまなトピックに関する18の原著論文を共同で作成した。

また、このフェローシップは、現在のグループを超えて、学術哲学コミュニティー内で概念的なAI安全性研究を促進し、奨励することを目的としているとも述べている。技術的・概念的なAI安全性研究者を結び付けるワークショップに資金が割り当てられ、その結果、数多くのワークショップが開催され、『Philosophical Studies』誌では特別号が発行されたという。