Anthologyは、高等教育機関による倫理的なAIポリシーの作成と実装を支援することを目的としたAIポリシーフレームワークを発表した。このフレームワークは、AIの広範な影響を評価し、ガバナンスモデルを確立するための包括的なガイダンスを提供する。これは、教育機関が学術および管理環境におけるAI統合の複雑さを乗り越えられるように設計されている。

このフレームワークは、AIの導入が倫理基準や国際規制に確実に適合するようにする7つの主要原則に基づいている。これらの原則には、公平性、信頼性、透明性などが含まれており、NIST AIリスク管理フレームワーク、EU AI法、OECD原則と調和している。Anthologyは、教育環境内で責任あるAIの使用を促進する上で、これらの原則の重要性を強調している。

アンソロジーの取り組みは、大学や学部のさまざまなニーズに適応できる、AIに関する統一された組織的ポリシーの必要性を強調している。AIポリシーフレームワークは、ガバナンスから教育まで、大学運営のさまざまな側面に対応しており、明確なポリシーの方向性の必要性と、遵守しない場合の影響を強調している。このアプローチにより、AIテクノロジーが大学の活動の範囲全体にわたって責任を持って活用されるようになる。

大学指導者を対象とした最近の調査では、高等教育におけるAIの役割について複雑な感情が明らかになった。倫理的な懸念が顕著だったが、パーソナライズされた学習を強化し、登録戦略を合理化するAIの可能性も認識されていた。指導者の20%近くがAIを入学および入学の取り組みを最適化するためのツールと考えており、高等教育分野におけるAIの戦略的応用に対する関心が高まっていることを示している。

出典:プレスリリース