top of page
Generatived(Beta)|生成AIの最新ニュースとトレンドを提供
logo.png

Stability AIがStable Chatを発表、LLMの応答を対話的に評価および改善

Generatived

2023年8月14日

Stability AI の最近のブログには、Stability AI が当時業界で最高と考えられていた強力な新しいオープンアクセス大規模言語モデル (LLM) をリリースしたと記載されています。この LLM は高度な推論能力と言語能力を備えており、複雑な数学の問題やその他の価値の高いタスクを解決することができました。モデルの安全性とパフォーマンスを向上させるために、Stability AI は AI 安全性の研究者と開発者にフィードバックを提供し、テクノロジーを反復してもらうよう依頼しました。ただし、これらのモデルを評価するには、日常の研究者には手が届かないほどの膨大な計算能力が必要でした。この問題に対処するために、Stability AI は、最適なモデルをより広く利用できるようにするための 2 つの取り組みを発表しました。最初の取り組みは、AI の安全性研究者や愛好家が最良の LLM の応答を対話的に評価し、その安全性と有用性についてフィードバックを提供できる無料の Web サイトである Stable Chat です。 2 番目の取り組みには、ラスベガスの DEFCON 31 でホワイトハウス主催のレッドチームによる「AI Village」コンテストで Stability AI の最高のモデルを取り上げることが含まれます。このコンテストは、モデルの限界をテストし、脆弱性やバイアスを特定することを目的としています。モデルの評価を容易にするために、Stability AI は、AI コミュニティが大規模な言語モデルを対話的に評価できるようにする Web インターフェイスである Stable Chat リサーチ プレビューを開始しました。研究者はこのプラットフォームを使用して、モデルの応答の安全性と品質に関するフィードバックを提供し、偏ったコンテンツや有害なコンテンツにフラグを立てることができます。ただし、Stability AI は、この Web サイトは研究目的のみを目的としており、現実世界のアプリケーションや商業用途には使用すべきではないことを強調しています。Augustには、Stability AI の最高のモデルが DEFCON 31 で紹介され、参加者は脆弱性、偏見、安全性リスクを評価および研究します。このイベントの結果は、Stability AI とより広範な AI コミュニティがより安全なモデルを構築し、AI の安全性と説明責任に対する独立した評価の重要性を強調するのに役立ちます。 Stability AI は AI の透明性の促進に取り組んでおり、DEFCON への参加を外部のセキュリティ研究者と協力する機会として捉えています。

Generatived

Generatived は、Generative AIに特化した情報やトレンドをお届けするサービスです。大きく変わりゆく世界の情報を全力でお届けします。

  • Facebook
  • X

フォローをお願いします

Copyright © 2024 Generatived - All right Reserved.

bottom of page