IntelNVIDIAは最近、それぞれ最先端のイノベーションで人工知能 (AI)の分野に力を与えると発表しました。

インテルとAccentureの協力により、34のオープンソース AIリファレンス キットが作成され、開発者やデータ サイエンティストに AIアプリケーションを迅速かつ効率的に導入するための重要なツールが提供されました。各リファレンス キットには、モデル コード、トレーニング データ、機械学習パイプライン命令、ライブラリ、oneAPIコンポーネントが含まれています。この包括的なパッケージは、さまざまなオンプレミス、クラウド、エッジ環境全体で AIの使用を最適化します。

インテルの AIリファレンス キットの利点は顕著です。たとえば、会話型 AIチャットボット用に設計されたキットは、oneAPIの最適化によりバッチ モードでの推論を最大 45%強化します。他の製品では、視覚的な品質管理検査を合理化し、oneAPIの最適化によりトレーニング速度を最大 20% 高速化、推論速度を 55% 高速化します。さらに、公益事業資産の健全性の予測に焦点を当てた AIリファレンス キットは、予測精度が最大 25%向上しました。

一方、NVIDIAは、生成 AIやその他の画期的なアプリケーションで高度なモデルをトレーニングするための AIスーパーコンピューティング リソースへのアクセスを企業に提供する DGX Cloudサービスを導入しました。Oracle Cloud Infrastructureでは数千のNVIDIA GPUが利用可能であり、米国と英国では追加のNVIDIAインフラストラクチャが利用可能です

生成AIは、世界経済に年間 4 兆ドル以上の影響を与えると推定されており、さまざまな業界で変革を推進しています。ヘルスケア企業は DGX Cloudを利用して、より迅速な創薬や臨床レポートのためのタンパク質モデルを生成し、金融サービスプロバイダーは傾向予測、ポートフォリオの最適化、インテリジェントなチャットボットの開発に DGX Cloudを活用しています。保険会社は保険金請求処理を自動化し、ソフトウェア会社は AIを活用した機能やアプリケーションを作成します。

DGX Cloudインスタンスは、月額レンタル ベースで専用のインフラストラクチャを提供し、AIスーパーコンピューティング リソースへの迅速かつシームレスなアクセスを保証します。各インスタンスには 8 つの NVIDIA 80GB Tensor コア GPUが搭載されており、ノードごとに合計 640GB の GPU メモリを搭載します。このプラットフォームの高性能、低遅延ファブリックにより、統合された高性能ストレージを伴い、相互接続されたシステム間でスケーラブルなワークロード分散が可能になります。