![](/content/images/size/w1600/2023/12/Big-Tech-AI.webp)
Big Tech AI
Total 2666 Posts
Microsoft、Google、Amazon、Meta、Apple、NVIDIA、IBM、Adobeなど、巨大IT企業のAIトピックを取り上げます。
NVIDIA、持続可能な AI コンピューティングの進歩を発表
NVIDIA の AI とアクセラレーテッド コンピューティングの進歩は、さまざまな業界でエネルギー効率を大幅に向上させています。リスボン評議会の調査レポートによると、データ センターが世界のエネルギー消費量の 4% を占めている可能性があるにもかかわらず、AI は残りの 96% を削減する上で重要な役割を果たしています。このレポートでは、NVIDIA GPU を搭載した Leonardo スーパーコンピューターが、自動車設計、新薬の発見、天気予報の作業を強化する上で重要な役割を果たしていることが強調されています。
持続可能なコンピューティングの概念は、NVIDIA が並列処理に GPU を使用していることと密接に関係しています。これにより、従来の CPU サーバーよりも少ないエネルギーで、より多くの作業をより短時間で完了できます。GPU アクセラレーテッド システムへの移行により、年間 40 テラワット時を超えるエネルギーを節約できます。これは、米国の約 500 万世帯の電力需要に相当します。NVIDIA の GPU、CPU、DPU の組み合わせは、
NVIDIA、生成AIでAmazon KDD Cup 2024優勝
チーム NVIDIA は、 Amazon KDD Cup 2024 で優勝し、金曜日に行われた大会の 5 つのカテゴリーすべてでトップの座を獲得しました。Ahmet Erdem、Benedikt Schifferer、Chris Deotte、Gilberto Titericz、Ivan Sorokin、Simon Jegou からなる NVIDIA チームのメンバーは、生成 AI の専門知識を披露し、テキスト生成から検索までさまざまなタスクで優れた成績を収めました。
「法学修士課程のマルチタスク オンライン ショッピング チャレンジ」では、限られたデータセットを使用して、参加者にさまざまな課題を課しました。NVIDIA のシニア データ サイエンティストである Chris Deotte 氏は、トレーニング データが最小限しか提供されないというこのコンテストのユニークな側面を強調しました。チームは、手作業による記述と大規模な言語モデルの支援の両方を利用して、モデルをトレーニングするための広範な一連の質問を作成することで対応しました。
コンテストの形式は、
LiveX AI、顧客サポートを強化する AI エージェントを発表
LiveX AI は、サポート コストを最大 85% 削減できる AI エージェントを統合することで、顧客サポートの強化において大きな進歩を遂げました。Google Kubernetes Engine (GKE) でトレーニングおよび提供され、NVIDIA AI を搭載したこれらの AI エージェントは、より人間らしいインタラクションを提供するように設計されており、会話形式でリアルタイムに顧客からの問い合わせに対処します。このテクノロジーは、トラフィックが多い時間帯に特に効果的で、応答時間が速くなり、顧客満足度が維持されます。
LiveX AI とGoogle Cloud のコラボレーションは、これらの AI ソリューションの迅速な開発に役立っています。GKE の堅牢なインフラストラクチャを活用して、LiveX AI は 3 週間以内にクライアント向けのカスタム ソリューションを展開することができました。Google for Startups クラウド プログラムと NVIDIA Inception プログラムは、
C3 AI が AWS生成AIコンピテンシー認定を取得
C3 AI は最近、 Amazon Web Services (AWS) の生成AIコンピテンシーを取得し、有能な AWS パートナーとしての地位を確立しました。この認定は、ジェネレーティブ AI テクノロジーの応用を推進する上でお客様と AWS パートナー ネットワークを支援するパートナーに与えられます。C3 AI の専門知識は、ジェネレーティブ AI ソリューションを活用して顧客体験を向上させ、ビジネス プロセスを合理化することで顧客の課題に取り組んだ成功したプロジェクトに反映されています。
同社は、幻覚の軽減、迅速なエンジニアリング、モデルのカスタマイズ、データプライバシーの確保などの分野でその能力を実証してきました。同社のソリューションは、DX戦略の推進に不可欠なものであり、AWS の生成 AI テクノロジーを使用して、よりパーソナライズされたコンテンツ、改善されたワークフロー、実用的な洞察をもたらしました。
AWS のコンピテンシー プログラムは、AWS テクノロジーを深く理解しているパートナーとお客様を結び付けるために設計されています。C3 AI のようなパート
ディープコムBizCopilotにGPT-4o導入
ディープコム(東京)は、AI業務支援ツール「BizCopilot」に「GPT-4o」を導入。画像認識機能が追加され、応答速度とコスト効率が向上した。同社はMicrosoft Solutions Partnerなど複数のパートナーとして活動中。
「BizCopilot」は、文書や写真から情報を抽出し分析することが可能に。マーケティングや財務、製造業務など、幅広い分野での活用が期待される。新機能により、競合製品の特徴分析やデータ入力自動化、不良品検出などが行える。
ディープコムは、今後も「BizCopilot」の機能拡張を計画している。音声入出力や画像生成機能の追加、対話型AIアシスタント機能の開発を予定している。詳細は同社のホームページから資料をダウンロードできる。
出典:プレスリリース
ストックマークAWS生成AI支援パートナー
ストックマーク(東京都港区)は、AWSが提供する「AWSジャパン ⽣成AI 実⽤化推進プログラム」にパートナーとして参加する。同社は「Stockmark 生成AIファストパス」を通じて、企業向け生成AIの迅速な開発を支援し、パナソニックHDなどと協業している。
同プログラムにより、採択企業は3ヶ月で生成AIを構築できる「特別パッケージプラン」を2024年8月から利用可能に。このプランは、データ構造化から精度評価までのプロセスを短期間で実現し、開発コストを抑えることができる。
ストックマークは、AWSからのクレジット提供により、生成AI開発の初期費用削減を支援。また、データ構造化支援を通じて、企業の中長期的なデータマネジメントに貢献する。さらに、130億パラメータの「Stockmark-LLM-13b」を精緻化した進化版モデルを特別提供する。
企業は「Stockmark-LLM-13b」や「Stockmark-LLM-100b」を基にしたLLM構築支援を受けられる。これらのモデルは、日本語とビジネス領域に特化し、ハルシネーションを抑制する能力を持つ。プログラム参加企業は
PKSHAと東北大AI共同研究開始
PKSHA(東京都文京区)は、東北大学言語AI研究センター(仙台市青葉区)との共同研究を開始すると発表した。この研究は自然言語処理(NLP)技術の発展を目指し、2024年6月から始まる。同社はAI技術の研究開発を行い、その成果を社会に実装することで価値を提供している。
共同研究は、大規模言語モデルを用いた言語コミュニケーション技術の進化を目的としている。PKSHAはこれまでAIの社会実装を進めてきた実績があり、東北大学言語AI研究センターは2023年10月に設立されたばかりの新しい研究拠点だ。双方の技術と知見を結集し、新たなNLP技術の開発と実用化を目指す。
PKSHAは、日本マイクロソフトと共同で日英大規模言語モデルRetNetの研究開発を行うなど、NLP分野での取り組みを進めている。また、生成AIや大規模言語モデルの実用化を支援する「PKSHA LLMS」の開発も行っている。これらの技術を活用し、顧客の課題解決やプロダクト開発を進めている。
一方、東北大学は自然言語処理分野で国内最大級の研究グループを持ち、国際会議での論文採択などでその研究力を証明している。新設さ