Helm.ai(カリフォルニア州レッドウッドシティ)は、自動運転の開発と検証に使用するための高度にリアルな運転シーン動画を生成するAIモデル「VidGen-1」を発表。この技術は、予測タスクと生成シミュレーションの両方において重要とされる。

同社の動画生成AIモデルは、数千時間の運転映像データに基づきトレーニング。ディープニューラルネットワークと「Deep Teaching」技術を用い、リアルな運転シーンを生成可能。動画は384 x 640解像度、最大30fpsのフレームレートで提供される。

VidGen-1は、さまざまな地理的条件や車両タイプ、カメラ視点からの動画を生成。リアルな外観と一貫したオブジェクトの動き、交通ルールに従うエージェントの動きを学習し再現する。都市部や郊外、さまざまな気象条件や照明効果を含むシナリオでの動画映像を生成する。

Helm.aiのCEO兼共同創業者Vladislav Voroninskiは、「VidGen-1は技術的なブレークスルーを達成し、自動運転分野に新たな基準を設定した」と述べる。同社の技術は自動運転やロボティクスなど、動画生成が必要な分野に適用可能。Voroninskiは、「動画の次のフレームを予測することは高次元の課題だが、自動運転において非常に重要」とも語った。

出典:プレスリリース