Helm.ai présente VidGen-1, une IA générative de séquences vidéo pour la conduite autonome

REDWOOD CITY, Californie–(BUSINESS WIRE)–Helm.ai, un chef de file des logiciels d’IA avancée d’aide à la conduite de niveau 4 (conduite autonome) et l’automatisation robotique, annonce aujourd’hui le lancement de Vidgen-1, un modèle d’IA générative qui produit des séquences vidéo très réalistes de scènes de conduite pour le développement et la validation de la conduite autonome. Cette technologie innovante d’IA fait suite à la présentation par Helm.ai de GenSim-1 pour les images balisées générées par IA, et constitue une avancée importante pour les tâches de prédiction et la simulation générative.



Formé sur des milliers d’heures de séquences de conduite diversifiées, le modèle vidéo d’IA générative de Helm.ai exploite des architectures innovantes de réseaux neuronaux profonds (DNN) combinées à Deep Teaching, une technologie de formation non supervisée hautement efficace, pour créer des séquences vidéo réalistes de scènes de conduite. Les vidéos, produites à une résolution 384×640, des débits d’images variables jusqu’à 30 images par seconde, et de quelques minutes de long, peuvent être générées au hasard sans une invite d’entrée ou peuvent être invitées avec une seule image ou une vidéo d’entrée.

VidGen-1 est capable de générer des vidéos de scènes de conduite dans différentes zones géographiques et pour plusieurs types de caméras et de perspectives de véhicules. Le modèle produit non seulement des apparences très réalistes et des mouvements d’objets temporellement cohérents, mais aussi apprend et reproduit des comportements de conduite semblables à l’humain, générant des mouvements de l’égo-véhicule et des agents environnants agissant selon les règles de circulation. Le modèle simule des séquences vidéo réalistes de divers scénarios dans plusieurs villes à l’échelle internationale, englobant des environnements urbains et périurbains, une variété de véhicules, des piétons, des cyclistes, des intersections, des virages, des conditions météorologiques (ex. pluie, brouillard), des effets d’éclairage (ex. éblouissement, conduite de nuit), et même des réflexions précises sur les surfaces de route humide, les murs réfléchissants des bâtiments et le capot de l’égo-véhicule.

Les données vidéo sont la modalité sensorielle la plus riche en informations dans la conduite autonome et proviennent du capteur le plus rentable : la caméra. Cependant, la dimensionnalité élevée des données vidéo fait de la génération de vidéo par l’IA une tâche compliquée. Atteindre un haut niveau de qualité d’image tout en modélisant avec précision la dynamique d’une scène en mouvement, donc le réalisme vidéo, est une difficulté bien connue dans les applications de génération vidéo.

« Nous avons réalisé une avancée technique en matière d’IA générative vidéo pour développer Vidgen-1, établissant une nouvelle référence dans le domaine de la conduite autonome. La combinaison de notre technologie d’enseignement profond, que nous développons depuis des années, avec une innovation supplémentaire en interne sur les architectures DNN génératives, se traduit par une méthode hautement efficace et évolutive pour produire des vidéos réalistes générées par l’IA. Notre technologie est généraliste et peut être appliquée de manière tout aussi efficace à la conduite autonome, à la robotique et à tout autre domaine de la production de vidéos, sans nécessiter de changement », déclare Vladislav Voroninski, CEO et cofondateur, Helm.ai.

VidGen-1 offre aux constructeurs automobiles d’importants avantages d’évolutivité par rapport aux simulations traditionnelles non IA, en permettant la génération rapide d’actifs et en formant les agents de simulation grâce à des comportements réels sophistiqués. L’approche de Helm.ai réduit non seulement les délais de développement et les coûts, mais comble également le fossé entre simulation et monde réel de manière efficace, fournissant ainsi une solution hautement réaliste et efficiente qui élargit considérablement l’applicabilité de la formation et de la validation basées sur la simulation.

« Dans une vidéo, prédire la prochaine image est un peu comme prédire le prochain mot dans une phrase, mais avec une dimensionnalité bien plus élevée », ajoute Voroninski. « La génération de séquences vidéo réalistes d’une scène de conduite représente la forme la plus avancée de prédiction pour la conduite autonome, car elle implique de modéliser avec précision l’apparence du monde réel et inclut à la fois la prédiction d’intention et la planification des chemins comme sous-tâches implicites au plus haut niveau de la pile technologique. Cette capacité est cruciale pour la conduite autonome étant donné que la conduite consiste fondamentalement à prédire ce qui va se passer. »

À propos de Helm.ai

Helm.ai développe la prochaine génération de logiciels IA d’aide à la conduite de niveau 4 (conduite autonome) et l’automatisation robotique. Créée en 2016 et basée à Redwood City, en Californie, la société a repensé l’approche du développement de logiciels d’IA, visant à faire de la conduite autonome véritablement évolutive une réalité. Pour plus d’informations sur Helm.ai, y compris ses produits, SDK et les opportunités de carrière, rendez-vous sur https://www.helm.ai/ et suivez Helm.ai sur LinkedIn.

Le texte du communiqué issu d’une traduction ne doit d’aucune manière être considéré comme officiel. La seule version du communiqué qui fasse foi est celle du communiqué dans sa langue d’origine. La traduction devra toujours être confrontée au texte source, qui fera jurisprudence.

Contacts

Contact avec les médias :
Satoko Nakayama

Helm.ai

press@helm.ai

Articles Connexes