ADT ArosDyn Analyse robuste de scènes dynamiques complexes par fusion bayésienne de données de capteurs Application à la sécurisation de la conduite automobile.

Slides:



Advertisements
Présentations similaires
Hierarchical Z-Buffer Visibility
Advertisements

Application au suivi des paramètres de problèmes de vision
IREMIA : Institut de REcherche en Mathématiques et Informatique Appliquées Université de la Réunion Uniformisation des mécanismes de conception de SMA.
1 Off road obstacle avoidance through end to end learning Yann LeCun, Urs Muller, Jan Ben, Eric Cosatto, Beat Flepp.
The Reyes Image Rendering Architecture
1 Internet Act II Gilles Kahn Président Directeur Général, INRIA.
3. Analyse et estimation du mouvement dans la vidéo
Piecewise Affine Registration of Biological Images
Tests et validation du logiciel
1 TICE2000, Université Technologique de Troyes, 18, 19, 20 octobre 2000 "Conception ergonomique d'un didacticiel professionnel" Michel Dubois*, Isolde.
Reconstruction 3D par mono vision avec des trajectoires fortement contraintes Joan Solà LAAS-CNRS Toulouse, France Revue du projet PICAS$O 3 novembre 2005.
Intellectual Property Rights are governed by PROTEUS Contract and PROTEUS consortium agreements. Before using, reproducing, modifying or disclosing the.
Forum ENSG PPMD Projet CityVIP
Reconstruction de volume 3D
Environnement de réalité augmentée : vers les jeux vidéos
ELE6207 Commande de systèmes robotiques
Laboratoire LCOMS Equipe « Evaluation de Performance et Systèmes d’Aide à la Personne » (EPSAP) Guy Bourhis CENRob 4-5 avril.
Contrôle de l'Affichage dans un Environnement
Clément Boussard, Nicolas Hautière, Dominique Gruyer
Monique THONNAT et Nathanaël ROTA Projet ORION
Radar panoramique hyperfréquence pour la localisation et la cartographie dynamiques simultanées en environnement extérieur ANR 2006 : Programme Systèmes.
Recherche d’un même objet / scène
Froduald Kabanza Département d’informatique Université de Sherbrooke
OIL & UPML DREVET - HUMBERT Introduction OIL : un langage de description dontologies UPML : un langage de description de systèmes à base.
Synthèse d’activités Présentation.
Interprétation de séquences dimages pour des applications MédiaSpace Alberto AVANZI François BREMOND Monique THONNAT Projet ORION INRIA de Sophia Antipolis.
Méthode des Ensembles de Niveaux par Eléments Finis P1
CAssiopée, un système de vidéosurveillance bancaire
Activité Cycab 2008 Rhône-Alpes
Simulateur Robot Mobile 2006
Présentation du mémoire
Projet région Thématique prioritaire n°10 Calculs Scientifiques Logiciels Rhône-Alpes : Grille pour le Traitement dInformations Médicales (RAGTIME ?)
Journée de lancement du Réseau Thématique Pluridisciplinaire 32
Robots footballeurs: Fusion de données
Design dun système de vision embarqué. Application:
Un algorithme de prédiction de lheure darrivée de bus utilisant un système de localisation automatique.
Véronique Cherfaoui + partenaires SP3 29 mars 2007
1 Séminaire LOVe du 29/03/07 Combinaison d'objets (fusion centralisée) T3.2 Combinaison de pistages (fusion décentralisée) T3.3.
1 SP3 ICARE Ezio MALIS 29 mars 2007 Amélioration du suivi visuel par couplage vision-laser.
Fusion multi-capteur pour la détection d'obstacle
Fusion de données, un aperçu
Avignon, 14 novembre 2006http://biobimo.eurecom.fr Sous-Projet 4 : Segmentation et Authentification conjointes de la voix et du visage Etat de l’art -
Un capteur de vision CMOS pour la sécurité automobile.
10 février 2006GDR ISIS Journée Localisation et Navigation Projet EGNOS-BUS (Eurêka) André Monin, Wael Suleiman LAAS-CNRS.
Développement d’un système d’aide à la conduite:
Suivi d’individus et interprétation vidéo
Le contenu est basé aux transparents du 7 ème édition de «Software Engineering» de Ian Sommerville«Software Engineering» de Ian Sommerville B.Shishedjiev.
Méthodes d’assimilation: Le problème du point de vue de la mesure (P. Prunet, Noveltis) Assimilation de données en zones cotières (P. De Mey, LEGOS/POC)
Introduction au Génie Logiciel
Plusieurs techniques ont été expérimenté. Différentes modulations ont été étudiées et testées. Un setup expérimental a été mis en place. Les résultats.
LASMEA Clermont, le 25 janvier Mesure et analyse de trajectoires Ordre du jour  10h45 – Accueil  11h00 – Introduction  11h05 – Trajectographie.
Présentation RFIA janvier 2002
Credits : Joëlle Thollot, Hector Briceño, Edmond Boyer
ANR Perçoive Plénière du 27/01/2009. Tâche 5 : Estimation coopérative; Tâche 7 : Validation expérimentale ;[Gerald] Tâche 4 : Communication inter-véhicules;
Reconnaissance de visage par vidéo
Nouvelles de LISA et LISAPathfinder P. Binétruy, APC Paris 7 Journées LISA-France, Meudon Mai 2006.
Monitoring Détection de séquences vidéo en temps réel dans une grande base de données Julien Law-to 22/06/2004.
Projet Love – Réunion SP3 CEA List – Lab. Calculateurs Embarqués et Image Contribution CEA List Love SP3.
Suivi de trajectoires par vision Y. Goyat, T. Chateau, L. Trassoudaine 1.
« © CEA [2006]. Tous droits réservés. Toute reproduction totale ou partielle sur quelque support que ce soit ou utilisation du contenu de ce document est.
Localisation d’un Robot Mobile
Soutenance de fin d'études ESIEA Développement de modules pour un portail pour clubs sportifs Rémi Khounsamnane promotion 2006.
Traitements d'images et Vision par ordinateur
EXTRACTION D’ÉLÉMENTS CURVILIGNES GUIDÉE PAR DES MÉCANISMES ATTENTIONNELS POUR DES IMAGES DE TÉLÉDÉTECTION : APPROCHE PAR FUSION DE DONNÉES EXTRACTION.
Proposition de possibilité d’évolution de nos spécialités Deux projets (liés) : Projet 1 : Informatique Computationnelle – Etudiants 4 e et 5 e IR Projet.
Reconnaissance d’objets 3D –point de vue complètement différent –pas d’invariant 3D Difficultés :
Joan Solà - LAAS-CNRS Localisation visuelle pour la robotique mobile terrestre.
ORACLE Kick-Off Meeting1 Régionalisation statistique de variables à grande échelle pour évaluer les risques et les incertitudes P. Yiou & M. Vrac LSCE.
1 Systèmes d’aide à l’audio et à la vidéo surveillance dans les systèmes de transport “Sûreté des transports”, 05 mai 2008, L.Khoudour.
Plateformes d'expérimentation e-Motion / PRIMA Amaury Nègre Réunion ITP / Marvelig 13 septembre 2011.
Transcription de la présentation:

ADT ArosDyn Analyse robuste de scènes dynamiques complexes par fusion bayésienne de données de capteurs Application à la sécurisation de la conduite automobile http://arosdyn.gforge.inria.fr Responsable : Christian LAUGIER, EPI e-Motion Journées ARC-ADT à Bordeaux, 29 septembre – 1er octobre 2009

Contenu Introduction: Organisation : Détection stéréo-vision Objectifs, approche Organisation : Partenaires, modules, matériels, planning Détection stéréo-vision Suivi stéréo Filtrage, détection et suivi Conclusion

Risque lors de la conduite Risque de collision lors de la conduite automobile est une notion probabiliste Connaître ce risque est indispensable pour les voitures de demain

Bayesian Sensor Fusion for “Dynamic Perception” “Bayesian Occupation Filter paradigm (BOF)” Patented by INRIA & Probayes, Commercialized by Probayes Continuous Dynamic environment modelling Grid approach based on Bayesian Filtering Estimates Probability of Occupation & Velocity of each cell in a 4D-grid Application to Obstacle Detection & Tracking + Dynamic Scene Interpretation BOF Occupied space Free Unobservable space Concealed space (“shadow” of the obstacle) Sensed moving obstacle P( [Oc=occ] | z c) c = [x, y, 0, 0] and z=(5, 2, 0, 0) Occupancy grid Prediction Estimation [Coué & al IJRR 05]

Robustness to Temporary Occlusion Tracking + Conservative anticipation Parked Vehicle (occlusion) Autonomous Vehicle Description Specification Variables : Vk, Vk-1 : controlled velocities Z0:k : sensor observations Gk : occupancy grid Decomposition : Parametric forms : P( Gk | Z0:k) : BOF estimation P( Vk | Vk-1 Gk) : Given or learned Question Inference Thanks to the prediction capability of the BOF, the Autonomous Vehicle “anticipates” the behavior of the pedestrian and brakes (even if the pedestrian is temporarily hidden by the parked vehicle)

Modeling (Predicting) the Future Risk assessment requires to both Estimate the current world state & Predict the most likely evolution of the dynamic environment Objects motions are driven by “Intentions” and “Dynamic Behaviors” => Goal + Motion model Goal & Motion models are not known nor directly observable …. But “Typical Behaviors & Motion Patterns” can be learned through observations

Objectifs Développer un logiciel embarqué d’analyse robuste des scènes dynamiques de conduite automobile : Fusion bayésienne de données de capteurs de type télémétrique (Lidar) et visuel (Caméra) Traitement en temps réel des scènes dynamiques complexes pour la détection et le suivi de plusieurs entités en mouvement Intégrer dans ce logiciel les fonctions de prédiction et évaluation des risques lors de la conduite automobile

Vue d’ensemble Stéréovision Laser Odométrie Centrale inertielle Observation dans l’espace de disparité Pré-traitement par SLAM local Grilles observées Bayesian Occupancy Filter Fusion / Estimation Mouvement propre Grille estimée Fast Clustering Tracking Algorithm Objets suivis Estimation du risque de collision comme processus gaussien Risque estimé

Partenaires INRIA Grenoble Rhône-Alpes : INRIA Sophia-Antipolis : e-MOTION PERCEPTION PRIMA SED INRIA Sophia-Antipolis : EVOLUTION Probayes (start-up INRIA) et TME (partenariat avec INRIA et Probayes)

Principaux modules Filtrage et fusion, estimation des risques e-Motion: M. Yong Probayes: K. Mekhnacha e-Motion: M. Yong, e-Motion / Prima: A. Nègre Evolution: E. Malis Perception: E. Boyer e-Motion: M. Perrollaz Filtrage et fusion, estimation des risques Calibration Tracking ADT ArosDyn C. Laugier, I. Paromtchik Détection et localisation Classification Validation expérimentalle Perception: E. Boyer e-Motion: M. Yong e-Motion / Prima: A. Nègre e-Motion: M. Perrollaz SED: N. Turro, J.-F. Cuniberto e-Motion: M. Yong, I. Paromtchik e-Motion / Prima: A. Nègre e-Motion: M. Perrollaz, Perception: E. Boyer

Matériels : véhicules CyCab équipé d’un lidar IBEO Lux et une centrale inértielle Xsens MTi-G, pour effectuer les tests préliminaires Toyota Lexus LS600h – une voiture hybride à équiper avec une caméra stéréo, deux télémètres laser et une centrale inértielle

Matériels : capteurs TYZX caméra stéréo monochrome : Aptina MT9V022 CMOS, base de 22cm, HFOV de 62°, profondeur de 1.8-23m, PCI board pour le calcul de disparité en temps réel, Linux drivers IBEO Lux lidar, HFOV de 100°, distances de 0.3-200m, résolution de 4cm et de 0,125-0,5°, avec 4 ou 2 couches de balayage Xsens MTi-G 6 DOF Attitude and Heading Reference System, with integrated GPS and static pressure sensor

(la couleur représente la distance) Caméra TYZX Image de gauche Image de disparité (la couleur représente la distance) Image de droite

Planning sur trois ans

Module « Détection stéréo-vision » (M.Perrollaz - A. Nègre) - “Matching” pour une représentation 3D de la scène - Les pixels “route” sont séparés des pixels “obstacles”

Grille d’occupation à partir d’un plan de disparité Grille d’occupation est calculée directement à partir d’un plan u-disparité Cela permet un calcul efficace et améliore la gestion d’incertitude Projection au sol avec accumulation Grille d’occupation à partir des données stéréo

Détection stéréo-vision

Module « Suivi stéréo en temps réel » (E. Malis) Implementation en ANSI C : Entrées : images stéréo Suivi stéréo (version non-optimisée) Sorties : localisation dans les images et dans l'espace Cartesien Tests sur des séquences du projet LOVe: Enrégistrées avec une paire stéréo embarquée

Exemple sur séquences LOVe Image gauche 0 Image gauche 25 Image gauche 50 Image droite 0 Image droite 25 Image droite 50

Suivi stéréo de piétons

Fusion pour le suivi stéréo Conception du module de fusion en Matlab : Exemple avec suivi monoculaire Tests sur des séquences synthétiques Méthode testée: Initialisation du suivi visuel à l'aide du capteur inértiel Correction de la dérivée du capteur inértiel à l'aide du suivi visuel

Module « Filtrage, détection et suivi » (Yong Mao) Pré-traitement des données laser : Local SLAM, filtre à particules Modélisation de l’environnement : Bayesian Occupancy Filter (BOF) Détection d’objets et leur suivi : Fast Clustering-Tracking Algorithm (FCTA) Estimation des risques de collision : Hidden Markov Model + Gaussian Process

Fusion de données Bayesian occupancy filter (BOF) pour une représentation à base de grilles Entrées : observations statiques des capteurs représentées par grilles Sorties : grilles BOF comprénant les distributions probabilistes d’occupation et vitesse

Fast Clustering-Tracking Extraire les clusters à partir des grilles BOF Association de données explicites sans ambiguité Suivi à base de Kalman filtre Sorties : objets avec position et vitesse

Réalisation sur le GPU Navlab SLAMMOT Datasets, CMU, 2004, by C. C. Wang et al. http://www.csie.ntu.edu.tw/~bobwang/datasets.html

Performance améliorée Performance BOF+FCTA améliorée grace au pre-traitement avec Local SLAM Implémentation sur le GPU permet d’obtenir de 22-25 fps (vidéo) Comparaison pour un champ de vue de 30x40m et une cellule de grille de 0.3x0.3m

Estimation du risque de collision High-level Behavior prediction for other vehicles (Observations + HMM) Own vehicle Risk estimation (Gaussian Process) Cooperation Toyota & Probayes

Conclusion ArosDyn est en fort développement depuis le kick-off meeting il y a 8 mois Succès sur les tests de logiciels prévus pour la première année Réussite sur la préparation du prototype expérimental sur Toyota Lexus Difficultés : Retard de paiement des factures (délais d’acquisition des capteurs) Ressources humaines (financement sur des contrats)

Distances du télémètre Architecture fonctionnelle Drivers & Middleware Distances du télémètre Mesures d’odométrie Images stéréo Mesures inertielles Mesures GPS Calibration - Localisation de la cible dans la paire stéréo courante Estimation de la position par rapport à la frame de référence - Mesure de la qualité [0, 1] Détection visuelle Visual Tracking Local SLAM Modèle du télémètre BOF FCTA CRE Estimation de la probabilité de collision pour période T Détection télémétrique Filtrage-Tracking et estimation de risques - Road layout: largeur, courbure, sémantique - Vitesse et accélération des véhicules à suivre - Signaux de communication des véhicules Contexte sémantique GIS