Titre original :

Localisation de véhicules et détection d'obstacles : apport d'un modèle virtuel 3D urbain

Titre traduit :

Vehicle localization and obstacles detection with a virtual 3D city model

Mots-clés en français :
  • Détection d'obstacles

  • Fusion multicapteurs
  • Systèmes de transport intelligent
  • Véhicules automobiles -- Localisation automatique
  • GPS
  • Système d'information géographique
  • Systèmes de guidage
  • Réalité virtuelle
  • Vision artificielle (robotique)
  • Robots mobiles
  • Circulation urbaine
  • Langue : Français
  • Discipline : Automatique, Génie informatique, Traitement du signal et des images
  • Identifiant : 2008LIL10119
  • Type de thèse : Doctorat
  • Date de soutenance : 05/12/2008

Résumé en langue originale

Cette thèse s'intéresse à l'apport d'un modèle virtuel 3D urbain pour l'égo-localisation de véhicules intelligents ainsi que la détection et la localisation d'obstacles. La localisation du véhicule s'appuie sur plusieurs sources d'information: un GPS, des capteurs proprioceptifs (odométres et gyromètre), une caméra et un modèle virtuel 3D de l'environnement. Les capteurs proprioceptifs permettent d'obtenir une estimation quasi continue de la pose relative du véhicule. Cette estimation de la pose est recalée par des mesures GPS lorsque celles-ci sont disponibles. Afin de palier la dérive de la localisation à l'estime lors de longues indisponibilités des informations GPS, on construit une observation cartographique 3D. Celle-ci est basée sur le recalage entre le modèle virtuel 3D urbain et les images acquises par la caméra. Des travaux expérimentaux illustrent l'approche développée. Par ailleurs, l'apport d'un modèle virtuel 3D urbain est également étudié pour la détection et la localisation des obstacles. Une fois localisé dans le modèle 3D, les obstacles de l'infrastructure tels que les bâtiments sont connus et localisés. Pour détecter les obstacles n'appartenant pas à l'infrastructure (véhicules, piétons ... ), on compare l'image réelle et l'image virtuelle en considérant que ce type d'obstacles est présent dans l'image réelle mais absent de l'image virtuelle. A partir de l'information de profondeur disponible grâce au modèle 3D, les obstacles détectés sont ensuite géolocalisés. Les résultats expérimentaux obtenus sont comparés et validés grâce à un télémètre laser.

Résumé traduit

This thesis deals with ego-Iocalization of intelligent vehicles and obstacles detection with virtual 3D city mode!. Vehicle localization uses several sources of infonnation : a GPS receiver, proprioceptive sensors (odometers and gyrometer), a video camera and a virtual 3D city mode!. The proprioceptive sensors allow to continuously estimate the dead-reckoning position and orientation of the vehicle. This dead-reckoning estimation of the pose is corrected by GPS measurements. Moreover, a 3D geographical observation is constructed to compensate the drift of the dead-reckoning localisation when GPS measurements are unavailable for a long time. The 3D geographical observation is based on the matching between the virtual 3D city model and the images acquired by the camera. Experimental results iIlustrate the developed approach. Moreover, the contribution of a virtual 3D city model is also studied for the detection and the localization of obstacles. Once the vehicle is localized in the 3D model, the obstacles of the infrastructure like buildings are known and localized. ln order to detect the other obstacles as vehicles, pedestrians, ... the real image acquired by the camera and the virtual image extracted from the virtual 3D model are compared, by considering that this kind of obstacles are in the real image but are absent from the virtual image. With the detph information available from the 3D model, the detccted obstacle are then localized. Experimental results are compared with Lidar measurements

  • Directeur(s) de thèse : Pomorski, Denis - El Badaoui El Najjar, Maan
  • École doctorale : École doctorale Sciences pour l'ingénieur (Lille)

AUTEUR

  • Cappelle, Cindy
Droits d'auteur : Ce document est protégé en vertu du Code de la Propriété Intellectuelle.
Accès libre