<?xml version="1.0" encoding="UTF-8"?>
<mets:mets xmlns:mets="http://www.loc.gov/METS/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:dcterms="http://purl.org/dc/terms/" xmlns:mads="http://www.loc.gov/mads/" xmlns:metsRights="http://cosimo.stanford.edu/sdr/metsrights/" xmlns:tef="http://www.abes.fr/abes/documents/tef" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<mets:metsHdr CREATEDATE="2021-04-12T11:00:08" ID="univ-lille-16088" LASTMODDATE="2021-04-12T14:56:19" RECORDSTATUS="complet">
<mets:agent ROLE="CREATOR">
<mets:name>Université Lille1 - Sciences et Technologies</mets:name>
</mets:agent>
</mets:metsHdr>
<mets:dmdSec CREATED="2021-04-12T11:00:08" ID="desc_expr">
<mets:mdWrap MDTYPE="OTHER" OTHERMDTYPE="tef_desc_these">
<mets:xmlData>
<tef:thesisRecord>
<dc:title xml:lang="en">Advanced features for image representation: integrating relations, weights, depth, and time</dc:title>
<dcterms:alternative xml:lang="fr">Caractéristiques avancées pour la représentation d’images : intégration des relations, des poids, de la profondeur, et du temps</dcterms:alternative>
<dc:subject xml:lang="fr">Reconnaissance des personnes</dc:subject>
<dc:subject xml:lang="fr">Sac de mots visuels</dc:subject>
<dc:subject xml:lang="fr">Schéma de pondération 
</dc:subject>
<dc:subject xsi:type="dcterms:DDC">006.37</dc:subject>
<tef:sujetRameau>
<tef:vedetteRameauNomCommun>
<tef:elementdEntree autoriteExterne="027805115" autoriteSource="Sudoc"> Vision par ordinateur </tef:elementdEntree>
</tef:vedetteRameauNomCommun>
<tef:vedetteRameauNomCommun>
<tef:elementdEntree autoriteExterne="027673618" autoriteSource="Sudoc"> Traitement d'images -- Techniques numériques</tef:elementdEntree>
</tef:vedetteRameauNomCommun>
<tef:vedetteRameauNomCommun>
<tef:elementdEntree autoriteExterne="028209273" autoriteSource="Sudoc"> Bases de données -- Interrogation</tef:elementdEntree>
</tef:vedetteRameauNomCommun>
<tef:vedetteRameauNomCommun>
<tef:elementdEntree autoriteExterne="050176943" autoriteSource="Sudoc"> Recherche sur Internet </tef:elementdEntree>
</tef:vedetteRameauNomCommun>
<tef:vedetteRameauNomCommun>
<tef:elementdEntree autoriteExterne="027819116" autoriteSource="Sudoc"> Indexation automatique</tef:elementdEntree>
</tef:vedetteRameauNomCommun>
<tef:vedetteRameauNomCommun>
<tef:elementdEntree autoriteExterne="027242307" autoriteSource="Sudoc"> Reconnaissance des formes (informatique)</tef:elementdEntree>
</tef:vedetteRameauNomCommun>
</tef:sujetRameau>
<dcterms:abstract xml:lang="en">Tremendous amounts of visual data are produced every day, such as user-generated images and videos from social media platforms, audiovisual archives, etc. It is important to be able to search and retrieve documents among such large collections. Our work in computer vision and multimedia information retrieval focuses on visual features for image representation. In particular, inside the entire processing chain ranging from visual data acquisition with sensors to the user interface that facilitates the interaction with the system, our research addresses the internal representation of visual data in the form of an index that serves as a reference for the system regarding the image contents.
In the general context of image representation, we describe in a first part some contributions related to the widely-used paradigm of "bags of visual words". We also discuss the general notion of relation, taken at several levels – the low level of visual words, the transversal level aiming for cross-modal annotation, and the high level of semantic objects. Finally, we focus on the definition of weighting models, that serve as visual counterparts to popular weighting schemes used for text.
Because of the specificity of persons and their faces compared to general objects, we focus in a second part on specific features and methods for person recognition. Two directions are developed to overcome some limitations of static 2D approaches based on face images, with the objective of improving systems' precision and robustness. One direction integrates depth in facial features, and the other takes advantage of temporal information in video streams. In both cases, dedicated features and strategies are investigated.</dcterms:abstract>
<dcterms:abstract xml:lang="fr">D'immenses quantités de données visuelles sont générées tous les jours, telles que les images et vidéos produites par les utilisateurs des réseaux sociaux, les archives audiovisuelles, etc. Il est important de pouvoir chercher et retrouver des documents au sein de tels grands volumes de données. Notre travail en vision par ordinateur et recherche d'information multimédia porte sur les caractéristiques visuelles pour la représentation d'images. En particulier, dans la chaîne des traitements allant de l'acquisition des données visuelles via des capteurs jusqu'à l'interface utilisateur qui facilite l'interaction avec le système, notre recherche s'intéresse à la représentation interne des données visuelles sous la forme d'un index qui sert de référence pour le système concernant le contenu des images.
Dans le contexte général de la représentation d'images, nous décrivons dans une première partie quelques contributions liées au paradigme populaire des "sacs de mots visuels". Nous discutons également la notion générale de relation, prise à différents niveaux – le bas niveau des mots visuels, le niveau transverse qui vise l'annotation intermodale, et le haut niveau des objets sémantiques. Finalement, nous nous attachons à définir des modèles de pondération, qui servent de pendants visuels des schémas de pondération utilisés pour le texte.
En raison de la spécificité des personnes et visages en comparaison aux objets généraux, nous nous intéressons dans une seconde partie aux caractéristiques et méthodes spécifiques pour la reconnaissance de personnes. Deux directions sont développées pour pallier certaines limitations des approches 2D statiques basées sur des images de visages, avec l'objectif d'améliorer la précision et la robustesse des systèmes. L'une des directions intègre la profondeur dans les caractéristiques faciales, et l'autre exploite l'information temporelle dans les flux vidéo. Dans les deux cas, des caractéristiques et stratégies dédiées sont étudiées.
</dcterms:abstract>
<dc:type>Electronic Thesis or Dissertation</dc:type>
<dc:type xsi:type="dcterms:DCMIType">Text</dc:type>
<dc:language xsi:type="dcterms:RFC3066">en</dc:language>
</tef:thesisRecord>
</mets:xmlData>
</mets:mdWrap>
</mets:dmdSec>
<mets:dmdSec CREATED="2021-04-12T11:00:08" ID="desc_edition">
<mets:mdWrap MDTYPE="OTHER" OTHERMDTYPE="tef_desc_edition">
<mets:xmlData>
<tef:edition>
<dcterms:medium xsi:type="dcterms:IMT">application/pdf</dcterms:medium>
<dcterms:extent>1 : 9356 Ko</dcterms:extent>
<dc:identifier xsi:type="dcterms:URI">https://pepite-depot.univ-lille.fr/LIBRE/HDR/2016/HDR2016LIL133.pdf</dc:identifier>
</tef:edition>
</mets:xmlData>
</mets:mdWrap>
</mets:dmdSec>
<mets:amdSec>
<mets:techMD ID="admin_expr">
<mets:mdWrap MDTYPE="OTHER" OTHERMDTYPE="tef_admin_these">
<mets:xmlData>
<tef:thesisAdmin>
<tef:auteur>
<tef:nom>Martinet</tef:nom>
<tef:prenom>Jean</tef:prenom>
<tef:dateNaissance>1978-11-11</tef:dateNaissance>
<tef:nationalite scheme="ISO-3166-1">FR</tef:nationalite>
<tef:autoriteExterne autoriteSource="Sudoc">086873172</tef:autoriteExterne>
</tef:auteur>
<dc:identifier xsi:type="tef:NNT"/>
<dcterms:dateAccepted xsi:type="dcterms:W3CDTF">2016-12-15</dcterms:dateAccepted>
<tef:thesis.degree>
<tef:thesis.degree.discipline xml:lang="fr">Informatique</tef:thesis.degree.discipline>
<tef:thesis.degree.grantor>
<tef:nom>Université Lille1 - Sciences et Technologies</tef:nom>
<tef:autoriteInterne>thesis.degree.grantor_1</tef:autoriteInterne>
<tef:autoriteExterne autoriteSource="Sudoc">026404184</tef:autoriteExterne>
</tef:thesis.degree.grantor>
<tef:thesis.degree.level>HDR</tef:thesis.degree.level>
</tef:thesis.degree>
<tef:theseSurTravaux>non</tef:theseSurTravaux>
<tef:avisJury>oui</tef:avisJury>
<tef:directeurThese>
<tef:nom>Djeraba</tef:nom>
<tef:prenom>Chabaane</tef:prenom>
<tef:autoriteInterne>intervenant_1</tef:autoriteInterne>
<tef:autoriteExterne autoriteSource="Sudoc">05991582X</tef:autoriteExterne>
</tef:directeurThese>
<tef:ecoleDoctorale>
<tef:nom>École doctorale Sciences pour l'Ingénieur (Lille)</tef:nom>
<tef:autoriteInterne>ecoleDoctorale_1</tef:autoriteInterne>
<tef:autoriteExterne autoriteSource="Sudoc">147297028</tef:autoriteExterne>
</tef:ecoleDoctorale>
<tef:partenaireRecherche type="laboratoire">
<tef:nom>Centre de recherche en informatique, signal et automatique de Lille (CRIStAL)</tef:nom>
<tef:autoriteInterne>partenaireRecherche_1</tef:autoriteInterne>
<tef:autoriteExterne autoriteSource="Sudoc">18388695X</tef:autoriteExterne>
</tef:partenaireRecherche>
<tef:oaiSetSpec>ddc:004</tef:oaiSetSpec>
<tef:MADSAuthority authorityID="intervenant_1" type="personal">
<tef:personMADS>
<mads:namePart type="family">Djeraba</mads:namePart>
<mads:namePart type="given">Chabaane</mads:namePart>
</tef:personMADS>
</tef:MADSAuthority>
<tef:MADSAuthority authorityID="thesis.degree.grantor_1" type="corporate">
<tef:personMADS>
<mads:namePart>Université Lille1 - Sciences et Technologies</mads:namePart>
<mads:description>Université Lille1 - Sciences et Technologies</mads:description>
</tef:personMADS>
</tef:MADSAuthority>
<tef:MADSAuthority authorityID="ecoleDoctorale_1" type="corporate">
<tef:personMADS>
<mads:namePart>École doctorale Sciences pour l'Ingénieur (Lille)</mads:namePart>
</tef:personMADS>
</tef:MADSAuthority>
<tef:MADSAuthority authorityID="partenaireRecherche_1" type="corporate">
<tef:personMADS>
<mads:namePart>Centre de recherche en informatique, signal et automatique de Lille (CRIStAL)</mads:namePart>
</tef:personMADS>
</tef:MADSAuthority>
</tef:thesisAdmin>
</mets:xmlData>
</mets:mdWrap>
</mets:techMD>
<mets:techMD ID="file_1">
<mets:mdWrap MDTYPE="OTHER" OTHERMDTYPE="tef_tech_fichier">
<mets:xmlData>
<tef:meta_fichier>
<tef:encodage>ASCII</tef:encodage>
<tef:formatFichier>PDF</tef:formatFichier>
<tef:taille>9580429</tef:taille>
</tef:meta_fichier>
</mets:xmlData>
</mets:mdWrap>
</mets:techMD>
<mets:rightsMD ID="dr_expr_thesard">
<mets:mdWrap MDTYPE="OTHER" OTHERMDTYPE="tef_droits_auteur_these">
<mets:xmlData>
<metsRights:RightsDeclarationMD>
<metsRights:Context CONTEXTCLASS="GENERAL PUBLIC">
<metsRights:Permissions COPY="true" DELETE="false" DISCOVER="true" DISPLAY="true" DUPLICATE="true" MODIFY="false" PRINT="true"/>
</metsRights:Context>
</metsRights:RightsDeclarationMD>
</mets:xmlData>
</mets:mdWrap>
</mets:rightsMD>
<mets:rightsMD ID="dr_expr_univ">
<mets:mdWrap MDTYPE="OTHER" OTHERMDTYPE="tef_droits_etablissement_these">
<mets:xmlData>
<metsRights:RightsDeclarationMD>
<metsRights:Context CONTEXTCLASS="GENERAL PUBLIC">
<metsRights:Permissions COPY="true" DELETE="false" DISCOVER="true" DISPLAY="true" DUPLICATE="true" MODIFY="false" PRINT="true"/>
</metsRights:Context>
</metsRights:RightsDeclarationMD>
</mets:xmlData>
</mets:mdWrap>
</mets:rightsMD>
<mets:rightsMD ID="dr_version">
<mets:mdWrap MDTYPE="OTHER" OTHERMDTYPE="tef_droits_version">
<mets:xmlData>
<metsRights:RightsDeclarationMD>
<metsRights:Context CONTEXTCLASS="GENERAL PUBLIC">
<metsRights:Permissions COPY="true" DELETE="false" DISCOVER="true" DISPLAY="true" DUPLICATE="true" MODIFY="false" PRINT="true"/>
</metsRights:Context>
</metsRights:RightsDeclarationMD>
</mets:xmlData>
</mets:mdWrap>
</mets:rightsMD>
</mets:amdSec>
<mets:fileSec>
<mets:fileGrp ID="FGrID1" USE="diffusion">
<mets:file ADMID="file_1" ID="FID1" MIMETYPE="application/pdf" USE="maitre">
<mets:FLocat LOCTYPE="URL" xlink:href="https://pepite-depot.univ-lille.fr/LIBRE/HDR/2016/HDR2016LIL133.pdf"/>
</mets:file>
</mets:fileGrp>
</mets:fileSec>
<mets:structMap TYPE="logical">
<mets:div ADMID="dr_expr_thesard dr_expr_univ admin_expr" CONTENTIDS="www.univ-lille.fr/uid/univ-lille-16088/oeuvre" DMDID="desc_expr" TYPE="THESE">
<mets:div ADMID="dr_version" CONTENTIDS="www.univ-lille.fr/uid/univ-lille-16088/oeuvre/version" TYPE="VERSION_COMPLETE">
<mets:div CONTENTIDS="www.univ-lille.fr/uid/univ-lille-16088/oeuvre/version/edition" DMDID="desc_edition" TYPE="EDITION">
<mets:fptr FILEID="FGrID1"/>
</mets:div>
</mets:div>
</mets:div>
</mets:structMap>
</mets:mets>
