• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 191
  • 71
  • 20
  • 19
  • 4
  • 4
  • 3
  • 3
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 323
  • 94
  • 94
  • 67
  • 66
  • 55
  • 47
  • 41
  • 40
  • 38
  • 37
  • 35
  • 33
  • 32
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Indexation et recherche conceptuelles de documents pédagogiques guidées par la structure de Wikipédia / Learning document indexing and retrieval nased on wikipedia's structure

Abi Chahine, Carlo 14 October 2011 (has links)
Cette thèse propose un système d'aide à l'indexation et à la recherche de documents pédagogiques fondé sur l'utilisation de Wikipédia.l'outil d'aide à l'indexation permet de seconder les documentalistes dans la validation, le filtrage et la sélection des thématiques, des concepts et des mots-clés issus de l'extraction automatique d'un document. En effectuant une analyse des données textuelles d'un document, nous proposons au documentaliste une liste de descripteurs permettant de représenter et discriminer le document. Le travail du documentaliste se limite alors à une lecture rapide du document et à la sélection et suppression des descripteurs suggérés par le système pour rendre l'indexation homogène, discriminante et exhaustive. Pour cela nous utilisons Wikipédia comme base de connaissances. Le modèle utilisé pour l'extraction des descripteurs permet également de faire de la recherche d'information sur un corpus de document déjà indexé. / This thesis proposes an indexing suupport and information retrieval system for learning resources based on Wikipedia.The indexing support system assists the archivists in fetching the descriptors for a given document. The system analyses the textual content of the document and suggests to the archivists a set of relevant descriptors for this document. After a speed-reading of the document and superficail analysis, the archivists can validate, filter and select the descriptors they consider relevant. To perform this task, we decide to use Wikipedai as knowledge base. The suggest model also anables us to carry out information retrieval tasks on the previously analyzed documents of a corpus.
152

Proposition d'architectures radio logicielles fpga pour démoduler simultanément et intégralement les bandes radios commerciales, en vue d'une indexation audio / Proposal of fpga - based software radio architectures for simultaneously and fully demodulating the commercial radio bands, with the aim of doing audio indexing

Happi Tietche, Brunel 11 March 2014 (has links)
L'expansion de la radio et le développement de nouveaux standards enrichissent la diversité et la quantité de données contenues sur les ondes de radiodiffusion. Il devient alors judicieux de développer un moteur de recherches qui aurait la capacité de rendre toutes ces données accessibles comme le font les moteurs de recherche sur internet à l'image de Google. Les possibilités offertes par un tel moteur s'il existe sont nombreuses. Ainsi, le projet SurfOnHertz, qui a été lancé en 2010 et s'est terminé en 2013, avait pour but de mettre au point un navigateur qui serait capable d'indexer les flux audios de toutes les stations radios. Cette indexation se traduirait, entre autres, par de la détection de mots clés dans les flux audios, la détection de publicités, la classification de genres musicaux. Le navigateur une fois mis au point deviendrait le premier moteur de recherches de genre à traiter les contenus radiodiffusés. Relever un tel challenge nécessite d'avoir un dispositif pour capter toutes les stations en cours de diffusion dans la zone géographique concernée, les démoduler et transmettre les contenus audios à un moteur d'indexation. Ainsi, les travaux de cette thèse visent à proposer des architectures numériques portées sur une plateforme SDR pour extraire, démoduler, et mettre à disposition le contenu audio de chacune des stations diffusées dans la zone géographique du récepteur. Vu le grand nombre de standards radio existants aujourd'hui, la thèse porte principalement les standards FM et DRM30. Cependant les méthodologies proposées sont extensibles à d'autres standards.C'est à base d'un FPGA que la majeure partie des travaux a été menée. Le choix de ce type de comcomposant est justifié de par les grandes possibilités qu’il offre en termes de parallélisme de traitements, de maitrise de ressources disponibles, et d’embarquabilité. Le développement des algorithmes a été fait dans un souci de minimisation de la quantité de blocs de calculs utilisés. D’ailleurs, bon nombre d’implémentations ont été réalisées sur un Stratix II, technologie aux ressources limitées par rapport aux FPGAs d’aujourd’hui disponibles sur le marché. Cela atteste la viabilité des algorithmes présentés. Les algorithmes proposés opèrent ainsi l’extraction simultanée de tous les canaux radios lorsque les stations ne peuvent occuper que des emplacements uniformément espacés comme la FM en Europe occidentale, et aussi, pour des standards dont la répartition des stations dans le spectre semble plutôt aléatoire comme le DRM30. Une autre partie des discussions porte sur le moyen de les démoduler simultanément. / The expansion of the radio and the development of new standards enrich the diversity and the amount of data carried by the broadcast radio waves. It becomes wise to develop a search engine that has the capacity to make these accessible as do the search engines on the internet like Google. Such an engine can offer many possibilities. In that vein, the SurfOnHertz project, which was launched in 2010 and ended in 2013, aimed to develop a browser that is capable of indexing audio streams of all radio stations. This indexing would result, among others, in the detection of keywords in the audio streams, the detection of commercials, the classification of musical genres. The browser once developed would become the first search engine of its kind to address the broadcast content. Taking up such a challenge requires to have a device to capture all the stations being broadcasted in the geographical area concerned, demodulate them and transmit the audio contents to the indexing engine. Thus, the work of this thesis aim to provide digital architectures carried on a SDR platform for extracting, demodulating, and making available the audio content of each broadcast stations in the geographic area of the receiver. Before the large number of radio standards which exist today, the thesis focuses FM and DRM30 standards. However the proposed methodologies are extensible to other standards. The bulk of the work is FPGA-based. The choice of this type of component is justified by the great opportunities it offers in terms of parallelism of treatments, mastery of available resources, and embeddability. The development of algorithms was done for the sake of minimizing the amount of the used calculations blocks. Moreover, many implementations have been performed on a Stratix II technology which has limited resources compared to those of the FPGAs available today on the market. This attests to the viability of the presented algorithms. The proposed algorithms thus operate simultaneous extraction of all radio channels when the stations can only occupy uniformly spaced locations like FM in Western Europe, and also for standards of which the distribution of stations in the spectrum seems rather random as the DRM30. Another part of the discussion focuses on the means of simultaneously demodulating it.
153

Filtrage et Recommandation sur les Réseaux Sociaux / Filtering and Recommendation in Social Networks

Dahimene, Mohammed Ryadh 08 December 2014 (has links)
Ces dernières années, le contenu disponible sur le Web a augmenté de manière considérable dans ce qu’on appelle communément le Web social. Pour l’utilisateur moyen, il devient de plus en plus difficile de recevoir du contenu de qualité sans se voir rapidement submergé par le flot incessant de publications. Pour les fournisseurs de service, le passage à l’échelle reste problématique. L’objectif de cette thèse est d’aboutir à une meilleure expérience utilisateur à travers la mise en place de systèmes de filtrage et de recommandation. Le filtrage consiste à offrir la possibilité à un utilisateur de ne recevoir qu’un sous ensemble des publications des comptes auxquels il est abonné. Tandis que la recommandation permet la découverte d’information à travers la suggestion de comptes à suivre sur des sujets donnés. Nous avons élaboré MicroFilter un système de filtrage passant à l’échelle capable de gérer des flux issus du Web ainsi que RecLand, un système de recommandation qui tire parti de la topologie du réseau ainsi que du contenu afin de générer des recommandations pertinentes. / In the last years, the amount of available data on the social Web has exploded. For the average user, it became hard to find quality content without being overwhelmed with publications. For service providers, the scalability of such services became a challenging task. The aim of this thesis is to achieve a better user experience by offering the filtering and recommendation features. Filtering consists to provide for a given user, the ability of receiving only a subset of the publications from the direct network. Where recommendation allows content discovery by suggesting relevant content producers on given topics. We developed MicroFilter, a scalable filtering system able to handle Web-like data flows and RecLand, a recommender system that takes advantage of the network topology as well as the content in order to provide relevant recommendations.
154

Méthode automatique d’annotations sémantiques et indexation de documents textuels pour l’extraction d’objets pédagogiques / Automatic method of semantic annotation and indexing of textual documents to extract learning objects

Ben Ali, Boutheina 18 January 2014 (has links)
L'analyse du contenu devient une nécessité pour l'accès et l'utilisation de l'information en particulier dans le domaine de la didactique des disciplines. Nous proposons un système SRIDOP d'annotations sémantiques et d'indexation des documents pédagogiques à partir des annotations, en se basant sur la méthode d'Exploration Contextuelle qui, à un identificateur linguistique d'un concept, associe une annotation d'un segment en tenant compte d'indices contextuels gérés par des règles. SRIDOP est composé de quatre modules consécutifs : (1)Segmentation automatique des documents en paragraphes et phrases ; (2) annotation selon différents points de vue de fouille (exemple: identification de définitions, exemples, exercices, etc.) en se basant sur une ontologie linguistique de concepts associés à un point de vue de fouille (carte sémantique) et de ressources linguistiques (indicateurs de concepts, indices linguistiques et règles d'Exploration Contextuelle) ; (3) extraction d'objets pédagogiques ; (4) constitution de fiches pédagogiques exploitables par les utilisateurs. SRIDOP est évalué et comparé à d'autres systèmes. / Content analysis is a need for access and use of information especially in the field of didactics. We propose a system SRIDOP of semantic annotations and indexing of learning objects from these annotations, based on the Contextual Exploration method, that associate annotation of a segment to a linguistic identifier of a concept, taking into account contextual clues managed by rules. SRIDOP is composed of four consecutive modules: (1) Automatic segmentation of documents into paragraphs and sentences; (2) annotation from different points of view of search (eg identification of definitions, examples, exercises, etc..) based on a linguistic ontology of concepts associated with a point of view of search (semantic map) and linguistic resources (indicators of concepts, linguistic clues and contextual exploration rules); (3) extraction of learning objects, (4) establishment of learning sheets exploitable by users. SRIDOP is evaluated and compared to other systems.
155

Supervision des réseaux pair à pair structurés appliquée à la sécurité des contenus / Monitoring of structured P2P networks applied to the security of contents

Cholez, Thibault 23 June 2011 (has links)
L'objectif de cette thèse est de concevoir et d'appliquer de nouvelles méthodes de supervision capables d'appréhender les problèmes de sécurité affectant les données au sein des réseaux P2P structurés (DHT). Ceux-ci sont de deux types. D'une part les réseaux P2P sont utilisés pour diffuser des contenus illégaux dont l'activité est difficile à superviser. D'autre part, l'indexation des contenus légitimes peut être corrompue (attaque Sybil).Nous proposons tout d'abord une méthode de supervision des contenus basée sur l'insertion de sondes et le contrôle du mécanisme d'indexation du réseau. Celle-ci permet d'attirer l'ensemble des requêtes des pairs pour un contenu donné, puis de vérifier leur intention en générant des appâts très attractifs. Nous décrivons ainsi les faiblesses du réseau permettant la mise en oeuvre de notre méthode en dépit des protections existantes. Nous présentons les fonctionnalités de notre architecture et en évaluons l'efficacité sur le réseau P2P KAD avant de présenter un déploiement réel ayant pour but l'étude des contenus pédophiles.Nous considérons ensuite la sécurité des données indexées dans une DHT. Nous supervisons le réseau KAD et montrons que celui-ci est victime d'une pollution particulièrement néfaste affectant 2/3 des fichiers mais aussi de nombreuses attaques ciblées affectant la sécurité des contenus stockés. Nous proposons un moyen de détecter efficacement cette dernière attaque en analysant la distribution des identifiants des pairs autour d'une référence ainsi qu'une contre-mesure permettant de protéger les pairs à un coût négligeable. Nous terminons par l'évaluation de la protection au sein de réseaux P2P réels. / The purpose of this thesis is to design and implement new monitoring solutions which are able to deal with the security issues affecting data stored in large structured P2P networks (DHT). There are two major types of issues. First, P2P networks are used to spread illegal contents whose activity is difficult to monitor accurately. Second, the indexation of regular contents can be corrupted (Sybil attack).We first designed a new approach to monitor contents based on the insertion of distributed probes in the network to take control of the indexation mechanism. The probes can attract all the related requests for a given content and assess the peers intent to access it by generating very attractive honeypots. We describe the weaknesses of the network allowing our solution to be effective despite recent protection mechanisms. We then present the services offered by our monitoring architecture and we evaluate its efficiency on KAD. We also present a real deployment whose purpose is to study pedophile contents on this network.Then, we focus on data integrity in distributed hash tables. We performed large scale monitoring campaigns on the KAD network. Our observations show that it suffers from a very harmful pollution of its indexation mechanism affecting 2/3 of the shared files and from a large number of localized attacks targeting contents. To mitigate these threats, we propose a new efficient way to detect attacks by analysing the distribution of the peers' ID found around an entry after a DHT lookup and a counter-measure which can protect the peers at a negligible cost. Finally, we evaluate our solution in real P2P networks.
156

Similarités dans des Modèles BRep Paramétriques : Détection et Applications / Similarities within BRep Parametric Models : Detection and Applications

Dang, Quoc Viet 22 September 2014 (has links)
Dans cette thèse, nous identifions et exploitons des similarités partielles dans des objets 3D pour répondre à des besoins courants du domaine de la Conception Assistée par Ordinateur (CAO). De nouvelles méthodes sont introduites, d'une part pour détecter les similarités partielles, d'autre part pour utiliser ces similarités dans des applications spécifiques telles que l'édition de forme, la compression et l'indexation d'objets 3D. Grâce au développement des applications de la modélisation géométrique, ces modèles sont de plus en plus nombreux et sont disponibles à travers plusieurs modalités. Pour augmenter la productivité dans la création de tels objets virtuels, la réutilisation et l'adaptation des modèles existants est un choix prioritaire. Cela exige donc des méthodes facilitant le stockage, la recherche et l'exploitation de ces modèles. Heureusement, les similarités dans des objets 3D est un phénomène fréquent. De nombreux objets sont composés de parties similaires à une rotation, à une translation ou à une symétrie près. De ce fait, la détection des similarités partielles dans ces modèles est capable de répondre aux problématiques courantes : la taille du stockage est réduite en conservant seulement une partie au lieu de toutes les parties répétées d'un modèle; l'indexation des modèles 3D requiert a priori l'orientation canonique des modèles. Or, la symétrie dans un objet 3D est toujours une référence d'orientation cohérente avec la perception humaine. Nous utilisons donc la symétrie partielle pour aligner ces modèles et ainsi renforcer la robustesse des méthodes d'indexation. Dans un premier temps, nous introduisons une approche similaire à la Transformée de Hough pour détecter des similarités partielles dans des modèles BRep-NURBS. Cette approche identifie non seulement les parties similaires mais aussi les transformations qui les lient. À travers la classification des isométries dans l'analyse des transformations, notre approche peut distinguer la nature de transformation liant des parties similaires d'un modèle, c'est-à-dire, les parties similaires à une rotation, à une translation ou à une symétrie près. Dans le deuxième temps, nous proposons deux applications héritées directement des résultats obtenus par la détection. Tout d'abord, pour la compression, un modèle se transforme en un graphe de similarités d'où les faces principales à conserver sont sélectionnées dans la structure compressée. Ensuite, pour l'orientation, le plan de la symétrie dominante et la projection orthographique d'un modèle autour de ce plan permettent de définir un repère canonique pour aligner ce modèle. / In this thesis, we identify and exploit the partial similarities within 3D objects to answer the current needs of the Computer Aided Design field (CAD). Novel methods are introduced, on the one hand to detect the partial similarities, on the other hand to use these similarities for specific applications such as shape editing, compression and indexation of 3D objects. Because of the development of geometric modeling applications, 3D models are getting more numerous and available through many channels. To increase the productivity in creating such 3D virtual objects, the reuse and the adaptation of existing models becomes a prior choice. Thus, it requires methods easing the storage, the searching and the exploitation of these models. Fortunately, similarities within the 3D objects is a popular phenomenon. Many objects are composed of similar patches up to an approximated rotation, translation or symmetry. Hence, detecting the partial similarities within NURBSBRep models is able to solve the current issues : the storage size is reduced by coding a single patch instead of repeated patches of a model ; 3D model indexation requires a canonical orientation of these models. Furthermore, the symmetry within a 3D object is a good orientation reference, coherent with the human perception. Accordingly, we use the partial symmetries to align 3D models and so reinforce the robustness of indexation methods. In a first phase, we introduce an orginal approach similar to the Hough Transform to detect partial similarities within NURBS-BRep models. This approach identifies not only similar patches but also identifies the corresponding transformations that connect them. Additionally, through the classification of isometries in transformations analysis, our approach can distinguish the nature of transformations of similar patches of a model, that is, the patches similar up to an approximated rotation, translation or symmetry. This classification is advantageous for further applications : the similar patches of other transformation natures are considered in compressing ; the symmetric patches are used to normalize 3D models aim at a robust indexation. In the second phase, we propose two applications inherited directly from the obtained results of the detection. Firstly, for the compression, a model is transformed into a similarity graph where the principal faces to be coded are selected to form the compressed structure. Secondly, for the orientation, the plane of the dominant symmetry and the orthographic projection of a model around this plane generate a canonical frame to align this model.
157

La modification du contrat administratif en droit colombien / The modification of the public contract under colombian law

Guecha Lopez, Carlos Alfonso 22 October 2015 (has links)
Bien que la modification du contrat administratif soit par principe libre, elle ne peut s’exercer que dans le cadre de certaines limites. En France, les règles de publicité et mise en concurrence imposent des conditions de fond, de forme et de procédure qui déterminent la légalité de l’instrument modificatif. L’interdiction d’un objet nouveau, les restrictions au bouleversement de l’économie du contrat, la fixation des seuils par le juge, etc. révèlent un contrôle rigoureux des modifications. En Colombie, par contre, il semble que la liberté des parties est beaucoup plus étendue. Un seuil général de cinquante pour cent du montant initial, la possibilité des parties de bouleverser l’économie du contrat et même la modification fondamentale de l’objet, font partie d’un système juridique qui tend à supprimer toutes les restrictions à la volonté des parties à l’égard de la modification. S’il est même de l’essence du contrat administratif d’admettre des modifications aux conditions fixées initialement, un sujet d’une grande importance sera celui de la nature de la modification en droit colombien pour dévoiler tous les défis de sa mise en oeuvre. / Although the modification of the public contract is in principle free, it can only take place under certain limitations. In France, the rules of advertising and competition impose substantive conditions of form and procedure to determine the legality of the modifying instrument. The prohibition of agreeing to a new object, restrictions on altering the economic balance, setting financial thresholds, etc., reveal a rigorous control for any modifications. In Colombia, however, it appears that the freedom of the parties is much broader. A general threshold of fifty percent of the initial price, the possibility of altering the economics of the contract and even the fundamental modification of the object, are part of a legal system that tends to abolish all restrictions to the will of the parties regarding modification. Although it is of the essence of contract modifications to disclose the conditions initially established, a major theme is that of the nature of the change in Colombian law to reveal all the challenges of its implementation.
158

Partial 3D-shape indexing and retrieval / Indexation partielle de modèles 3D

El Khoury, Rachid 22 March 2013 (has links)
Un nombre croissant d’applications graphiques 3D ont un impact sur notre société. Ces applications sont utilisées dans plusieurs domaines allant des produits de divertissement numérique, la conception assistée par ordinateur, aux applications médicales. Dans ce contexte, un moteur de recherche d’objets 3D avec de bonnes performances en résultats et en temps d’exécution devient indispensable. Nous proposons une nouvelle méthode pour l’indexation de modèles 3D basée sur des courbes fermées. Nous proposons ensuite une amélioration de notre méthode pour l’indexation partielle de modèles 3D. Notre approche commence par la définition d’une nouvelle fonction d’application invariante. Notre fonction d’application possède des propriétés importantes : elle est invariante aux transformations rigides et non rigides, elle est insensible au bruit, elle est robuste à de petits changements topologiques et elle ne dépend pas de paramètres. Cependant, dans la littérature, une telle fonction qui respecte toutes ces propriétés n’existe pas. Pour respecter ces propriétés, nous définissons notre fonction basée sur la distance de diffusion et la distance de migration pendulaire. Pour prouver les propriétés de notre fonction, nous calculons le graphe de Reeb de modèles 3D. Pour décrire un modèle 3D complet, en utilisant notre fonction d’application, nous définissons des courbes de niveaux fermées à partir d’un point source détecté automatiquement au centre du modèle 3D. Chaque courbe décrit alors une région du modèle 3D. Ces courbes créent un descripteur invariant à différentes transformations. Pour montrer la robustesse de notre méthode sur différentes classes de modèles 3D dans différentes poses, nous utilisons des objets provenant de SHREC 2012. Nous comparons également notre approche aux méthodes de l’état de l’art à l’aide de la base SHREC 2010. Pour l’indexation partielle de modèles 3D, nous améliorons notre approche en utilisant la technique sacs de mots, construits à partir des courbes fermées extraites, et montrons leurs bonnes performances à l’aide de la base précédente / A growing number of 3D graphic applications have an impact on today’s society. These applications are being used in several domains ranging from digital entertainment, computer aided design, to medical applications. In this context, a 3D object search engine with a good performance in time consuming and results becomes mandatory. We propose a novel approach for 3D-model retrieval based on closed curves. Then we enhance our method to handle partial 3D-model retrieval. Our method starts by the definition of an invariant mapping function. The important properties of a mapping function are its invariance to rigid and non rigid transformations, the correct description of the 3D-model, its insensitivity to noise, its robustness to topology changes, and its independance on parameters. However, current state-of-the-art methods do not respect all these properties. To respect these properties, we define our mapping function based on the diffusion and the commute-time distances. To prove the properties of this function, we compute the Reeb graph of the 3D-models. To describe the whole 3D-model, using our mapping function, we generate indexed closed curves from a source point detected automatically at the center of a 3D-model. Each curve describes a small region of the 3D-model. These curves lead to create an invariant descriptor to different transformations. To show the robustness of our method on various classes of 3D-models with different poses, we use shapes from SHREC 2012. We also compare our approach to existing methods in the state-of-the-art with a dataset from SHREC 2010. For partial 3D-model retrieval, we enhance the proposed method using the Bag-Of-Features built with all the extracted closed curves, and show the accurate performances using the same dataset
159

PROPOSITION D'UNE METHODE DE REFERENCEMENT D'IMAGES POUR<br />ASSISTER LA CONCEPTION ARCHITECTURALE :<br />Application à la recherche d'ouvrages.

Kacher, Sabrina 18 October 2005 (has links) (PDF)
Diverses études ont montré que l'activité de conception en architecture en général s'apparente à ce<br />que nous nommons un cheminement sémantique. En situation de projet, le passage d'un objet de<br />conception à un autre objet, d'une représentation à une autre ou d'un état de définition à un autre<br />se fait par conservation, enrichissement ou épuisement de sens.<br />Pour assister ce processus de conception, nous avons travaillé sur la mise en oeuvre d'une base de<br />données d'images qui joue le rôle d'un dispositif sémantique référentiel à partir duquel les<br />concepteurs peuvent inférer et construire de nouveaux systèmes sémantiques orientés vers leur<br />projet. Nous savons également que concevoir une solution architecturale impose d'introduire des<br />références externes au problème de conception. Pour cela, nous proposons des images illustrant<br />des réalisations architecturales existantes qui constitueront des références architecturales et<br />visuelles pour le concepteur. L'objectif de notre travail est de proposer une méthode pour<br />construire cette base d'images à partir de laquelle le concepteur pourra inférer et construire de<br />nouveaux systèmes de formulation/résolution de problèmes orientés vers son projet. Cette méthode<br />repose sur trois points fondamentaux qui sont : (i) la construction d'un langage adapté à la fois à<br />description du domaine et des images, (ii) la pondération des termes utilisés pour l'indexation des<br />images et enfin (iii) la proposition d'une interface de recherche adaptée aux besoins du concepteur.
160

Suivi d'objets dans une séquence d'images par modèle d'apparence : conception et évaluation

Mikram, Mounia 15 December 2008 (has links)
Le travail présenté dans ce mémoire s’inscrit dans le cadre du suivi d'objets dans des vidéos, et plus particulièrement, sur l'utilisation de représentations par modèle d'apparence pour le suivi. La notion de modèle d'apparence est précisée sur la base de l'extraction de descripteurs visuels comparés à l'aide de similarités à une référence. De nouvelles techniques pour évaluer les performances vis à vis du suivi sont présentées. Les approches classiques d’évaluation considèrent uniquement la qualité des trajectoires finales estimées. Les métriques proposées dans ce mémoire s’en distinguent par le fait qu’elles quantifient la performance intrinsèque des modèles d’apparence utilisés au sein du système. Deux axes sont ainsi développés : d’une part, un ensemble de mesures de la précision spatiale d’un modèle couplées à la mesure de la robustesse vis-à-vis d’une initialisation spatiale approximative, et d’autre part, la proposition d’une méthodologie permettant de mesurer la stabilité d’un modèle du point de vue temporel sur des données vidéos naturelles. Ces techniques seront utilisées dans la suite du mémoire pour évaluer les méthodes existantes ainsi que celles présentées. Deux nouveaux modèles d'apparence sont ensuite introduits. Le premier modèle dénommé l’histogramme multi-échelles permet de limiter les ambigüités liées à la représentation par histogramme de couleurs. Le deuxième modèle, fondé sur une extension de la métrique de Matusita pour la comparaison de distributions de couleurs, prend en compte les variations possibles des couleurs des objets liées aux conditions de changement d’illumination. Enfin, le lien entre modèle d'apparence et technique de recherche de la position optimale est abordé dans le contexte du suivi multi-noyaux à travers la proposition d'un nouvel algorithme de suivi basé sur une approche compositionnelle inverse. Celui-ci offre un temps de calcul fortement réduit pour une qualité de suivi similaire aux algorithmes existants. / Abstract

Page generated in 0.0757 seconds