• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 48
  • 35
  • 5
  • 1
  • Tagged with
  • 86
  • 42
  • 28
  • 27
  • 21
  • 20
  • 20
  • 16
  • 13
  • 11
  • 11
  • 10
  • 9
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Workflow and Activity Modeling for Monitoring Surgical Procedures / Modélisation des activités chirurgicales et de leur déroulement pour la reconnaissance des étapes opératoires

Padoy, Nicolas 14 April 2010 (has links)
Le bloc opératoire est au coeur des soins délivrés dans l'hôpital. Suite à de nombreux développements techniques et médicaux, il devient équipé de salles opératoires hautement technologiques. Bien que ces changements soient bénéfiques pour le traitement des patients, ils accroissent la complexité du déroulement des opérations. Ils impliquent également la présence de nombreux systèmes électroniques fournissant de l'information sur les processus chirurgicaux. Ce travail s'intéresse au développement de méthodes statistiques permettant de modéliser le déroulement des processus chirurgicaux et d'en reconnaitre les étapes, en utilisant des signaux présents dans le bloc opératoire. Nous introduisons et formalisons le problème consistant à reconnaitre les phases réalisées au sein d'un processus chirurgical, en utilisant une représentation des chirurgies par une suite temporelle et multi-dimensionnelle de signaux synchronisés. Nous proposons ensuite des méthodes pour la modélisation, la segmentation hors-ligne et la reconnaissance en-ligne des phases chirurgicales. La méthode principale, une variante de modèle de Markov caché étendue par des variables de probabilités de phases, est démontrée sur deux applications médicales. La première concerne les interventions endoscopiques, la cholécystectomie étant prise en exemple. Les phases endoscopiques sont reconnues en utilisant des signaux indiquant l'utilisation des instruments et enregistrés lors de chirurgies réelles. La deuxième application concerne la reconnaissance des activités génériques d'une salle opératoire. Dans ce cas, la reconnaissance utilise de l'information 4D provenant d'un système de reconstruction multi-vues / The department of surgery is the core unit of the patient care system within a hospital. Due to continuous technical and medical developments, such departments are equipped with increasingly high-tech surgery rooms. This provides higher benefits for patient treatment, but also increases the complexity of the procedures' workflow. This also induces the presence of multiple electronic systems providing rich and various information about the surgical processes. The focus of this work is the development of statistical methods that permit the modeling and monitoring of surgical processes, based on signals available in the surgery room. We introduce and formalize the problem of recognizing phases within a workflow, using a representation of interventions in terms of multidimensional time-series formed by synchronized signals acquired over time. We then propose methods for the modeling, offline segmentation and on-line recognition of surgical phases. The main method, a variant of hidden Markov models augmented by phase probability variables, is demonstrated on two medical applications. The first one is the monitoring of endoscopic interventions, using cholecystectomy as illustrative surgery. Phases are recognized using signals indicating tool usage and recorded from real procedures. The second application is the monitoring of a generic surgery room workflow. In this case, phase recognition is performed by using 4D information from surgeries performed in a mock-up operating room in presence of a multi-view reconstruction system
62

Modélisation 3D à partir d'images : contributions en reconstruction photométrique à l'aide de maillages déformables / Multi-view Shape Modeling from Images : Contributions to Photometric-based Reconstruction using Deformable Meshes

Delaunoy, Amaël 02 December 2011 (has links)
Comprendre, analyser et modéliser l'environment 3D à partir d'images provenant de caméras et d'appareils photos est l'un des défis majeurs actuel de recherche en vision par ordinateur. Cette thèse s'interesse à plusieurs aspects géométriques et photometriques liés à la reconstruction de surface à partir de plusieurs caméras calibrées. La reconstruction 3D est vue comme un problème de rendu inverse, et vise à minimiser une fonctionnelle d'énergie afin d'optimiser un maillage triangulaire représentant la surface à reconstruire. L'énergie est définie via un modèle génératif faisant naturellement apparaître des attributs tels que la visibilité ou la photométrie. Ainsi, l'approche présentée peut indifférement s'adapter à divers cas d'application tels que la stéréovision multi-vues, la stéréo photométrique multi-vues ou encore le “shape from shading” multi-vues. Plusieurs approches sont proposées afin de résoudre les problèmes de correspondances de l'apparence pour des scènes non Lambertiennes, dont l'apparence varie en fonction du point de vue. La segmentation, la stéréo photométrique ou encore la réciprocité d'Helmholtz sont des éléments étudiés afin de contraindre la reconstruction. L'exploitation de ces contraintes dans le cadre de reconstruction multi-vues permet de reconstruire des modèles complets 3D avec une meilleure qualité. / Understanding, analyzing and modeling the 3D world from 2D pictures and videos is probably one of the most exciting and challenging problem of computer vision. In this thesis, we address several geometric and photometric aspects to 3D surface reconstruction from multi-view calibrated images. We first formulate multi-view shape reconstruction as an inverse rendering problem. Using generative models, we formulate the problem as an energy minimization method that leads to the non-linear surface optimization of a deformable mesh. A particular attention is addressed to the computation of the discrete gradient flow, which leads to coherent vertices displacements. We particularly focus on models and energy functionals that depend on visibility and photometry. The same framework can then be equally used to perform multi-view stereo, multi-view shape from shading or multi-view photometric stereo. Then, we propose to exploit different additional information to constraint the problem in the non-Lambertian case, where the appearance of the scene depends on the view-point direction. Segmentation for instance can be used to segment surface regions sharing similar appearance or reflectance. Helmholtz reciprocity can also be applied to reconstruct 3D shapes of objects of any arbitrary reflectance properties. By taking multiple image-light pairs around an object, multi-view Helmholtz stereo can be performed. Using this constrained acquisition scenario and our deformable mesh framework, it is possible to reconstruct high quality 3D models.
63

A Unified View of Local Learning : Theory and Algorithms for Enhancing Linear Models / Une Vue Unifiée de l'Apprentissage Local : Théorie et Algorithmes pour l'Amélioration de Modèles Linéaires

Zantedeschi, Valentina 18 December 2018 (has links)
Dans le domaine de l'apprentissage machine, les caractéristiques des données varient généralement dans l'espace des entrées : la distribution globale pourrait être multimodale et contenir des non-linéarités. Afin d'obtenir de bonnes performances, l'algorithme d'apprentissage devrait alors être capable de capturer et de s'adapter à ces changements. Même si les modèles linéaires ne parviennent pas à décrire des distributions complexes, ils sont réputés pour leur passage à l'échelle, en entraînement et en test, aux grands ensembles de données en termes de nombre d'exemples et de nombre de fonctionnalités. Plusieurs méthodes ont été proposées pour tirer parti du passage à l'échelle et de la simplicité des hypothèses linéaires afin de construire des modèles aux grandes capacités discriminatoires. Ces méthodes améliorent les modèles linéaires, dans le sens où elles renforcent leur expressivité grâce à différentes techniques. Cette thèse porte sur l'amélioration des approches d'apprentissage locales, une famille de techniques qui infère des modèles en capturant les caractéristiques locales de l'espace dans lequel les observations sont intégrées.L'hypothèse fondatrice de ces techniques est que le modèle appris doit se comporter de manière cohérente sur des exemples qui sont proches, ce qui implique que ses résultats doivent aussi changer de façon continue dans l'espace des entrées. La localité peut être définie sur la base de critères spatiaux (par exemple, la proximité en fonction d'une métrique choisie) ou d'autres relations fournies, telles que l'association à la même catégorie d'exemples ou un attribut commun. On sait que les approches locales d'apprentissage sont efficaces pour capturer des distributions complexes de données, évitant de recourir à la sélection d'un modèle spécifique pour la tâche. Cependant, les techniques de pointe souffrent de trois inconvénients majeurs :ils mémorisent facilement l'ensemble d'entraînement, ce qui se traduit par des performances médiocres sur de nouvelles données ; leurs prédictions manquent de continuité dans des endroits particuliers de l'espace ; elles évoluent mal avec la taille des ensembles des données. Les contributions de cette thèse examinent les problèmes susmentionnés dans deux directions : nous proposons d'introduire des informations secondaires dans la formulation du problème pour renforcer la continuité de la prédiction et atténuer le phénomène de la mémorisation ; nous fournissons une nouvelle représentation de l'ensemble de données qui tient compte de ses spécificités locales et améliore son évolutivité. Des études approfondies sont menées pour mettre en évidence l'efficacité de ces contributions pour confirmer le bien-fondé de leurs intuitions. Nous étudions empiriquement les performances des méthodes proposées tant sur des jeux de données synthétiques que sur des tâches réelles, en termes de précision et de temps d'exécution, et les comparons aux résultats de l'état de l'art. Nous analysons également nos approches d'un point de vue théorique, en étudiant leurs complexités de calcul et de mémoire et en dérivant des bornes de généralisation serrées. / In Machine Learning field, data characteristics usually vary over the space: the overall distribution might be multi-modal and contain non-linearities.In order to achieve good performance, the learning algorithm should then be able to capture and adapt to these changes. Even though linear models fail to describe complex distributions, they are renowned for their scalability, at training and at testing, to datasets big in terms of number of examples and of number of features. Several methods have been proposed to take advantage of the scalability and the simplicity of linear hypotheses to build models with great discriminatory capabilities. These methods empower linear models, in the sense that they enhance their expressive power through different techniques. This dissertation focuses on enhancing local learning approaches, a family of techniques that infers models by capturing the local characteristics of the space in which the observations are embedded. The founding assumption of these techniques is that the learned model should behave consistently on examples that are close, implying that its results should also change smoothly over the space. The locality can be defined on spatial criteria (e.g. closeness according to a selected metric) or other provided relations, such as the association to the same category of examples or a shared attribute. Local learning approaches are known to be effective in capturing complex distributions of the data, avoiding to resort to selecting a model specific for the task. However, state of the art techniques suffer from three major drawbacks: they easily memorize the training set, resulting in poor performance on unseen data; their predictions lack of smoothness in particular locations of the space;they scale poorly with the size of the datasets. The contributions of this dissertation investigate the aforementioned pitfalls in two directions: we propose to introduce side information in the problem formulation to enforce smoothness in prediction and attenuate the memorization phenomenon; we provide a new representation for the dataset which takes into account its local specificities and improves scalability. Thorough studies are conducted to highlight the effectiveness of the said contributions which confirmed the soundness of their intuitions. We empirically study the performance of the proposed methods both on toy and real tasks, in terms of accuracy and execution time, and compare it to state of the art results. We also analyze our approaches from a theoretical standpoint, by studying their computational and memory complexities and by deriving tight generalization bounds.
64

Système d'information géographique temporelle maritime ; Des distances linéaires à l'analyse temps réel des trajectoires

Devogele, Thomas 01 December 2009 (has links) (PDF)
Les Systèmes d'Information Géographique (SIG) gèrent des informations complexes localisées dans un espace géographique. Durant la dernière décennie, ces systèmes ont vu l'émergence d'une part des SIG en trois dimensions et plus particulièrement des modèles numériques de terrain (MNT) et d'autre part de l'intégration de données temporelles. Les travaux de recherche en informatique présentés dans ce manuscrit s'attaquent à ces deux thématiques et sont appliqués au domaine maritime. En termes de MNT, ces recherches ont essentiellement porté sur l'intégration de MNT terrestre et maritime. Une méthode de fusion générant un MNT continu a été définie. Elle est basée sur l'appariement d'éléments caractéristiques linéaires (crêtes, talwegs, lignes de rupture de pente). Elle emploie des distances linéaires discrètes introduites par Fréchet. Ces distances fournissent des vecteurs d'appariement autorisant la fusion de MNT à l'aide d'une technique de déformation élastique. En ce qui concerne les SIG spatio-temporels, ces travaux concernent les déplacements d'objets mobiles et plus particulièrement les navires. Dans le cadre de la navigation maritime, les SIG ont une place prépondérante via les aides à la navigation, les systèmes de surveillance du trafic et les simulateurs de formation. Dans ce cadre, un nouveau modèle de représentation des déplacements, la vue relative, a été formalisé. Ce formalisme s'appuie sur la perception humaine de l'espace spatio-temporel et des objets mobiles. Cette représentation est complémentaire de la représentation absolue. Les déplacements relatifs vis-à-vis d'un objet référent sont ainsi plus facilement analysables. Les évolutions des distances et des vitesses relatives sont mieux perçues. Parallèlement, une simulation des activités de navires à l'aide de systèmes multi-agents a été conçue. Les déplacements simultanés d'un grand nombre de navires dans un environnement maritime sont ainsi simulés. Elle prend en compte les différentes activités concurrentes des objets mobiles et les contraintes géographiques. Qui plus est, elle intègre des raisonnements à base de patrons pour reproduire les raisonnements humains. Finalement, à partir des bases de données historiques des positions d'objets mobiles dans un environnement ouvert, des techniques d'extractions des trajectoires et de fouille de données spatio-temporelles ont été réalisées. Elles permettent pour chaque itinéraire et chaque type d'objets de définir des routes types spatio-temporelles et de détecter à la volée des comportements inhabituels. Ces travaux, bien qu'appliqués au domaine maritime, sont génériques. Les méthodes de fusion de MNT peuvent être appliquées à tous types de MNT ayant des zones de recouvrement. De même, les travaux de modélisation, d'analyses et de simulation sur les objets mobiles sont adaptables à tous les déplacements d'objets mobiles dans des espaces ouverts.
65

Annotation et visualisation interactives de documents hypermédias

ROBERT, Laurent 29 June 2001 (has links) (PDF)
Le développement du multimédia, des capacités de stockage et du matériel de numérisation permet de mettre à disposition sous une forme électronique un nombre toujours croissant de documents " matériels " (journaux, cartes, photographies, peintures, cahiers d'expérimentations, originaux d'œuvres littéraires, rapports, etc.). La numérisation, le stockage et la diffusion de ces matériaux sources ne posent aujourd'hui plus réellement problème. Néanmoins, il s'avère que les utilisateurs ont souvent des difficultés à exploiter ces documents en milieu informatique. Cet état de fait est la conséquence de plusieurs problèmes. Tout d'abord, peu d'outils logiciels permettent aux utilisateurs de réaliser les tâches qu'ils ont l'habitude d‘effectuer avec des documents papiers (annoter, comparer, associer des idées, etc.). Ensuite, l'accès à l'information dans un espace informationnel de vaste envergure s'avère être un problème non trivial. Les utilisateurs éprouvent des difficultés à trouver les données recherchées, à comprendre leur organisation et leurs relations, ainsi qu'à collecter et organiser celles jugées intéressantes afin de pouvoir les retrouver plus rapidement par la suite.<br />A cette problématique de l'utilisation des documents en milieu informatique, nous proposons deux approches complémentaires issues des domaines de l'interaction homme-machine et de la visualisation d'information.<br />La première approche repose sur le concept de lecture active qui vise à transformer le " lecteur " en " acteur " en lui permettant d'enrichir interactivement les documents qu'il est en train de lire par un ensemble de signes graphiques (surlignages, cerclages, etc.) et d'informations textuelles (notes, commentaires, etc.). L'idée consiste à permettre aux utilisateurs de construire leur propre système de repérage afin de faciliter la compréhension et la réutilisation des documents. Une attention particulière est portée à la manière d'associer ces méta-données " ajoutées " (que nous nommons, d'une manière générique, " annotations ") aux documents sources au moyen de liens hypertextes, ainsi qu'à leur codage informatique dans un format normalisé (dérivé de XML).<br />La seconde approche consiste à faciliter l'exploration d'espaces documentaires en exploitant les capacités perceptives et mémorielles humaines au moyen de techniques interactives de visualisation. Nous proposons tout d'abord un système de navigation qui repose sur un fort couplage entre vues globales et vues locales pour aider à trouver les documents. Les vues globales montrent l'organisation de l'espace d'information et en permettent un survol rapide. Elles sont utilisées pour atteindre des zones d'intérêts. Les vues locales présentent le contenu de plusieurs documents en contexte afin d'aider l'utilisateur à les comparer et à choisir celui qu'il va consulter. Nous proposons ensuite un environnement visuel de gestion de bookmarks dans le but de pouvoir retrouver le plus simplement possible les documents préalablement consultés. Les utilisateurs organisent leurs bookmarks de la même manière qu'ils le feraient avec un ensemble de documents papiers sur un bureau. Ils définissent interactivement leur propre organisation conceptuelle de l'espace documentaire en se basant sur des propriétés visuelles et spatiales. Ces propriétés aideront les utilisateurs à retrouver plus efficacement les documents sauvegardés par une stimulation de leurs capacités mémorielles.
66

Maillages avec préservation d'arêtes vives à partir de nuages de point 3D

Salman, Nader 16 December 2010 (has links) (PDF)
La majorité des algorithmes de reconstruction de surface sont optimisés pour s'appliquer à des données de haute qualité. Les résultats obtenus peuvent alors être inutilisables si les données proviennent de solutions d'acquisition bon marché. Notre première contribution est un algorithme de reconstruction de surfaces à partir de données de stéréo vision. Il combine les informations liées aux points 3D avec les images calibrées afin de combler l'imprécision des données. L'algorithme construit une soupe de triangles 3D à l'aide des images calibrées et à l'issue d'une phase de prétraitement du nuage de points. Pour épouser au mieux la surface de la scène, on contraint cette soupe de triangle 3D à respecter des critères de visibilité et de photo-consistance. On calcule ensuite un maillage à partir de la soupe de triangles à l'aide d'une technique de reconstruction qui combine les triangulations de Delaunay contraintes et le raffinement de Delaunay. Notre seconde contribution est un algorithme qui construit, à partir d'un nuage de points 3D échantillonnés sur une surface, un maillage de surface qui représente fidèlement les arêtes vives. Cet algorithme génère un bon compromis entre précision et complexité du maillage. Dans un premier temps, on extrait une approximation des arêtes vives de la surface sous-jacente à partir du nuage de points. Dans un deuxième temps, on utilise une variante du raffinement de Delaunay pour générer un maillage qui combine les arêtes vives extraites avec une surface implicite obtenue à partir du nuage de points. Notre méthode se révèle flexible, robuste au bruit; cette méthode peut prendre en compte la résolution du maillage ciblé et un champ de taille défini par l'utilisateur. Nos deux contributions génèrent des résultats efficaces sur une variété de scènes et de modèles. Notre méthode améliore l'état de l'art en termes de précision.
67

Stéreo multi-vues à grande échelleet de haute qualité.

Vu, Hiep 05 December 2011 (has links) (PDF)
L'acquisition de modèles 3D des scènes réelles trouve son utilité dans de nombreuses applications pratiques, comme l'archivage numérique, les jeux vid eo, l'ingénierie, la publicité. Il existe principalement deux méthodes pour acqu érir un modèle 3D: la reconstruction avec un scanner laser (méthode active) et la reconstruction à partir de plusieurs photographies d'une même scène prise dans des points de vues différents (méthode passive). La méthode passive, ou la stéréo multi-vues est en revanche plus flexible, facile à mettre en oeuvre avec une grande précision, et surtout moins couteuse que la méthode active. Cette thèse s'attaque au problème de la reconstruction de stereo multi-vues à grande échelle . Nous améliorons des méthodes précédentes et les assemblons pour créer une chaine de stereo multi-vues efficace tirant parti de l'accélération des cartes graphiques. La chaîne produit des maillages de qualité à partir d'images de haute résolution, ce qui permet d'atteindre les meilleurs scores dans de nombreuses évaluations. Aux plus grandes échelles, nous développons d'une part des techniques de type diviser-pour-régner pour reconstruire des morceaux partiaux de la scène. D'autre part, pour combiner ces résultats séparés, nous créons une nouvelle méthode qui fusionne rapidement des centaines de maillages. Nous réussissons à reconstruire de beaux maillages urbains et des monuments historiques précis à partir de grandes collections d'images (environ 1600 images de 5M Pixel).
68

Conception de vues métiers dans les collecticiels orientés service. Vers des multi-vues adaptées pour la simulation collaborative 4D/nD de la construction

Boton, Conrad 20 March 2013 (has links) (PDF)
La planification est essentielle pour la réussite des projets d'Architecture, Ingénierie et Construction (AIC). La simulation 4D de la construction est une approche innovante qui s'inscrit dans le développement de la maquette numérique BIM. Elle associe un modèle 3D de l'ouvrage au planning des activités de manière à en simuler la réalisation à travers le temps. Plusieurs travaux ont montré que la simulation 4D est particulièrement intéressante pour la comparaison de la constructibilité des ouvrages et des méthodes de travail, pour l'identification des conflits et des chevauchements, mais aussi comme un outil de collaboration pour les différents acteurs afin de discuter et planifier l'avancement du projet. La planification de la construction est aujourd'hui une activité nécessairement collaborative. Pourtant, l'usage collaboratif de la simulation 4D reste limité, notamment à cause du manque d'adaptation des vues manipulées. En effet, la plupart des outils 4D actuels, même s'ils proposent cette " simulation collaborative " comme argument commercial, se contentent de proposer les mêmes vues " standards " à tous les acteurs (3D associé au Gantt). Pourtant les méthodes de travail traditionnelles dans le secteur s'appuient sur différentes représentations visuelles (ex. plans 2D, modèle 3D " blanc ", modèle 3D " photoréaliste ", tableaux de quantités) que les professionnels ont l'habitude de choisir en fonction de leurs besoins particuliers. L'hypothèse de cette recherche doctorale considère que les vues proposées dans les outils de simulation collaborative 4D devraient être adaptées aux besoins de chacun des acteurs impliqués. L'objectif est de proposer une méthode de conception de vues multiples adaptées aux réels besoins métiers des participants à une simulation collaborative 4D. À cet effet, la recherche étudie les pratiques de planification dans le secteur de la construction, les théories de visualisation de l'information et de conception de vues, ainsi que le travail collaboratif assisté par ordinateur. La proposition définit d'abord une conceptualisation originale de la simulation collaborative 4D de la construction. Elle se traduit ensuite par une structuration des besoins pour l'adaptation des vues, et une méthode structurée pour la composition de vues multiples 4D adaptées aux besoins de différents acteurs impliqués dans une simulation collaborative. Des métamodèles sont également conçus et fournissent aux utilisateurs de la méthode un langage structuré pour la conception progressive des multi-vues 4D. L'approche méthodologique propose dans un premier temps de définir le problème " métier " sur base d'une revue de la littérature et d'entretiens avec des professionnels. Puis, un recul théorique dans le champ de la visualisation d'information et du travail coopératif assisté par ordinateur conduit à formaliser des métamodèles initiaux de situation collaborative, de tâches de visualisation, de vues métiers et de vues multiples coordonnées. Ces métamodèles sont ensuite confrontés à des visualisations 4D réelles déjà produites dans le cadre de projets de construction, afin d'affiner progressivement leur contenu ainsi que la cohérence des étapes de la méthode. Enfin, une expérimentation finale développe et valide la méthode dans son ensemble. Elle est complétée d'une enquête auprès de professionnels afin de valider les résultats obtenus.
69

Interpolation temporelle et inter-vues pour l'amélioration de l'information adjacente dans le codage vidéo distribué

Petrazzuoli, Giovanni 14 January 2013 (has links) (PDF)
Le codage vidéo distribué est un paradigme qui consiste en encoder indépendamment deux sources corrélées mais à les décoder conjointement. Wyner and Ziv ont montré que le codage de source distribué peut atteindre les mêmes performances débit-distorsion du codage de source conjoint sous quelques contraintes. Cette caractéristique rend le codage de source distribué très attractif pour applications qui demandent un encodeur à bas complexité (comme par example des réseaux des senseurs sans fil) ou pour éviter tout sorte de communication entre les source (comme dans les systèmes multi-vues). Dans le cadre du codage vidéo distribué, les trames corrélées sont encodées séparément mais elles sont encodées conjointement. Dans l'architecture de Stanford, la flux vidéo est séparée en trames clés (TC) et Wyner-Ziv (TWZ). Seulement les trames clés sont envoyées au décodeur. Les trames Wyner-Ziv sont donné en entrée à un codeur systématique de canal et les bits de parité sont envoyés au décodeur. Au décodeur, on produit une estimation de la trame Wyner-Ziv, appelé information adjacente, en interpolant les trames déjà disponibles au décodeur. L'information adjacente, qui peut être considérée comme une version bruitée de la vraie trame Wyner-Ziv, est corrigées par les bits de parité envoyées par l'encodeur. Dans cette thèse, on a étudié plusieurs algorithmes pour la génération de l'information adjacente dans le cadre du codage vidéo distribué multi-vues pour ce qui concerne et interpolation temporelle et l'interpolation inter-vue. Tous les algorithmes proposés donne des résultats meilleurs par rapport à l'état de l'art en termes de performance débit-distorsion. Une deuxième contribution concerne le format vidéo multi-vues plus profondeur. Dans le cadre du paradigme du streaming interactive pour la vidéo multi-vues, le codage vidéo distribué assure la continuité de la reproduction pendant le streaming, puisque les trames Wyner-Ziv dont décodées indépendamment des trames de référence qui sont disponibles au décodeur. On a proposé plusieurs algorithmes pour l'estimation de la trame Wyner-Ziv dans ce contexte-là.
70

Classification non supervisée : de la multiplicité des données à la multiplicité des analyses

Sublemontier, Jacques-Henri 07 December 2012 (has links) (PDF)
La classification automatique non supervisée est un problème majeur, aux frontières de multiples communautés issues de l'Intelligence Artificielle, de l'Analyse de Données et des Sciences de la Cognition. Elle vise à formaliser et mécaniser la tâche cognitive de classification, afin de l'automatiser pour la rendre applicable à un grand nombre d'objets (ou individus) à classer. Des visées plus applicatives s'intéressent à l'organisation automatique de grands ensembles d'objets en différents groupes partageant des caractéristiques communes. La présente thèse propose des méthodes de classification non supervisées applicables lorsque plusieurs sources d'informations sont disponibles pour compléter et guider la recherche d'une ou plusieurs classifications des données. Pour la classification non supervisée multi-vues, la première contribution propose un mécanisme de recherche de classifications locales adaptées aux données dans chaque représentation, ainsi qu'un consensus entre celles-ci. Pour la classification semi-supervisée, la seconde contribution propose d'utiliser des connaissances externes sur les données pour guider et améliorer la recherche d'une classification d'objets par un algorithme quelconque de partitionnement de données. Enfin, la troisième et dernière contribution propose un environnement collaboratif permettant d'atteindre au choix les objectifs de consensus et d'alternatives pour la classification d'objets mono-représentés ou multi-représentés. Cette dernière contribution ré-pond ainsi aux différents problèmes de multiplicité des données et des analyses dans le contexte de la classification non supervisée, et propose, au sein d'une même plate-forme unificatrice, une proposition répondant à des problèmes très actifs et actuels en Fouille de Données et en Extraction et Gestion des Connaissances.

Page generated in 0.025 seconds