• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 19
  • 17
  • 3
  • Tagged with
  • 38
  • 38
  • 15
  • 12
  • 11
  • 9
  • 7
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Classification non supervisée : de la multiplicité des données à la multiplicité des analyses / Clustering : from multiple data to multiple analysis

Sublemontier, Jacques-Henri 07 December 2012 (has links)
La classification automatique non supervisée est un problème majeur, aux frontières de multiples communautés issues de l’Intelligence Artificielle, de l’Analyse de Données et des Sciences de la Cognition. Elle vise à formaliser et mécaniser la tâche cognitive de classification, afin de l’automatiser pour la rendre applicable à un grand nombre d’objets (ou individus) à classer. Des visées plus applicatives s’intéressent à l’organisation automatique de grands ensembles d’objets en différents groupes partageant des caractéristiques communes. La présente thèse propose des méthodes de classification non supervisées applicables lorsque plusieurs sources d’informations sont disponibles pour compléter et guider la recherche d’une ou plusieurs classifications des données. Pour la classification non supervisée multi-vues, la première contribution propose un mécanisme de recherche de classifications locales adaptées aux données dans chaque représentation, ainsi qu’un consensus entre celles-ci. Pour la classification semi-supervisée, la seconde contribution propose d’utiliser des connaissances externes sur les données pour guider et améliorer la recherche d’une classification d’objets par un algorithme quelconque de partitionnement de données. Enfin, la troisième et dernière contribution propose un environnement collaboratif permettant d’atteindre au choix les objectifs de consensus et d’alternatives pour la classification d’objets mono-représentés ou multi-représentés. Cette dernière contribution ré-pond ainsi aux différents problèmes de multiplicité des données et des analyses dans le contexte de la classification non supervisée, et propose, au sein d’une même plate-forme unificatrice, une proposition répondant à des problèmes très actifs et actuels en Fouille de Données et en Extraction et Gestion des Connaissances. / Data clustering is a major problem encountered mainly in related fields of Artificial Intelligence, Data Analysis and Cognitive Sciences. This topic is concerned by the production of synthetic tools that are able to transform a mass of information into valuable knowledge. This knowledge extraction is done by grouping a set of objects associated with a set of descriptors such that two objects in a same group are similar or share a same behaviour while two objects from different groups does not. This thesis present a study about some extensions of the classical clustering problem for multi-view data,where each datum can be represented by several sets of descriptors exhibing different behaviours or aspects of it. Our study impose to explore several nearby problems such that semi-supervised clustering, multi-view clustering or collaborative approaches for consensus or alternative clustering. In a first chapter, we propose an algorithm solving the multi-view clustering problem. In the second chapter, we propose a boosting-inspired algorithm and an optimization based algorithm closely related to boosting that allow the integration of external knowledge leading to the improvement of any clustering algorithm. This proposition bring an answer to the semi-supervised clustering problem. In the last chapter, we introduce an unifying framework allowing the discovery even of a set of consensus clustering solution or a set of alternative clustering solutions for mono-view data and or multi-viewdata. Such unifying approach offer a methodology to answer some current and actual hot topic in Data Mining and Knowledge Discovery in Data.
32

Modélisation et optimisation des systèmes complexes en conception innovante : application aux chaines de transmission hybrides / Modelling and optimization approach for the design complex systems in innovation : case study applied to hybrid powertrain system

Ben beldi, Nesrine 02 September 2015 (has links)
Dans un contexte industriel qui évolue rapidement et constamment, les constructeurs automobiles sont amenés à développer des produits qui soient en adéquation avec des demandes d'un marché international et qui respectent en même temps les contraintes réglementaires imposées. Les systèmes de chaine de transmission hybrides rentrent donc dans cette volonté des constructeurs à vouloir proposer des produits véhicules performants, à faible coût et respectant les contraintes d'émission de gaz polluants. A travers le travail effectué dans cette thèse, nous proposons une démarche de conception permettant de modéliser un système technique complexe à différents niveaux systémiques au cours du cycle de conception, de l'optimiser localement à partir des expertises métiers, de modéliser les connaissances collaboratives qui sont échangées entre les modèles métiers et d'optimiser l'espace de conception afin de converger vers une solution de conception optimale dans un contexte d'innovation ou nous partons de la feuille blanche.L'objectif de ce travail est de proposer une nouvelle façon d'aborder les problèmes de conception des systèmes complexes, qui s'adapte au contexte de conception innovante tout comme la conception routinière. Ceci afin de permettre aux entreprises telles que PSA Peugeot Citroën de pouvoir proposer des produits avec des technologies à forte rupture tout en réduisant leurs coûts et garantir leurs images de marque. Ce travail a été illustré et validé à travers les résultats obtenus dans le cadre du projet de conception de chaine de transmission hybride MTI effectué au département d'innovation de PSA Peugeot Citroën. / In an industrial context that is continuously evolving and changing, automotive constructors find themselves obliged to develop their products by taking into account the requirements of an international market and the imposed regulations in this field. Hybrid powertrain systems fits into this constructor will to propose to customers efficient products that respects the regulation regarding gas emissions and presents a profitable low cost. Through the work done in this PhD, we propose a design approach that allow the modeling of a complex technical system in its different systemic levels during the design process, the local optimization done from professional expertise, the modeling of collaborative data exchanged between expert models and the optimization of the design space in order to converge towards an optimal design solution in innovative context.The aim of our work is to propose a new way of dealing with design problems related to complex systems that can be adapted to an innovative design context. This will allow companies such as PSA Peugeot Citroen to be able to diversify their products and integrated even the latest technology in it. This work has been illustrated and validated through the results obtained on the MTI project for the design of hybrid powertrain.
33

Représentation dynamique de modèles d'acteurs issus de reconstructions multi-vues / Dynamic representation of actors' models from multi-view reconstructions

Blache, Ludovic 20 April 2016 (has links)
Les technologies de reconstruction multi-vues permettent de réaliser un clone virtuel d'un acteur à partir d'une simple acquisition vidéo réalisée par un ensemble de caméras à partir de multiples points de vue. Cette approche offre de nouvelles opportunités dans le domaine de la composition de scènes hybrides mélangeant les images réelles et virtuelles. Cette thèse a été réalisée dans le cadre du projet RECOVER 3D dont l'objectif est de développer une chaîne de production TV complète, de l'acquisition jusqu'à la diffusion, autour de la reconstruction multi-vues. Cependant la technologie utilisée dans ce contexte est mal adaptée à la reconstruction de scènes dynamiques. En effet, la performance d'un acteur est reproduite sous la forme d'une séquence d'objets 3D statiques qui correspondent aux poses successives du personnage au cours de la capture vidéo. L'objectif de cette thèse est de développer une méthode pour transformer ces séquences de poses en un modèle animé unique. Les travaux de recherches menés dans ce cadre sont répartis en deux étapes principales. La première a pour but de calculer un champ de déplacements qui décrit les mouvements de l'acteur entre deux poses consécutives. La seconde étape consiste à animer un maillage suivant les trajectoires décrites par le champ de mouvements, de manière à le déplacer vers la pose suivante. En répétant ce processus tout au long la séquence, nous parvenons ainsi à reproduire un maillage animé qui adopte les poses successives de l'acteur. Les résultats obtenus montrent que notre méthode peut générer un modèle temporellement cohérent à partir d'une séquence d'enveloppes visuelles. / 4D multi-view reconstruction technologies are more and more used in media production due to their abilities to produce a virtual clone of an actor from a simple video acquisition performed by a set of multi-viewpoint cameras. This approach is a major advance for the composition of animations which mix virtual and real images, and also offers new possibilities for the rendering of such complex hybrid scenes. The work described in this thesis takes parts in the RECOVER 3D project which aims at developing an innovative industrial framework for TV production, based on multi-view reconstruction, from studio acquisition to broadcasting. The major drawback of the methods used in this context is that they are not adapted to the reconstruction of dynamic scenes. The output are time series which describe the successive poses of the actor, figured as a sequence of static objects. The goal of this thesis is to transform these initial results into a dynamic 3D object where the actor is figured as an animated character. The research detailed in this manuscript presents two main contributions. The first one is centered on the computation of a motion flow which represents the displacements occurring in the reconstructed scene between two consecutive poses. The second one presents a mesh animation process that leads to the animation of a 3D model from one pose to another, following the motion flow. This two-step operation is repeated throughout the entire pose sequence to finally obtain a single animated mesh that matches the evolving shape of the reconstructed actor. Results show that our method is able to produce a temporally consistent mesh animation from various sequences of visual hulls.
34

Vision-based approaches for surgical activity recognition using laparoscopic and RBGD videos / Approches basées vision pour la reconnaissance d’activités chirurgicales à partir de vidéos laparoscopiques et multi-vues RGBD

Twinanda, Andru Putra 27 January 2017 (has links)
Cette thèse a pour objectif la conception de méthodes pour la reconnaissance automatique des activités chirurgicales. Cette reconnaissance est un élément clé pour le développement de systèmes réactifs au contexte clinique et pour des applications comme l’assistance automatique lors de chirurgies complexes. Nous abordons ce problème en utilisant des méthodes de Vision puisque l’utilisation de caméras permet de percevoir l’environnement sans perturber la chirurgie. Deux types de vidéos sont utilisées : des vidéos laparoscopiques et des vidéos multi-vues RGBD. Nous avons d’abord étudié les résultats obtenus avec les méthodes de l’état de l’art, puis nous avons proposé des nouvelles approches basées sur le « Deep learning ». Nous avons aussi généré de larges jeux de données constitués d’enregistrements de chirurgies. Les résultats montrent que nos méthodes permettent d’obtenir des meilleures performances pour la reconnaissance automatique d’activités chirurgicales que l’état de l’art. / The main objective of this thesis is to address the problem of activity recognition in the operating room (OR). Activity recognition is an essential component in the development of context-aware systems, which will allow various applications, such as automated assistance during difficult procedures. Here, we focus on vision-based approaches since cameras are a common source of information to observe the OR without disrupting the surgical workflow. Specifically, we propose to use two complementary video types: laparoscopic and OR-scene RGBD videos. We investigate how state-of-the-art computer vision approaches perform on these videos and propose novel approaches, consisting of deep learning approaches, to carry out the tasks. To evaluate our proposed approaches, we generate large datasets of recordings of real surgeries. The results demonstrate that the proposed approaches outperform the state-of-the-art methods in performing surgical activity recognition on these new datasets.
35

Méthodes ensembliste pour des problèmes de classification multi-vues et multi-classes avec déséquilibres / Tackling the uneven views problem with cooperation based ensemble learning methods

Koco, Sokol 16 December 2013 (has links)
De nos jours, dans plusieurs domaines, tels que la bio-informatique ou le multimédia, les données peuvent être représentées par plusieurs ensembles d'attributs, appelés des vues. Pour une tâche de classification donnée, nous distinguons deux types de vues : les vues fortes sont celles adaptées à la tâche, les vues faibles sont adaptées à une (petite) partie de la tâche ; en classification multi-classes, chaque vue peut s'avérer forte pour reconnaître une classe, et faible pour reconnaître d’autres classes : une telle vue est dite déséquilibrée. Les travaux présentés dans cette thèse s'inscrivent dans le cadre de l'apprentissage supervisé et ont pour but de traiter les questions d'apprentissage multi-vue dans le cas des vues fortes, faibles et déséquilibrées. La première contribution de cette thèse est un algorithme d'apprentissage multi-vues théoriquement fondé sur le cadre de boosting multi-classes utilisé par AdaBoost.MM. La seconde partie de cette thèse concerne la mise en place d'un cadre général pour les méthodes d'apprentissage de classes déséquilibrées (certaines classes sont plus représentées que les autres). Dans la troisième partie, nous traitons le problème des vues déséquilibrées en combinant notre approche des classes déséquilibrées et la coopération entre les vues mise en place pour appréhender la classification multi-vues. Afin de tester les méthodes sur des données réelles, nous nous intéressons au problème de classification d'appels téléphoniques, qui a fait l'objet du projet ANR DECODA. Ainsi chaque partie traite différentes facettes du problème. / Nowadays, in many fields, such as bioinformatics or multimedia, data may be described using different sets of features, also called views. For a given classification task, we distinguish two types of views:strong views, which are suited for the task, and weak views suited for a (small) part of the task; in multi-class learning, a view can be strong with respect to some (few) classes and weak for the rest of the classes: these are imbalanced views. The works presented in this thesis fall in the supervised learning setting and their aim is to address the problem of multi-view learning under strong, weak and imbalanced views, regrouped under the notion of uneven views. The first contribution of this thesis is a multi-view learning algorithm based on the same framework as AdaBoost.MM. The second part of this thesis proposes a unifying framework for imbalanced classes supervised methods (some of the classes are more represented than others). In the third part of this thesis, we tackle the uneven views problem through the combination of the imbalanced classes framework and the between-views cooperation used to take advantage of the multiple views. In order to test the proposed methods on real-world data, we consider the task of phone calls classifications, which constitutes the subject of the ANR DECODA project. Each part of this thesis deals with different aspects of the problem.
36

Codage de carte de profondeur par déformation de courbes élastiques / Coding of depth maps by elastic deformations of curves

Calemme, Marco 20 September 2016 (has links)
Dans le format multiple-view video plus depth, les cartes de profondeur peuvent être représentées comme des images en niveaux de gris et la séquence temporelle correspondante peut être considérée comme une séquence vidéo standard en niveaux de gris. Cependant les cartes de profondeur ont des propriétés différentes des images naturelles: ils présentent de grandes surfaces lisses séparées par des arêtes vives. On peut dire que l'information la plus importante réside dans les contours de l'objet, en conséquence une approche intéressante consiste à effectuer un codage sans perte de la carte de contour, éventuellement suivie d'un codage lossy des valeurs de profondeur par-objet. Dans ce contexte, nous proposons une nouvelle technique pour le codage sans perte des contours de l'objet, basée sur la déformation élastique des courbes. Une évolution continue des déformations élastiques peut être modélisée entre deux courbes de référence, et une version du contour déformée élastiquement peut être envoyée au décodeur avec un coût de codage très faible et utilisé comme information latérale pour améliorer le codage sans perte du contour réel. Après que les principales discontinuités ont été capturées par la description du contour, la profondeur à l'intérieur de chaque région est assez lisse. Nous avons proposé et testé deux techniques différentes pour le codage du champ de profondeur à l'intérieur de chaque région. La première technique utilise la version adaptative à la forme de la transformation en ondelette, suivie par la version adaptative à la forme de SPIHT. La seconde technique effectue une prédiction du champ de profondeur à partir de sa version sous-échantillonnée et l'ensemble des contours codés. Il est généralement reconnu qu'un rendu de haute qualité au récepteur pour un nouveau point de vue est possible qu’avec la préservation de l'information de contour, car des distorsions sur les bords lors de l'étape de codage entraînerait une dégradation évidente sur la vue synthétisée et sur la perception 3D. Nous avons étudié cette affirmation en effectuant un test d'évaluation de la qualité perçue en comparant, pour le codage des cartes de profondeur, une technique basée sur la compression d'objects et une techniques de codage vidéo hybride à blocs. / In multiple-view video plus depth, depth maps can be represented by means of grayscale images and the corresponding temporal sequence can be thought as a standard grayscale video sequence. However depth maps have different properties from natural images: they present large areas of smooth surfaces separated by sharp edges. Arguably the most important information lies in object contours, as a consequence an interesting approach consists in performing a lossless coding of the contour map, possibly followed by a lossy coding of per-object depth values. In this context, we propose a new technique for the lossless coding of object contours, based on the elastic deformation of curves. A continuous evolution of elastic deformations between two reference contour curves can be modelled, and an elastically deformed version of the reference contours can be sent to the decoder with an extremely small coding cost and used as side information to improve the lossless coding of the actual contour. After the main discontinuities have been captured by the contour description, the depth field inside each region is rather smooth. We proposed and tested two different techniques for the coding of the depth field inside each region. The first technique performs the shape-adaptive wavelet transform followed by the shape-adaptive version of SPIHT. The second technique performs a prediction of the depth field from its subsampled version and the set of coded contours. It is generally recognized that a high quality view rendering at the receiver side is possible only by preserving the contour information, since distortions on edges during the encoding step would cause a sensible degradation on the synthesized view and on the 3D perception. We investigated this claim by conducting a subjective quality assessment test to compare an object-based technique and a hybrid block-based techniques for the coding of depth maps.
37

Modèles spectraux à transferts de flux appliqués à la prédiction de couleurs sur des surfaces imprimées en demi-ton / Flux transfer spectral models for predicting colors of duplex halftone prints

Mazauric, Serge 07 December 2016 (has links)
La protection des documents fiduciaires et identitaires contre la fraude exige le développement d’outils de contrôle fondés sur des effets visuels sans cesse renouvelés, difficiles à contrefaire (même pour un expert ... de la contrefaçon !). Ce projet de recherche s’inscrit dans cette problématique et vise à apporter des solutions originales via l’impression de supports diffusants d’une part, et le développement de modèles de rendu visuel d’autre part. Les effets visuels recherchés sont des ajustements de couleurs entre les deux faces d’un imprimé lorsque celui-ci est observé par transparence devant une source lumineuse. Pour obtenir facilement des ajustements de couleurs quelles que soient les couleurs visées, il est capital d’avoir un modèle à disposition, permettant de calculer les quantités d’encre à déposer. Un modèle doit être capable de prédire les facteurs spectraux de réflexion et de transmission du support imprimé en décrivant les phénomènes de diffusion optique présents en pratique dans les couches d’encre et le support. Nous nous intéressons plus particulièrement aux imprimés translucides contenant des couleurs en demi-ton des deux côtés de la surface avec pour objectif de prédire le rendu visuel pour diverses configurations d’observation. Pour cela, nous proposons une nouvelle approche basée sur l’utilisation de matrices de transfert de flux pour prédire les facteurs spectraux de réflexion et de transmission des imprimés lorsqu’ils sont éclairés simultanément des deux côtés. En représentant le comportement optique des différents composants d’un imprimé par des matrices de transfert, la description des transferts de flux entre ces composantes s’en trouve simplifiée. Ce cadre mathématique mène à la construction de modèles de prédiction de couleurs imprimées en demi-ton sur des supports diffusants. Nous montrons par ailleurs que certains modèles existants, comme le modèle de Kubelka-Munk ou encore le modèle de Clapper-Yule, peuvent également être formulés en termes de matrices de transfert. Les résultats obtenus avec les modèles proposés dans ce travail mettent en évidence des qualités de prédiction équivalentes, voire supérieures, à celles qu’on retrouve dans l’état de l’art, tout en proposant une simplification de la formulation mathématique et de la description physique des échanges de flux. Cette simplification fait de ces modèles des outils de calcul qui s’utilisent très facilement, notamment pour la détermination des quantités d’encre à déposer sur les deux faces de l’imprimé afin d’obtenir des ajustements de couleurs / The protection of banknotes or identity documents against counterfeiting demands the development of control tools based on visual effects that are continuously renewed. These visual effects become thus difficult to counterfeit even by an expert forger ! This research tries to deal with that issue. Its objective is to bring new solutions using on the one side, the printing of diffusing materials, and on the other side the development of visual rendering models that can be observed. The visual effects that are sought-after are the color matching on both sides of a printed document when observed against thelight. To easily obtain a color matching, whatever the colors that are aimed for, it is essential to have a model that helps in calculating the quantity of ink to be left on the document. A model must be used to predict the spectral reflectance and the transmittance factors of the printed document by describing the phenomena of optical diffusion really present in the ink layers and in the document. We shall focus our interest especially on translucent printed documents that have halftone colors on both sides. Our goal here is to predict the visual rendering in different configurations of observation. To that end, we are offering a new approach based on the use of flux transfer matrices to predict the spectral reflectance and transmittance factors of prints when they are simultaneously lit up on both sides. By representing with transfer matrices the optical behavior of the different components present in a printed document, we see that the description of flux transfer between these elements is thus simplified. This mathematical framework leads to the construction of prediction models of halftone printed colors on diffusing materials. We also show that some existing models, such as the Kubelka-Munk or the Clapper-Yule models, can also be formulated in transfer matrices terms. The results that we get with the models used in this work make apparent identical prediction quality and in some cases even better ones to the ones found in the state of the art, while offering a simplification of the mathematical formulation and the physical description of the flux transfer. This simplification thus transforms these models into calculation tools that can easily be used especially for the choice of quantities of ink that must be left on both sides of the document in order to obtain color matching
38

Vers une approche systémique et multivues pour l'analyse de données et la recherche d'information : un nouveau paradigme

Lamirel, Jean-Charles 06 December 2010 (has links) (PDF)
Le sujet principal de notre travail d'habilitation concerne l'extension de l'approche systémique, initialement implantée dans le Système de Recherche d'Information NOMAD, qui a fait l'objet de notre travail de thèse, pour mettre en place un nouveau paradigme général d'analyse de données basé sur les points de vue multiples, paradigme que nous avons baptisé MVDA (Multi-View Data Analysis). Ce paradigme couvre à la fois le domaine de l'analyse de données et celui de la fouille de données. Selon celui-ci, chaque analyse de données est considérée comme une vue différente sur les données. Le croisement entre les vues s'opère par l'intermédiaire d'un réseau bayésien construit, de manière non supervisée, à partir des données ou des propriétés partagées entre ces dernières. Le paradigme MDVA repose également sur l'exploitation de méthodes spécifiques de visualisation, comme la visualisation topographique ou la visualisation hyperbolique. La mise en place de nouveaux estimateurs de qualité de type Rappel/Précision non supervisés basés sur l'analyse de la distribution des propriétés associées aux classes, et qui à la fois sont indépendants des méthodes de classification et des changements relatifs à leur mode opératoire (initialisation, distances utilisées ...), nous a permis de démontrer objectivement la supériorité de ce paradigme par rapport à l'approche globale, classique en analyse de données. Elle nous a également permis de comparer et d'intégrer dans le paradigme MVDA des méthodes de classification non supervisées (clustering) neuronales qui sont plus particulièrement adaptées à la gestion des données ultra-éparses et fortement multidimensionnelles, à l'image des données documentaires, ainsi que d'optimiser le mode opératoire de telles méthodes. Notre démarche a par ailleurs impliqué de développer la cohabitation entre le raisonnement neuronal et le raisonnement symbolique, ou entre des modèles de nature différente, de manière à couvrir l'ensemble des fonctions de la recherche et de l'analyse de l'information et à éliminer, sinon à réduire, les défauts inhérents à chacun des types d'approche. A travers de nombreuses applications, notamment dans le domaine de l'évaluation des sciences, nous montrons comment l'exploitation d'un tel paradigme peut permettre de résoudre des problèmes complexes d'analyse de données, comme ceux liés l'analyse diachronique à grande échelle des données textuelles polythématiques. Nous montrons également comment l'ensemble des outils développés dans le cadre de ce paradigme nous ont permis mettre en place de nouvelles méthodes très robustes et très performantes pour la classification supervisée et pour le clustering incrémental. Nous montrons finalement comment nous envisageons d'étendre leur application à d'autres domaines très porteurs, comme ceux du traitement automatique des langues ou de la bioinformatique.

Page generated in 0.0802 seconds