• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • 2
  • Tagged with
  • 4
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Proximal methods for convex minimization of Phi-divergences : application to computer vision. / Méthodes proximales convexes pour la minimisation des Phi-divergences : applications à la stéréo vision

El Gheche, Mireille 27 May 2014 (has links)
Cette thèse s'inscrit dans le contexte de l'optimisation convexe. Elle apporte à ce domaine deux contributions principales. La première porte sur les méthodes d'optimisation convexe non lisse appliquées à la vision par ordinateur. Quant à la seconde, elle fournit de nouveaux résultats théoriques concernant la manipulation de mesures de divergences, telles que celles utilisées en théorie de l'information et dans divers problèmes d'optimisation. Le principe de la stéréovision consiste à exploiter deux images d'une même scène prises sous deux points de vue, afin de retrouver les pixels homologues et de se ramener ainsi à un problème d'estimation d'un champ de disparité. Dans ce travail, le problème de l'estimation de la disparité est considéré en présence de variations d'illumination. Ceci se traduit par l'ajout, dans la fonction objective globale à minimiser, d'un facteur multiplicatif variant spatialement, estimé conjointement avec la disparité. Nous avons mis l'accent sur l'avantage de considérer plusieurs critères convexes et non-nécessairement différentiables, et d'exploiter des images multicomposantes (par exemple, des images couleurs) pour améliorer les performances de notre méthode. Le problème d'estimation posé est résolu en utilisant un algorithme parallèle proximal basé sur des développements récents en analyse convexe. Dans une seconde partie, nous avons étendu notre approche au cas multi-vues qui est un sujet de recherche relativement nouveau. Cette extension s'avère particulièrement utile dans le cadre d'applications où les zones d'occultation sont très larges et posent de nombreuses difficultés. Pour résoudre le problème d'optimisation associé, nous avons utilisé des algorithmes proximaux en suivant des approches multi-étiquettes relaxés de manière convexe. Les algorithmes employés présentent l'avantage de pouvoir gérer simultanément un grand nombre d'images et de contraintes, ainsi que des critères convexes et non convexes. Des résultats sur des images synthétiques ont permis de valider l'efficacité de ces méthodes, pour différentes mesures d'erreur. La dernière partie de cette thèse porte sur les problèmes d'optimisation convexe impliquant des mesures d'information (Phi-divergences), qui sont largement utilisés dans le codage source et le codage canal. Ces mesures peuvent être également employées avec succès dans des problèmes inverses rencontrés dans le traitement du signal et de l'image. Les problèmes d'optimisation associés sont souvent difficiles à résoudre en raison de leur grande taille. Dans ce travail, nous avons établi les expressions des opérateurs proximaux de ces divergences. En s'appuyant sur ces résultats, nous avons développé une approche proximale reposant sur l'usage de méthodes primales-duales. Ceci nous a permis de répondre à une large gamme de problèmes d'optimisation convexe dont la fonction objective comprend un terme qui s'exprime sous la forme de l'une de ces divergences / Convex optimization aims at searching for the minimum of a convex function over a convex set. While the theory of convex optimization has been largely explored for about a century, several related developments have stimulated a new interest in the topic. The first one is the emergence of efficient optimization algorithms, such as proximal methods, which allow one to easily solve large-size nonsmooth convex problems in a parallel manner. The second development is the discovery of the fact that convex optimization problems are more ubiquitous in practice than was thought previously. In this thesis, we address two different problems within the framework of convex optimization. The first one is an application to computer stereo vision, where the goal is to recover the depth information of a scene from a pair of images taken from the left and right positions. The second one is the proposition of new mathematical tools to deal with convex optimization problems involving information measures, where the objective is to minimize the divergence between two statistical objects such as random variables or probability distributions. We propose a convex approach to address the problem of dense disparity estimation under varying illumination conditions. A convex energy function is derived for jointly estimating the disparity and the illumination variation. The resulting problem is tackled in a set theoretic framework and solved using proximal tools. It is worth emphasizing the ability of this method to process multicomponent images under illumination variation. The conducted experiments indicate that this approach can effectively deal with the local illumination changes and yields better results compared with existing methods. We then extend the previous approach to the problem of multi-view disparity estimation. Rather than estimating a single depth map, we estimate a sequence of disparity maps, one for each input image. We address this problem by adopting a discrete reformulation that can be efficiently solved through a convex relaxation. This approach offers the advantage of handling both convex and nonconvex similarity measures within the same framework. We have shown that the additional complexity required by the application of our method to the multi-view case is small with respect to the stereo case. Finally, we have proposed a novel approach to handle a broad class of statistical distances, called $varphi$-divergences, within the framework of proximal algorithms. In particular, we have developed the expression of the proximity operators of several $varphi$-divergences, such as Kulback-Leibler, Jeffrey-Kulback, Hellinger, Chi-Square, I$_{alpha}$, and Renyi divergences. This allows proximal algorithms to deal with problems involving such divergences, thus overcoming the limitations of current state-of-the-art approaches for similar problems. The proposed approach is validated in two different contexts. The first is an application to image restoration that illustrates how to employ divergences as a regularization term, while the second is an application to image registration that employs divergences as a data fidelity term
2

Cadre conceptuel pour l'éco-conception intégrée de systèmes produit-service / A conceptual framework for integrated product-service systems eco-design

Trevisan, Lucile 09 March 2016 (has links)
L’économie de marché est classiquement basée sur la vente de produits. Pourtant, au cours des dernières décennies, la compétitivité accrue dans une économie mondialisée et la raréfaction des ressources a conduit les entreprises industrielles des pays développés à réorienter leurs offres de produits par l’intégration de services. Le concept de Système Produit-Service (SPS) fait référence à cet ensemble commercialisable de produits et services, capables de répondre ensemble à un besoin utilisateur. Les SPS soulèvent beaucoup d’intérêt pour la réduction des pressions environnementales parce qu’ils font évoluer le paradigme classique de production et consommation de masse vers de nouveaux mécanismes de création de valeur. La recherche sur les SPS accorde beaucoup d’importance à leur « potentiel » pour la réduction des impacts environnementaux ainsi qu’à la nécessité de concevoir les SPS comme des ensembles « intégrés » de produits et services. Néanmoins, un important manque de réel support à la conception et à l’éco-conception de SPS est à noter. Cette thèse cherche à combler ce manque en proposant un cadre conceptuel pour la conception intégrée de SPS. Son rôle est d’assister l’intégration de produits et de services durant la conception de SPS jusqu’aux phases les plus détaillées en permettant la communication entre les ingénieurs produits et les concepteurs de services. Un cadre pour la conception intégrée de SPS est proposé, basé sur une approche système et permettant sa modélisation multi-vues. Un cadre d’évaluation environnemental lui est couplé pour évaluer, au cours de la conception, les impacts environnementaux générés durant le cycle de vie du SPS. L’applicabilité du cadre conceptuel est testée sur un cas industriel de SPS pour la fourniture d’énergie pneumatique. / Classical business economy is based on the sale of products. However, during the last decades, the increasing competition in the globalized economy and the resources rarefaction has led manufacturing companies in developed countries to re-orient their business towards integration of services in their product offers.The Product-Service System (PSS) concept is used to depict the resulting marketable set of products and services capable of jointly fulfilling a user’s need. PSS raise many interests for the reduction of the environmental pressure because they evolve the classical paradigm of mass production and consumption towards new mechanisms of value creation.In the PSS research field, a strong emphasis is put on their “potential” for decreasing the environmental impacts and on the necessity to design PSS as “integrated” sets of products and services. However, there is an important lack of effective support for PSS design and eco-design.This thesis aims at filling this gap by proposing a conceptual framework for PSS integrated eco-design. Its role is to support integration of products and services during PSS design until the most detailed phases by allowing communication between product engineers and service designers.A framework for PSS integrated design is proposed based on a system-based approach and allowing multi-views system modelling. An environmental evaluation framework is coupled to evaluate during design the environmental impacts generated over the PSS life cycle. The applicability of the conceptual framework is tested on an industrial case of a pneumatic energy delivery PSS.
3

Représentations robustes de documents bruités dans des espaces homogènes / Robust representation of noisy documents in homogeneous spaces

Morchid, Mohamed 25 November 2014 (has links)
En recherche d’information, les documents sont le plus souvent considérés comme des "sacs-de-mots". Ce modèle ne tient pas compte de la structure temporelle du document et est sensible aux bruits qui peuvent altérer la forme lexicale. Ces bruits peuvent être produits par différentes sources : forme peu contrôlée des messages des sites de micro-blogging, messages vocaux dont la transcription automatique contient des erreurs, variabilités lexicales et grammaticales dans les forums du Web. . . Le travail présenté dans cette thèse s’intéresse au problème de la représentation de documents issus de sources bruitées.La thèse comporte trois parties dans lesquelles différentes représentations des contenus sont proposées. La première partie compare une représentation classique utilisant la fréquence des mots à une représentation de haut-niveau s’appuyant sur un espace de thèmes. Cette abstraction du contenu permet de limiter l’altération de la forme de surface du document bruité en le représentant par un ensemble de caractéristiques de haut-niveau. Nos expériences confirment que cette projection dans un espace de thèmes permet d’améliorer les résultats obtenus sur diverses tâches de recherche d’information en comparaison d’une représentation plus classique utilisant la fréquence des mots.Le problème majeur d’une telle représentation est qu’elle est fondée sur un espace de thèmes dont les paramètres sont choisis empiriquement.La deuxième partie décrit une nouvelle représentation s’appuyant sur des espaces multiples et permettant de résoudre trois problèmes majeurs : la proximité des sujets traités dans le document, le choix difficile des paramètres du modèle de thèmes ainsi que la robustesse de la représentation. Partant de l’idée qu’une seule représentation des contenus ne peut pas capturer l’ensemble des informations utiles, nous proposons d’augmenter le nombre de vues sur un même document. Cette multiplication des vues permet de générer des observations "artificielles" qui contiennent des fragments de l’information utile. Une première expérience a validé cette approche multi-vues de la représentation de textes bruités. Elle a cependant l’inconvénient d’être très volumineuse,redondante, et de contenir une variabilité additionnelle liée à la diversité des vues. Dans un deuxième temps, nous proposons une méthode s’appuyant sur l’analyse factorielle pour fusionner les vues multiples et obtenir une nouvelle représentation robuste,de dimension réduite, ne contenant que la partie "utile" du document tout en réduisant les variabilités "parasites". Lors d’une tâche de catégorisation de conversations,ce processus de compression a confirmé qu’il permettait d’augmenter la robustesse de la représentation du document bruité.Cependant, lors de l’élaboration des espaces de thèmes, le document reste considéré comme un "sac-de-mots" alors que plusieurs études montrent que la position d’un terme au sein du document est importante. Une représentation tenant compte de cette structure temporelle du document est proposée dans la troisième partie. Cette représentation s’appuie sur les nombres hyper-complexes de dimension appelés quaternions. Nos expériences menées sur une tâche de catégorisation ont montré l’efficacité de cette méthode comparativement aux représentations classiques en "sacs-de-mots". / In the Information Retrieval field, documents are usually considered as a "bagof-words". This model does not take into account the temporal structure of thedocument and is sensitive to noises which can alter its lexical form. These noisescan be produced by different sources : uncontrolled form of documents in microbloggingplatforms, automatic transcription of speech documents which are errorprone,lexical and grammatical variabilities in Web forums. . . The work presented inthis thesis addresses issues related to document representations from noisy sources.The thesis consists of three parts in which different representations of content areavailable. The first one compares a classical representation based on a term-frequencyrepresentation to a higher level representation based on a topic space. The abstractionof the document content allows us to limit the alteration of the noisy document byrepresenting its content with a set of high-level features. Our experiments confirm thatmapping a noisy document into a topic space allows us to improve the results obtainedduring different information retrieval tasks compared to a classical approach based onterm frequency. The major problem with such a high-level representation is that it isbased on a space theme whose parameters are chosen empirically.The second part presents a novel representation based on multiple topic spaces thatallow us to solve three main problems : the closeness of the subjects discussed in thedocument, the tricky choice of the "right" values of the topic space parameters and therobustness of the topic-based representation. Based on the idea that a single representationof the contents cannot capture all the relevant information, we propose to increasethe number of views on a single document. This multiplication of views generates "artificial"observations that contain fragments of useful information. The first experimentvalidated the multi-view approach to represent noisy texts. However, it has the disadvantageof being very large and redundant and of containing additional variability associatedwith the diversity of views. In the second step, we propose a method based onfactor analysis to compact the different views and to obtain a new robust representationof low dimension which contains only the informative part of the document whilethe noisy variabilities are compensated. During a dialogue classification task, the compressionprocess confirmed that this compact representation allows us to improve therobustness of noisy document representation.Nonetheless, during the learning process of topic spaces, the document is consideredas a "bag-of-words" while many studies have showed that the word position in a7document is useful. A representation which takes into account the temporal structureof the document based on hyper-complex numbers is proposed in the third part. Thisrepresentation is based on the hyper-complex numbers of dimension four named quaternions.Our experiments on a classification task have showed the effectiveness of theproposed approach compared to a conventional "bag-of-words" representation.
4

Modélisation et optimisation des systèmes complexes en conception innovante : application aux chaines de transmission hybrides / Modelling and optimization approach for the design complex systems in innovation : case study applied to hybrid powertrain system

Ben beldi, Nesrine 02 September 2015 (has links)
Dans un contexte industriel qui évolue rapidement et constamment, les constructeurs automobiles sont amenés à développer des produits qui soient en adéquation avec des demandes d'un marché international et qui respectent en même temps les contraintes réglementaires imposées. Les systèmes de chaine de transmission hybrides rentrent donc dans cette volonté des constructeurs à vouloir proposer des produits véhicules performants, à faible coût et respectant les contraintes d'émission de gaz polluants. A travers le travail effectué dans cette thèse, nous proposons une démarche de conception permettant de modéliser un système technique complexe à différents niveaux systémiques au cours du cycle de conception, de l'optimiser localement à partir des expertises métiers, de modéliser les connaissances collaboratives qui sont échangées entre les modèles métiers et d'optimiser l'espace de conception afin de converger vers une solution de conception optimale dans un contexte d'innovation ou nous partons de la feuille blanche.L'objectif de ce travail est de proposer une nouvelle façon d'aborder les problèmes de conception des systèmes complexes, qui s'adapte au contexte de conception innovante tout comme la conception routinière. Ceci afin de permettre aux entreprises telles que PSA Peugeot Citroën de pouvoir proposer des produits avec des technologies à forte rupture tout en réduisant leurs coûts et garantir leurs images de marque. Ce travail a été illustré et validé à travers les résultats obtenus dans le cadre du projet de conception de chaine de transmission hybride MTI effectué au département d'innovation de PSA Peugeot Citroën. / In an industrial context that is continuously evolving and changing, automotive constructors find themselves obliged to develop their products by taking into account the requirements of an international market and the imposed regulations in this field. Hybrid powertrain systems fits into this constructor will to propose to customers efficient products that respects the regulation regarding gas emissions and presents a profitable low cost. Through the work done in this PhD, we propose a design approach that allow the modeling of a complex technical system in its different systemic levels during the design process, the local optimization done from professional expertise, the modeling of collaborative data exchanged between expert models and the optimization of the design space in order to converge towards an optimal design solution in innovative context.The aim of our work is to propose a new way of dealing with design problems related to complex systems that can be adapted to an innovative design context. This will allow companies such as PSA Peugeot Citroen to be able to diversify their products and integrated even the latest technology in it. This work has been illustrated and validated through the results obtained on the MTI project for the design of hybrid powertrain.

Page generated in 0.0397 seconds