• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 695
  • 319
  • 99
  • 2
  • 1
  • Tagged with
  • 1129
  • 414
  • 251
  • 244
  • 203
  • 183
  • 183
  • 154
  • 129
  • 126
  • 110
  • 109
  • 109
  • 102
  • 98
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
261

Réalisation, identification et commande d'un processus thermique à entrées et sorties multiples.

Awtani, Abdel Wahab el-, January 1900 (has links)
Th. 3e cycle--Méc., autom. appl.--Besançon, 1978. N°: 299.
262

Révision d'ontologies fondée sur tableaux. / Tableaux-based revision of ontologies

Dong, Ngoc Nguyen Thinh 04 July 2017 (has links)
L'objectif de cette thèse est d'étendre des opérateurs de révision d'ontologie existants en respectant les postulats AGM (priorité aux nouvelles connaissances, cohérence de connaissances et minimalité des changements) pour des ontologies d'expressivité SHIQ et de proposer de nouveaux algorithmes palliant les inconvénients inhérents à ces opérateurs.Après étude de l'existant, nous avons proposé un nouvel algorithme de tableau pour la révision des ontologies exprimées en SHIQ. En créant ce nouvel algorithme de tableau, nous avons défini la notion des modèles de graphe finis (des modèles d'arbre ou des modèles de forêt) afin de représenter un ensemble éventuellement infini de modèles d'une ontologie en SHIQ. Ces structures finies équipées d'un pré-ordre total permettent de déterminer la différence sémantique entre deux ontologies représentées comme deux ensembles de modèles. Nous avons mis en œuvre les algorithmes proposés dans notre moteur de révision OntoRev, intégrant des techniques d'optimisation pour (i) réduire des non-déterminismes lors de l'application de l'algorithme de tableau, (ii) optimiser le temps du calcul de distance entre des modèles d'arbre ou entre des modèles de forêt, (iii) éviter de construire des forêts ou des arbres non nécessaires à la révision. De plus, nous avons examiné la possibilité d'améliorer la méthode de tableau par une approche permettant de compresser les modèles d'arbres. Enfin, nous avons effectué des expérimentations avec des ontologies du monde réel qui ont mis en exergue la difficulté à traiter des axiomes non déterministes intrinsèques. / The objective of this PhD thesis is to extend existing ontology revision operators in accordance with the postulates AGM (priority on new knowledge, knowledge coherence and minimal change) for ontologies in SHIQ and propose new algorithms to overcome the disadvantages in these operators.After studying the existing approaches, we have proposed a new tableau algorithm for the revision of ontologies expressed in SHIQ. Together with this new tableau algorithm, we have defined the notion of finite graph models (tree models or forest models) in order to represent a possibly infinite set of models of an ontology in SHIQ. These finite structures equipped with a total pre-order make it possible to determine the semantic difference between two ontologies represented as two sets of models.We have implemented the proposed algorithms in our revision engine OntoRev, by integrating optimization techniques for (i) reducing non-determinisms when applying the tableau algorithm, (ii) optimizing the computation time of the distance between tree models or between forest models, (iii) avoiding the construction of unnecessary forests or trees in the revision. In addition, we examined the possibility of improving the tableau method using an approach for compressing tree models. Finally, we carried out experiments with real-world ontologies which highlighted the difficulty to deal with intrinsic non-deterministic axioms.
263

Analyse des différences dans le Big Data : Exploration, Explication, Évolution / Difference Analysis in Big Data : Exploration, Explanation, Evolution

Kleisarchaki, Sofia 28 November 2016 (has links)
La Variabilité dans le Big Data se réfère aux données dont la signification change de manière continue. Par exemple, les données des plateformes sociales et les données des applications de surveillance, présentent une grande variabilité. Cette variabilité est dûe aux différences dans la distribution de données sous-jacente comme l’opinion de populations d’utilisateurs ou les mesures des réseaux d’ordinateurs, etc. L’Analyse de Différences a comme objectif l’étude de la variabilité des Données Massives. Afin de réaliser cet objectif, les data scientists ont besoin (a) de mesures de comparaison de données pour différentes dimensions telles que l’âge pour les utilisateurs et le sujet pour le traffic réseau, et (b) d’algorithmes efficaces pour la détection de différences à grande échelle. Dans cette thèse, nous identifions et étudions trois nouvelles tâches analytiques : L’Exploration des Différences, l’Explication des Différences et l’Evolution des Différences.L’Exploration des Différences s’attaque à l’extraction de l’opinion de différents segments d’utilisateurs (ex., sur un site de films). Nous proposons des mesures adaptées à la com- paraison de distributions de notes attribuées par les utilisateurs, et des algorithmes efficaces qui permettent, à partir d’une opinion donnée, de trouver les segments qui sont d’accord ou pas avec cette opinion. L’Explication des Différences s’intéresse à fournir une explication succinte de la différence entre deux ensembles de données (ex., les habitudes d’achat de deux ensembles de clients). Nous proposons des fonctions de scoring permettant d’ordonner les explications, et des algorithmes qui guarantissent de fournir des explications à la fois concises et informatives. Enfin, l’Evolution des Différences suit l’évolution d’un ensemble de données dans le temps et résume cette évolution à différentes granularités de temps. Nous proposons une approche basée sur le requêtage qui utilise des mesures de similarité pour comparer des clusters consécutifs dans le temps. Nos index et algorithmes pour l’Evolution des Différences sont capables de traiter des données qui arrivent à différentes vitesses et des types de changements différents (ex., soudains, incrémentaux). L’utilité et le passage à l’échelle de tous nos algorithmes reposent sur l’exploitation de la hiérarchie dans les données (ex., temporelle, démographique).Afin de valider l’utilité de nos tâches analytiques et le passage à l’échelle de nos algo- rithmes, nous réalisons un grand nombre d’expériences aussi bien sur des données synthé- tiques que réelles.Nous montrons que l’Exploration des Différences guide les data scientists ainsi que les novices à découvrir l’opinion de plusieurs segments d’internautes à grande échelle. L’Explication des Différences révèle la nécessité de résumer les différences entre deux ensembles de donnes, de manière parcimonieuse et montre que la parcimonie peut être atteinte en exploitant les relations hiérarchiques dans les données. Enfin, notre étude sur l’Evolution des Différences fournit des preuves solides qu’une approche basée sur les requêtes est très adaptée à capturer des taux d’arrivée des données variés à plusieurs granularités de temps. De même, nous montrons que les approches de clustering sont adaptées à différents types de changement. / Variability in Big Data refers to data whose meaning changes continuously. For instance, data derived from social platforms and from monitoring applications, exhibits great variability. This variability is essentially the result of changes in the underlying data distributions of attributes of interest, such as user opinions/ratings, computer network measurements, etc. {em Difference Analysis} aims to study variability in Big Data. To achieve that goal, data scientists need: (a) measures to compare data in various dimensions such as age for users or topic for network traffic, and (b) efficient algorithms to detect changes in massive data. In this thesis, we identify and study three novel analytical tasks to capture data variability: {em Difference Exploration, Difference Explanation} and {em Difference Evolution}.Difference Exploration is concerned with extracting the opinion of different user segments (e.g., on a movie rating website). We propose appropriate measures for comparing user opinions in the form of rating distributions, and efficient algorithms that, given an opinion of interest in the form of a rating histogram, discover agreeing and disargreeing populations. Difference Explanation tackles the question of providing a succinct explanation of differences between two datasets of interest (e.g., buying habits of two sets of customers). We propose scoring functions designed to rank explanations, and algorithms that guarantee explanation conciseness and informativeness. Finally, Difference Evolution tracks change in an input dataset over time and summarizes change at multiple time granularities. We propose a query-based approach that uses similarity measures to compare consecutive clusters over time. Our indexes and algorithms for Difference Evolution are designed to capture different data arrival rates (e.g., low, high) and different types of change (e.g., sudden, incremental). The utility and scalability of all our algorithms relies on hierarchies inherent in data (e.g., time, demographic).We run extensive experiments on real and synthetic datasets to validate the usefulness of the three analytical tasks and the scalability of our algorithms. We show that Difference Exploration guides end-users and data scientists in uncovering the opinion of different user segments in a scalable way. Difference Explanation reveals the need to parsimoniously summarize differences between two datasets and shows that parsimony can be achieved by exploiting hierarchy in data. Finally, our study on Difference Evolution provides strong evidence that a query-based approach is well-suited to tracking change in datasets with varying arrival rates and at multiple time granularities. Similarly, we show that different clustering approaches can be used to capture different types of change.
264

Methods and tools for rapid and efficient parallel implementation of computer vision algorithms on embedded multiprocessors / Méthodes et outils pour l'implémentation rapide et efficace d'algorithmes de vision par ordinateur sur des multiprocesseurs embarqués

Schwambach, Vítor 30 March 2016 (has links)
Les applications de vision par ordinateur embarquées demandent une forte capacité decalcul et poussent le développement des systèmes multi- et many-cores spécifiques à l’application. Les choix au départ de la conception du système peuvent impacter sa performance parallèle finale – parmi lesquelles la granularité de la parallélisation, le nombre de processeurs et l’équilibre entre calculs et l’acheminement des données. L’impact de ces choix est difficile à estimer dans les phases initiales de conception et il y a peu d’outils et méthodes pour aider les concepteurs dans cette tâche. Les contributions de cette thèse consistent en deux méthodes et les outils associés qui visent à faciliter la sélection des paramètres architecturaux d’un multiprocesseur embarqué et les stratégies de parallélisation des applications de vision embarquée. La première est une méthode d’exploration de l’espace de conception qui repose sur Parana, un outil fournissant une estimation rapide et précise de la performance parallèle. Parana permet l’évaluation de différents scénarios de parallélisation et peut déterminer la limite maximale de performance atteignable. La seconde contribution est une méthode pour l’optimisation du dimensionnement des tuiles d’images 2D utilisant la programmation par contraintes dans l’outil Tilana. La méthode proposée intègre pour plus de précision des facteurs non-linéaires comme les temps des transferts DMA et les surcoûts de l’ordonnancement parallèle. / Embedded computer vision applications demand high system computational power and constitute one of the key drivers for application-specific multi- and many-core systems. A number of early system design choices can impact the system’s parallel performance – among which the parallel granularity, the number of processors and the balance between computation and communication. Their impact in the final system performance is difficult to assess in early design stages and there is a lack for tools that support designers in this task. The contributions of this thesis consist in two methods and associated tools that facilitate the selection of embedded multiprocessor’s architectural parameters and computer vision application parallelization strategies. The first consists of a Design Space Exploration (DSE) methodology that relies on Parana, a fast and accurate parallel performance estimation tool. Parana enables the evaluation of what-if parallelization scenarios and can determine their maximum achievable performance limits. The second contribution consists of a method for optimal 2D image tile sizing using constraint programming within the Tilana tool. The proposed method integrates non-linear DMA data transfer times and parallel scheduling overheads for increased accuracy.
265

Modélisation multi-échelles de réservoir et calage d'historique de production / Multiscale simulation of reservoir and history-matching

Gardet, Caroline 14 November 2014 (has links)
Dans cette thèse, nous proposons deux algorithmes multi-échelles pour la simulation de modèles géologiques de réservoir. Le premier algorithme relève des méthodes géostatistiques à deux points. Il s'agit d'une simulation séquentielle Gaussienne avec variable secondaire. Dans notre approche multi-échelle, la variable secondaire est supposée connue à une deuxième échelle, de résolution plus grossière. Elle représente alors la tendance ou moyenne de la variable principale. A partir d'une paramétrisation adéquate, on montre que le calage des propriétés du modèle géologique à l'échelle grossière est plus efficace que le calage de ces mêmes propriétés à l'échelle fine. Notre méthode est applicable aux variables continues et aux variables discrètes.Le deuxième algorithme est une adaptation d'un algorithme de synthèse de texture aux problèmes de réservoir. C'est un algorithme de simulation multipoints qui nécessite l'utilisation d'une image d'entrainement. Il permet de reproduire des objets géologiques de formes complexes comme des chenaux ou des réseaux de fractures. Comme tous les algorithmes multipoints, il requiert des temps de calcul important. Nous montrons alors comment l'introduction d'une échelle intermédiaire permet de diminuer ce temps de calcul et d'améliorer la reproduction des grandes structures. Nous testons deux techniques pour diminuer davantage encore le temps de calcul : le scan partiel de l'image d'entrainement ou l'organisation des informations extraites de cette même image. / In this manuscript, we propose two multiscale algorithms for the simulation of geological reservoir models.The first algorithm is based on two-points statistics methods. It is based upon the sequential Gaussian simulation with a secondary variable. In our multiscale approach, the scale of the secondary variable is considered as a second scale of coarser resolution. It represents the trend or the average of the primary variable. In the context of history-matching, it can be shown that adjusting the properties of the geological model at the coarse scale is more effective than doing the same at the fine scale provided a suitable parameterization technique is used. Our method holds for both continuous and discrete variables. The second algorithm is rooted in texture synthesis techniques developed in computer graphics and modified to cope with reservoir simulation. This is a multipoint simulation algorithm. As such, it requires the use of a training image. It permits to simulates complex geological objects like channels or networks of fractures. However, as all multipoint algorithms, it requires significant computation times. We show how the introduction of an intermediate scale reduces the computation time and improves the reproduction of large structures. We also test two techniques to further reduce the computation time: the partial scan of the training image and the preliminary organization of the information extracted from this image.
266

Leveraging MWEs in practical TAG parsing : towards the best of the two worlds / Optimisation d'analyse syntaxique basée sur les grammaires d'arbres adjoints grâce à la modélisation d'expression polylexicales et à l'algorithme A

Waszczuk, Jakub 26 June 2017 (has links)
Dans ce mémoire, nous nous penchons sur les expressions polylexicales (EP) et leurs relations avec l’analyse syntaxique, la tâche qui consiste à déterminer les relations syntaxiques entre les mots dans une phrase donnée. Le défi que posent les EP dans ce contexte, par rapport aux expressions linguistiques régulières, provient de leurs propriétés parfois inattendues qui les rendent difficiles à gérer dans te traitement automatique des langues. Dans nos travaux, nous montrons qu’il est pourtant possible de profiter de ce cette caractéristique des EP afin d’améliorer les résultats d’analyse syntaxique. Notamment, avec les grammaires d’arbres adjoints (TAGs), qui fournissent un cadre naturel et puissant pour la modélisation des EP, ainsi qu’avec des stratégies de recherche basées sur l’algorithme A* , il est possible d’obtenir des gains importants au niveau de la vitesse sans pour autant détériorer la qualité de l’analyse syntaxique. Cela contraste avec des méthodes purement statistiques qui, malgré l’efficacité, ne fournissent pas de solutions satisfaisantes en ce qui concerne les EP. Nous proposons un analyseur syntaxique novateur qui combine les grammaires TAG avec La technique A*, axé sur la prédiction des EP, dont les fonctionnalités permettent des applications à grande échelle, facilement extensible au contexte probabiliste. / In this thesis, we focus on multiword expressions (MWEs) and their relationships with syntactic parsing. The latter task consists in retrieving the syntactic relations holding between the words in a given sentence. The challenge of MWEs in this respect is that, in contrast to regular linguistic expressions, they exhibit various irregular properties which make them harder to deal with in natural language processing. In our work, we show that the challenge of the MWE-related irregularities can be turned into an advantage in practical symbolic parsing. Namely, with tree adjoining grammars (TAGs), which provide first-cLass support for MWEs, and A* search strategies, considerable speed-up gains can be achieved by promoting MWE-based analyses with virtually no loss in syntactic parsing accuracy. This is in contrast to purely statistical state-of-the-art parsers, which, despite efficiency, provide no satisfactory support for MWEs. We contribute a TAG-A* -MWE-aware parsing architecture with facilities (grammar compression and feature structures) enabling real-world applications, easily extensible to a probabilistic framework.
267

Méthodologie d'évaluation des impacts cliniques et dosimétriques d'un changement de procédure en radiothérapie : Aspect - Radio physique et médical / Methodology to assess the clinical and dosimetric impacts resulting from the change of a calculation algorithm in radiotherapy : Radiological Medical Physics

Chaikh, Abdulhamid 13 March 2012 (has links)
Introduction et objectif : La prescription des traitements en radiothérapie est basée sur l'analyse de la répartition de dose calculée par le TPS. Un changement d'algorithme de calcul doit être précédé d'une analyse dosimétrique complète, afin que les impacts cliniques soient maitrisés. Nous présentons une méthodologie de mise en œuvre d'un nouveau TPS. Matériel et méthodologie : Nous avons utilisé 5 algorithmes de calcul de dose. Nous avons comparé 6 plans de traitement avec des configurations identiques : patient, énergie, balistique. Nous avons comparé 12 localisations tumorales : 5 poumons, 1 œsophage, 1 sein, 3 ORL, 1 encéphales et 1 prostate. Le principe de méthodologie est basé sur deux critères d'analyse : 1.Critère d'analyse dosimétrique : nous avons classé les outils d'analyse en 3 catégories : analyse liée à la dose de traitement, analyse liée à la distribution de dose et analyse liée à la répartition de la dose 2.Critère d'analyse statistique : nous avons considéré que nous avons 5 séries de mesure liée à 5 algorithmes. Nous avons considéré les valeurs dosimétriques calculées par l'ancien algorithme comme valeurs de référence. Le test de comparaison statistique utilisé était un Wilcoxon pour série apparié avec un seuil de signification de 5% et un intervalle de confiance à 95%. Résultats et discussion : Nous avons trouvé des écarts pour tous les paramètres comparés dans cette étude. Ces écarts dépendent de la localisation de la tumeur et de l'algorithme de calcul. La maîtrise statistique des résultats nous permet, d'une part de diagnostiquer et interpréter les écarts dosimétriques observés et d'autre part, de déterminer si les écarts sont significatifs. Conclusion : Nous proposons une méthodologie qui permet de quantifier d'éventuels écarts dosimétriques lors d'un changement d'algorithme. L'analyse statistique permet de s'assurer que les résultats sont significatifs. / Background and purpose The validation of a treatment plan is based on the analysis of dose distributions. The dose distributions are calculated by algorithms implanted in TPS. So, the changing of an algorithm must be preceded by a complete dosimetric analysis in order to provide a method for controlling the clinical impact of this change. We present in this study the methodology used for implementing a new TPS in our clinic. Materials and methods We used five algorithms for dose calculation: Clarkson, PBC, Batho Power Law, modified Batho and EqTAR. We compared six treatment plans with identical configurations: 2 plans without heterogeneity correction and 4 with density correction. We have compared nine tumours locations: 5 lungs, 1 oesophagus, 1 breast, 3head and neck, 1 brain and 1 prostate. We compared the following parameters: monitors units, HDV, isodoses, covering index, index of homogeneity, conformity index, geometric index and gamma index for 2D and 3D. We analyzed the results using a statistical evaluation and the method plot box. Results and discussion The gamma index 3D and histogram gamma generated for a CT slice can be used to compare various algorithms and radiotherapy plans. We found a difference in all parameters compared when the algorithm is changed. For example, we found a 5% difference in monitors units and 7% in dose for the pulmonary cancer case, when we change from PBC to EqTAR .This may leads to an increased of 30% in the complication rate. The statistical evaluation serves as a rapid interpretation and diagnostic of dosimetric differences and allows the determination of the significance of these differences. Conclusion We proposed a methodology that allows the quantification of dosimetric variation during the change of calculation algorithm in radiotherapy. This methodology provides a valuable technique for quantitative comparison of various algorithms and radiotherapy plans
268

Optimisation de requêtes sur des données massives dans un environnement distribué / Optimization of queries over large data in a distributed environment

Gillet, Noel 10 March 2017 (has links)
Les systèmes de stockage distribués sont massivement utilisés dans le contexte actuel des grandes masses de données. En plus de gérer le stockage de ces données, ces systèmes doivent répondre à une quantité toujours plus importante de requêtes émises par des clients distants afin d’effectuer de la fouille de données ou encore de la visualisation. Une problématique majeure dans ce contexte consiste à répartir efficacement les requêtes entre les différents noeuds qui composent ces systèmes afin de minimiser le temps de traitement des requêtes ( temps maximum et en moyenne d’une requête, temps total de traitement pour toutes les requêtes...). Dans cette thèse nous nous intéressons au problème d’allocation de requêtes dans un environnement distribué. On considère que les données sont répliquées et que les requêtes sont traitées par les noeuds stockant une copie de la donnée concernée. Dans un premier temps, des solutions algorithmiques quasi-optimales sont proposées lorsque les communications entre les différents noeuds du système se font de manière asynchrone. Le cas où certains noeuds du système peuvent être en panne est également considéré. Dans un deuxième temps, nous nous intéressons à l’impact de la réplication des données sur le traitement des requêtes. En particulier, un algorithme qui adapte la réplication des données en fonction de la demande est proposé. Cet algorithme couplé à nos algorithmes d’allocation permet de garantir une répartition des requêtes proche de l’idéal pour toute distribution de requêtes. Enfin, nous nous intéressons à l’impact de la réplication quand les requêtes arrivent en flux sur le système. Nous procédons à une évaluation expérimentale sur la base de données distribuées Apache Cassandra. Les expériences réalisées confirment l’intérêt de la réplication et de nos algorithmes d’allocation vis-à-vis des solutions présentes par défaut dans ce système. / Distributed data store are massively used in the actual context of Big Data. In addition to provide data management features, those systems have to deal with an increasing amount of queries sent by distant users in order to process data mining or data visualization operations. One of the main challenge is to evenly distribute the workload of queries between the nodes which compose these system in order to minimize the treatment time. In this thesis, we tackle the problem of query allocation in a distributed environment. We consider that data are replicated and a query can be handle only by a node storing the concerning data. First, near-optimal algorithmic proposals are given when communications between nodes are asynchronous. We also consider that some nodes can be faulty. Second, we study more deeply the impact of data replication on the query treatement. Particularly, we present an algorithm which manage the data replication based on the demand on these data. Combined with our allocation algorithm, we guaranty a near-optimal allocation. Finally, we focus on the impact of data replication when queries are received as a stream by the system. We make an experimental evaluation using the distributed database Apache Cassandra. The experiments confirm the interest of our algorithmic proposals to improve the query treatement compared to the native allocation scheme in Cassandra.
269

Analyse mathématique et convergence d'un algorithme pour le transport optimal dynamique : cas des plans de transports non réguliers, ou soumis à des contraintes / Mathematical analysis and convergence of an algorithm for optimal transport problem : case of non regular transportation maps, or subjected to constraints

Hug, Romain 09 December 2016 (has links)
Au début des années 2000, J. D. Benamou et Y. Brenier ont proposé une formulation dynamique du transport optimal basée sur la recherche en espace-temps d'une densité et d'une quantité de mouvement minimisant une énergie de déplacement entre deux densités. Ils ont alors proposé, pour la résolution numérique de ce problème, d'écrire ce dernier sous la forme d'une recherche de point selle d'un certain lagrangien via un algorithme de lagrangien augmenté. Nous étudierons, à l'aide de la théorie des opérateurs non-expansifs, la convergence de cet algorithme vers un point selle du lagrangien introduit, et ceci dans les conditions les plus générales possibles, en particulier dans les cas où les densités de départ et d'arrivée s'annulent sur certaines zones du domaine de transport. La principale difficulté de notre étude consistera en la preuve de l'existence d'un point selle, et surtout de l'unicité de la composante densité-quantité de mouvement dans de telles conditions. En effet, celles-ci impliquent de devoir traiter avec des plans de transport optimaux non réguliers : c'est pourquoi une importante partie de nos travaux aura pour objet une étude approfondie de la régularité d'un champ de vitesse associé à de tels plans de transport. Nous tenterons également de caractériser les propriétés d'un champ de vitesse associé à un plan de transport optimal dans l'espace quadratique. Pour finir, nous explorerons différentes approches relatives à l'introduction de contraintes physiques dans la formulation dynamique du transport optimal, basées sur une pénalisation du domaine de transport ou du champ de vitesse. / In the beginning of the 2000 years, J. D. Benamou and Y. Brenier have proposed a dynamical formulation of the optimal transport problem, corresponding to the time-space search of a density and a momentum minimizing a transport energy between two densities. They proposed, in order to solve this problem in practice, to deal with it by looking for a saddle point of some Lagrangian by an augmented Lagrangian algorithm. Using the theory of non-expansive operators, we will study the convergence of this algorithm to a saddle point of the Lagrangian introduced, in the most general feasible conditions, particularly in cases where initial and final densities are canceling on some areas of the transportation domain. The principal difficulty of our study will consist of the proof, in these conditions, of the existence of a saddle point, and especially in the uniqueness of the density-momentum component. Indeed, these conditions imply to have to deal with non-regular optimal transportation maps: that is why an important part of our works will have for object a detailed study of the properties of the velocity field associated to an optimal transportation map in quadratic space. To finish, we will explore different approaches for introducing physical priors in the dynamical formulation of optimal transport, based on penalization of the transportation domain or of the velocity field.
270

Sparsity regularization and graph-based representation in medical imaging / La régularisation parcimonieuse et la représentation à base de graphiques dans l'imagerie médicale

Gkirtzou, Aikaterini 17 December 2013 (has links)
Les images médicales sont utilisées afin de représenter l'anatomie. Le caractère non- linéaire d'imagerie médicale rendent leur analyse difficile. Dans cette thèse, nous nous intéressons à l'analyse d'images médicales du point de vue de la théorie statistique de l'apprentissage. Tout d'abord, nous examinons méthodes de régularisation. Dans cette direction, nous introduisons une nouvelle méthode de régularisation, la k-support regularized SVM. Cet algorithme étend la SVM régularisée `1 à une norme mixte de toutes les deux normes `1 et `2. Ensuite, nous nous intéressons un problème de comparaison des graphes. Les graphes sont une technique utilisée pour la représentation des données ayant une structure héritée. L'exploitation de ces données nécessite la capacité de comparer des graphes. Malgré le progrès dans le domaine des noyaux sur graphes, les noyaux sur graphes existants se concentrent à des graphes non-labellisés ou labellisés de façon discrète, tandis que la comparaison de graphes labellisés par des vecteurs continus, demeure un problème de recherche ouvert. Nous introduisons une nouvelle méthode, l'algorithme de Weisfeiler-Lehman pyramidal et quantifié afin d'aborder le problème de la comparaison des graphes labellisés par des vecteurs continus. Notre algorithme considère les statistiques de motifs sous arbre, basé sur l'algorithme Weisfeiler-Lehman ; il utilise une stratégie de quantification pyramidale pour déterminer un nombre logarithmique de labels discrets. Globalement, les graphes étant des objets mathématiques fondamentaux et les méthodes de régularisation étant utilisés pour contrôler des problèmes mal-posés, notre algorithmes pourraient appliqués sur un grand éventail d'applications. / Medical images have been used to depict the anatomy or function. Their high-dimensionality and their non-linearity nature makes their analysis a challenging problem. In this thesis, we address the medical image analysis from the viewpoint of statistical learning theory. First, we examine regularization methods for analyzing MRI data. In this direction, we introduce a novel regularization method, the k-support regularized Support Vector Machine. This algorithm extends the 1 regularized SVM to a mixed norm of both `1 and `2 norms. We evaluate our algorithm in a neuromuscular disease classification task. Second, we approach the problem of graph representation and comparison for analyzing medical images. Graphs are a technique to represent data with inherited structure. Despite the significant progress in graph kernels, existing graph kernels focus on either unlabeled or discretely labeled graphs, while efficient and expressive representation and comparison of graphs with continuous high-dimensional vector labels, remains an open research problem. We introduce a novel method, the pyramid quantized Weisfeiler-Lehman graph representation to tackle the graph comparison problem for continuous vector labeled graphs. Our algorithm considers statistics of subtree patterns based on the Weisfeiler-Lehman algorithm and uses a pyramid quantization strategy to determine a logarithmic number of discrete labelings. We evaluate our algorithm on two different tasks with real datasets. Overall, as graphs are fundamental mathematical objects and regularization methods are used to control ill-pose problems, both proposed algorithms are potentially applicable to a wide range of domains.

Page generated in 0.0344 seconds