• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 17
  • 8
  • 1
  • Tagged with
  • 28
  • 5
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Convertisseur analogique-numérique ΣΔ à base VCO / VCO-based ΣΔ analog to digital conversion

Allam, Mootaz Bellah Mohamed Mahmoud 12 June 2015 (has links)
Les systèmes de communication sans fil modernes exigent haute performance analogique Convertisseurs-numériques (CAN) avec l'augmentation de la bande passante et la résolution.Aujourd'hui, il y a un besoin croissant de faible puissance et de récepteurs RF multi-fonctionnels, puisque le marché s' attend à des capacités de réception complexes avec des appareils de faible puissance qui fonctionnent sur batteries portables de puissance limitée.Pour cette raison la tendance actuelle est de diminuer la partie analogique des récepteurs, tout en augmentant les tâches effectuées par la partie numérique.Par conséquent, cela demande des CAN à large bande, haute résolution et faible consommation.Dans cette recherche, on étudie plusieurs CAN à base de VCO.On montre la conception, la réalisation dans le process CMOS 65nm et les mesures de deux types de CAN à base VCO, le premier est basé sur le principe de la conversion tension-fréquence tandis que le second utilise le principe de la conversion tension-phase.Le CAN tension fréquence est un CAN de 4-bit programmable avec une fréquence d’échantillonnage qui va de 220MHz jusqu’à 1500MHz. le rapport signal dur bruit mesuré est de 40.5dB dans une bande de 30MHz avec une consommation de 0.5mW.Le CAN tension phase est un CAN de 4-bit programmable avec une fréquence d’échantillonnage qui va de 300MHz jusqu'a 1440MHz. le rapport signal dur bruit mesuré est de 48dB dans une bande de 30MHz avec une consommation de 1mW. On présente ensuite une méthode de conception systématique de conception des CAN SigmaDelta de grand ordre avec des quantificateurs à base VCO.Pour valider la méthode de conception, un CAN SigmaDelta avec un quantificateur tension-fréquence est conçu en 65nm. Le rapport signal sur bruit mesuré est de 62dB dans une bande de 28MHz et une consommation de 30mW.On propose ensuite l'utilisation des quantificateurs à base VCO dans les modulateurs SigmaDelta en quadrature. Pour cela, une méthode de conception systématique et présentée. Un CAN sigmadelta en quadrature de 4ème ordre avec des quantificateurs tension fréquence est conçu en 65nm. Les mesures de ce circuit sont encore encours. Les simulations post-layout montrent un rappost signal sur bruit de 75dB dans une bande de 40MHz et une consommation de 60mW. / Today's wireless communication systems are requiring high performance Converters analog-digital (ADC) with increasing demand on bandwidth and resolution.There is a growing need for low-power and multi-functional RF receivers , since the market is expecting complex receiving capacities with low power battery operated devices.For this reason the current trend is to decrease the analogue part of the receivers, while increasing the tasks performed by the digital part.Therefore, this imposes stringent requirements on the ADC such as wideband operation, high resolution and low power consumption.In this dissertation, we studied and realized several types of VCO-based ADCs.We show the design, implementation and the measurements of two types of VCO-based ADCs in 65nm CMOS process. The first is using the voltage to frequency conversion technique while the second uses the principle of voltage to phase conversion.The voltage to frequency converter is a 4-bit ADC with a programmable sampling frequency that goes from 220MHz up to 1500MHz.The measured Signal-to-noise-and-distortion-ratio (SNDR) is of 40.5dB in a band of 30MHz with a power consumption of 0.5mW.The voltage phase converter is a 4-bit ADC with a programmable sampling frequency that goes from 300MHz up to 1440MHz.The measured SNDR is 48dB in a band of 30MHz with a consumption of 1mW.We then present a systematic design method of high order SigmaDelta ADCs with VCO-based quantizers.To validate the design method, a SigmaDelta ADC with a 4-bit voltage-frequency is designed in 65nm. The measured SNDR is 62dB in a band of 28MHz and a power consumption of 30mw.We propose the use of VCO-based quantizers in quadrature SigmaDelta modulators. A systematic design method is presented for the quadrature VCO-based Sigmadelta modulators.A 4th order quadrature sigmadelta with 4-bit voltage to frequency quantizers is designed in 65nm. The measurements of this circuit are currently in progress. In post layout simulations, the quadrature modulator achieves 75dB in a band of 40MHz and a power consumption of 60mW.
12

Caractérisation du rythme à partir de l'analyse du signal audio / Rhythm characterization from audio signal analysis

Marchand, Ugo 28 November 2016 (has links)
Cette thèse s'inscrit dans le cadre de l'analyse automatique de la musique.La finalité de ce champ de recherche est d'extraire des informations de la musique, ou autrement dit, de faire comprendre ce qu'est la musique à un ordinateur.Les applications sont nombreuses: fabriquer des systèmes de recommandation musicale, transcrire une partition à partir du signal ou générer automatiquement de la musique.Nous nous intéressons dans ce manuscrit à l'analyse automatique du rythme.Notre objectif est de proposer de nouvelles descriptions du rythme qui s'inspirent d'études perceptives et neurologiques.La représentation du rythme d’un signal musical audio est un problème complexe.Il ne s’agit pas simplement de détecter la position des attaques et la durée des notes comme sur une partition mais plus généralement de modéliser l’interaction temporelle entre les différents instruments présents et collaborant à l’établissement d’un rythme de manière compacte, discriminante et invariante.Nous cherchons à obtenir des représentations invariantes à certains paramètres (tels la position dans le temps, les variations faibles de tempo ou d’instrumentation) mais à l’inverse sensibles à d’autres (comme le motif rythmique, les paramètres fins d’interprétation ou le swing). Nous étudions les trois aspects fondamentaux pour la description du rythme: le tempo les déviations et les motifs rythmiques. / This thesis is within the scope of Music Information Retrieval. The goal of this research field is to extract meaningful informations from music. There are numerous applications: music recommendation systems, music transcription to a score or automatic generation of music. In this manuscript, oOur objective is to propose new rhythm descriptions inspired from perceptual and neurological studies.Rhythm representation of a musical signal is a complex problem. Detecting attack positions and note durations is not sufficient: we have the model the temporal interaction between the different instruments collaborating together to create rhythm. We try to obtain representations that are invariant to some parameters (like the position over time, the small tempo or instrumentation variations) but sensitive to other parameters (like the rhythm pattern or the swing factor). We study the three key aspect of rhythm description: tempo, deviations and rhythm pattern.
13

Semantic Representation of a Heterogeneous Document Corpus for an Innovative Information Retrieval Model : Application to the Construction Industry / Représentation Sémantique de Corpus de Documents Hétérogènes pour un Modèle de Recherche d'Information Novateur : Application au Domaine du Bâtiment

Charbel, Nathalie 21 December 2018 (has links)
Les avancées récentes des Technologies de l'Information et de la Communication (TIC) ont entraîné des transformations radicales de plusieurs secteurs de l'industrie. L'adoption des technologies du Web Sémantique a démontré plusieurs avantages, surtout dans une application de Recherche d'Information (RI) : une meilleure représentation des données et des capacités de raisonnement sur celles-ci. Cependant, il existe encore peu d’applications industrielles car il reste encore des problèmes non résolus, tels que la représentation de documents hétérogènes interdépendants à travers des modèles de données sémantiques et la représentation des résultats de recherche accompagnés d'informations contextuelles.Dans cette thèse, nous abordons deux défis principaux. Le premier défi porte sur la représentation de la connaissance relative à un corpus de documents hétérogènes couvrant à la fois le contenu des documents fortement lié à un domaine métier ainsi que d'autres aspects liés à la structure de ces documents tels que leurs métadonnées, les relations inter et intra-documentaires (p. ex., les références entre documents ou parties de documents), etc. Le deuxième défi porte sur la construction des résultats de RI, à partir de ce corpus de documents hétérogènes, aidant les utilisateurs à mieux interpréter les informations pertinentes de leur recherche surtout quand il s'agit d'exploiter les relations inter/intra-documentaires.Pour faire face à ces défis, nous proposons tout d'abord une représentation sémantique du corpus de documents hétérogènes à travers un modèle de graphe sémantique couvrant à la fois les dimensions structurelle et métier du corpus. Ensuite, nous définissons une nouvelle structure de données pour les résultats de recherche, extraite à partir de ce graphe, qui incorpore les informations pertinentes directes ainsi qu'un contexte structurel et métier. Afin d'exploiter cette nouvelle structure dans un modèle de RI novateur, nous proposons une chaine de traitement automatique de la requête de l'utilisateur, allant du module d'interprétation de requête, aux modules de recherche, de classement et de présentation des résultats. Bien que nous proposions une chaine de traitement complète, nos contributions se focalisent sur les modules de recherche et de classement.Nous proposons une solution générique qui peut être appliquée dans différents domaines d'applications métiers. Cependant, dans cette thèse, les expérimentations ont été appliquées au domaine du Bâtiment et Travaux Publics (BTP), en s'appuyant sur des projets de construction. / The recent advances of Information and Communication Technology (ICT) have resulted in the development of several industries. Adopting semantic technologies has proven several benefits for enabling a better representation of the data and empowering reasoning capabilities over it, especially within an Information Retrieval (IR) application. This has, however, few applications in the industries as there are still unresolved issues, such as the shift from heterogeneous interdependent documents to semantic data models and the representation of the search results while considering relevant contextual information. In this thesis, we address two main challenges. The first one focuses on the representation of the collective knowledge embedded in a heterogeneous document corpus covering both the domain-specific content of the documents, and other structural aspects such as their metadata, their dependencies (e.g., references), etc. The second one focuses on providing users with innovative search results, from the heterogeneous document corpus, helping the users in interpreting the information that is relevant to their inquiries and tracking cross document dependencies.To cope with these challenges, we first propose a semantic representation of a heterogeneous document corpus that generates a semantic graph covering both the structural and the domain-specific dimensions of the corpus. Then, we introduce a novel data structure for query answers, extracted from this graph, which embeds core information together with structural-based and domain-specific context. In order to provide such query answers, we propose an innovative query processing pipeline, which involves query interpretation, search, ranking, and presentation modules, with a focus on the search and ranking modules.Our proposal is generic as it can be applicable in different domains. However, in this thesis, it has been experimented in the Architecture, Engineering and Construction (AEC) industry using real-world construction projects.
14

Segmentation supervisée d'actions à partir de primitives haut niveau dans des flux vidéos / Action supervised segmentation based on high level features on video streams

Chan-Hon-Tong, Adrien 29 September 2014 (has links)
Cette thèse porte sur la segmentation supervisée de flux vidéo dans un contexte applicatif lié à la reconnaissance d'actions de la vie courante.La méthode de segmentation proposée est dérivée la méthode des modèles de formes implicites (Implicit Shape Model) et s'obtient en optimisant les votes présents dans cette méthode d'élection.Nous démontrons que cette optimisation (dans un contexte de fenêtre temporelle glissante) peut être exprimée de manière équivalente dans le formalisme des SVM en imposant une contrainte de cohérence temporelle à l'apprentissage, ou, en représentant la fenêtre glissante selon une décomposition pyramidale dense.Tout ce processus est validé expérimentalement sur un jeu de données de la littérature de segmentation supervisée.Il y surpasse les autres méthodes de type modèles de formes implicites et le SVM linéaire standard.La méthode proposée est ensuite mise en œuvre dans le cadre de la segmentation supervisée d'actions.Pour cela, des primitives dédiées sont extraites des données squelette de la personne d'intérêt obtenues grâce à des logiciels standards.Ces primitives sont ensuite quantifiées puis utilisées par la méthode d'élection.Ce système de segmentation d'actions obtient les meilleurs scores de l'état de l'art sur un jeu de données de la littérature de reconnaissance d'actions, ce qui valide cette combinaison des primitives et de la méthode d'élection. / This thesis focuses on the supervised segmentation of video streams within the application context of daily action recognition.A segmentation algorithm is obtained from Implicit Shape Model by optimising the votes existing in this polling method.We prove that this optimisation can be linked to the sliding windows plus SVM framework and more precisely is equivalent with a standard training by adding temporal constraint, or, by encoding the data through a dense pyramidal decomposition. This algorithm is evaluated on a public database of segmentation where it outperforms other Implicit Shape Model like methods and the standard linear SVM.This algorithm is then integrated into a action segmentation system.Specific features are extracted from skeleton obtained from the video by standard software.These features are then clustered and given to the polling method.This system, combining our feature and our algorithm, obtains the best published performance on a human daily action segmentation dataset.
15

Compilation efficace de spécifications de contrôle embarqué avec prise en compte de propriétés fonctionnelles et non-fonctionnelles complexes / Efficient compilation of embedded control specifications with complex functional and non-functional properties

Carle, Thomas 31 October 2014 (has links)
Une séparation existe de longue date entre les domaines de la compilation et de l'ordonnancement temps-réel. Si ces deux domaines ont le même objectif - la construction d'implantations correctes - la séparation se justifie historiquement par des différences significatives entre les modèles et les méthodes utilisés. Cependant, avec la complexification des applications et du materiel qui les exécute, les problèmes étudiés dans ces deux domaines se confondent désormais largement. Dans cette thèse, nous nous concentrons sur la génération automatique de code pour des systèmes de contrôle embarqué incluant des contraintes complexes (notamment temps-réel). A ces fins, nous défendons l'idée qu'il est profitable de fournir un effort commun de recherche entre ces deux communautés. En adaptant une technique de compilation au problème d'ordonnancement temps réel d'applications sur des architectures multiprocessurs, nous montrons à la fois les difficultés inhérentes à cet effort commun, mais aussi les possibles avancées qu'il porte. En effet, nous montrons que l'adaptation de techniques d'optimisation à de nouveaux objectifs, dans un contexte différent facilite le développement de systèmes de meilleure qualité. Nous proposons d'utiliser les formalismes et langages synchrones comme base formelle commune dans ce travail d'adaptation. Ceux-cis étendent naturellement les modèles classiques utilisés pour l'ordonnancement temps réel (graphes de tâches dépendentes) et la compilation (SSA et graphes de dépendence de données), et fournissent également des techniques efficaces pour la manipulation de structures de contrôle complexes. Nous avons implanté nos résultats dans le compilateur LoPhT. / There is a long standing separation between the fields of compiler construction and real-time scheduling. While both fields have the same objective - the construction of correct implementations – the separation was historically justified by significant differences in the models and methods that were used. Nevertheless, with the ongoing complexification of applications and of the hardware of the execution platforms, the objects and problems studied in these two fields are now largely overlapping. In this thesis, we focus on the automatic code generation for embedded control systems with complex constraints, including hard real-time requirements. To this purpose, we advocate the need for a reconciled research effort between the communities of compilation and real-time systems. By adapting a technique usually used in compilers (software pipelining) to the system-level problem of multiprocessor scheduling of hard real-time applications, we shed light on the difficulties of this unified research effort, but also show how it can lead to real advances. Indeed we explain how adapting techniques for the optimization of new objectives, in a different context, allows us to develop more easily systems of better quality than what was done until now. In this adaptation process, we propose to use synchronous formalisms and languages as a common formal ground. These can be naturally seen as extensions of classical models coming from both real-time scheduling (dependent task graphs) and compilation (single static assignment and data dependency graphs), but also provide powerful techniques for manipulating complex control structures. We implemented our results in the LoPhT compiler.
16

Gargamel : accroître les performances des DBMS en parallélisant les transactions en écriture / Gargamel : boosting DBMS performance by parallelising write transactions

Cincilla, Pierpaolo 15 September 2014 (has links)
Les bases de données présentent des problèmes de passage à l’échelle. Ceci est principalement dû à la compétition pour les ressources et au coût du contrôle de la concurrence. Une alternative consiste à centraliser les écritures afin d’éviter les conflits. Cependant, cette solution ne présente des performances satisfaisantes que pour les applications effectuant majoritairement des lectures. Une autre solution est d’affaiblir les propriétés transactionnelles mais cela complexifie le travail des développeurs d’applications. Notre solution, Gargamel, répartie les transactions effectuant des écritures sur différentes répliques de la base de données tout en gardant de fortes propriétés transactionnelles. Toutes les répliques de la base de donnée s’exécutent séquentiellement, à plein débit; la synchronisation entre les répliques reste minime. Les évaluations effectuées avec notre prototype montrent que Gargamel permet d’améliorer le temps de réponse et la charge d’un ordre de grandeur quand la compétition est forte (systèmes très chargés avec ressources limitées) et que dans les autres cas le ralentissement est négligeable. / Databases often scale poorly in distributed configurations, due to the cost of concurrency control and to resource contention. The alternative of centralizing writes works well only for read-intensive workloads, whereas weakening transactional properties is problematic for application developers. Our solution spreads non-conflicting update transactions to different replicas, but still provides strong transactional guarantees. In effect, Gargamel partitions the database dynamically according to the update workload. Each database replica runs sequentially, at full bandwidth; mutual synchronisation between replicas remains minimal. Our prototype show that Gargamel improves both response time and load by an order of magnitude when contention is high (highly loaded system with bounded resources), and that otherwise slow-down is negligible.
17

Simulation multi-agent d'un système complexe : combiner des domaines d'expertise par une approche multi-niveau. Le cas de la consommation électrique résidentielle / Multi-agent simulation of a complex system : combining domains of expertise with a multi-level approach. The case of residential electrical consumption

Huraux, Thomas 02 October 2015 (has links)
Nous abordons dans cette thèse un problème important en simulation multi-agent pour l'étude des systèmes complexes: celui d'assembler de multiples expertises par une approche multi-niveau. Alors que les approches existantes considèrent habituellement la vue d'un seul expert principal sur le système, nous proposons d'utiliser une approche multi-niveau pour intégrer plusieurs expertises sous la forme d'agents de différents niveaux d'abstraction. Nous montrons qu'il est ainsi possible de rester proche des concepts manipulés par les différents experts (ce qui permet de faciliter le processus de validation dans leurs domaines respectifs) et de combiner les différents niveaux de ces concepts, de manière à ce que chaque expert puisse comprendre les dynamiques des éléments liés à son domaine. Nous proposons le méta-modèle SIMLAB basé sur une représentation unifiée des concepts par des agents pouvant s'influencer les uns les autres dans différents axes et différents niveaux. Ce travail est concrétisé dans le cadre de l'étude de l'activité humaine en relation avec la consommation électrique. Il s'agit là d'un exemple typique de système complexe nécessitant de multiples expertises issues de différents domaines tels que l'ergonomie, l'énergétique, la sociologie, la thermique, ... Dans ce contexte, nous présentons ensuite la mise en oeuvre de notre approche dans la plate-forme SMACH de simulation des comportements humains et nous décrivons un ensemble d'expérimentations illustrant les différentes caractéristiques de notre approche. Nous montrons enfin la capacité de SIMLAB à reproduire et à étendre en simulation une étude réalisée sur le terrain de gestion de la demande énergétique. / The purpose of this work is to tackle a key problem in the study of complex systems when using multi-agent simulation: how to assemble several domains of expertise with a multi-level approach. While existing approaches usually consider the viewpoint of a unique main expert, we propose to use a multi-level model to integrate the multiple domains of expertise embodied in agents located at different abstraction levels. In this work, we show that it is possible to both stay close to the concepts manipulated by the experts (for the sake of the validation process in the domain of each expert) and combine the levels of those concepts. That way, each expert can easily understand the dynamics of the components related to their domain.We present SIMLAB, our meta-model based on a unified representation of the concepts using agents. Each agent can influence the others on different axes and levels. This work is materialised in a study of human activity in relation to electrical consumption. It is a typical example of complex system which requires many domains of expertise such as psychology, energetics, sociology, heat science, … In this context, we present the implementation of our approach in SMACH, a simulation platform of human behaviours. We Then describe several experiments to illustrate the characteristics of our approach. Finally, we show how SIMLAB can reproduce and extend in silico a field study of energy demand management.
18

Automatic annotation of similes in literary texts / Annotation automatique des comparaisons figuratives dans les textes littéraires

Mpouli Njanga Seh, Suzanne Patience 03 October 2016 (has links)
Cette thèse aborde le problème de la détection automatique des comparaisons figuratives dans des textes littéraires en prose écrits en français ou en anglais et propose un canevas pour décrire ces comparaisons d’un point de vue stylistique. Une comparaison figurative correspond ici à toute structure syntaxique qui met en parallèle au moins deux entités, déroge au principe de compositionnalité et crée une image mentale dans l’esprit de ceux à qui elle est destinée.Trois éléments principaux distinguent notre approche des travaux précédents : son ancrage dans les théories linguistiques et cognitives sur les comparaisons littérales et figuratives, sa capacité à gérer des marqueurs appartenant à différentes catégories grammaticales et sa flexibilité qui lui permet d’envisager différents scénarios syntaxiques. De fait, nous proposons une méthode comprenant trois modules complémentaires : - un module syntaxique qui utilise des dépendances syntaxiques et des règles manuelles pour identifier les comparaisons potentielles ainsi que leurs composantes ;- un module sémantique qui mesure la saillance des motifs détectés et la similarité sémantique des termes comparés en se basant sur une base de données préétablie ;- et un module d’annotation qui fournit entre autres des informations sur le type de comparaison (idiomatique, sensorielle…) et sur les catégories sémantiques employées.Pour finir, au vu des données recueillies au cours des deux campagnes d’annotation que nous avons menées, il paraît clair que la détection automatique des comparaisons figuratives doit tenir compte de plusieurs facteurs parmi lesquels la saillance, la catégorisation et la syntaxe de la phrase. / This thesis tackles the problem of the automatic recognition of similes in literary texts written in English or in French and proposes a framework to describe them from a stylistic perspective. For the purpose of this study, a simile has been defined as a syntactic structure that draws a parallel between at least two entities, lacks compositionality and is able to create an image in the receiver’s mind.Three main points differentiate the proposed approach from existing ones: it is strongly influenced by cognitive and linguistic theories on similes and comparisons, it takes into consideration a wide range of markers and it can adapt to diverse syntactic scenarios. Concretely speaking, it relies on three interconnected modules: - a syntactic module, which extracts potential simile candidates and identifies their components using grammatical roles and a set of handcrafted rules, - a semantic module which separates creative similes from both idiomatic similes and literal comparisons based on the salience of the ground and semantic similarity computed from data automatically retrieved from machine-readable dictionaries;- and an annotation module which makes use of the XML format and gives among others information on the type of comparisons (idiomatic, perceptual…) and on the semantic categories used.Finally, the two annotation tasks we designed show that the automatic detection of figuration in similes must take into consideration.Finally, the two annotation tasks we designed show that the automatic detection of figuration in similes must take into consideration a series of features among which salience, categorisation and the sentence syntax.
19

Processus concurrents et combinatoire des structures croissantes : analyse quantitative et algorithmes de génération aléatoire / Concurrent process and combinatorics of increasingly labeled structures : quantitative analysis and random generation algorithms

Dien, Matthieu 22 September 2017 (has links)
Un programme concurrent est composé de plusieurs unités logiques : les processus. Chaque processus a un comportement qui lui est propre : il exécute ses actions de façon séquentielle. Un objectif important est de s'assurer que de tels systèmes concurrents complexes soient cependant exempts de défaut. Cette problématique est étudiée dans le cadre de la théorie de la concurrence. Quand plusieurs processus s’exécutent en parallèle, l’ordre d’exécution des actions du programme global n’est plus déterminé. On assiste au fameux phénomène "d’explosion combinatoire" faisant référence au très grand nombre d’exécutions globales possibles. Les diverses techniques et méthodes d'analyse existantes (model checking, analyse statique, tests automatisés, etc) se heurtent irrémédiablement à cette "explosion". Cette thèse s'inscrit dans un projet à long terme d'étude quantitative de ce phénomène et de développement des techniques d’analyse statistique basées sur la génération aléatoire uniforme. Notre objectif dans cette thèse est de traiter une composante fondamentale de la concurrence : la synchronisation. Ce mécanisme permet aux processus de communiquer entre eux. Dans cette thèse nous proposons un modèle combinatoire de structures croissantes pour modéliser les exécutions de programmes concurrents synchronisés. Avec des outils de combinatoire analytique nous obtenons plusieurs résultats exacts et asymptotiques sur le nombre moyen d'exécutions dans des sous-classes de programmes concurrents. Nous présentons aussi plusieurs algorithmes de génération aléatoire uniforme de structures croissantes et de leurs étiquetages. / A concurrent program is a composition of several logical blocks: the processes. Each process has its own behavior, independent from the others: it sequentially runs its actions. An important goal is to ensure that such concurrent complex systems are faultless. This problem is studied in the field of concurrency theory. When several process are running in parallel, the running order of the actions of the total program is no more decided. This is the well-known "combinatorial explosion" phenomena, meaning that the number of possible runs of the global program is huge. The analysis techniques and methods existing (model checking, static analysis, automated testing, etc) are irremediably limited by this "explosion". This thesis is a part of a long-term project about the quantitative study of this phenomena and the development of statistic analysis methods based on the uniform random generation. Our specific goal is to study a fundamental principle of the concurrency theory: the synchronization. This mechanism allows communications between the processes. In this thesis we propose a combinatorial model of increasingly labeled structures to deal with runs of synchronized concurrent programs. Using the tools of analytic combinatorics we obtain close formulas and asymptotic equivalents for the average number of runs in several subclasses of concurrent programs. We also present algorithms of uniform random generation of increasingly labeled structures and for their increasing labelings.
20

Apprentissage automatique pour simplifier l’utilisation de banques d’images cardiaques / Machine Learning for Simplifying the Use of Cardiac Image Databases

Margeta, Ján 14 December 2015 (has links)
L'explosion récente de données d'imagerie cardiaque a été phénoménale. L'utilisation intelligente des grandes bases de données annotées pourrait constituer une aide précieuse au diagnostic et à la planification de thérapie. En plus des défis inhérents à la grande taille de ces banques de données, elles sont difficilement utilisables en l'état. Les données ne sont pas structurées, le contenu des images est variable et mal indexé, et les métadonnées ne sont pas standardisées. L'objectif de cette thèse est donc le traitement, l'analyse et l'interprétation automatique de ces bases de données afin de faciliter leur utilisation par les spécialistes de cardiologie. Dans ce but, la thèse explore les outils d'apprentissage automatique supervisé, ce qui aide à exploiter ces grandes quantités d'images cardiaques et trouver de meilleures représentations. Tout d'abord, la visualisation et l'interprétation d'images est améliorée en développant une méthode de reconnaissance automatique des plans d'acquisition couramment utilisés en imagerie cardiaque. La méthode se base sur l'apprentissage par forêts aléatoires et par réseaux de neurones à convolution, en utilisant des larges banques d'images, où des types de vues cardiaques sont préalablement établies. La thèse s'attache dans un deuxième temps au traitement automatique des images cardiaques, avec en perspective l'extraction d'indices cliniques pertinents. La segmentation des structures cardiaques est une étape clé de ce processus. A cet effet une méthode basée sur les forêts aléatoires qui exploite des attributs spatio-temporels originaux pour la segmentation automatique dans des images 3Det 3D+t est proposée. En troisième partie, l'apprentissage supervisé de sémantique cardiaque est enrichi grâce à une méthode de collecte en ligne d'annotations d'usagers. Enfin, la dernière partie utilise l'apprentissage automatique basé sur les forêts aléatoires pour cartographier des banques d'images cardiaques, tout en établissant les notions de distance et de voisinage d'images. Une application est proposée afin de retrouver dans une banque de données, les images les plus similaires à celle d'un nouveau patient. / The recent growth of data in cardiac databases has been phenomenal. Cleveruse of these databases could help find supporting evidence for better diagnosis and treatment planning. In addition to the challenges inherent to the large quantity of data, the databases are difficult to use in their current state. Data coming from multiple sources are often unstructured, the image content is variable and the metadata are not standardised. The objective of this thesis is therefore to simplify the use of large databases for cardiology specialists withautomated image processing, analysis and interpretation tools. The proposed tools are largely based on supervised machine learning techniques, i.e. algorithms which can learn from large quantities of cardiac images with groundtruth annotations and which automatically find the best representations. First, the inconsistent metadata are cleaned, interpretation and visualisation of images is improved by automatically recognising commonly used cardiac magnetic resonance imaging views from image content. The method is based on decision forests and convolutional neural networks trained on a large image dataset. Second, the thesis explores ways to use machine learning for extraction of relevant clinical measures (e.g. volumes and masses) from3D and 3D+t cardiac images. New spatio-temporal image features are designed andclassification forests are trained to learn how to automatically segment the main cardiac structures (left ventricle and left atrium) from voxel-wise label maps. Third, a web interface is designed to collect pairwise image comparisons and to learn how to describe the hearts with semantic attributes (e.g. dilation, kineticity). In the last part of the thesis, a forest-based machinelearning technique is used to map cardiac images to establish distances and neighborhoods between images. One application is retrieval of the most similar images.

Page generated in 0.411 seconds