• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 77
  • 33
  • 9
  • 1
  • Tagged with
  • 111
  • 43
  • 32
  • 19
  • 17
  • 15
  • 13
  • 13
  • 12
  • 12
  • 11
  • 11
  • 11
  • 11
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Comptage asymptotique et algorithmique d'extensions cubiques relatives

Morra, Anna 07 December 2009 (has links)
Cette thèse traite du comptage d'extensions cubiques relatives. Dans le premier chapitre on traite un travail commun avec Henri Cohen. Soit k un corps de nombres. On donne une formule asymptotique pour le nombre de classes d'isomorphisme d'extensions cubiques L/k telles que la clôture galoisienne de L/k contienne une extension quadratique fixée K_2/k. L'outil principal est la théorie de Kummer. Dans le second chapitre, on suppose k un corps quadratique imaginaire (avec nombre de classes 1) et on décrit un algorithme pour énumérer toutes les classes d'isomorphisme d'extensions cubiques L/k jusqu'à une certaine borne X sur la norme du discriminant relatif. / This thesis is about counting relative cubic extensions. In the first chapter we describe a joint work with Henri Cohen. Let k be a number field. We give an asymptotic formula for the number of isomorphism classes of cubic extensions L/k such that the Galois closure of L/k contains a fixed quadratic extension K_2/k. The main tool is Kummer theory. In the second chapter, we suppose k to be an imaginary quadratic number field (with class number 1) and we describe an algorithm for listing all isomorphism classes of cubic extensions L/k up to a bound X on the norm of the relative discriminant ideal.
22

Analyse statistique de données biologiques à haut débit / Statistical analysis of high-throughput biological data

Aubert, Julie 07 February 2017 (has links)
Les progrès technologiques des vingt dernières années ont permis l’avènement d'une biologie à haut-débit reposant sur l'obtention de données à grande échelle de façon automatique. Les statisticiens ont un rôle important à jouer dans la modélisation et l'analyse de ces données nombreuses, bruitées, parfois hétérogènes et recueillies à différentes échelles. Ce rôle peut être de plusieurs natures. Le statisticien peut proposer de nouveaux concepts ou méthodes inspirées par les questions posées par cette biologie. Il peut proposer une modélisation fine des phénomènes observés à l'aide de ces technologies. Et lorsque des méthodes existent et nécessitent seulement une adaptation, le rôle du statisticien peut être celui d'un expert, qui connaît les méthodes, leurs limites et avantages. Le travail présenté dans cette thèse se situe à l'interface entre mathématiques appliquées et biologie, et relève plutôt des deuxième et troisième type de rôles mentionnés.Dans une première partie, j’introduis différentes méthodes développées pour l'analyse de données biologiques à haut débit, basées sur des modèles à variables latentes. Ces modèles permettent d'expliquer un phénomène observé à l'aide de variables cachées. Le modèle à variables latentes le plus simple est le modèle de mélange. Les deux premières méthodes présentées en sont des exemples: la première dans un contexte de tests multiples et la deuxième dans le cadre de la définition d'un seuil d'hybridation pour des données issues de puces à ADN. Je présente également un modèle de chaînes de Markov cachées couplées pour la détection de variations du nombre de copies en génomique prenant en compte de la dépendance entre les individus, due par exemple à une proximité génétique. Pour ce modèle, nous proposons une inférence approchée fondée sur une approximation variationnelle, l'inférence exacte ne pouvant pas être envisagée dès lors que le nombre d'individus augmente. Nous définissons également un modèle à blocs latents modélisant une structure sous-jacente par bloc de lignes et colonnes adaptées à des données de comptage issue de l'écologie microbienne. Les données issues de méta-codebarres ou de métagénomique correspondent à l'abondance de chaque unité d'intérêt (par exemple micro-organisme) d'une communauté microbienne au sein d'environnement (rhizosphère de plante, tube digestif humain, océan par exemple). Ces données ont la particularité de présenter une dispersion plus forte qu'attendue sous les modèles les plus classiques (on parle de sur-dispersion). La classification croisée est une façon d'étudier les interactions entre la structure des communautés microbiennes et les échantillons biologiques dont elles sont issues. Nous avons proposé de modéliser ce phénomène à l'aide d'une distribution Poisson-Gamma et développé une autre approximation variationnelle pour ce modèle particulier ainsi qu'un critère de sélection de modèle. La flexibilité et la performance du modèle sont illustrées sur trois jeux de données réelles.Une deuxième partie est consacrée à des travaux dédiés à l'analyse de données de transcriptomique issues des technologies de puce à ADN et de séquençage de l’ARN. La première section concerne la normalisation des données (détection et correction de biais techniques) et présente deux nouvelles méthodes que j’ai proposées avec mes co-auteurs et une comparaison de méthodes à laquelle j’ai contribuée. La deuxième section dédiée à la planification expérimentale présente une méthode pour analyser les dispositifs dit en dye-switch.Dans une dernière partie, je montre à travers deux exemples de collaboration, issues respectivement d'une analyse de gènes différentiellement exprimés à partir de données issues de puces à ADN, et d'une analyse du traductome chez l'oursin à partir de données de séquençage de l'ARN, la façon dont les compétences statistiques sont mobilisées et la plus-value apportée par les statistiques aux projets de génomique. / The technological progress of the last twenty years allowed the emergence of an high-throuput biology basing on large-scale data obtained in a automatic way. The statisticians have an important role to be played in the modelling and the analysis of these numerous, noisy, sometimes heterogeneous and collected at various scales. This role can be from several nature. The statistician can propose new concepts, or new methods inspired by questions asked by this biology. He can propose a fine modelling of the phenomena observed by means of these technologies. And when methods exist and require only an adaptation, the role of the statistician can be the one of an expert, who knows the methods, their limits and the advantages.In a first part, I introduce different methods developed with my co-authors for the analysis of high-throughput biological data, based on latent variables models. These models make it possible to explain a observed phenomenon using hidden or latent variables. The simplest latent variable model is the mixture model. The first two presented methods constitutes two examples: the first in a context of multiple tests and the second in the framework of the definition of a hybridization threshold for data derived from microarrays. I also present a model of coupled hidden Markov chains for the detection of variations in the number of copies in genomics taking into account the dependence between individuals, due for example to a genetic proximity. For this model we propose an approximate inference based on a variational approximation, the exact inference not being able to be considered as the number of individuals increases. We also define a latent-block model modeling an underlying structure per block of rows and columns adapted to count data from microbial ecology. Metabarcoding and metagenomic data correspond to the abundance of each microorganism in a microbial community within the environment (plant rhizosphere, human digestive tract, ocean, for example). These data have the particularity of presenting a dispersion stronger than expected under the most conventional models (we speak of over-dispersion). Biclustering is a way to study the interactions between the structure of microbial communities and the biological samples from which they are derived. We proposed to model this phenomenon using a Poisson-Gamma distribution and developed another variational approximation for this particular latent block model as well as a model selection criterion. The model's flexibility and performance are illustrated on three real datasets.A second part is devoted to work dedicated to the analysis of transcriptomic data derived from DNA microarrays and RNA sequencing. The first section is devoted to the normalization of data (detection and correction of technical biases) and presents two new methods that I proposed with my co-authors and a comparison of methods to which I contributed. The second section devoted to experimental design presents a method for analyzing so-called dye-switch design.In the last part, I present two examples of collaboration, derived respectively from an analysis of genes differentially expressed from microrrays data, and an analysis of translatome in sea urchins from RNA-sequencing data, how statistical skills are mobilized, and the added value that statistics bring to genomics projects.
23

Comptage et surveillance d'étiquettes dans des systèmes RFID à grande échelle : base théorique et conception d'algorithmes / Tag Counting and Monitoring in Large-scale RFID systems : Theoretical Foundation and Algorithm design

Yu, Jihong 06 December 2016 (has links)
La technologie « Radio Frequency Identification (RFID) » est devenue de plus en plus répandue dans le déploiement de diverses applications, telles que le contrôle des stocks et la gestion de la chaîne d'approvisionnement. Dans cette thèse, nous présentons une recherche systématique sur les problèmes de recherche liés au comptage et à la surveillance d’étiquettes RFID, deux composants fondamentaux dans les systèmes RFID, en particulier dans des systèmes à grande échelle. Ces problèmes sont simples à formuler et intuitivement compréhensible, tandis que tous les deux présentent des défis importants à la fois fondamentaux et pratiques, et exigent des efforts non négligeables à résoudre. Plus précisément, nous abordons les problèmes suivants allant de la modélisation et de l'analyse théorique, à la conception et l’optimisation de l'algorithme pratique. Pour poser les bases théoriques pour la conception et l'optimisation des algorithmes de comptage et la surveillance d'étiquette, nous commençons par étudier la stabilité de FSA. Techniquement, nous modélisons le “backlog’’ du système comme une chaîne de Markov, dont ses états sont la taille du “backlog’’ au début de chaque trame. Nous établissons ensuite un cadre générique d'estimation du nombre d’étiquettes RFID basée sur le filtre de Kalman pour des systèmes RFID statiques et dynamiques. Nous procédons en suite à résoudre le problème de détection des étiquettes manquantes, l'une des applications les plus importantes dans les systèmes RFID. Différent des travaux existants dans ce domaine, nous nous concentrons sur deux scénarios inexplorés mais fondamentalement importants, celui en présence d'étiquettes inattendues et celui des systèmes RFID multiple-région multi-groupe. Dans le premier scénario, nous développons un protocole à deux phases à base de filtre de Bloom. Dans le deuxième scénario, nous développons trois protocoles de détection d'étiquette manquante en intégrant une version améliorée de la conception du filtre Bloom. / Radio Frequency Identification (RFID) technology has been deployed in various applications, such as inventory control and supply chain management. In this thesis, we present a systematic research on a number of research problems related to tag counting and monitoring, one of the most fundamental component in RFID systems, particularly when the system scales. These problems are simple to state and intuitively understandable, while of both fundamental and practical importance, and require non-trivial efforts to solve. Specifically, we address the following problems ranging from theoretical modeling and analysis, to practical algorithm design and optimization. To lay the theoretical foundations for the algorithm design and optimization, we start by studying the stability of frame slotted Aloha. We model system backlog as a Markov chain. The main objective is translated to analyze the ergodicity of the Markov chain. We then establish a framework of stable and accurate tag population estimation schemes based on Kalman filter for both static and dynamic RFID systems. We further proceed to addressing the problem of missing tag detection, one of the most important RFID applications. Different from existing works in this field, we focus on two unexplored while fundamentally important scenarios, missing tag detection in the presence of unexpected tags and in multiple-group multiple-region RFID systems. In the first scenario, we develop a Bloom filter-based protocol. In the second scenario, we develop three protocols by incorporating an improved version of the Bloom filter design.
24

Number statistics in random matrices and applications to quantum systems / Statistique de comptage de valeurs propres de matrices aléatoires et applications en mécanique quantique

Marino, Ricardo 16 October 2015 (has links)
L'objectif principal de cette thèse est de répondre à la question: étant donné une matrice aléatoire avec spectre réel, combien de valeurs propres tomber entre A et B? Ceci est une question fondamentale dans la théorie des matrices aléatoires et toutes ses applications, autant de problèmes peuvent être traduits en comptant les valeurs propres à l'intérieur des régions du spectre. Nous appliquons la méthode de gaz Coulomb à ce problème général dans le cadre de différents ensembles de matrice aléatoire et l'on obtient de résultats pour intervalles générales [a, b]. Ces résultats sont particulièrement intéressants dans l'étude des variations des systèmes fermioniques unidimensionnelles de particules confinées non-interaction à la température zéro. / The main goal of this thesis is to answer the question: given a random matrix with real spectrum, how many eigenvalues fall between a and b? This is a fundamental question in random matrix theory and all of its applications, as many problems can be translated into counting eigenvalues inside regions of the spectrum. We apply the Coulomb gas method to this general problem in the context of different random matrix ensembles and we obtain many results for general intervals [a,b]. These results are particularly interesting in the study of fermionic fluctuations for one-dimensional systems of confined non-interacting particles at zero temperature.
25

Nouvelles méthodes pour l'étude de la densité des foules en vidéo surveillance / New insights into crowd density analysis in video surveillance systems

Fradi, Hajer 28 January 2014 (has links)
Désormais, l'analyse des scènes denses s'impose incontestablement comme une tâche importante pour contrôler et gérer les foules. Notre recherche a pour objectifs d'apporter des solutions à l'estimation de la densité de la foule et de prouver l'utilité de cette estimation comme préalable pour d'autres applications. Concernant le premier objectif, afin de cerner les difficultés de la détection de personnes dans une foule, on se focalise sur l'estimation de la densité basée sur un niveau d'analyse bas. Dans un premier temps, on démontre que nos approches sont plus adéquates que les méthodes de l’état de l’art que ce soit pour compter les individus ou pour estimer le niveau de la foule. Dans un second temps, nous proposons une approche innovante dans laquelle une estimation locale au niveau des pixels remplace l'estimation au niveau global de la foule ou le nombre des personnes. Elle est basée sur l’utilisation des suivis de caractéristiques visuelles dans une fonction de densité. Notre recherche a également pour objectif d'utiliser la densité comme information supplémentaire pour affiner d'autres tâches. D'abord, nous avons utilisé la mesure de la densité qui comporte une description pertinente à la répartition spatiale des individus afin d'améliorer leur détection et leur suivi dans les foules. Ensuite, en prenant en compte la notion de la protection de la vie privée, nous ajustons le niveau de floutage en fonction de la densité de la foule. Enfin, nous nous appuyons sur l’estimation locale de la densité ainsi que sur le mouvement en tant qu'attributs pour des applications de haut niveau telles que la détection des évolutions et la reconnaissance des événements. / Crowd analysis has recently emerged as an increasingly important problem for crowd monitoring and management in the visual surveillance community. In this thesis, our objectives are to address the problems of crowd density estimation and to investigate the usefulness of such estimation as additional information to other applications. Towards the first goal, we focus on the problems related to the estimation of the crowd density using low level features in order to avert typical problems in detection of high density crowd. We demonstrate in this dissertation, that the proposed approaches perform better than the baseline methods, either for counting people, or alternatively for estimating the crowd level. Afterwards, we propose a novel approach, in which local information at the pixel level substitutes the overall crowd level or person count. It is based on modeling time-varying dynamics of the crowd density using sparse feature tracks as observations of a probabilistic density function. The second goal is to use crowd density as additional information to complement other tasks related to video surveillance in crowds. First, we use the proposed crowd density measure which conveys rich information about the local distributions of persons to improve human detection and tracking in videos of high density crowds. Second, we investigate the concept of crowd context-aware privacy protection by adjusting the obfuscation level according to the crowd density. Finally, we employ additional information about the local density together with regular motion patterns as crowd attributes for high level applications such as crowd change detection and event recognition.
26

Réalisation d'un convertisseur temps-numérique en CMOS 65 nm pour une intégration par pixel dans un module de comptage monophotonique

Roy, Nicolas January 2015 (has links)
Les applications nécessitant une grande précision temporelle sont de plus en plus nombreuses, notamment lorsqu'elles requièrent des mesures par temps de vol, c'est-à-dire de mesurer le temps de propagation de la lumière ou de particules. La télémétrie laser et certaines modalités d'imagerie médicale dont la tomographie d'émission par positrons (TEP) en sont des exemples. Ces applications requièrent l'attribution d'étampes temporelles aux photons détectés, tout en assurant une précision temporelle exceptionnelle. Le Groupe de Recherche en Appareillage Médical de Sherbrooke (GRAMS) développe des scanners TEP visant à intégrer des mesures par temps de vol pour améliorer le contraste des images. Pour ce faire, une partie du GRAMS (GRAMS3D) se concentre sur la réalisation de modules de comptage monophotoniques (MCMP) à grande précision temporelle pour intégrer les prochaines générations de scanners TEP. D'autres projets pourraient également se concrétiser dans les prochaines années, dont l'intégration des MCMP du GRAMS dans le Grand Collisionneur de Hadrons (Large Hadron Collider, LHC) au CERN pour des expériences en physique des hautes énergies. Pour atteindre de tels niveaux de performances, le MCMP se compose d'une matrice de photodiodes à avalanche monophotoniques intégrée en 3D avec l'électronique frontale et l'électronique de traitement de l'information. Certains MCMP n'utilisent qu'un seul convertisseur temps-numérique (CTN) pour une matrice de photodétecteurs, limitant le nombre d'étampes temporelles disponibles en plus d'obtenir un temps de propagation différent entre chacun des pixels et le CTN. Pour surpasser ces inconvénients, une autre approche consiste à intégrer un CTN à chacun des pixels. C'est dans cette perspective que le présent ouvrage se concentrera sur le CTN implanté dans chacun des pixels de 50 × 50 µm[indice supérieur 2] du MCMP développé au GRAMS. Le CTN proposé est basé sur une architecture vernier à étage unique afin d'obtenir une excellente résolution et une linéarité indépendante des variations de procédé. Sa taille de 25 × 50 µm[indice supérieur 2] et sa consommation de 163 µW en font un excellent choix pour une implantation matricielle. Le CTN, calibré en temps réel grâce à une boucle à verrouillage de phase numérique, a démontré une résolution de 14,4 ps avec une non-linéarité intégrale (INL)/non-linéarité différentielle (DNL) de 3,3/0,35 LSB et une précision temporelle inférieure à 27 ps[indice inférieur rms]. Les résultats obtenus prouvent qu'il est possible de concilier d'excellentes résolution et précision temporelles avec de très faibles dimensions et consommation.
27

Etude de la prolifération cellulaire et de sa régulation chez l'embryon âgé et la jeune larve du triton Pleurodeles Waltlii Michah : conception et réalisation d'un système automatique d'analyse microphotométrique des populations cellulaires

Brugal, Gérard 03 December 1976 (has links) (PDF)
.
28

Comptage et suivi de personnes dans un réseau de caméras pour l'analyse comportementale / Counting and tracking people in a cameras’ network for behavioral analysis

Iguernaissi, Rabah 11 December 2018 (has links)
L’étude et la compréhension du comportement humain est devenue l’une des problématiques majeures dans différents secteurs d’activités. Ce besoin de comprendre les habitudes des individus a conduit plusieurs entreprises vers l’utilisation de vidéos pour l’analyse et l’interprétation des comportements. Ces raisons ont conduit à l’émergence de travaux de recherches qui ont pour objectif l’automatisation de ces procédures. De ce fait, l’étude du comportement humain est devenue l’un des principaux sujets de recherche dans le domaine de la vision par ordinateur, et de nombreuses solutions d’analyse du comportements basées sur l’utilisation de l’intelligence artificielle ont émergé.Dans ce travail, notre objectif est le développement d’un système qui va permettre de suivre simultanément plusieurs individus dans un réseau multi-caméras dans le contexte de l’analyse comportementale. Pour cela, nous avons proposé un système de suivi qui est composé de trois modules principaux et d’un module de gestion. Le premier est un module de comptage pour mesurer les entrées. Le deuxième module, basé sur l’utilisation de filtres à particules, est un système de suivi mono-caméra destiné à suivre les individus indépendamment dans chacune des caméras. Le troisième module, basé sur la sélection des régions saillantes de chaque individu, sert à la ré-identification et permet d’associer les individus détectés dans les différentes caméras. Enfin, le module de gestion est conçu pour créer des trajectoires sémantiques à partir des trajectoires brutes obtenues précédemment. / The study and the understanding of human behavior has become one of the major concerns for various reasons in different sectors of activity. This need to understand the habits of people led several big firms towards the use of videos surveillance for analyzing and interpreting behaviors. These reasons led to the emergence of research aimed at automating these procedures. As a result, the study of human behavior has become the main subject of several researches in the field of computer vision. Thus, a variety of behavior analysis solutions based on artificial intelligence emerged.In this work, our objective is the proposal of a solution that enable the simultaneous track of several individuals in a multi-camera network in order to reconstruct their trajectories in the context of behavioral analysis. For this, we have proposed a system that is made of three main modules and a management module. The first module is a counting module to measure entries. The second module is a mono-camera tracking system that is based on the use of particle filtering to track individuals independently in each camera. The third module is a re-identification module which is based on the selection of salient regions for each individual. It enables the association of the individuals that are detected in the different cameras. The last module which is the management module is based on the use of ontologies for interpreting trajectories. This module is designed to create semantic trajectories from raw trajectories obtained previously.
29

Imagerie astrophysique à la limite de diffraction des grands télescopes. Application à l'observation des objets froids.

Thiébaut, Eric 08 June 1994 (has links) (PDF)
L'interférométrie des tavelures permet de restaurer des images à la limite de résolution angulaire (quelques dizaines de millisecondes d'arc dans le visible) des plus grands télescopes terrestres malgré les effets de la turbulence atmosphérique. Je présente différentes méthodes de l'interférométrie des tavelures (méthodes de Labeyrie, de Knox et Thompson, du bispectre et de l'holographie auto-référencée) pour mettre en évidence la rigueur nécessaire à leur exploitation. L'application en astronomie visible de ces méthodes nécessite un détecteur à comptage de photons. J'explique comment je compense le défaut dit du "trou du comptage" de photons en intégrant des intercorrélations. Je propose une approche robuste pour résoudre le problème de la restauration d'image à partir de mesures très bruitées et/ou lacunaires. Je montre que cette approche générale peut être adaptée à la nature des mesures, en particulier à celles de l'interférométrie des tavelures. Cela me permet de dériver ou d'améliorer un certain nombre d'algorithmes : déconvolution, déconvolution en aveugle, restauration d'image en interférométrie des tavelures, etc. Ces algorithmes me permettent d'obtenir des résultats fiables et d'intérêt astrophysique : la découverte en Halpha de la base du jet émanant de T-Tau, la première mise en évidence du mouvement orbital d'une étoile double pré-séquence principale pour DF-Tau, la détection dans le visible du compagnon dit "infrarouge" de ZCMa et le sondage de l'atmosphère étendue de chi-Cygni dans les bandes du TiO.
30

Modèles multi-états de type Markovien et application à l'asthme

Saint Pierre, Philippe 29 April 2005 (has links) (PDF)
Dans de nombreux domaines, décrire l'évolution des phénomènes dans le temps est d'un intérêt capital, en particulier pour aborder les problématiques de la prédiction et de la recherche de facteurs causaux. En épidémiologie, on dispose de données de cohorte qui renseignent sur un groupe de patients suivis dans le temps. Les modèles multi-états de type Markovien proposent un outil intéressant qui permet d'étudier l'évolution d'un patient à travers les différents stades d'une maladie. Dans ce manuscrit, nous rappelons tout d'abord la méthodologie relative au modèle de Markov homogène. Ce modèle est le moins complexe, il suppose que les intensités de transition entre les états sont constantes dans le temps. Dans un second temps, nous étudions un modèle semi-Markovien homogène qui suppose que les intensités de transition dépendent du temps écoulé dans un état de santé. La théorie des processus de comptage est ensuite présentée afin d'introduire des méthodes d'estimations non-paramétriques dans le cadre d'un modèle de Markov non-homogène. Dans ce modèle, les intensités de transition dépendent du temps depuis l'inclusion dans l'étude. Les méthodes d'estimation supposent que le mécanisme de censure n'apporte aucune information sur l'évolution de la maladie. Cette hypothèse étant rarement vérifiée en pratique, nous proposons une méthode d'estimation permettant de prendre en compte une censure informative. Nous présentons également une méthode de programmation visant à faciliter la mise en œuvre des estimateurs basés sur les processus de comptage. Toutes ces méthodes sont appliquées afin d'étudier une base de données de patients asthmatiques. L'objectif est d'aider les cliniciens à mieux comprendre l'évolution de la maladie. Les résultats permettent de mettre en évidence l'impact négatif du surpoids sur l'évolution de l'asthme.

Page generated in 0.0451 seconds