• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 2
  • 1
  • Tagged with
  • 10
  • 10
  • 4
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Approches bioinformatiques pour l'exploitation des données génomiques

Taing, Lieng 27 September 2012 (has links) (PDF)
Les technologies actuelles permettent d'explorer le génome entier pour identifier des variants génétiques associés à des phénotypes particuliers, notamment de maladies. C'est le rôle de la bioinformatique de répondre à cette problématique. Dans le cadre de cette thèse, un nouvel outil logiciel a été développé qui permet de mesurer avec une bonne précision le nombre de marqueurs génétiques effectivement indépendants correspondant à un ensemble de marqueurs génotypés dans une population donnée. Cet algorithme repose sur la mesure de l'entropie de Shannon contenue au sein de ces marqueurs, ainsi que des niveaux d'information mutuelle calculés sur les paires de SNPs choisis au sein d'une fenêtre de SNPs consécutifs, dont la taille est un paramètre du programme. Il a été montré que ce nombre de marqueurs indépendants devient constant dès que la population est homogène avec une taille suffisante (N > 60 individus) et que l'on utilise une fenêtre assez grande (taille > 100 SNPs). Ce calcul peut avoir de nombreuses applications pour l'exploitation des données.Une analyse génome-entier a été réalisée sur le photo-vieillissement. Elle a porté sur 502 femmes caucasiennes pour lesquelles un grade de photo-vieillissement a été évalué selon une technologie bien établie. Les femmes ont été génotypées sur des puces Illumina OmniOne (1M SNPs), et deux gènes ont été identifiés (STXBP5L et FBX040) associés à un SNP passant le seuil de Bonferroni, dont l'implication dans le photo-vieillissement était jusqu'alors inconnue. De plus, cette association a aussi été retrouvé dans deux autres phénotypes suggérant un mécanisme moléculaire commun possible entre le relâchement cutané et les rides. On n'observe pas de réplication au niveau du critère lentigines, la troisième composante étudiée du photo-vieillissement.Ces travaux sont en cours de publication dans des revues scientifiques internationales à comité de lecture.
2

Différents problèmes liés à l'estimation de l'entropie de Shannon d'une loi, d'un processus de Markov

Regnault, Philippe 10 November 2011 (has links) (PDF)
On étudie à la fois l'estimation de l'entropie de Shannon d'une probabilité à partir d'observations indépendantes ou markoviennes, et l'estimation du taux d'entropie d'un processus markovien de sauts d'espace d'état fini, à partir d'observations continues ou discrètes. Plusieurs problèmes connexes sont traités. Certains apparaissent en amont de l'estimation, comme l'étude de la géométrie de la divergence de Kullback-Leibler en lien avec la transformation escorte. D'autres apparaissent comme des applications des résultats d'estimation obtenus. On construit ainsi des tests sur le niveau d'entropie d'une probabilité, à partir d'un principe de grandes déviations pour la suite des estimateurs empiriques de l'entropie d'une suite de variables indépendantes. On étudie également diverses propriétés en lien avec l'estimation de l'entropie et du taux d'entropie de files d'attente modélisées par des processus markoviens de naissance et de mort.
3

Approches bioinformatiques pour l'exploitation des données génomiques / Bioinformatics methods for genomic data exploitation

Taing, Lieng 27 September 2012 (has links)
Les technologies actuelles permettent d'explorer le génome entier pour identifier des variants génétiques associés à des phénotypes particuliers, notamment de maladies. C’est le rôle de la bioinformatique de répondre à cette problématique. Dans le cadre de cette thèse, un nouvel outil logiciel a été développé qui permet de mesurer avec une bonne précision le nombre de marqueurs génétiques effectivement indépendants correspondant à un ensemble de marqueurs génotypés dans une population donnée. Cet algorithme repose sur la mesure de l’entropie de Shannon contenue au sein de ces marqueurs, ainsi que des niveaux d’information mutuelle calculés sur les paires de SNPs choisis au sein d’une fenêtre de SNPs consécutifs, dont la taille est un paramètre du programme. Il a été montré que ce nombre de marqueurs indépendants devient constant dès que la population est homogène avec une taille suffisante (N > 60 individus) et que l'on utilise une fenêtre assez grande (taille > 100 SNPs). Ce calcul peut avoir de nombreuses applications pour l'exploitation des données.Une analyse génome-entier a été réalisée sur le photo-vieillissement. Elle a porté sur 502 femmes caucasiennes pour lesquelles un grade de photo-vieillissement a été évalué selon une technologie bien établie. Les femmes ont été génotypées sur des puces Illumina OmniOne (1M SNPs), et deux gènes ont été identifiés (STXBP5L et FBX040) associés à un SNP passant le seuil de Bonferroni, dont l'implication dans le photo-vieillissement était jusqu'alors inconnue. De plus, cette association a aussi été retrouvé dans deux autres phénotypes suggérant un mécanisme moléculaire commun possible entre le relâchement cutané et les rides. On n'observe pas de réplication au niveau du critère lentigines, la troisième composante étudiée du photo-vieillissement.Ces travaux sont en cours de publication dans des revues scientifiques internationales à comité de lecture. / New technologies allow the exploration of the whole genome to identify genetic variants associated with various phenotypes, in particular diseases. Bioinformatics aims at helping to answer these questions. In the context of my PhD thesis, I have first developed a new software allowing to measure with a good precision the number of really independent genetic markers present in a set of markers genotyped in a given population. This algorithm relies on the Shannon's entropy contained within these markers and on the levels of mutual information computed from the pairs of SNPs chosen in a given window of consecutive SNPs, the window size is a parameter of the program. I have shown that the number of really independent markers become stable as soon as the population is homogeneous and large enough (N > 60) and as soon as the window size is large enough (size > 100 SNPs). This computation may have several applications, in particular the diminution of the Bonferroni threshold by a factor that may reach sometimes 4, the latter having little impact in practice.I have also completed a genome-wide association study on photo-ageing. This study was performed on 502 Caucasian women characterized by their grade of photo-ageing, as measured by a well-established technology. In this study, the women were genotyped with OmniOne Illumina chips (1M SNPs), and I have identified two genes (STXBP5L et FBX040) associated with a SNP that passes the Bonferroni threshold, whose implication in photo-ageing was not suspected until now. Interestingly, this association has been highlighted with two other phenotypes which suggest a possible common molecular mechanism between sagging and wrinkling. There was no replication for the lentigin criteria, the third component studied of photo ageing.These studies are on the process to be published in international peer-reviewed scientific journals.
4

Utilisation de la notion de copule en tomographie / Using the notion of copula in tomography

Pougaza, Doriano-Boris 16 December 2011 (has links)
Cette thèse porte sur le lien entre la tomographie et la notion de copule. La tomographie à rayons X consiste à (re)construire la structure cachée d'un objet (une densité de matière, la distribution d'une quantité physique, ou une densité de loi conjointe) à partir de certaines données obtenues ou mesurées de l'objet (les projections, les radiographies, les densités marginales). Le lien entre les mesures et l'objet se modélise mathématiquement par la Transformée à Rayons X ou la Transformée de Radon. Par exemple, dans les problèmes d'imagerie en géométrie parallèle, lorsqu'on a seulement deux projections à deux angles de 0 et pi/2 (horizontale et verticale), le problème peut être identifié comme un autre problème très important en mathématique qui est la détermination d'une densité conjointe à partir de ses marginales. En se limitant à deux projections, les deux problèmes sont des problèmes mal posés au sens de Hadamard. Il faut alors ajouter de l'information a priori, ou bien des contraintes supplémentaires. L'apport principal de cette thèse est l'utilisation des critères de plusieurs entropies (Rényi, Tsallis, Burg, Shannon) permettant d'aboutir à une solution régularisée. Ce travail couvre alors différents domaines. Les aspects mathématiques de la tomographie via l'élément fondamental qui est la transformée de Radon. En probabilité sur la recherche d'une loi conjointe connaissant ses lois marginales d'où la notion de ``copule'' via le théorème de Sklar. Avec seulement deux projections, ce problème est extrêmement difficile. Mais en assimilant les deux projections (normalisées) aux densités marginales et l'image à reconstruire à une densité de probabilité, le lien se fait et les deux problèmes sont équivalents et peuvent se transposer dans le cadre statistique. Pour caractériser toutes les images possibles à reconstruire on a choisi alors l'outil de la théorie de probabilité, c'est-à-dire les copules. Et pour faire notre choix parmi les copules ou les images nous avons imposé le critère d'information a priori qui se base sur différentes entropies. L'entropie est une quantité scientifique importante car elle est utilisée dans divers domaines (en Thermodynamique, en théorie de l'information, etc). Ainsi, en utilisant par exemple l'entropie de Rényi nous avons découvert de nouvelles classes de copules. Cette thèse apporte de nouvelles contributions à l'imagerie, par l'interaction entre les domaines qui sont la tomographie et la théorie des probabilités et statistiques. / This thesis studies the relationship between Computed Tomography (CT) and the notion of copula. In X-ray tomography the objective is to (re)construct an image representing the distribution of a physical quantity (density of matter) inside of an object from the radiographs obtained all around the object called projections. The link between these images and the object is described by the X-ray transform or the Radon transform. In 2D, when only two projections at two angles 0 and pi/2 (horizontal and vertical) are available, the problem can be identified as another problem in mathematics which is the determination of a joint density from its marginals, hence the notion of copula. Both problems are ill-posed in the sense of Hadamard. It requires prior information or additional criteria or constraints. The main contribution of this thesis is the use of entropy as a constraint that provides a regularized solution to this ill-posed inverse problem. Our work covers different areas. The mathematics aspects of X-ray tomography where the fundamental model to obtain projections is based mainly on the Radon transform. In general this transform does not provide all necessary projections which need to be associated with certain regularization techniques. We have two projections, which makes the problem extremely difficult, and ill-posed but noting that if a link can be done, that is, if the two projections can be equated with marginal densities and the image to reconstruct to a probability density, the problem translates into the statistical framework via Sklar's theorem. And the tool of probability theory called "copula" that characterizes all possible reconstructed images is suitable. Hence the choice of the image that will be the best and most reliable arises. Then we must find techniques or a criterion of a priori information, one of the criteria most often used, we have chosen is a criterion of entropy. Entropy is an important scientific quantity because it is used in various areas, originally in thermodynamics, but also in information theory. Different types of entropy exist (Rényi, Tsallis, Burg, Shannon), we have chosen some as criteria. Using the Rényi entropy we have discovered new copulas. This thesis provides new contributions to CT imaging, the interaction between areas that are tomography and probability theory and statistics.
5

Etude de la pertinence des paramètres stochastiques sur des modèles de Markov cachés

Robles, Bernard 18 December 2013 (has links) (PDF)
Le point de départ de ce travail est la thèse réalisée par Pascal Vrignat sur la modélisation de niveaux de dégradation d'un système dynamique à l'aide de Modèles de Markov Cachés (MMC), pour une application en maintenance industrielle. Quatre niveaux ont été définis : S1 pour un arrêt de production et S2 à S4 pour des dégradations graduelles. Recueillant un certain nombre d'observations sur le terrain dans divers entreprises de la région, nous avons réalisé un modèle de synthèse à base de MMC afin de simuler les différents niveaux de dégradation d'un système réel. Dans un premier temps, nous identifions la pertinence des différentes observations ou symboles utilisés dans la modélisation d'un processus industriel. Nous introduisons ainsi le filtre entropique. Ensuite, dans un but d'amélioration du modèle, nous essayons de répondre aux questions : Quel est l'échantillonnage le plus pertinent et combien de symboles sont ils nécessaires pour évaluer au mieux le modèle ? Nous étudions ensuite les caractéristiques de plusieurs modélisations possibles d'un processus industriel afin d'en déduire la meilleure architecture. Nous utilisons des critères de test comme les critères de l'entropie de Shannon, d'Akaike ainsi que des tests statistiques. Enfin, nous confrontons les résultats issus du modèle de synthèse avec ceux issus d'applications industrielles. Nous proposons un réajustement du modèle pour être plus proche de la réalité de terrain.
6

Utilisation de la notion de copule en tomographie

Pougaza, Doriano-Boris 16 December 2011 (has links) (PDF)
Cette thèse porte sur le lien entre la tomographie et la notion de copule. La tomographie à rayons X consiste à (re)construire la structure cachée d'un objet (une densité de matière, la distribution d'une quantité physique, ou une densité de loi conjointe) à partir de certaines données obtenues ou mesurées de l'objet (les projections, les radiographies, les densités marginales). Le lien entre les mesures et l'objet se modélise mathématiquement par la Transformée à Rayons X ou la Transformée de Radon. Par exemple, dans les problèmes d'imagerie en géométrie parallèle, lorsqu'on a seulement deux projections à deux angles de 0 et pi/2 (horizontale et verticale), le problème peut être identifié comme un autre problème très important en mathématique qui est la détermination d'une densité conjointe à partir de ses marginales. En se limitant à deux projections, les deux problèmes sont des problèmes mal posés au sens de Hadamard. Il faut alors ajouter de l'information a priori, ou bien des contraintes supplémentaires. L'apport principal de cette thèse est l'utilisation des critères de plusieurs entropies (Rényi, Tsallis, Burg, Shannon) permettant d'aboutir à une solution régularisée. Ce travail couvre alors différents domaines. Les aspects mathématiques de la tomographie via l'élément fondamental qui est la transformée de Radon. En probabilité sur la recherche d'une loi conjointe connaissant ses lois marginales d'où la notion de ''copule'' via le théorème de Sklar. Avec seulement deux projections, ce problème est extrêmement difficile. Mais en assimilant les deux projections (normalisées) aux densités marginales et l'image à reconstruire à une densité de probabilité, le lien se fait et les deux problèmes sont équivalents et peuvent se transposer dans le cadre statistique. Pour caractériser toutes les images possibles à reconstruire on a choisi alors l'outil de la théorie de probabilité, c'est-à-dire les copules. Et pour faire notre choix parmi les copules ou les images nous avons imposé le critère d'information a priori qui se base sur différentes entropies. L'entropie est une quantité scientifique importante car elle est utilisée dans divers domaines (en Thermodynamique, en théorie de l'information, etc). Ainsi, en utilisant par exemple l'entropie de Rényi nous avons découvert de nouvelles classes de copules. Cette thèse apporte de nouvelles contributions à l'imagerie, par l'interaction entre les domaines qui sont la tomographie et la théorie des probabilités et statistiques.
7

Sur diverses extensions des chaînes de Markov cachées avec application au traitement des signaux radar

Lapuyade-Lahorgue, Jérôme 10 December 2008 (has links) (PDF)
L'objectif de cette thèse est de proposer différents modèles généralisant le modèle classique des chaînes de Markov cachées à bruit indépendant couramment utilisé en inférence bayésienne de signaux. Les diverses extensions de ce modèle visent à l'enrichir et à prendre en compte différentes propriétés du signal, comme le caractère non gaussien du bruit, ou la nature semi-markovienne du signal caché. Dans un problème d'inférence bayésienne, nous disposons de deux processus aléatoires X et Y , on observe la réalisation y de Y et nous estimons la réalisation cachée x de X. Le lien existant entre les deux processus est modélisé par la distribution de probabilité p(x, y). Dans le modèle classique des chaînes de Markov cachées à bruit indépendant, la distribution p(x) est celle d'une chaîne de Markov et la distribution p(y|x) est celle de marginales indépendantes conditionnellement à x. Bien que ce modèle puisse être utilisé dans de nombreuses applications, il ne parvient pas à modéliser toutes les situations de dépendance. Le premier modèle que nous proposons est de type “chaînes de Markov triplet”, on considère ainsi un troisième processus U tel que le triplet (X, U, Y ) soit une chaîne de Markov. Dans le modèle proposé, ce processus auxiliaire modélise la semi-markovianité de X ; on parvient ainsi à prendre en compte la non markovianité éventuelle du processus caché. Dans un deuxième modèle, nous considérons des observations à dépendance longue et nous proposons un algorithme d'estimation original des paramètres de ce modèle. Nous étudions par ailleurs différents modèles prenant en compte simultanément la semi-markovianité des données cachées, la dépendance longue dans les observations ou la non stationnarité des données cachées. Enfin, la nature non nécessairement gaussienne du bruit est prise en compte via l'introduction des copules. L'intérêt des différents modèles proposés est également validé au travers d'expérimentations. Dans la dernière partie de cette thèse, nous étudions également comment la segmentation obtenue par une méthode bayésienne peut être utilisée dans la détection de cibles dans le signal radar. Le détecteur original que nous implémentons utilise la différence de statistiques entre un signal recu et les signaux recus de son voisinage. Le détecteur ainsi implémenté s'avère donner de meilleurs résultats en présence de fort bruit que le détecteur habituellement utilisé en traitement radar.
8

Etude de la pertinence des paramètres stochastiques sur des modèles de Markov cachés / Study of the relevance of stochastic parameters on hidden Markov models

Robles, Bernard 18 December 2013 (has links)
Le point de départ de ce travail est la thèse réalisée par Pascal Vrignat sur la modélisation de niveaux de dégradation d’un système dynamique à l’aide de Modèles de Markov Cachés (MMC), pour une application en maintenance industrielle. Quatre niveaux ont été définis : S1 pour un arrêt de production et S2 à S4 pour des dégradations graduelles. Recueillant un certain nombre d’observations sur le terrain dans divers entreprises de la région, nous avons réalisé un modèle de synthèse à base de MMC afin de simuler les différents niveaux de dégradation d’un système réel. Dans un premier temps, nous identifions la pertinence des différentes observations ou symboles utilisés dans la modélisation d’un processus industriel. Nous introduisons ainsi le filtre entropique. Ensuite, dans un but d’amélioration du modèle, nous essayons de répondre aux questions : Quel est l’échantillonnage le plus pertinent et combien de symboles sont ils nécessaires pour évaluer au mieux le modèle ? Nous étudions ensuite les caractéristiques de plusieurs modélisations possibles d’un processus industriel afin d’en déduire la meilleure architecture. Nous utilisons des critères de test comme les critères de l’entropie de Shannon, d’Akaike ainsi que des tests statistiques. Enfin, nous confrontons les résultats issus du modèle de synthèse avec ceux issus d’applications industrielles. Nous proposons un réajustement du modèle pour être plus proche de la réalité de terrain. / As part of preventive maintenance, many companies are trying to improve the decision support of their experts. This thesis aims to assist our industrial partners in improving their maintenance operations (production of pastries, aluminum smelter and glass manufacturing plant). To model industrial processes, different topologies of Hidden Markov Models have been used, with a view to finding the best topology by studying the relevance of the model outputs (also called signatures). This thesis should make it possible to select a model framework (a framework includes : a topology, a learning & decoding algorithm and a distribution) by assessing the signature given by different synthetic models. To evaluate this « signature », the following widely-used criteria have been applied : Shannon Entropy, Maximum likelihood, Akaike Information Criterion, Bayesian Information Criterion and Statistical tests.
9

Méthodes modernes d'analyse de données en biophysique analytique : résolution des problèmes inverses en RMN DOSY et SM / New methods of data analysis in analytical biophysics : solving the inverse ill-posed problems in DOSY NMR and MS

Cherni, Afef 20 September 2018 (has links)
Cette thèse s’intéresse à la création de nouvelles approches algorithmiques pour la résolution du problème inverse en biophysiques. Dans un premier temps, on vise l’application RMN de type DOSY: une nouvelle approche de régularisation hybride a été proposée avec un nouvel algorithme PALMA (http://palma.labo.igbmc.fr/). Cet algorithme permet d’analyser des données réelles DOSY avec une précision importante quelque soit leur type. Dans un deuxième temps, notre intérêt s’est tourné vers l’application de spectrométrie de masse. Nous avons proposé une nouvelle approche par dictionnaire dédiée à l’analyse protéomique en utilisant le modèle averagine et une stratégie de minimisation sous contraintes d'une pénalité de parcimonie. Afin d’améliorer la précision de l’information obtenue, nous avons proposé une nouvelle méthode SPOQ, basée sur une nouvelle fonction de pénalisation, résolue par un nouvel algorithme Forward-Backward à métrique variable localement ajustée. Tous nos algorithmes bénéficient de garanties théoriques de convergence, et ont été validés expérimentalement sur des spectres synthétisés et des données réelles / This thesis aims at proposing new approaches to solve the inverse problem in biophysics. Firstly, we study the DOSY NMR experiment: a new hybrid regularization approach has been proposed with a novel PALMA algorithm (http://palma.labo.igbmc.fr/). This algorithm ensures the efficient analysis of real DOSY data with a high precision for all different type. In a second time, we study the mass spectrometry application. We have proposed a new dictionary based approach dedicated to proteomic analysis using the averagine model and the constrained minimization approach associated with a sparsity inducing penalty. In order to improve the accuracy of the information, we proposed a new SPOQ method based on a new penalization, solved with a new Forward-Backward algorithm with a variable metric locally adjusted. All our algorithms benefit from sounded convergence guarantees, and have been validated experimentally on synthetics and real data.
10

Partage de secret et théorie algorithmique de l'information

Kaced, Tarik 04 December 2012 (has links) (PDF)
Notre travail sur le partage de secret se base sur les points de vue de la Théorie de l'Information de Shannon et de la Complexité de Kolmogorov. Nous allons expliquer comment ces trois sujets sont intimement liés. Les inégalités d'information jouent un rôle central dans cette thèse: ce sont les inégalités pour l'entropie de Shannon, qui correspondent également aux inégalités valides pour la complexité de Kolmogorov. La Théorie Algorithmique de l'Information introduite par Kolmogorov formalise l'idée d'aléatoire pour les chaînes de caractères. Ce sont là deux raisons justifiant à elles seules la notion de partage de secret algorithmique dans le cadre de la Théorie Algorithmique de l'information (si l'on sait partager un secret aléatoire, on peut partager n'importe quel secret). Originalement étudié par sa définition combinatoire, le partage de secret a été plus tard généralisé par une formulation dans le langage de la théorie de l'information. Cette étape a permis l'utilisation des inégalités d'information, et s'est révélée très importante dans la caractérisation de l'efficacité des schémas de partage de secret. L'étude de ces inégalités n'en est qu'à ses débuts. Nous y contribuons en introduisant la notion d'inégalité essentiellement conditionnelle, qui montre une fois de plus que ces inégalités ne sont pas encore complètement comprises.

Page generated in 0.5299 seconds