• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 166
  • 49
  • 11
  • Tagged with
  • 229
  • 45
  • 38
  • 37
  • 36
  • 34
  • 33
  • 31
  • 19
  • 19
  • 18
  • 17
  • 17
  • 17
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Higgs boson production in the diphoton decay channel with CMS at the LHC : first measurement of the inclusive cross section in 13 TeV pp collisions, and study of the Higgs coupling to electroweak vector bosons / Production du boson de Higgs dans le canal de désintégration en 2 photons au LHC dans l'expérience CMS : première mesure de la section efficace inclusive dans des collisions proton-proton à 13 TeV, et étude du couplage de Higgs aux bosons vecteurs

Machet, Martina 26 September 2016 (has links)
Dans ce document deux analyses des propriétés du boson de Higgs se désintégrant en 2 photons dans l'expérience CMS située auprès du LHC (Large Hadron Collider) sont présentées.Le document commence par une introduction théorique sur le Modèle Standard et sur la physique du boson de Higgs, suivie par une description détaillée de l'expérience CMS. En deuxième lieu, les algorithmes de réconstruction et identification des photons sont présentés, avec une attention particulière aux différences entre le premier et le deuxième run du LHC, le premier run (Run1) ayant été pris entre 2010 et 2012 avec une énergie dans le centre de masse de 7 puis 8 TeV, le deuxième (Run2) ayant commencé en 2015 avec une énergie dans le centre de masse de 13 TeV. Les performances des reconstructions du Run 1 et du Run 2 en ce qui concerne l'identification des photons sont comparées. Ensuite l'algorithme d’identification des photons pour l'analyse H->γγ et optimisé pour le Run2 est présenté. Pour ce faire une méthode d'analyse multivariée est utilisée. Les performances de l'identification des photons à 13 TeV sont enfin étudiées et une validation donnée-simulation est effectuée.Ensuite l'analyse H->γγ avec les premières données du Run2 est présentée. Les données utilisées correspondent à une luminosité intégrée de 12.9 fb⁻¹. Une catégorisation des événements est faite, afin de rendre maximale la signification statistique du signal et d’étudier les différents modes de production du boson de Higgs. La signification statistique observée pour le boson de Higgs du Modèle Standard est 1.7 sigma, pour une signification attendue de 2.7 sigma.Enfin une étude de faisabilité ayant pour but de contraindre les couplages anomaux du boson de Higgs aux bosons de jauges est présentée. Pour cette analyse les données à 8 TeV collectées pendant le Run 1 du LHC, correspondant a' une luminosité intégrée de 19.5/fb sont utilisées. Cette analyse exploite la production du boson de Higgs par fusion de bosons-vecteurs (VBF), avec le Higgs se désintégrant ensuite en 2 photons. Les distributions cinématiques des jets et des photons, qui dépendent de l'hypothèse de spin-parité, sont utilisées pour construire des discriminants capables de séparer les différentes hypothèses de spin-parité. Ces discriminants permettent de définir différentes régions de l'espace des phases enrichies en signal de différentes spin-parité. Les différents nombres d’événements de signal sont extraits dans chaque région par un ajustement de la masse invariante diphoton, permettant de déterminer les contributions respectives des différents signaux et permettant ainsi de contraindre la production de boson de Higgs pseudo-scalaire (spin-parité 0-). / In this document two analyses of the properties of the Higgs boson in the diphoton decay channel with the CMS experiment at the LHC (Large Hadron Collider) are presented.The document starts with a theoretical introduction of the Standard Model and the Higgs boson physics, followed by a detailed description of the CMS detector.Then, photon reconstruction and identification algorithms are presented, with a particular focus on the differences between the first and the second run of the LHC, the first run (Run1) took place from 2010 to 2012 with a centre-of-mass energy of 7 and then 8 TeV, while the second run (Run2) started in 2015 with a centre-of-mass energy of 13 TeV. Performances of Run1 and Run2 reconstructions from the photon identification point of view are compared. Then the photon identification algorithm for the H->γγ analysis optimised for Run2 is presented. To do that a multivariate analysis method is used. Performances of the photon identification at 13 TeV are finally studied and a data-simulation validation is performed.Afterwards, the H->γγ analysis using the first Run2 data is presented. The analysis is performed with a dataset corresponding to an integrated luminosity of 2.7/fb. An event classification is performed to maximize signal significance and to studyspecific Higgs boson production modes. The observed significance for the standard model Higgs boson is 1.7 sigma, while a significance of 2.7 sigma is expected.Finally a feasibility study, having the aim of constraining the anomalous couplings of the Higgs boson to the vector bosons, is presented. This analysis is performed using the data collected at 8 TeV during Run1 at the LHC, corresponding to an integrated luminosity of 19.5/fb. This analysis exploits the production of the Higgs boson through vector boson fusion (VBF), with the Higgs decaying to 2 photons. The kinematic distributions of the dijet and diphoton systems, which depend from the spin-parity hypothesis, are used to build some discriminants able to discriminate between different spin-parity hypotheses. These discriminants allow to define different regions of the phase-space enriched with a certain spin-parity process. The Higgs boson signal yield is extracted in each region from a fit to the diphoton mass, allowing to determine the contributions of the different processes and then constrain the production of a pseudo-scalar (spin-parity 0-) Higgs boson.
162

Méthodes des matrices aléatoires pour l’apprentissage en grandes dimensions / Methods of random matrices for large dimensional statistical learning

Mai, Xiaoyi 16 October 2019 (has links)
Le défi du BigData entraîne un besoin pour les algorithmes d'apprentissage automatisé de s'adapter aux données de grande dimension et de devenir plus efficace. Récemment, une nouvelle direction de recherche est apparue qui consiste à analyser les méthodes d’apprentissage dans le régime moderne où le nombre n et la dimension p des données sont grands et du même ordre. Par rapport au régime conventionnel où n>>p, le régime avec n,p sont grands et comparables est particulièrement intéressant, car les performances d’apprentissage dans ce régime restent sensibles à l’ajustement des hyperparamètres, ouvrant ainsi une voie à la compréhension et à l’amélioration des techniques d’apprentissage pour ces données de grande dimension.L'approche technique de cette thèse s'appuie sur des outils avancés de statistiques de grande dimension, nous permettant de mener des analyses allant au-delà de l'état de l’art. La première partie de la thèse est consacrée à l'étude de l'apprentissage semi-supervisé sur des grandes données. Motivés par nos résultats théoriques, nous proposons une alternative supérieure à la méthode semi-supervisée de régularisation laplacienne. Les méthodes avec solutions implicites, comme les SVMs et la régression logistique, sont ensuite étudiées sous des modèles de mélanges réalistes, fournissant des détails exhaustifs sur le mécanisme d'apprentissage. Plusieurs conséquences importantes sont ainsi révélées, dont certaines sont même en contradiction avec la croyance commune. / The BigData challenge induces a need for machine learning algorithms to evolve towards large dimensional and more efficient learning engines. Recently, a new direction of research has emerged that consists in analyzing learning methods in the modern regime where the number n and the dimension p of data samples are commensurately large. Compared to the conventional regime where n>>p, the regime with large and comparable n,p is particularly interesting as the learning performance in this regime remains sensitive to the tuning of hyperparameters, thus opening a path into the understanding and improvement of learning techniques for large dimensional datasets.The technical approach employed in this thesis draws on several advanced tools of high dimensional statistics, allowing us to conduct more elaborate analyses beyond the state of the art. The first part of this dissertation is devoted to the study of semi-supervised learning on high dimensional data. Motivated by our theoretical findings, we propose a superior alternative to the standard semi-supervised method of Laplacian regularization. The methods involving implicit optimizations, such as SVMs and logistic regression, are next investigated under realistic mixture models, providing exhaustive details on the learning mechanism. Several important consequences are thus revealed, some of which are even in contradiction with common belief.
163

Les astrocytes réactifs, des partenaires anti-agrégants dans la maladie de Huntington : identification des mécanismes impliqués dans le dialogue neurone-astrocyte / Reactive Astrocytes as Anti-Aggregation Partners in Huntington's Disease : Identification of Mechanisms Involved in the Neuron-Astrocyte Dialogue

Abjean, Laurene 09 April 2019 (has links)
La maladie de Huntington (MH) est une maladie neurodégénérative causée par une extension de répétitions du codon CAG dans le gène de la Huntingtine (Htt). Cette maladie est caractérisée par la mort des neurones striataux et la présence d’agrégats de Htt mutée (mHtt). De plus, au cours de la MH, les astrocytes, qui sont essentiels au bon fonctionnement neuronal, changent d’état et deviennent réactifs. La réactivité astrocytaire est caractérisée par des changements morphologiques et transcriptomiques mais l’impact fonctionnel de cette réactivité reste peu compris.Afin d’étudier le rôle des astrocytes réactifs dans la MH, nous avons utilisé des vecteurs viraux récemment développés par notre équipe, qui induisent ou bloquent la réactivité astrocytaire in vivo en ciblant la voie JAK2-STAT3. Nous avons montré que les astrocytes réactifs diminuent le nombre et la taille des agrégats de mHtt majoritairement présents dans les neurones. Ceci est associé à l’amélioration de plusieurs altérations neuronales observées dans ces modèles. Une analyse transcriptomique réalisée sur des astrocytes réactifs révèle des changements majeurs d’expression de gènes liés aux systèmes de protéostasie. De plus, l’activité du lysosome et du protéasome est augmentée dans les astrocytes réactifs de souris modèles de la MH. Nous montrons également que les astrocytes réactifs éliminent plus efficacement leurs propres agrégats de mHtt, suggérant qu’au cours de la MH, ces cellules pourraient dégrader plus efficacement la mHtt provenant des neurones. De plus, certaines protéines chaperonnes sont induites dans les astrocytes réactifs. En particulier, la co-chaperonne DNAJB1/Hsp40 est surexprimée dans les astrocytes réactifs et est retrouvée dans les exosomes isolés à partir de striata de souris MH. Des expériences de gain et perte de fonction suggèrent que cette chaperonne est impliquée dans les effets bénéfiques des astrocytes réactifs sur l’agrégation de la mHtt et l’état des neurones. Les astrocytes réactifs pourraient donc libérer des protéines anti-agrégantes qui favorise l’élimination de la mHtt dans les neurones.Notre étude montre que les astrocytes peuvent, en devenant réactifs au cours de la MH, acquérir des propriétés bénéfiques pour les neurones et favoriser, via un dialogue complexe avec les neurones, l’élimination des agrégats de mHtt. / Huntington’s disease (HD) is a hereditary neurodegenerative disease caused by an expansion of CAG codons in the Huntingtin gene. It is characterized by the death of striatal neurons and the presence of mutant Huntingtin (mHtt) aggregates. In pathological conditions, as in HD, astrocytes change and become reactive. Astrocyte reactivity is characterized by morphological and significant transcriptomic changes. Astrocytes are essential for the proper functioning of neurons but the functional changes associated with reactivity are still unclear.To better understand the roles played by reactive astrocytes in HD, we took advantage of our recently developed viral vectors that infect selectively astrocytes in vivo and either block or induce reactivity, through manipulation of the JAK2-STAT3 pathway. We used these vectors in two complementary mouse models of HD and found that reactive astrocytes decrease the number and the size of mHtt aggregates that mainly form in neurons. Reduced mHtt aggregation was associated with improvement of neuronal alterations observed in our mouse models of HD. A genome-wide transcriptomic analysis was performed on acutely sorted reactive astrocytes and revealed an enrichment in genes linked to proteolysis. Lysosomal and proteosomal activities were also increased in reactive astrocytes in HD mice. Moreover, we show that reactive astrocytes degrade more efficiently their own mHtt aggregates, suggesting that these cells could siphon mHtt away from neurons. Alternatively, several chaperones were induced in reactive astrocytes. In particular, the co-chaperone DNAJB1/Hsp40 was upregulated in reactive astrocytes and was present in exosomal fraction from HD mouse striatum. Loss and gain of function experiments suggest that this chaperone is involved in the beneficial effects of reactive astrocytes on mHtt aggregation and neuronal status. Therefore, reactive astrocytes could release anti-aggregation proteins that could promote mHtt clearance in neurons.Overall, our data show that astrocytes, by becoming reactive in HD, develop a protective response that involves complex bidirectional signaling with neurons to reduce mHtt aggregation.
164

Exon skipping as a therapeutic strategy in dysferlinopathy / Le saut d’exon thérapeutique pour le traitement des dysferlinopathies

Malcher, Jakub 26 March 2018 (has links)
Les dysferlinopathies sont des dystrophies musculaires qui se manifestent par la dystrophie musculaire des ceintures de type 2B (LGMD2B) ou la myopathie de Miyoshi (MM). Elles sont causées par des mutations dans le gène dysferline. La dysferline est une protéine membranaire exprimée dans le muscle squelettique, responsable de la réparation des microlésions du sarcolemme. L’absence d’une telle réparation de la membrane entraîne une atrophie musculaire progressive. Ce travail de thèse explore le potentiel thérapeutique d'une stratégie de modulation d'épissage pour le traitement de la LGMD2B causée par la mutation faux-sens c4022T>C dans l'exon 38 du gène dysferline. Des oligonucléotides et des petits ARN U7 délivrés par un vecteur viral de type adéno-associé ont été utilisés comme outils antisens pour induire un saut d'exon in vitro et in vivo. Ce projet de thèse étudie également la capacité de la dysferline tronquée à se localiser de façon appropriée à la membrane et ainsi la réparer. / Dysferlinopathy is a muscular dystrophy that manifests as two major phenotypes: limb-girdle muscular dystrophy type 2B (LGMD2B) or Miyoshi myopathy (MM). It is caused by mutations in the dysferlin gene. Dysferlin is a membrane protein expressed in skeletal muscle. It is responsible for the repair of sarcolemma microlesions produced by muscle contractions. A compromised membrane repair leads to slowly progressing muscle wasting. This thesis explores the therapeutic potential of an antisense mediated splice switching strategy in LGMD2B caused by the missense mutation c4022T>C in the exon 38 of the dysferlin gene. Antisense oligonucleotides and U7 snRNAs delivered by an adeno-associated viral vector were used as antisense tools to trigger exon skipping in vitro and in vivo. The thesis investigates also if the truncated dysferlin maintainsa proper membrane localization and its membrane repair ability.
165

Algorithmique et complexité des systèmes à compteurs / Algorithmics and complexity of counter machines

Blondin, Michael 29 June 2016 (has links)
L'un des aspects fondamentaux des systèmes informatiques modernes, et en particulier des systèmes critiques, est la possibilité d'exécuter plusieurs processus, partageant des ressources communes, de façon simultanée. De par leur nature concurrentielle, le bon fonctionnement de ces systèmes n'est assuré que lorsque leurs comportements ne dépendent pas d'un ordre d'exécution prédéterminé. En raison de cette caractéristique, il est particulièrement difficile de s'assurer qu'un système concurrent ne possède pas de faille. Dans cette thèse, nous étudions la vérification formelle, une approche algorithmique qui vise à automatiser la vérification du bon fonctionnement de systèmes concurrents en procédant par une abstraction vers des modèles mathématiques. Nous considérons deux de ces modèles, les réseaux de Petri et les systèmes d'addition de vecteurs, et les problèmes de vérification qui leur sont associés. Nous montrons que le problème d'accessibilité pour les systèmes d'addition de vecteurs (avec états) à deux compteurs est PSPACE-complet, c'est-à-dire complet pour la classe des problèmes solubles à l'aide d'une quantité polynomiale de mémoire. Nous établissons ainsi la complexité calculatoire précise de ce problème, répondant à une question demeurée ouverte depuis plus de trente ans. Nous proposons une nouvelle approche au problème de couverture pour les réseaux de Petri, basée sur un algorithme arrière guidé par une caractérisation logique de l'accessibilité dans les réseaux de Petri dits continus. Cette approche nous a permis de mettre au point un nouvel algorithme qui s'avère particulièrement efficace en pratique, tel que démontré par notre implémentation logicielle nommée QCover. Nous complétons ces résultats par une étude des systèmes de transitions bien structurés qui constituent une abstraction générale des systèmes d'addition de vecteurs et des réseaux de Petri. Nous considérons le cas des systèmes de transitions bien structurés à branchement infini, une classe qui inclut les réseaux de Petri possédant des arcs pouvant consommer ou produire un nombre arbitraire de jetons. Nous développons des outils mathématiques facilitant l'étude de ces systèmes et nous délimitons les frontières au-delà desquelles la décidabilité des problèmes de terminaison, de finitude, de maintenabilité et de couverture est perdue. / One fundamental aspect of computer systems, and in particular of critical systsems, is the ability to run simultaneously many processes sharing resources. Such concurrent systems only work correctly when their behaviours are independent of any execution ordering. For this reason, it is particularly difficult to ensure the correctness of concurrent systems.In this thesis, we study formal verification, an algorithmic approach to the verification of concurrent systems based on mathematical modeling. We consider two of the most prominent models, Petri nets and vector addition systems, and their usual verification problems considered in the literature.We show that the reachability problem for vector addition systems (with states) restricted to two counters is PSPACE-complete, that is, it is complete for the class of problems solvable with a polynomial amount of memory. Hence, we establish the precise computational complexity of this problem, left open for more than thirty years.We develop a new approach to the coverability problem for Petri nets which is primarily based on applying forward coverability in continuous Petri nets as a pruning criterion inside a backward coverability framework. We demonstrate the effectiveness of our approach by implementing it in a tool named QCover.We complement these results with a study of well-structured transition systems which form a general abstraction of vector addition systems and Petri nets. We consider infinitely branching well-structured transition systems, a class that includes Petri nets with special transitions that may consume or produce arbitrarily many tokens. We develop mathematical tools in order to study these systems and we delineate the decidability frontier for the termination, boundedness, maintainability and coverability problems for these systems.
166

Prodrogues d’alkylphospholipides (pro-APLs) pour une nouvelle approche thérapeutique du cancer par les lipides antitumoraux / Prodrugs of alkylphospholipids (pro-APLs) as a new therapeutic approach to cancer by antitumour lipids

Gaillard, Boris 05 April 2019 (has links)
Les précédents travaux menés au laboratoire avaient permis d’obtenir des lipides cationiques biolabiles dérivés d’un constituant naturel des membranes cellulaires, la DOPC, en masquant temporairement sa charge négative par l’introduction d’un substituant, clivable sous stimuli acide ou enzymatique. Ce concept s’était révélé efficace pour la délivrance, in vitro et in vivo, d’acides nucléiques, avec un impact toxicologique minimisé. Ce doctorat est la transposition de ce système à une approche thérapeutique du cancer, à l’aide de constructions dérivées d’alkylphospholipides (APLs), des lipides antitumoraux. De nombreuses prodrogues biolabiles (pro-APLs) ont été développées à partir de trois APLs prometteurs : miltéfosine, périfosine et érufosine. L’évaluation et l’optimisation de l’activité biologique des pro-APLs ont conduit à des formulations performantes pour la délivrance in vitro d’un ADN thérapeutique TRAIL et la production in situ d’APLs, pour une combothérapie antitumorale. / Previous work in the laboratory had resulted in biolabile cationic lipids derived from a naturally cell membrane component, DOPC, by temporarily masking its negative charge by the introduction of a cleavable substituent, under acidic or enzymatic stimuli. This concept was particularly efficient for the delivery, in vitro and in vivo, of nucleic acids such as DNA plasmid or siRNA, with a minimized toxicological impact for cells. The present study is the transposition of this system to a therapeutic approach to cancer, using constructions derived from alkylphospholipids (APLs), a recent class of antitumor lipids. Biolabile prodrugs (pro-APLs) have been developed from three promising APLs: miltefosine, perifosine and erufosine. The biological evaluation of pro-APLs activity and the optimization of various parameters led to efficient formulations for the in vitro delivery of a therapeutic DNA plasmid, related to TRAIL, and the in situ APLs production for a potential antitumor combotherapy.
167

Authentification biométrique par dynamique de frappe pour évaluation à distance utilisant SVM à une classe

Chang, Chuan 24 April 2018 (has links)
La machine à vecteurs de support à une classe est un algorithme non-supervisé qui est capable d’apprendre une fonction de décision à partir de données d’une seule classe pour la détection d’anomalie. Avec les données d’entraînement d’une seule classe, elle peut identifier si une nouvelle donnée est similaire à l’ensemble d’entraînement. Dans ce mémoire, nous nous intéressons à la reconnaissance de forme de dynamique de frappe par la machine à vecteurs de support à une classe, pour l’authentification d’étudiants dans un système d’évaluation sommative à distance à l’Université Laval. Comme chaque étudiant à l’Université Laval possède un identifiant court, unique qu’il utilise pour tout accès sécurisé aux ressources informatiques, nous avons choisi cette chaîne de caractères comme support à la saisie de dynamique de frappe d’utilisateur pour construire notre propre base de données. Après avoir entraîné un modèle pour chaque étudiant avec ses données de dynamique de frappe, on veut pouvoir l’identifier et éventuellement détecter des imposteurs. Trois méthodes pour la classification ont été testées et discutées. Ainsi, nous avons pu constater les faiblesses de chaque méthode dans ce système. L’évaluation des taux de reconnaissance a permis de mettre en évidence leur dépendance au nombre de signatures ainsi qu’au nombre de caractères utilisés pour construire les signatures. Enfin, nous avons montré qu’il existe des corrélations entre le taux de reconnaissance et la dispersion dans les distributions des caractéristiques des signatures de dynamique de frappe. / One-Class Support Vector Machine is an unsupervised algorithm that learns a decision function from only one class for novelty detection. By training the data with only one class, this method is able to classify new data as similar (inlier) or different (outlier) from the training set. In this thesis, we have applied the One-Class Support Vector Machine to Keystroke Dynamics pattern recognition for user authentication in a remote evaluation system at Laval University. Since all of their students have a short and unique identifier at Laval University, this particular static text is used as the Keystroke Dynamics input for a user to build our own dataset. After training a model for each student with his or her keystroke data, we then use this model to detect imposters in the later phase. Three methods were tried and discussed for the classification. Then, we were able to identify weaknesses of each method in such a system by evaluating the recognition accuracy depending on the number of signatures and as a function of their number of characters. Finally, we were able to show some correlations between the dispersion and mode of distributions of features characterizing the keystroke signatures and the recognition rate.
168

Classification automatique de flux radiophoniques par Machines à Vecteurs de Support

Ramona, Mathieu 21 June 2010 (has links) (PDF)
Nous présentons ici un système de classification audio parole/musique tirant parti des excellentes propriétés statistiques des Machines à Vecteurs de Support. Ce problème pose les trois questions suivantes : comment exploiter efficacement les SVM, méthode d'essence discriminatoire, sur un problème à plus de deux classes, comment caractériser un signal audio de manière pertinente, et enfin comment traiter l'aspect temporel du problème ? Nous proposons un système hybride de classification multi-classes tirant parti des approches un-contre-un et par dendogramme, et permettant l'estimation de probabilités a posteriori. Ces dernières sont exploitées pour l'application de méthodes de post-traitement prenant en compte les interdépendances entre trames voisines. Nous proposons ainsi une méthode de classification par l'application de Modèles de Markov Cachés (HMM) sur les probabilités a posteriori, ainsi qu'une approche basée sur la détection de rupture entre segments au contenu acoustique "homogène". Par ailleurs, la caractérisation du signal audio étant opérée par une grande collection des descripteurs audio, nous proposons de nouveaux algorithmes de sélection de descripteurs basés sur le récent critère d'Alignement du noyau ; critère que nous avons également exploité pour la sélection de noyau dans le processus de classification. Les algorithmes proposés sont comparés aux méthodes les plus efficaces de l'état de l'art auxquelles elles constituent une alternative pertinente en termes de coût de calcul et de stockage. Le système construit sur ces contributions a fait l'objet d'une participation à la campagne d'évaluation ESTER 2, que nous présentons, accompagnée de nos résultats.
169

Approches spectro-spatiales pour la classification d'images hyperspectrales

Tarabalka, Yuliya 14 June 2010 (has links) (PDF)
L'imagerie hyperspectrale enregistre un spectre detaillé de la lumière reçue dans chaque position spatiale de l'image. Comme des matières différentes manifestent des signatures spectrales différentes, l'imagerie hyperspectrale est une technologie bien adaptée pour la classification précise des images, ce qui est une tâche importante dans beaucoup de domaines appliqués. Cependant, la grande dimension des données complique l'analyse des images. La plupart des techniques de classification proposées précédemment traitent chaque pixel indépendamment, sans considérer l'information sur les structures spatiales. Cependant, la recherche récente en traitement d'images a souligné l'importance de l'incorporation du contexte spatial dans les classifieurs. Dans cette thèse, nous proposons et développons des nouvelles méthodes et algorithmes spectro-spatiaux pour la classification précise des données hyperspectrales. D'abord, l'intégration de la technique des Machines à Vecteurs de Support (SVM) dans le cadre des Champs Aléatoires de Markov (MRFs) pour la classification contextuelle est étudiée. Les SVM et les modèles markoviens sont les deux outils efficaces pour la classification des données de grande dimension et pour l'analyse contextuelle d'images, respectivement. Dans un second temps, nous avons proposé des méthodes de classification qui utilisent des voisinages spatiaux adaptatifs dérivés des résultats d'une segmentation. Nous avons étudié différentes techniques de segmentation et nous les avons adaptées pour le traitement des images hyperspectrales. Ensuite, nous avons développé des approches pour combiner les régions spatiales avec l'information spectrale dans un classifieur. Nous avons aussi étudié des techniques pour réduire la sur-segmentation en utilisant des marqueurs des structures spatiales d'intérêt afin d'effectuer la segmentation par marqueurs. Notre proposition est d'analyser les résultats de la classification probabiliste afin de sélectionner les pixels les plus fiablement classés comme des marqueurs des régions spatiales. Nous avons proposé plusieurs méthods pour la sélection des marqueurs, qui utilisent soit des classifieurs individuels, soit un ensemble de classifieurs. Ensuite, nous avons développé des techniques pour la segmentation par croissance de régions issues des marqueurs, en utilisant soit la ligne de partage d'eaux, soit une forêt couvrante de poids minimal, qui ont pour résultat les cartes de segmentation et de classification contextuelle. Finalement, nous considerons les possibilités du calcul parallèle à haute performance sur les processeurs d'un usage commode afin de réduire la charge du calcul. Les nouvelles méthodes développées dans cette thèse améliorent les résultats de classification par rapport aux méthodes proposées précédemment, et ainsi montrent un grand potentiel pour les différents scénarios de l'analyse d'image.
170

Codage vidéo flexible par association d'un décodeur intelligent et d'un encodeur basé optimisation débit-distorsion

Thiesse, Jean-Marc 18 April 2012 (has links) (PDF)
Cette thèse est dédiée à l'amélioration des performances de compression vidéo. Deux types d'approches, conventionnelle et en rupture, sont explorées afin de proposer des méthodes efficaces de codage Intra et Inter pour les futurs standards de compression. Deux outils sont étudiés pour la première approche. Tout d'abord, des indices de signalisations sont habilement traités par une technique issue du tatouage permettant de les masquer dans les résiduels de luminance et de chrominance de façon optimale selon le compromis débit-distorsion. La forte redondance dans le mouvement est ensuite exploitée pour améliorer le codage des vecteurs de mouvement. Après observation des précédents vecteurs utilisés, un fin pronostic permet de déterminer les vecteurs résiduels à privilégier lors d'une troisième étape de modification de la distribution des résiduels. 90% des vecteurs codés sont ainsi pronostiqués, ce qui permet une nette réduction de leur coût. L'approche en rupture vient de la constatation que H.264/AVC et son successeur HEVC sont basés sur un schéma prédictif multipliant les choix de codage, les améliorations passent alors par un meilleur codage de la texture à l'aide d'une compétition accrue. De tels schémas étant bornés par la signalisation engendrée, il est alors nécessaire de transférer des décisions au niveau du décodeur. Une approche basée sur la détermination conjointe au codeur et au décodeur de paramètres de codage à l'aide de partitions causales et ainsi proposée et appliquée aux modes de prédiction Intra et à la théorie émergente de l'échantillonnage compressé. Des performances encourageantes sont reportées et confirment l'intérêt d'une telle solution innovante.

Page generated in 0.0586 seconds