• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 144
  • 53
  • 10
  • 1
  • 1
  • 1
  • Tagged with
  • 209
  • 63
  • 59
  • 38
  • 38
  • 38
  • 35
  • 24
  • 23
  • 19
  • 18
  • 17
  • 17
  • 16
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Identification and characterization of novel virulence factors from the swine pathogen and zoonotic agent streptococcus suis

Fittipaldi, Nahuel January 2008 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
172

Etude multi-échelles des précipitations et du couvert végétal au Cameroun : analyses spatiales, tendances temporelles, facteurs climatiques et anthropiques de variabilité du NDVI

Djoufack-Manetsa, Viviane 30 September 2011 (has links) (PDF)
De par sa géométrie et sa situation géographique (2°N-13°N - 8°E-16°E ; ouverture sur l'océan Atlantique), le Cameroun offre l'avantage de proposer un ensemble représentatif des climats régionaux rencontrés en Afrique tropicale. La diminution des cumuls de précipitations enregistrée dans la région pendant la seconde moitié du XXe siècle, est associée à la récurrence de périodes anormalement sèches, essentiellement au cœur de la saison des pluies. Ces conditions ont amplifié la dégradation du couvert végétal au travers ses contraintes socioéconomiques et démographiques (déforestation, extension des surfaces d'activité). Les conséquences souvent dommageables de la variabilité climatique en général, et des sécheresses en particulier, sur les hommes et leurs activités suscitent l'intérêt de développer des études pour mieux comprendre comment le climat et les pressions naturelles et environnementales interagissent localement. Ainsi, l'objectif de cette thèse est de diagnostiquer la variabilité multiéchelle (saisonnière, interannuelle, intra-saisonnière, synoptique) des précipitations et les relations qu'elle entretient avec le couvert végétal au sens large qui, à ces latitudes, est associé directement ou non, à la dynamique d'occupation et d'utilisation du sol, particulièrement sur la période 1951-2002. A partir de données de précipitations observées (CRU/ponctuelles), les modes spatiaux de la variabilité ont été définis aux échelles annuelles et interannuelles, par Analyses en Composante Principale (ACP) et la Classification Ascendante Hiérarchique (CAH). Ces méthodes de classifications ont permis de discriminer cinq zones climatiques, différentes les unes des autres par l'intensité des cumuls et la saisonnalité (unimodal/bimodal). Pour chaque zone, l'attention a été portée sur les paramètres intrasaisonniers qui modulent la variabilité annuelle telle que, les séquences sèches (nombre, longueur, périodes d'occurrence) et les variations des dates de début et de fin des périodes végétatives. La répartition du couvert végétal dans l'espace et dans le temps (1982-2002) a été étudiée, en utilisant des méthodes de classification non supervisée (ISODATA) sur les données de NDVI (Normalized Difference Vegetation index) à 8km de résolution. Enfin, des méthodes statistiques et de télédétection ont permis d'évaluer l'impact des facteurs pluviométriques et anthropogéniques (croissance démographique et utilisation du sol) sur la dynamique du couvert végétal en utilisant des bases de données à plus fine résolution (NDVI/1Km ; Global Land Cover (GLC 2000/1Km)). Ces dernières investigations ont été menées dans le Nord-Cameroun (6°N-13°N - 11°E-16°E), qui est la région la plus sensible des points de vue climatique, économique et environnemental.
173

Sources Probabilistes: des séquences aux systèmes

Bourdon, Jérémie 05 December 2012 (has links) (PDF)
Ce mémoire est un recueil et une synthèse de plusieurs études en analyse en moyenne d'algorithmes et en bioinformatique. Il y est présenté des travaux allant de l'étude de problèmes sur les séquences à l'étude de systèmes biologiques, en gardant un fil conducteur fort: quelles que soient les applications, l'objet d'étude central est une source probabiliste qui produit des mots. Ces travaux trouvent des applications en bioinformatique qui se concrétisent par la mise au point d'algorithmes dédiés de recherche de motifs et la définition de tests statistiques et en biologie des systèmes biologiques avec des développements qui ont été appliqués, en collaboration étroite avec des équipes de biologistes, à des modèles biologiques réels.
174

Détection itérative des séquences pseudo-aléatoires / Iterative detection of pseudo-random sequences

Bouvier des Noes, Mathieu 15 October 2015 (has links)
Les séquences binaires pseudo-aléatoires sont couramment employées par les systèmes de transmissions numériques ou des mécanismes de chiffrement. On les retrouve en particulier dans les transmissions par étalement de spectre par séquence direct (e.g. 3G ou GPS)) ou pour construire des séquences d'apprentissage pour faciliter la synchronisation ou l'estimation du canal (e.g. LTE). Un point commun à toutes ces applications est la nécessité de se synchroniser avec la séquence émise. La méthode conventionnelle consiste à générer la même séquence au niveau du récepteur et la corréler avec le signal reçu. Si le résultat dépasse un seuil pré-défini, la synchronisation est déclarée acquise. On parle alors de détection par corrélation.Cette thèse aborde une autre voie : la détection des séquences binaires pseudo-aléatoire par des techniques de décodage canal. Ceci permet par exemple de détecter des séquences longues (e.g. de période 242), contrairement aux techniques par corrélation qui sont trop complexes à implémenter. Cela nécessite néanmoins que le récepteur connaisse au préalable le polynôme générateur de la séquence.Nous avons montré que le décodage d'une séquence pseudo-aléatoire est une problématique du type 'détecte et décode'. Le récepteur détecte la présence de la séquence et simultanément estime son état initial. Ceci correspond dans la théorie classique de la détection à un détecteur de type GLRT qui ne connaît pas la séquence émise, mais qui connaît sa méthode de construction. L'algorithme implémente alors un GLRT qui utilise un décodeur pour estimer la séquence reçue. Ce dernier est implémenté avec un algorithme de décodage par passage de messages qui utilise une matrice de parité particulière. Elle est construite avec des équations de parités différentes, chacune ayant un poids de Hamming valant t.Il correspond au nombre de variables participants à l'équation.Les équations de parité sont un constituant indispensable du décodeur. Nous avons donné leur nombre pour les m-séquences et les séquences de Gold. Pour le cas particulier des séquences de Gold, nous avons calculé le nombre d'équations de parité de poids t=5 lorsque le degré du polynôme générateur r est impair. Ce calcul est important car il n'y a pas d'équations de parité de poids t < 5 lorsque r est impair. Le nombre d'équations de parité est aussi utilisé pour estimer le degré minimal des équations d'un poids t donné. Nous avons montré que le modèle de prédiction estime correctement la valeur moyenne du degré minimal de l'ensemble des séquences de Gold. Nous avons néanmoins mis en évidence une grande variabilité du degré minimal des séquences autour de cette valeur moyenne.Nous avons ensuite identifié les ensembles absorbants complets de plus petite taille lorsque le décodeur emploie plusieurs polynômes de parité. Ces ensembles bloquent la convergence du décodeur lorsque celui-ci est alimenté avec du bruit. Ceci évite les fausses alarmes lors du processus de détection. Nous avons montré que des cycles 'transverses' détruisent ces ensembles absorbants, ce qui génère des fausses alarmes. Nous en avons déduit un algorithme qui minimise le nombre de cycles transverses de longueur 6 et 8, ce qui minimise la probabilité de fausse alarme lorsque le poids des équations de parité vaut t=3. Notre algorithme permet de sélectionner les équations de parité qui minimisent la probabilité de fausse alarme et ainsi réduire notablement le temps d'acquisition d'une séquence de Gold.Nous avons enfin proposé deux algorithmes de détection du code d'embrouillage pour les systèmes WCDMA et CDMA2000. Ils exploitent les propriétés des m-séquences constituant les séquences de Gold, ainsi que les mécanismes de décodage par passage de messages. Ces algorithmes montrent les vulnérabilités des transmissions par étalement de spectre. / Pseudo-random binary sequences are very common in wireless transmission systems and ciphering mechanisms. More specifically, they are used in direct sequence spread spectrum transmission systems like UMTS or GPS, or to construct preamble sequences for synchronization and channel estimation purpose like in LTE. It is always required to synchronize the receiver with the transmitted sequence. The usual way consists in correlating the received signal with a replica of the sequence. If the correlation exceeds a predefined threshold, the synchronization is declared valid.This thesis addresses a different approach: the binary sequence is detected with a forward error correction decoding algorithm. This allows for instance to detect very long sequences.In this thesis, we show that decoding a pseudo-random sequence is a problematic of the kind ‘detect and decode'. The decoder detects the presence of the transmitted sequence and simultaneously estimates its initial state. In conventional detection theory, this corresponds to a GLRT detector that uses a decoder to estimate the unknown parameter which is the transmitted sequence. For pseudo-random sequences, the decoder implements an iterative message-passing algorithm. It uses a parity check matrix to define the decoding graph on which the algorithm applies. Each parity check equation has a weight t, corresponding to the number of variables in the equation.Parity check equations are thus an essential component of the decoder. The decoding procedure is known to be sensitive to the weight t of the parity check equations. For m-sequences, the number of parity check equations is already known. It is given by the number of codewords of weight t of the corresponding Hamming dual code. For Gold sequences, the number of parity check equations of weight t = 3 and 4 has already been evaluated by Kasami. In this thesis we provide an analytical expression for the number of parity check equations of weight t = 5 when the degree of the generator polynomial r is odd. Knowing this number is important because there is no parity check equation of weight t < 5 when r is odd. This enumeration is also used to provide an estimation of the least degree of parity check equations of weight t.We have then addressed the problem of selecting the parity check equations used by the decoder. We observed the probability of false alarm is very sensitive to this selection. It is explained by the presence or absence of absorbing sets which block the convergence of the decoder when it is fed only with noise. These sets are known to be responsible for error floor of LDPC codes. We give a method to identify these sets according to the parity check equations used by the decoder. The probability of false alarm can increase dramatically if these absorbing sets are destroyed. Then we propose an algorithm for selecting these parity check equations. It relies on the minimization of the number of cycles of length 6 and 8. Simulation show that the algorithm allows to improve significantly the probability of false alarm and the average acquisition time.Eventually, we propose 2 algorithms for the detection of the scrambling codes used in the uplink of UMTS-FDD and CDMA2000 systems. They highlights a new vulnerability of DSSS transmission systems. It is now conceivable to detect these transmission if the sequence's generator is known.
175

Dérivation de diagrammes de séquence UML compactes à partir de traces d’exécution en se basant des heuristiques

Aloulou, Houssem 07 1900 (has links)
No description available.
176

Spectroscopie 2D de corrélation quantitative : Méthode de quantification, études expérimentales et applications in vivo / 2D quantitative correlated spectroscopy : Quantification method, experimental studies and in vivo application

Martel, Dimitri 19 January 2015 (has links)
En spectroscopie de résonance magnétique (SRM) in vivo, les principales méthodes utilisées permettent la quantification des concentrations de métabolites en utilisant des signaux à une dimension spectrale. Les travaux réalisés dans le cadre de cette thèse portent sur le développement de méthodes de SRM à deux dimensions spectrales (SRM 2D) de corrélation localisée afin d’accroître le pouvoir de résolution spectrale et la précision de la quantification de la SRM in vivo. Le premier axe de cette thèse concerne le développement d’une méthode fondée sur la spectroscopie 2D de corrélation localisée pour l’exploration des métabolites cérébraux. La séquence L-COSY (spectroscopie de corrélation localisée) est implantée sur imageur petit animal et étudiée. Une procédure de quantification dédiée aux signaux de corrélation acquis est développée. Cette dernière opère dans le domaine d’acquisition du signal, et s’appuie sur : 1) une connaissance a priori forte obtenue par simulation de l’effet quantique des séquences sur les spins des composés présents dans le spectre 2) un modèle de pondération lié aux effets de relaxation agissant sur le signal de SRM 2D. 3) une contrainte sur la relaxation liée aux effets d’inhomogénéités supposés toucher tous les spins de la même manière. Les résultats présentés s’attachent à étudier les performances quantitatives de la SRM 2D de corrélation, en comparaison à la SRM 2D dite J-résolue (avec la séquence JPRESS), de manière expérimentale, sur fantômes de métabolites mais aussi à travers la théorie des bornes de Cramér-Rao (CRBs). La quantification des signaux L-COSY, bien que défavorisée par une perte théorique du rapport signal sur bruit par unité de temps, présente des CRBs théoriques relatives du même ordre de grandeurs voire, pour certains métabolites couplés (e.g la glutamine, le GABA) plus petites que celles correspondantes à la spectroscopie J-résolue pour un même temps d’acquisition. Le second axe de cette thèse porte sur l’adaptation la SRM 2D de corrélation pour l’étude in vivo du métabolisme lipidique du foie et des tissus adipeux sous-cutanés sur un modèle de souris obèse à 7T. Cette application inédite montre la faisabilité de la SRM 2D de corrélation à être acquise sur un tel organe mouvant et sa capacité à être quantitative pour l’étude et la caractérisation des triglycérides hépatiques et sous-cutanées. / In in vivo Magnetic Resonance Spectroscopy (MRS), the main methods used allow metabolite concentration quantification using signals having one spectral dimension. This work focuses on the development of in vivo two dimensional correlated MRS in order to increase spectral resolution and quantification precision. The first axis is about the development of a method based on a 2D localized correlation MRS (L-COSY) for brain metabolite exploration. The L-COSY is implemented and studied on a small animal scanner. A dedicated quantification procedure operating in the acquisition domain is described. This latter is based on 1) a strong prior knowledge obtained by quantum mechanically simulate the effect of sequence on metabolite spin systems 2) a model function taking into account the relaxation weighting 3) constraints on the relaxation term linked to the field inhomogeneity effects which are assumed to act the same way on all the spins. Results are given experimentally using metabolites phantoms and through a comparison to other existing 2D MRS method, namely the J-resolved MRS (with the JPRESS sequence) using the Cramer Rao Lower Bounds (CRBs) theory. Although its inherent loss of signal to noise ratio is a disadvantage compared to J-PRESS, L-COSY quantification shows theoretically competitive relative CRBs, and even smaller CRBs for some coupled metabolites (e.g Glutamine or GABA), for an acquisition time similar to JPRESS. Second axis is about the adaptation of the 2D correlation MRS for the in vivo lipid metabolism study in the liver and subcutaneous adipose tissues of obese mice at 7T. This application shows the feasibility of 2D correlated MRS to be acquired on a moving organ and its quantitative relevance for triglyceride quantification and characterization in fatty liver and subcutaneous tissue.
177

Sources of contrast and acquisition methods in functional MRI of the human brain

Denolin, Vincent 08 October 2002 (has links)
<p align="justify">L'Imagerie fonctionnelle par Résonance Magnétique (IRMf) a connu un développement important depuis sa découverte au début des années 1990. Basée le plus souvent sur l'effet BOLD (Blood Oxygenation Level Dependent), cette technique permet d'obtenir de façon totalement non-invasive des cartes d'activation cérébrale, avec de meilleures résolutions spatiale et temporelle que les méthodes préexistantes telles que la tomographie par émission de positrons (TEP). Facilement praticable au moyen des imageurs par RMN disponible dans les hôpitaux, elle a mené à de nombreuses applications dans le domaine des neurosciences et de l'étude des pathologies cérébrales.</p><p><p align="justify">Il est maintenant bien établi que l'effet BOLD est dû à une augmentation de l'oxygénation du sang veineux dans les régions du cerveau où se produit l'activation neuronale, impliquant une diminution de la différence de susceptibilité magnétique entre le sang et les tissus environnants (la déoxyhémoglobine étant paramagnétique et l'oxyhémoglobine diamagnétique), et par conséquent un augmentation du signal si la méthode d'acquisition est sensible aux inhomogénéités de champ magnétique. Cependant, il reste encore de nombreuses inconnues quant aux mécanismes liant les variations d'oxygénation, de flux et de volume sanguin à l'augmentation de signal observée, et la dépendance du phénomène en des paramètres tels que l'intensité du champ, la résolution spatiale, et le type de séquence de RMN utilisée. La première partie de la thèse est donc consacrée à l'étude de l'effet BOLD, dans le cas particulier des contributions dues aux veines de drainage dans les séquences de type écho de gradient rendues sensibles au mouvement par l'ajout de gradients de champ. Le modèle développé montre que, contrairement au comportement suggéré par de précédentes publications, l'effet de ces gradients n'est pas une diminution monotone de la différence de signal lorsque l'intensité des gradients augmente. D'importantes oscillations sont produites par l'effet de phase dû au déplacement des spins du sang dans les gradients additionnels, et par la variation de cette phase suite à l'augmentation du flux sanguin. La validation expérimentale du modèle est réalisée au moyen de la séquence PRESTO (Principles of Echo-Shifting combined with a Train of Observations), c'est-à-dire une séquence en écho de gradient où des gradients supplémentaires permettent d'augmenter la sensibilité aux inhomogénéités de champ, et donc à l'effet BOLD. Un accord qualitatif avec la théorie est établi en montrant que la variation de signal observée peut augmenter lorsqu'on intensifie les gradients additionnels.</p><p><p align="justify">Un autre source de débat continuel dans le domaine de l'IRMf réside dans l'optimalisation des méthodes d'acquisition, au point de vue notamment de leur sensibilité à l'effet BOLD, leurs résolutions spatiale et temporelle, leur sensibilité à divers artefacts tels que la perte de signal dans les zones présentant des inhomogénéités de champ à grande échelle, et la contamination des cartes d'activation par les contributions des grosses veines, qui peuvent être distantes du lieu d'activation réel. Les séquences en écho de spin sont connues pour être moins sensibles à ces deux derniers problèmes, c'est pourquoi la deuxième partie de la thèse est consacrée à une nouvelle technique permettant de donner une pondération T2 plutôt que T2* aux images. Le principe de base de la méthode n'est pas neuf, puisqu'il s'agit de la « Préparation T2 » (T2prep), qui consiste à atténuer l'aimantation longitudinale différemment selon la valeur du temps de relaxation T2, mais il n’avait jamais été appliqué à l’IRMf. Ses avantages par rapport à d’autres méthodes hybrides T2 et T2* sont principalement le gain en résolution temporelle et en dissipation d’énergie électromagnétique dans les tissus. Le contraste généré par ces séquences est étudié au moyen de solutions stationnaires des équations de Bloch. Des prédictions sont faites quant au contraste BOLD, sur base de ces solutions stationnaires et d’une description simplifiée de l’effet BOLD en termes de variations de T2 et T2*. Une méthode est proposée pour rendre le signal constant au travers du train d’impulsions en faisant varier l’angle de bascule d’une impulsion à l’autre, ce qui permet de diminuer le flou dans les images. Des expériences in vitro montrent un accord quantitatif excellent avec les prédictions théoriques quant à l’intensité des signaux mesurés, aussi bien dans le cas de l’angle constant que pour la série d’angles variables. Des expériences d’activation du cortex visuel démontrent la faisabilité de l’IRMf au moyen de séquences T2prep, et confirment les prédictions théoriques quant à la variation de signal causée par l’activation.</p><p><p align="justify"> La troisième partie de la thèse constitue la suite logique des deux premières, puisqu’elle est consacrée à une extension du principe de déplacement d’écho (echo-shifting) aux séquences en écho de spin à l’état stationnaire, ce qui permet d’obtenir une pondération T2 et T2* importante tout en maintenant un temps de répétition court, et donc une bonne résolution temporelle. Une analyse théorique approfondie de la formation du signal dans de telles séquences est présentée. Elle est basée en partie sur la technique de résolution des équations de Bloch utilisée dans la deuxième partie, qui consiste à calculer l’aimantation d’état stationnaire en fonction des angles de précession dans le plan transverse, puis à intégrer sur les isochromats pour obtenir le signal résultant d’un voxel (volume element). Le problème est aussi envisagé sous l’angle des « trajectoires de cohérence », c’est-à-dire la subdivision du signal en composantes plus ou moins déphasées, par l’effet combiné des impulsions RF, des gradients appliqués et des inhomogénéités du champ magnétique principal. Cette approche permet d’interpréter l’intensité du signal dans les séquences à écho déplacé comme le résultat d’interférences destructives entre diverses composantes physiquement interprétables. Elle permet de comprendre comment la variation de la phase de l’impulsion d’excitation (RF-spoiling) élimine ces interférences. Des expériences in vitro montrent un accord quantitatif excellent avec les calculs théoriques, et la faisabilité de la méthode in vivo est établie. Il n’est pas encore possible de conclure quant à l’applicabilité de la nouvelle méthode dans le cadre de l’IRMf, mais l’approche théorique proposée a en tout cas permis de revoir en profondeur les mécanismes de formation du signal pour l’ensemble des méthodes à écho déplacé, puisque le cas de l’écho de gradient s’avère complètement similaire au cas de l’écho de spin.</p><p><p align="justify">La thèse évolue donc progressivement de la modélisation de l’effet BOLD vers la conception de séquences, permettant ainsi d’aborder deux aspects fondamentaux de la physique de l’IRMf.</p><p> / Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished
178

Synthesis of sequence-controlled polymers by copolymerization of para-substituted styrenic derivatives and N-substituted maleimides / Synthèse de polymères à séquences contrôlées par la copolymérisation de dérivés styréniques para-substitués et de maléimides N-substitués

Srichan, Sansanee 04 February 2015 (has links)
Dans ce travail, les copolymérisations radicalaires contrôlées de monomères donneurs (dérivés du styrène) et accepteurs (maleimides N-substitués) ont été effectuées afin de préparer des polymères à séquences contrôlées. Ces macromolécules ont été préparées par polymérisation radicalaire contrôlée par la voie des nitroxides en utilisant le SG1 comme agent de contrôle. Des polymères ayant des microstructures bien définies ont été obtenus par le contrôle du temps de l’addition d’une petite quantité de monomère accepteur au cours de la polymérisation d’un large excès de monomère de type donneur. Dans cette thèse, des nouveaux dérivés styréniques para-substitués ont été sélectionnés afin de préparer une variété de polymères fonctionnels à séquences contrôlées. Par exemple, des polyélectrolytes à base de poly(4-hydroxystyrène)s et poly(vinyl benzyle amine)s ont été obtenus par polymérisation de dérivés protégés du styrène (4-tert-butoxystyrène, 4-acetoxystyrène et N-(p-vinyl benzyl)phthalimide) avec une quantité non-stœchiométrique de maleimides N-substitués. Par ailleurs, des polymères PEGylés biocompatibles et solubles dans l’eau ont également été étudiés. Des polymères à séquences contrôlées portant des fonctions alcynes protégées sur chaque unité de styrène ont été dans un premier temps synthétisés. La suppression de ces groupes protecteurs a permis le greffage du α-méthoxy-ω-azido-PEG sur les fonctions alcynes libres en employant la chimie click de type CuAAC. Finalement, des polymères semi-cristallins à séquences contrôlées ont été élaborés en utilisant le styrène d’octadécyle comme monomère donneur. Les propriétés thermiques de ces polymères ont été étudiées afin d’évaluer l’influence de la microstructure sur le comportement de leur cristallisation. / In this work, controlled radical copolymerizations of donor (styrenic derivatives) and acceptor monomers (N-substituted maleimides, MIs) have been investigated in order to synthesize sequence-controlled polymers. These macromolecules were prepared by nitroxide mediated polymerization using the nitroxide SG1 as a control agent. Polymers with defined microstructures were obtained by time-controlled addition of small amounts of acceptor monomers during the polymerization of a large excess of donor monomer. In this thesis, new styrenic derivatives have been studied in order to design sequence-controlled polymers with functional backbones. For example, sequence-controlled polyelectrolytes based on poly(4-hydroxystyrene)s and poly(vinyl benzyl amine)s were obtained through the polymerization of protected styrenic derivatives (i.e. 4-tert-butoxystyrene, 4-acetoxystyrene and N-(p-vinyl benzyl)phthalimide) with non-stoichiometric quantities of N-substituted maleimides. Furthermore, the preparation of PEGylated biocompatible water-soluble polymers was also investigated. Sequence-controlled polymers bearing protected alkyne functional groups on each styrene units were first synthesized followed by the removal of their protecting groups allowing the grafting of α-methoxy-ω-azido-PEG on free alkyne moieties via CuAAC mediated click reaction. Finally, sequence-controlled semi-crystalline polymers were synthesized using octadecylstyrene as a donor monomer. The thermal properties of these polymers were studied to evaluate the influence of polymer microstructure on crystallization behavior.
179

Résurrection du passé à l’aide de modèles hétérogènes d’évolution des séquences protéiques / Resurrecting the past through heterogeneous models of protein sequence evolution

Groussin, Mathieu 08 November 2013 (has links)
La reconstruction et la résurrection moléculaire de protéines ancestrales est au coeur de cette thèse. Alors que les données moléculaires fossiles sont quasi inexistantes, il est possible d'estimer quelles étaient les séquences ancestrales les plus probables le long d'un arbre phylogénétique décrivant les relations de parentés entre séquences actuelles. Avoir accès à ces séquences ancestrales permet alors de tester de nombreuses hypothèses biologiques, de la fonction des protéines ancestrales à l'adaptation des organismes à leur environnement. Cependant, ces inférences probabilistes de séquences ancestrales sont dépendantes de modèles de substitution fournissant les probabilités de changements entre acides aminés. Ces dernières années ont vu le développement de nouveaux modèles de substitutions d'acides aminés, permettant de mieux prendre en compte les phénomènes biologiques agissant sur l'évolution des séquences protéiques. Classiquement, les modèles supposent que le processus évolutif est à la fois le même pour tous les sites d'un alignement protéique et qu'il est resté constant au cours du temps lors de l'évolution des lignées. On parle alors de modèle homogène en temps et en sites. Les modèles récents, dits hétérogènes, ont alors permis de lever ces contraintes en permettant aux sites et/ou aux lignées d'évoluer selon différents processus. Durant cette thèse, de nouveaux modèles hétérogènes en temps et sites ont été développés en Maximum de Vraisemblance. Il a notamment été montré qu'ils permettent d'améliorer considérablement l'ajustement aux données et donc de mieux prendre en compte les phénomènes régissant l'évolution des séquences protéiques afin d'estimer de meilleurs séquences ancestrales. A l'aide de ces modèles et de reconstruction ou résurrection de protéines ancestrales en laboratoire, il a été montré que l'adaptation à la température est un déterminant majeur de la variation des taux évolutifs entre lignées d'Archées. De même, en appliquant ces modèles hétérogènes le long de l'arbre universel du vivant, il a été possible de mieux comprendre la nature du signal évolutif informant de manière non-parcimonieuse un ancêtre universel vivant à plus basse température que ses deux descendants, à savoir les ancêtres bactériens et archéens. Enfin, il a été montré que l'utilisation de tels modèles pouvait permettre d'améliorer la fonctionnalité des protéines ancestrales ressuscitées en laboratoire, ouvrant la voie à une meilleure compréhension des mécanismes évolutifs agissant sur les séquences biologiques / The molecular reconstruction and resurrection of ancestral proteins is the major issue tackled in this thesis manuscript. While fossil molecular data are almost nonexistent, phylogenetic methods allow to estimate what were the most likely ancestral protein sequences along a phylogenetic tree describing the relationships between extant sequences. With these ancestral sequences, several biological hypotheses can be tested, from the evolution of protein function to the inference of ancient environments in which the ancestors were adatapted. These probabilistic estimations of ancestral sequences depend on substitution models giving the different probabilities of substitution between all pairs of amino acids. Classicaly, substitution models assume in a simplistic way that the evolutionary process remains homogeneous (constant) among sites of the multiple sequence alignment or between lineages. During the last decade, several methodological improvements were realised, with the description of substitution models allowing to account for the heterogeneity of the process among sites and in time. During my thesis, I developed new heterogeneous substitution models in Maximum Likelihood that were proved to better fit the data than any other homogeneous or heterogeneous models. I also demonstrated their better performance regarding the accuracy of ancestral sequence reconstruction. With the use of these models to reconstruct or resurrect ancestral proteins, my coworkers and I showed the adapation to temperature is a major determinant of evolutionary rates in Archaea. Furthermore, we also deciphed the nature of the phylogenetic signal informing substitution models to infer a non-parsimonious scenario for the adaptation to temperature during early Life on Earth, with a non-hyperthermophilic last universal common ancestor living at lower temperatures than its two descendants. Finally, we showed that the use of heterogeneous models allow to improve the functionality of resurrected proteins, opening the way to a better understanding of evolutionary mechanisms acting on biological sequences
180

Filtrage de segments informatifs dans des vidéos / Informative segment filtering in video sequences

Guilmart, Christophe 20 December 2011 (has links)
Les travaux réalisés dans le cadre de cette thèse ont pour objectif d’extraire les différents segments informatifs au sein de séquences vidéo, plus particulièrement aériennes. L’interprétation manuelle de telles vidéos dans une optique de renseignement se heurte en effet au volume des données disponibles. Une assistance algorithmique fondée sur diverses modalités d’indexation est donc envisagée, dans l’objectif de repérer les "segments d’intérêt" et éviter un parcours intégral de la vidéo. Deux approches particulières ont été retenues et respectivement développées au sein de chaque partie. La partie 1 propose une utilisation des conditions de prise de vue (CPDV) comme modalités d’indexation. Une évaluation de la qualité image permet ainsi de filtrer les segments temporels de mauvaise qualité et donc inexploitables. La classification du mouvement image apparent directement lié au mouvement caméra, fournit une indexation de séquences vidéo en soulignant notamment les segments potentiels d’intérêt ou au contraire les segments difficiles présentant un mouvement très rapide ou oscillant. La partie 2 explore le contenu dynamique de la séquence vidéo, plus précisément la présence d’objets en mouvement. Une première approche locale en temps est présentée. Elle filtre les résultats d’une première classification par apprentissage supervisé en exploitant les informations de contexte, spatial puis sémantique. Différentes approches globales en temps sont par la suite explorées. De telles approches permettent de garantir la cohérence temporelle des résultats et réduire les fausses alarmes. / The objective of this thesis is to extract the informative temporal segments from video sequences, more particularly in aerial video. Manual interpretation of such videos for information gathering faces an ever growing volume of available data. We have thus considered an algorithmic assistance based on different modalities of indexation in order to locate "segments of interest" and avoid a complete visualization of the video. We have chosen two methods in particular and have respectively developed them in each part of this thesis. Part 1 describes how viewing conditions can be used as a method of indexation. The assessment of image quality enables to filter out the temporal segments for which the quality is low and which can thus not be exploited. The classification of global image motion, which is directly linked to camera motion, leads to a method of indexation for video sequences. Indeed, it emphasizes possible segments of interest or, conversely, difficult segments for which motion is very fast or oscillating. Part 2 focuses on the dynamic content of video sequences, especially the presence of moving objects. We first present a local (in time) approach. This approach refines the results obtained after a first classification by supervised learning by using contextual information, spatial then semantic information. We have then investigated several methods for moving object detection which are global in time. Such approaches aim to enforce the temporal consistency of the detected objects and to reduce false detections.

Page generated in 0.0892 seconds