• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 379
  • 93
  • 28
  • 8
  • 1
  • 1
  • 1
  • Tagged with
  • 523
  • 154
  • 144
  • 109
  • 44
  • 41
  • 34
  • 29
  • 27
  • 26
  • 26
  • 25
  • 24
  • 24
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
281

Modélisation hybride temporelle et analyse par contraintes des réseaux de régulation biologiques

Fromentin, Jonathan 24 November 2009 (has links) (PDF)
Les réseaux de régulation biologiques sont des systèmes complexes dans lesquels les entités biologiques interagissent entre elles, faisant ainsi émerger des comportements particuliers. Dans cette thèse, nous proposons une méthodologie générale afin de mieux comprendre les mécanismes en jeux dans ces réseaux de régulation et tout particulièrement dans ceux ayant un comportement oscillatoire. De façon générale, les différentes parties de cette méthodologie ont pour but, soit d'analyser des systèmes biologiques de plus en plus grands, soit de raffiner les analyses sur des modèles moins conséquents. Ces travaux utilisent les propriétés temporelles des modèles biologiques qui sont souvent abondantes mais encore relativement peu exploitées. Pour parvenir à intégrer les données temporelles, nous avons développé des modélisations hybrides qui combinent dans leurs comportements des aspects purement qualitatifs ainsi que des aspects continus (dans les notions temporelles quantitatives). La première partie de cette méthodologie générale consiste à utiliser une modélisation hybride nommée TEM (pour modélisation d'évolution temporelle) qui permet une pré-analyse du système biologique. L'avantage de cette modélisation est qu'elle utilise des paramètres qui sont très proches des données biologiques et qu'elle peut fournir des résultats d'intérêt à partir d'un nombre réduit d'hypothèses simples. Néanmoins, plus nous fournissons de données sur le modèle biologique dans l'approche TEM et plus les résultats obtenus sont précis. La seconde partie de notre méthodologie générale consiste à reprendre des modélisations existantes et couramment utilisées (la modélisation par équations différentielles par morceaux (PLDE) et la modélisation discrète de R. Thomas) et d'y ajouter de nouvelles méthodes conjointes. La première méthode permet d'obtenir l'ensemble des contraintes nécessaires et suffisantes pour le paramétrage d'un modèle d'après des spécifications. Ceci peut permettre de découvrir des caractéristiques communes à l'ensemble des paramétrages validant les spécifications du modèle mais également d'obtenir l'ensemble de ces paramétrages grâce à un solveur de contraintes. La seconde méthode permet de décomposer les dynamiques obtenues à partir du paramétrage d'un modèle. Cette méthode peut servir à mieux comprendre les dynamiques ainsi obtenues en sachant si un comportement correspond à un ensemble de sous-comportements et si oui lesquels. La méthode peut également servir à travailler sur un sous-ensemble de la dynamique en ne prenant en compte que les sous-comportements intéressants, par rapport à certaines préoccupations. Enfin, la dernière partie de cette thèse consiste en une modélisation nommée modélisation TDD (pour modélisation par décomposition des domaines temporels) et permettant de raffiner les analyses précédentes. Cette modélisation est basée sur la modélisation PLDE et la modélisation discrète de R. Thomas afin de profiter pleinement des méthodes que nous avons développées. En fait, cette modélisation, tout comme dans la première modélisation présentée dans cette thèse, est une modélisation hybride qui utilise également la notion de temps via des paramètres temporels.
282

Proposition de stratégies de commande pour la culture de microalgues dans un photobioréacteur continu

Becerra-Celis, Giuliana 07 April 2009 (has links) (PDF)
Cette thèse porte sur la commande d'un photobioréacteur continu pour la culture des microalgues. La modélisation du système et l'identification des paramètres du modèle ont été particulièrement abordées. Les paramètres cinétiques et de transfert de l'énergie lumineuse ont été obtenus à partir des données acquises le long de la phase exponentielle de la culture de Porphyridium purpureum en mode batch sous différentes conditions expérimentales dans un photobioréacteur de 2,5 litres. La concentration en biomasse est la quantité physique la plus importante à réguler. Puisque elle n'est pas toujours facile à mesurer en ligne, un capteur logiciel permettant d'estimer la quantité de biomasse produite à partir des mesures en ligne est proposé. Il s'agit d'un filtre de Kalman étendu (EKF) qui combine le modèle du système avec la mesure de la concentration du carbone inorganique total et d'autres variables physiques (pH, intensité lumineuse,...) afin d'estimer en ligne la concentration de la biomasse. Ce capteur logiciel a été validé expérimentalement en utilisant un nouveau photobioréacteur de 9,6 litres de type colonne à bulles, équipé de plusieurs dispositifs destinés à mettre en place un système de commande et de régulation, et de techniques de mesure permettant d'accéder à l'évolution des principales variables. Plusieurs démarches pour la commande de la culture de microalgues ont été également proposées : commande non-linéaire et linéaire, régulation par PID, commande par modèle générique GMC, commande linéarisante par retour d'état et commande prédictive non-linéaire. Ces différentes commandes ont été mises oeuvre en simulation ce qui nous a permis de choisir les stratégies les plus performantes et de les valider sur le photobioréacteur instrumenté.
283

Détection, identification et préconcentration de produits de dégradation d'agents de guerre chimique organophosphorés par couplage électrophorèse capillaire-spectrométrie de masse

Lagarrigue, Mélanie 05 October 2007 (has links) (PDF)
L'entrée en vigueur de la Convention d'Interdiction des Armes Chimiques depuis 1997 et l'augmentation de la menace terroriste nécessitent le développement de méthodes d'analyse permettant d'identifier des agents de guerre chimique. Le couplage électrophorèse capillaire-spectrométrie de masse (CE-MS) présente des propriétés intéressantes pour l'analyse de composés chargés ou très polaires tels que les produits de dégradation d'agents neurotoxiques (acides alkyl alkylphosphoniques spécifiques et acides alkylphosphoniques non-spécifiques). Le développement d'une méthode CE-MS pour l'analyse d'un mélange constitué d'acides alkyl alkylphosphoniques et alkylphosphoniques comportant des composés isomères, a permis d'évaluer la sélectivité et les capacités d'identification du couplage CE-MS. Les expériences CE-MS-MS se sont avérées particulièrement efficaces pour identifier des acides alkyl alkylphosphoniques isomères non séparés en CE, tandis que la séparation par CE est indispensable pour différencier des acides alkylphosphoniques isomères indiscernables en MS-MS. Deux méthodes de préconcentration électrophorétique en ligne ont ensuite été développées pour améliorer la sensibilité de détection. La préconcentration par amplification du champ électrique (FASS) a ainsi permis d'améliorer la sensibilité d'un facteur 10 dans des matrices environnementales de faible conductivité (eau potable et eau de rivière). Des limites de détection des acides alkyl alkylphosphoniques comprises entre 0,25 et 0,50 µg.mL-1 ont été atteintes. La préconcentration par isotachophorèse transitoire (tITP) a ensuite été développée pour améliorer la sensibilité de détection d'acides alkyl méthylphosphoniques contenus dans des matrices de forte conductivité (extrait de sol et urine de rat) en CE-MS. La méthode tITP-CZE-MS a ainsi permis d'améliorer la sensibilité d'un facteur 40 environ et d'atteindre des limites de détection des acides alkyl méthylphosphoniques contenus dans un extrait de sol et de l'urine de rat comprises entre 9 et 220 ng.mL-1.
284

L'imagerie échographique ultrarapide et son application à l'étude de la viscoelasticité du corps humain

Bercoff, Jeremy 12 1900 (has links) (PDF)
Augmenter la cadence d'image des échographes est un des enjeux majeurs de l'imagerie ultrasonore. Il y a, en effet, avec l'avènement de l'échographie tridimensionnelle, un réel besoin d'accélérer l'acquisition des signaux ultrasonores tout en gardant une très bonne qualité d'image. Les échographes à haute cadence pourraient également imager des mouvements tissulaires très rapides, aujourd'hui indétectables, et offrir de nouvelles perspectives au diagnostic médical.En se basant sur un échographe complètement programmable développé au laboratoire Ondes et Acoustique, ce travail de thèse explore les potentialités d'une imagerie ultrarapide et en particulier son application à l'étude des propriétés viscoélastiques des tissus biologiques.Dans une première partie, nous explorons les méthodes pour parvenir à une imagerie ultrarapide (200 à 10000 Hz) et leurs conséquences sur la qualité de l'image échographique. Ces cadences sont ensuite utilisées pour imager la propagation d'ondes de cisaillement impulsionnelles dans les tissus mous. Sensibles aux propriétés viscoélastiques des tissus, ces ondes peuvent être d'un grand intérêt pour la détection et le diagnostic de pathologies telles que le cancer du sein. La génération de ces ondes dans le corps est faite à distance par une source mécanique mobile crée par force de radiation et se déplaçant à une vitesse supersonique. Cette nouvelle technique de diagnostic, baptisée "Supersonic Shear Imaging" a été validé in vitro et in vivo. Elle devrait fournir au médecin une cartographie quantitative des paramètres élastiques et visqueux du corps humain.
285

Modélisation et analyse, globale et locale, de réseaux d'interactions biologiques hétérogènes (RIBH) appliqué à la Levure.

Smidtas, Serge 15 November 2007 (has links) (PDF)
Le travail présenté s'articule autour de l'étude in silico des réseaux biologiques en abordant aussi bien les aspects d'intégration, de formalisation et de modélisation des réseaux et sous-réseaux biologiques. Dans ce contexte, les travaux ont porté dans un premier temps, sur le développement d'un outil d'intégration Cyclone à même d'assurer un accès et une exploitation simplifiés des données présentes dans la base de données BioCyc puis, dans un second temps, sur le développement d'un cadre de modélisation des graphes particulièrement adapté à l'étude de réseaux d'interactions hétérogènes, MIB (pour Modèle d'Interaction Biologique). Enfin, ces développements ont été mis à profit afin d'une part, de caractériser et d'étudier la présence et le mode de connexion de sous-réseaux ou motifs à l'intérieur de réseaux plus vastes et d'autre part, d'étudier et de modéliser la voie métabolique du galactose chez la levure Saccharomyces cerevisiae en tant que boucle de rétroaction impliquant régulation transcriptionnelle et interaction protéine-protéine.
286

Treillis de Galois pour les contextes multi-valués flous. Application à l'étude des traits de vie en hydrobiologie.

Bertaux, Aurélie 01 October 2010 (has links) (PDF)
Cette thèse en informatique se place dans le cadre de l'Analyse de Concepts Formels (ACF) ou les treillis de Galois. Ce sont des outils basés sur des opérateurs mathématiques appelés fermetures de Galois permettant de calculer des concepts. Un concept est formé d'un ensemble d'objets partageant tous un ensemble d'attributs communs. Ces concepts sont extraits à partir d'un contexte qui est une table de relation binaire entre ces objets et ces attributs. Nous nous intéressons à des contextes complexes dont la complexité repose sur deux axes. D'une part, les contextes multi-valués dont les attributs se divisent en plusieurs modalités. D'autre part, les contextes flous dont la relation entre objets et attributs n'est pas binaire. Nous définissons les contextes multi-valués flous qui héritent de ces deux complexités et présentons deux conversions des données multi-valuées floues. La première conversion est une binarisation par une disjonction totale des attributs permettant d'une part l'exploitation d'outils comme des implications et d'autre part de comparer et combiner les treillis avec des méthodes statistiques telles que l'analyse factorielle. La seconde conversion est issue de l'échelonnage histogramme que nous définissons et qui permet de convertir les attributs en histogrammes. Afin de générer les concepts à partir des histogrammes, nous proposons une nouvelle fermeture de Galois basée sur une mesure de similarité entre ces histogrammes. Cette fermeture permet d'obtenir des concepts pour lesquels les objets possèdent des attributs non plus égaux mais similaires compris entre un minimum et un maximum communs. Nous proposons également des mesures de seuillage pour limiter le nombre de concepts générés et diminuer les temps de calculs. Enfin, deux algorithmes ont été testés pour implémenter cette fermeture : MinMaxNC et MinMaxC, dont nous comparons les performances. Cette thèse trouve son application notamment dans le domaine hydrobiologique dont une problématique est la sélection de traits écologiques de taxons permettant de caractériser l'état écologique des cours d'eau par le comportement des espèces au sein de leur environnement. La sélection de ces traits s'appuie sur la recherche de groupes de taxons possédant des caractéristiques morphologiques et physiologiques (appelés traits biologiques) communes. Ces groupes correspondent à des concepts au sens de l'ACF et les données biologiques se présentent sous la forme d'un contexte multi-valué flou pour lequel nous montrons l'efficacité de notre approche.
287

Écologie de Sericostachys scandens, liane envahissante dans les forêts de montagne du Parc National de Kahuzi-Biega, République Démocratique du Congo

MASUMBUKO, Céphas Ndabaga 24 February 2011 (has links)
Le Parc National de Kahuzi-Biega (PNKB) se localise dans l’Est de la R.D. Congo, à une trentaine des kilomètres au Nord de la ville de Bukavu, (province du Sud-Kivu). Ce parc couvre une superficie de 6.000 km² dont 5.400 km² situés en basse altitude (600-1200 m d’altitude) et 600 km² constituent le secteur de haute altitude occupée par les forêts de montagne (1800-3308 m). Depuis environ une décennie, la liane indigène Sericostachys scandens Gilg & Lopr. (Amarantaceae) se répand rapidement dans les forêts de montagne au PNKB. L’extension de cette liane, et ses conséquences supposées sur la biodiversité et la régénération de la forêt inquiètent les gestionnaires du Parc. Le travail a examiné trois aspects de l’écologie de l’invasion par S. scandens dans le Parc. Premièrement, on a examiné les traits fonctionnels susceptibles d’expliquer une aptitude élevée à l’invasion chez S. scandens. Une approche comparative avec trois espèces de lianes non envahissantes coexistant dans le même habitat montre que S. scandens présente une allocation de biomasse aux diaspores significativement plus élevée. En plus, elle combine une reproduction sexuée intense et une capacité de reproduction végétative. Cette liane se distingue également des trois autres par un taux de ramification plus élevé. Par contre, les traits foliaires ne sont pas systématiquement différents. De même, le taux de germination des graines de S. scandens ne diffère pas significativement de ceux des autres lianes étudiées. Cependant, il est significativement plus élevé en canopée ouverte qu’en canopée fermée, et en forêt ombrophile qu’en forêt de bambous. L’ensemble des traits qui caractérisent S. scandens peut contribuer à expliquer sa plus grande capacité d’invasion, comparativement aux trois autres lianes. Deuxièmement, on a examiné les attributs des écosystèmes susceptibles de les rendre vulnérables à l’invasion. Les résultats suggèrent que les perturbations favorisent les invasions dans les écosystèmes. Les perturbations (coupes, feu, …) qui ont accompagné les conflits dans la zone du Parc sont, très probablement, le facteur ayant déclenché l’invasion. Enfin, le travail a examiné les impacts de l’invasion sur la biodiversité et la régénération des forêts. Les résultats montrent que, effectivement, S. scandens a un impact négatif, et que cet impact pourrait contribuer à renforcer le succès invasif de S. scandens (feed-back positif). Le travail aboutit à des recommandations pour la gestion du Parc. La gestion doit avant tout être préventive, c’est-à-dire i) empêcher de nouveaux déboisements et ii) éliminer S. scandens au tout début de son installation dans un site perturbé.
288

IRM moleculaire a base de xenon hyperpolarise par laser

Tassali, Nawal 08 November 2012 (has links) (PDF)
L'imagerie par résonance magnétique (IRM) est une technique médicale incontournable permettant d'observer l'intérieur du corps de façon non invasive et non irradiante. L'IRM reste cependant connue pour souffrir d'une très faible sensibilité. Pour pallier cette limitation, une solution de choix est d'utiliser des espèces hyperpolarisées. Parmi les entités dont on peut augmenter la polarisation nucléaire et donc le signal RMN de plusieurs ordres de grandeur, le xénon se distingue par sa capacité à interagir avec son environnement proche, ce qui se traduit par une large gamme de déplacement chimique. L'objectif devient alors d'utiliser le xénon hyperpolarisé comme traceur. Le sujet de cette thèse porte sur le concept de sonde IRM 129Xe hyperpolarisé par laser pour la détection d'évènements biologiques. Dans cette approche, le xénon est vectorisé vers des cibles au moyen de systèmes hôtes fonctionnalisés puis détecté grâce à des séquences d'imagerie rapide. La conception et la mise au point d'un montage permettant la production de xénon hyperpolarisé par pompage optique par échange de spin sont décrites. Sont ensuite développées des études sur l'interaction du gaz rare avec de nouveaux cryptophanes susceptibles de constituer des molécules hôtes performantes. La mise en place de séquences IRM adaptées au caractère transitoire de l'hyperpolarisation et permettant l'utilisation optimale de l'échange du xénon dans les différents environnements est présentée. Des applications de biosondes IRM 129Xe pour la détection de cations métalliques et de récepteurs de surface cellulaire sont également décrites. Enfin, nos premiers résultats sur un modèle petit animal sont abordés.
289

Combinaison de modèles phylogénétiques et longitudinaux pour l'analyse des séquences biologiques : reconstruction de HMM profils ancestraux

Domelevo Entfellner, Jean-Baka 15 December 2011 (has links) (PDF)
La modélisation statistique de séquences homologues par HMM profils laisse de côté l'information phylogénétique reliant les séquences. Nous proposons ici des modèles combinant efficacement analyse longitudinale (séquences protéiques vues comme des enchaînements d'acides aminés) et verticale (séquences vues comme étant le produit d'une évolution le long des branches d'un arbre phylogénétique). De tels modèles appartiennent à la famille des phylo-HMM, introduite dans le courant des années 1990 (Mitchison& Durbin). Notre objectif étant la détection d'homologues distants dans les bases de données, nous décrivons une méthodologie de dérivation complète des paramètres des phylo-HMM profils basée sur la phylogénie: les modèles que nous proposons sont des HMM de reconstruction ancestrale,issus d'un processus d'inférence phylogénétique des positions conservées, des probabilités d'émission de caractères sur les états Match et Insertion, ainsi que des probabilités de transition entre états du HMM. Nous suggérons notamment une nouvelle modélisation pour l'évolution des transitions entre états du HMM, ainsi qu'un modèle de type Ornstein-Uhlenbeck pour l'évolution des longueurs des insertions. Contraintes évolutives et contraintes longitudinales sont ainsi simultanément prises en compte. Le processus d'apprentissage développé a été implémenté et testé sur une base de données de familles de séquences homologues,mettant en évidence des gains à la fois en termes de vraisemblance accrue des homologues distants et en termes de performance lorsqu'il s'agit de détecter ceux-ci dans les grandes bases de données protéiques
290

Models and algorithms for metabolic networks: elementary modes and precursor sets

Acuña, Vicente 04 June 2010 (has links) (PDF)
In this PhD, we present some algorithms and complexity results for two general problems that arise in the analysis of a metabolic network: the search for elementary modes of a network and the search for minimal precursors sets. Elementary modes is a common tool in the study of the cellular characteristic of a metabolic network. An elementary mode can be seen as a minimal set of reactions that can work in steady state independently of the rest of the network. It has therefore served as a mathematical model for the possible metabolic pathways of a cell. Their computation is not trivial and poses computational challenges. We show that some problems, like checking consistency of a network, finding one elementary mode or checking that a set of reactions constitutes a cut are easy problems, giving polynomial algorithms based on LP formulations. We also prove the hardness of central problems like finding a minimum size elementary mode, finding an elementary mode containing two given reactions, counting the number of elementary modes or finding a minimum reaction cut. On the enumeration problem, we show that enumerating all reactions containing one given reaction cannot be done in polynomial total time unless P=NP. This result provides some idea about the complexity of enumerating all the elementary modes. The search for precursor sets is motivated by discovering which external metabolites are sufficient to allow the production of a given set of target metabolites. In contrast with previous proposals, we present a new approach which is the first to formally consider the use of cycles in the way to produce the target. We present a polynomial algorithm to decide whether a set is a precursor set of a given target. We also show that, given a target set, finding a minimal precursor set is easy but finding a precursor set of minimum size is NP-hard. We further show that finding a solution with minimum size internal supply is NP-hard. We give a simple characterisation of precursors sets by the existence of hyperpaths between the solutions and the target. If we consider the enumeration of all the minimal precursor sets of a given target, we find that this problem cannot be solved in polynomial total time unless P=NP. Despite this result, we present two algorithms that have good performance for medium-size networks.

Page generated in 0.0819 seconds