• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 6
  • 4
  • 1
  • 1
  • 1
  • Tagged with
  • 21
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Technologie et Physique de Transistors Bipolaires à Hétérojonction Si/SiGeC Auto-alignés très Hautes Fréquences

Barbalat, Benoit 22 December 2006 (has links) (PDF)
Cette thèse a pour objet l'étude et la réalisation de transistors bipolaires à hétérojonction Si/SiGeC à très hautes performances pour les applications de télécommunications et de détection radar (> 50 GHz). Le premier chapitre rappelle la théorie du fonctionnement du transistor bipolaire, aussi bien en régime statique que dynamique. Nous présentons ensuite dans un second chapitre un historique des technologies de fabrication des TBH SiGe, spécifiquement dans un cadre de compatibilité BiCMOS, en expliquant les choix pris en faveur d'un auto-alignement complet et d'une épitaxie sélective de la base. Les résultats obtenus dans cette thèse sont comparés aux performances de l'état de l'art. Nous étudions ensuite l'optimisation classique du TBH, et nous démontrons comment, par différentes optimisations du profil vertical et des dimensions latérales du composant, nous avons pu augmenter les fréquences fT et fMAX de 200 GHz au début de la thèse jusqu'à environ 300 GHz. La possibilité d'optimiser la tenue en tension collecteur est démontrée par des procédés technologiques en rupture avec l'optimisation classique du transistor, tels que l'émetteur métallique, l'insertion de Ge dans l'émetteur et la recombinaison en base neutre. Des améliorations significatives de BVCEO ont pu être démontrées grâce à ces procédés, ce qui permet d'obtenir des produits fT × BVCEO à l'état de l'art (> 400 GHz.V). La dernière partie de la thèse vise à étudier le comportement du TBH en fonction de la température : Nous décrivons tout d'abord l'auto-échauffement du transistor, et son impact sur les performances dynamiques. Des variantes technologiques permettant de réduire l'auto-échauffement sont étudiées (profondeur des DTI et fragmentation de l'émetteur), et un modèle simple de calcul de RTh est développé. Nous terminons par l'étude du TBH aux températures cryogéniques. fT et fMAX étant fortement améliorées à basse température (plus de 400 GHz), nous en tirons, grâce à l'extraction des différents temps de transit, des perspectives intéressantes pour l'amélioration ultérieure du composant, avec pour objectif d'atteindre des fréquences de transition de l'ordre du THz.
12

Vliv provozních parametrů kotle na přítomnost jemných částic ve spalinách / Effect of operating parameters of the boiler on presence of fine particles in flue gas

Košťál, Jan January 2017 (has links)
This diploma thesis is devoted to the issues of the formation of fine particles in dependents on the combustion parameters. The first part of thesis is review, which summarized the information about combustion process and about formation of the gaseous products and fine particles inside them which created during combustion process. The main content of thesis is realization of measurements of fine particles from combustion, in several types of the tested combustion devices. Next part is a description of used measurement devices, which used for measurement. Last chapters are focused on evaluation of results from the measurements, comparison of the measurements between themselves and the finding the existence of the dependence of the formation of fine particles on operational parameters of boiler. And all results are evaluated in the conclusion.
13

SIMULATED AND EXPERIMENTAL SLIDING MODE CONTROL OF A HYDRAULIC POSITIONING SYSTEM

Wondimu, Nahom Abebe 18 May 2006 (has links)
No description available.
14

Equations aux dérivées partielles en finance : problèmes inverses et calibration de modèle.

Rouis, Moeiz 20 September 2007 (has links) (PDF)
Dans la premiere partie de cette these, on a etudie l'impact sur les prix d'options des erreurs d'estimation de volatilite. Dans les modeles de diffusion utilises ennance, un coefficient de diffusion fonctinnelle (:; :) modelise la volatilite d'un actif financier. Ce coefficient est estime a partir d'observations donc entache d'erreurs statistiques. L'objectif est de voir l'impact de ces erreurs sur le calcul de prix d'options, qui sont solutions d'EDP paraboliques dont l'estimateur (:; :) est le coefficient de diffusion. Cela debouche sur un probleme de passage a la limite (homogeneisation) dans des equations paraboliques a coefficients aleatoires. Dans ce travail on a obtenu des estimations de la vitesse de convergence locale sur la solution d'une EDP parabolique a coefficients aleatoire, lorsque le coefficient de diffusion est un champ aleatoire convergeant vers une fonction limite. Ce resultat permet d'etudier l'im- pact sur les prix d'options des erreurs d'estimation de volatilite dans differents cas degures. Cette methode est appliquee pour evaluer l'incertitude sur les options a barrieres dans un modele de diffusion lorsqu'on reconstitue la volatilite par la formule de Dupire a partir des donnees discretes sur les prix d'options. La deuxieme partie de cette these concerne l'etude de problemes inverses pour certaine classe d'equations d'evolution integro-differentielles survenant dans l'etude des modeles d'evaluation bases sur les processus de Levy. On a etudie une approche de ces problemes inverses par regularisation de Tikhonov. Cette approche permet de reconstruire de facon stable les parametres d'un modele markovien avec sauts a partir de l'observation d'un nombre ni d'options. Le chapitre 4 pose les bases theoriques de cette approche et propose une parametrisation des mesures de Levy par la racine carree de la densite, ce qui permet de ramener le probleme dans un cadre hilbertien. La regularisation de Tikhonov proposee consiste a minimiser l'ecart quadratique par rapport aux prix observ es plus une norme hilbertienne des parametres. Des resultats d'existence, de stabilite et de convergence de la solution du probleme regularise sont alors obtenus sous de hypotheses assez generales ; des hypotheses supplementaires (conditions de source) permettent d'obtenir une estimation de la vitesse de convergence. Le choix du parametre de regularisation, sujet delicat, fait l'objet d'une discussion detaillee. Le chapitre 5 propose un algorithme numerique pour le calcul de la solution du probleme regularise et l'etude du performance de cet algorithme dans differents modeles avec sauts. L'algorithme est base sur l'emploi d'un algorithme de gradient pour la minimisation de la fonctionnelle regularisee : le gradient est calcule en resolvant une equation integrodifferentielle avec terme source (equation adjointe). Ce travail generalise ceux de Lagnado&Osher, Crepey et Egger & Engl au cas des equations integrodifferentielles. Les tests numeriques montrent que cet algorithme permet de construire de facon stable un processus de Levy calibre a un ensemble de
15

Modélisation des pertes de rendement des cultures de blé dhiver au Grand-Duché de Luxembourg sur base de létude des surfaces photosynthétiquement actives./Yield loss modélisation of wheat based on photosynthetic active area studies.

Mackels, Christophe 06 April 2009 (has links)
Au Grand-Duché de Luxembourg, le développement de modèles opérationnels pour la prévision des rendements se heurte actuellement au problème de la non prise en compte de la diminution de la surface verte utile et de sa relation avec des processus biotiques et abiotiques incriminés en situation de production. Pourtant, il apparaît que lélaboration dun modèle reliant la perte de surface verte à la baisse de rayonnement absorbé est la façon la plus adéquate daméliorer les prévisions de perte de rendement aux champs. De nombreuses manières destimer les rendements existent et se basent sur différentes approches et méthodes. Lobjectif de ce travail est de proposer un modèle destimation des rendements basé sur létude de la dégradation de la surface verte foliaire du blé et du rayonnement intercepté par cette surface tout au long de sa dégradation. Lapproche envisagée consiste, dans un premier temps, à utiliser les deux principaux modèles existants qui décrivent linterception du rayonnement par les surfaces foliaires vertes avec des données issues dexpérimentations aux champs, au Grand-Duché de Luxembourg en 2006 et 2007. Différentes méthodes dobtention des principales données dentrée de ces modèles ont été comparées et leurs avantages ont été mis en évidence. Ces données sont le LAI (Leaf Area Index) et le pourcentage de surface foliaire verte. Un LAI de référence, obtenu à laide dune méthode danalyse dimages de feuilles a été validé et comparé à une méthode dobtention du LAI basée sur la mesure du rayonnement intercepté par le couvert ainsi quà une méthode fournissant la couverture verte du sol à partir dimages aériennes de courte distance. Il a été montré que le LAI issu de la mesure du rayonnement intercepté et la couverture verte du sol sont obtenus plus rapidement et pour de plus grandes surfaces, mais quils ne sont pas suffisamment corrélés au LAI de référence pour être utilisés afin dobtenir le LAI réel. Le pourcentage de la surface foliaire verte de référence a également été obtenu à laide de la méthode danalyse dimages de feuilles. La comparaison de celui-ci aux estimations visuelles du pourcentage de surface verte foliaire a montré que cette méthode est plus rapide, mais engendre une surestimation du pourcentage de surface foliaire verte. Une relation linéaire significative entre la couverture verte du sol par prise dimages aériennes et le pourcentage de surface foliaire verte a été obtenue. Une amélioration de la prise dimages aériennes de courte distance pourrait mener à une substitution du pourcentage de surface foliaire verte par la couverture verte du sol sur de grandes surfaces à lavenir. Les deux principaux modèles décrivant linterception du rayonnement par les surfaces foliaires vertes ont été utilisés avec le LAI et le pourcentage de surface foliaire verte de référence. Une simplification de ces modèles par lutilisation de la dernière ou des deux dernières strates foliaires à la place des trois dernières pour le pourcentage de surface verte a montré que la simplification ne menait pas à une amélioration des résultats dans la plupart des cas. Dautre part, une estimation des biais introduits en utilisant les pourcentages de surface verte issus de lestimation visuelle à la place des estimations par lanalyse dimages montre que lestimation visuelle introduit un biais allant jusquà 20%. La comparaison des deux modèles testés a mené à la sélection du modèle aux sorties fournissant la meilleure relation avec les rendements. Cest une relation linéaire simple entre les paramètres de la courbe décrivant lévolution des sorties du modèle dit du « calcul de la matière sèche » au cours de la saison de culture et le rendement qui a été retenue. Dans un deuxième temps, le modèle sélectionné a été utilisé avec des données issues dexpérimentations menées de lannée 2000 à 2005, afin dobtenir une relation linéaire plus stable entre les rendements et les sorties de ce modèle. La relation obtenue montre des résultats significatifs et expliquant plus de 66% des rendements si une variété au comportement atypique est exclue. Un effet significatif de lannée, du précédent et de la variété sur cette relation a été mis en évidence. Dans un troisième temps, laspect prédictif du modèle destimation des rendements basé sur la relation linéaire simple retenue a été étudié sur deux années de données extérieures aux années utilisées pour la construction de celui-ci. Les données dentrée nécessaires au fonctionnement du modèle ont dû être obtenues de manière prédictive, afin de réaliser des estimations du rendement à venir à partir de la floraison. Le modèle Proculture, basé sur la simulation de lévolution des symptômes de la septoriose, a permis dobtenir des estimations en prévision des pourcentages de surface verte, et le LAI a été considéré comme constant par variété dune année à lautre. Le modèle destimation utilisé a permis dobtenir des prévisions de rendement ~20% supérieures aux rendements réels./In the Grand Duchy of Luxembourg, the development of operational models for predicting yields currently runs against the failure to take into account the green leaf area decline and its relationship with biotic and non biotic processes involved in a situation of production. Yet it appears that the development of a model linking the loss of green leaf area to lower radiation absorbed is the most adequate to improve prediction of yield loss in the fields. Many ways to estimate yields exist and are based on different approaches and methods. The objective of this work is to propose a model for estimating yields based on the study of the green leaf area decline of wheat and radiation intercepted by this area throughout the season. The approach is, first, to use the two main existing models that describe the interception of radiation by green leaf area with data from experiments in the field, in the Grand Duchy of Luxembourg in 2006 and 2007. Different methods for obtaining key data entry of these models were compared and their benefits have been identified. These data are LAI (Leaf Area Index) and the percentage of green leaf area. The reference method, obtained using image analysis of leaves has been validated and compared to a method for obtaining LAI based on the measurement of radiation intercepted by the canopy as well as a method based on the green cover soil obtained from short distance aerial images. It was shown that the LAI obtained from the measurement of radiation intercepted and the green land cover obtained from short distance aerial images are obtained faster and for larger surfaces, but they are not sufficiently correlated with the LAI from the reference method to be used in place of reference LAI. The percentage of green leaf area of reference has also been obtained using the image analysis of leaves. Comparing it to visual estimates of the percentage of green leaf area has shown that this method is faster and creates an overestimation of the percentage of green leaf area. A significant linear relationship between green land cover from short distance aerial images analysis and the percentage of green leaf area was obtained. An improved short distance aerial image could lead to the substitution of the percentage of green leaf area by the green land cover over large areas in the future. The two main models describing the interception of radiation by green leaf area were used with the LAI and the percentage of green leaf area of reference. A simplification of these models by using only the upper leaf or the two last leaves to emerge in place of the last three leaves to emerge for the percentage of green area has shown that simplification did not lead to improved results in most cases. On the other hand, an estimate of bias using the percentage of green leaf area from the visual estimate in place of estimates by image analysis shows that visual estimate introduce an approximate bias of 20%. A comparison of the two models tested led to the selection of the model outputs providing the best relationship with yields. It is a simple linear relationship between parameters of the curve describing the evolution of model outputs socalled calculation of dry matter during the growing season and yield that was chosen. In a second time, the selected model was used with data from experiments conducted from 2000 to 2005 to obtain a more stable linear relationship between yields and output of the model. The relationship obtained shows significant results and explains over 66% yields if datas from an atypical variety are excluded. A significant effect of years, precedent and variety on this relationship was highlighted. In a third time, the predictive aspect of the model to estimate yields based on the simple linear relationship has been studied on two years of external data used for years to build it. The input data needed to run the model had to be obtained on a predictive way to make estimates of future performance from flowering. The model Proculture, based on the simulation of the progression of septoriose disease, allowed obtaining estimates in anticipation of the percentage of green area, and LAI was considered constant variety from one year to another. The estimation model used resulted in expected future performance ~ 20% higher than actual yields.
16

Contribution à l'étude du comportement mécanique et hydromécanique du béton / Contribution to the study of mechanical and hydro-mechanical behaviors of concrete

Tran The, Truyen 22 September 2009 (has links)
Ce travail comprend des études concernant lendommagement, la rupture et leurs influences sur la perméabilité du béton. Des analyses théoriques et expérimentales ont été présentées pour mettre en évidence le mécanisme dinitiation et de propagation des fissures dans le béton, ainsi que lévolution de la perméabilité de ce matériau sous laction dune charge et de la température. Une étude bibliographique est dabord réalisée. Elle constituera une base de connaissance bien utile pour les problèmes étudiés dans ce travail. Les comportements mécaniques, les modèles constitutifs du béton, notamment les modèles dendommagement et de rupture, ont été analysés en détail. Le modèle Mazars a été choisi comme le modèle de référence pour le développement de nos recherches. Lévolution de la perméabilité du béton en fonction des charges mécaniques appliquées ou de la température est également abordée dans cette étude bibliographique. Un programme dessai a été réalisé pour déterminer les paramètres de ruptures de bétons ordinaires couramment utilisés au Vietnam. Lénergie de rupture, le facteur dintensité de contrainte et la longueur caractéristique des zones de rupture ont été définis comme des fonctions de la résistance en compression et de la taille des éprouvettes dessai. Une loi deffet déchelle est aussi établie pour les différents types bétons analysés. Lapproche non-locale dans lintégration de la loi de comportement a été introduite dans le code aux éléments finis Lagamine, afin de tenir compte de la localisation de la déformation dans les zones endommagées du béton. Des exemples de simulations ont montré lavantage du modèle dendommagement non-local. Une analyse de sensibilité des résultats numériques avec les paramètres dendommagement est réalisée et permet de déterminer ces paramètres par calage pour les bétons testés. Les jeux de paramètres ainsi obtenus ont été validés par comparaison entre les réponses numériques et expérimentales sur des poutres simples en béton armé. Un deuxième programme dessai a également été effectué dans ce travail pour étudier lévolution de la perméabilité du béton sous laction de la charge mécanique et de la température. Les valeurs de la perméabilité à leau et au gaz sont mesurées simultanément et permettent dobtenir une comparaison relative. Ces résultats expérimentaux accompagnés dautres résultats expérimentaux de la littérature ont été pris comme base pour la proposition des modèles mécaniques, thermiques et thermo-mécaniques dévolution de la perméabilité du béton. Lévolution de la perméabilité est considérée non seulement comme une fonction de lendommagement diffus, mais aussi de lendommagement localisé. Afin de calculer les valeurs de la perméabilité du béton fissuré, la loi de Poiseuille a été utilisée. Une technique est alors proposée afin de pouvoir utiliser cette loi dans une approche continue. Cette loi pourrait alors être utilisée pour déterminer la perméabilité à travers un milieu fissuré. Les lois dévolution de la perméabilité proposées ont été implémentées dans le code Lagamine. Des exemples de simulation ont été réalisés pour calculer la perméabilité structurelle à travers des structures en béton dune part sous chargement et dautre part sous chargement et température simultanément / This work concerns the study of the damage, the fracture and their effects on the permeability values of concrete. Theoretical and experimental analysis have been represented to clarify the mechanism of crack initiation and crack propagation in concrete as well as the evolution of permeability values of this material under the action of mechanical load and temperature. A literature preview was carried out first to have a good background of considered problems in this work. Mechanical behaviors, constitutive models, especially damage and fracture models have been analyzed in detail. The Mazars damage model has been chosen as the base to develop further researches. The permeability of concrete was also mentioned in this study based on the published results in literature. An experimental program has been carried out to determine fracture parameters of ordinary concretes commonly used in Vietnam. Fracture energy, stress intensity factor and characteristic length of fracture process zones were represented as functions of compressive resistance and structural dimensions. The size effect law was also established for considered concretes. Nonlocal approach of integral formula was added in finite elements code Lagamine to take into account the strain localization in damaged zones of concrete. Some examples of simulation were realized to prove the advantages of nonlocal damage model. The dependence of numerical results on damage parameters was taken as a basis to carry out a calibrating process of these parameters for considered ordinary concretes. The obtained sets of damage parameters have been validated by a comparison of numerical responses beside experimental ones of simple reinforced concrete beams. A second experimental program was also realized in this work to study the evolution of permeability of concrete under the action of mechanical loading and temperature. The values of water and gas permeability are measured in the same time to have a relative comparison of these ones. These experimental results together with experimental results in literature were taken as a basis of the proposition of some mechanical, thermo-mechanical models of fluid permeability of concrete. The evolution of permeability was considered not only as a function of diffuse damage but also localized damage. In order to calculate permeability values of cracked concrete, the Poiseuille law has been used, a technique was then proposed to be able to use this law in a continuous approach that could have a good prediction of permeability through cracked media. The proposed laws of permeability were implanted in Lagaminde code. Some examples of simulation have been carried out to calculate the structural permeability through concrete structures under mechanical action and under thermo-mechanical action
17

Incorporating complex cells into neural networks for pattern classification

Bergstra, James 03 1900 (has links)
Dans le domaine des neurosciences computationnelles, l'hypothèse a été émise que le système visuel, depuis la rétine et jusqu'au cortex visuel primaire au moins, ajuste continuellement un modèle probabiliste avec des variables latentes, à son flux de perceptions. Ni le modèle exact, ni la méthode exacte utilisée pour l'ajustement ne sont connus, mais les algorithmes existants qui permettent l'ajustement de tels modèles ont besoin de faire une estimation conditionnelle des variables latentes. Cela nous peut nous aider à comprendre pourquoi le système visuel pourrait ajuster un tel modèle; si le modèle est approprié, ces estimé conditionnels peuvent aussi former une excellente représentation, qui permettent d'analyser le contenu sémantique des images perçues. Le travail présenté ici utilise la performance en classification d'images (discrimination entre des types d'objets communs) comme base pour comparer des modèles du système visuel, et des algorithmes pour ajuster ces modèles (vus comme des densités de probabilité) à des images. Cette thèse (a) montre que des modèles basés sur les cellules complexes de l'aire visuelle V1 généralisent mieux à partir d'exemples d'entraînement étiquetés que les réseaux de neurones conventionnels, dont les unités cachées sont plus semblables aux cellules simples de V1; (b) présente une nouvelle interprétation des modèles du système visuels basés sur des cellules complexes, comme distributions de probabilités, ainsi que de nouveaux algorithmes pour les ajuster à des données; et (c) montre que ces modèles forment des représentations qui sont meilleures pour la classification d'images, après avoir été entraînés comme des modèles de probabilités. Deux innovations techniques additionnelles, qui ont rendu ce travail possible, sont également décrites : un algorithme de recherche aléatoire pour sélectionner des hyper-paramètres, et un compilateur pour des expressions mathématiques matricielles, qui peut optimiser ces expressions pour processeur central (CPU) et graphique (GPU). / Computational neuroscientists have hypothesized that the visual system from the retina to at least primary visual cortex is continuously fitting a latent variable probability model to its stream of perceptions. It is not known exactly which probability model, nor exactly how the fitting takes place, but known algorithms for fitting such models require conditional estimates of the latent variables. This gives us a strong hint as to why the visual system might be fitting such a model; in the right kind of model those conditional estimates can also serve as excellent features for analyzing the semantic content of images perceived. The work presented here uses image classification performance (accurate discrimination between common classes of objects) as a basis for comparing visual system models, and algorithms for fitting those models as probability densities to images. This dissertation (a) finds that models based on visual area V1's complex cells generalize better from labeled training examples than conventional neural networks whose hidden units are more like V1's simple cells, (b) presents novel interpretations for complex-cell-based visual system models as probability distributions and novel algorithms for fitting them to data, and (c) demonstrates that these models form better features for image classification after they are first trained as probability models. Visual system models based on complex cells achieve some of the best results to date on the CIFAR-10 image classification benchmark, and samples from their probability distributions indicate that they have learnt to capture important aspects of natural images. Two auxiliary technical innovations that made this work possible are also described: a random search algorithm for selecting hyper-parameters, and an optimizing compiler for matrix-valued mathematical expressions which can target both CPU and GPU devices.
18

Parameter dependent design by finite dimensional LMI optimisation: application to the design of trade-off dependent controllers

Dinh, Marc 02 December 2005 (has links) (PDF)
Ce travail permet de résoudre des problemes d'optimisation LMI dependant rationnellement d'un ou plusieurs parametres. Ce resultat est fondamental car il ouvre une solution efficace a la classe extremement large des problemes se formulant comme un probleme d'optimisation LMI dependant de parametres. En Automatique, une telle classe de problemes comprend celle de la conception de cor- recteurs dependant de parametres. Un cas particulier important est celui de la commande des systµemes non lineaires par sequencement de gains. Au depart, cette classe de problemes d'Automatique a ete motive par une nouvelle application possible : la conception de correcteurs dont les gains sont une fonction explicite du cahier des charges, baptises " correcteurs rereglables ". L'interet est de permettre un rereglage aise sur site d'exploitation par un utilisateur neophyte en Automatique, voire un rereglage automatique. Ce travail a permis de formaliser ce problµeme de rereglage, d'en proposer une solution complete et de la valider.
19

Structural and parametric identification of bacterial regulatory networks / Identification structurelle et paramétrique des réseaux de régulation bactériens

Stefan, Diana 30 June 2014 (has links)
Les technologies expérimentales à haut débit produisent de grandes quantités de données sur les niveaux d'expression des gènes dans les bactéries à l'état d'équilibre ou lors des transitions de croissance.Un défi important dans l'interprétation biologique de ces données consiste à en déduire la topologie du réseau de régulation ainsi que les fonctions de régulation quantitatives des gènes.Un grand nombre de méthodes d'inférence a été proposé dans la littérature. Ces méthodes ont été utilisées avec succès dans une variété d'applications, bien que plusieurs problèmes persistent.Nous nous intéressons ici à l'amélioration de deux aspects des méthodes d'inférence.Premièrement, les données transcriptomiques reflètent l'abondance de l'ARNm, tandis que, le plus souvent, les composants régulateurs sont les protéines codées par les ARNm.Bien que les concentrations de l'ARNm et de protéines soient raisonnablement corrélées à l'état stationnaire, cette corrélation devient beaucoup moins évidente dans les données temporelles acquises lors des transitions de croissance à cause des demi-vies très différentes des protéines et des ARNm.Deuxièmement, la dynamique de l'expression génique n'est pas uniquement contrôlée par des facteurs de transcription et d'autres régulateurs spécifiques, mais aussi par des effets physiologiques globaux qui modifient l'activité de tous les gènes. Par exemple, les concentrations de l'ARN polymérase (libre) et les concentrations des ribosomes (libres) varient fortement avec le taux de croissance. Nous devons donc tenir compte de ces effets lors de la reconstruction d'un réseau de régulation à partir de données d'expression génique.Nous proposons ici une approche expérimentale et computationnelle combinée pour répondre à ces deux problèmes fondamentaux dans l'inférence de modèles quantitatifs de promoteurs bactériens à partir des données temporelles d'expression génique.Nous nous intéressons au cas où la dynamique de l'expression génique est mesurée in vivo et en temps réel par l'intermédiaire de gènes rapporteurs fluorescents. Notre approche d'inférence de réseaux de régulation tient compte des différences de demi-vie entre l'ARNm et les protéines et prend en compte les effets physiologiques globaux.Lorsque les demi-vies des protéines sont connues, les modèles expérimentaux utilisés pour dériver les activités des gènes à partir de données de fluorescence sont intégrés pour estimer les concentrations des protéines.L'état physiologique global de la cellule est estimé à partir de l'activité d'un promoteur de phage, dont l'expression n'est contrôlée par aucun des facteurs de transcription et ne dépend que de l'activité de la machinerie d'expression génique.Nous appliquons l'approche à un module central dans le réseau de régulation contrôlant la motilité et le système de chimiotactisme chez Escherichia coli.Ce module est composé des gènes FliA, FlgM et tar.FliA est un facteur sigma qui dirige l'ARN polymérase vers les opérons codant pour des composants de l'assemblage des flagelles.Le troisième composant du réseau, tar, code pour la protéine récepteur chimiotactique de l'aspartate, Tar, et est directement transcrit par FliA associé à l' holoenzyme ARN polymérase. Le module FliA-FlgM est particulièrement bien adapté pour l'étude des problèmes d'inférence considérés ici, puisque le réseau a été bien étudié et les démivies des protéines jouent un rôle important dans son fonctionnement.Nos résultats montrent que, pour la reconstruction fiable de réseaux de régulation transcriptionelle chez les bactéries, il est nécessaire d'inclure les effets globaux dans le modèle de réseau et d'en déduire de manière explicite les concentrations des protéines à partir des profils d'expression observés, car la demi-vie de l'ARNm et des protéines sont très différentes. Notre approche reste généralement applicable à une grande variété de problèmes d'inférence de réseaux et nous discutons les limites et les extensions possibles de la méthode. / High-throughput technologies yield large amounts of data about the steady-state levels and the dynamical changes of gene expression in bacteria. An important challenge for the biological interpretation of these data consists in deducing the topology of the underlying regulatory network as well as quantitative gene regulation functions from such data. A large number of inference methods have been proposed in the literature and have been successful in a variety of applications, although several problems remain. We focus here on improving two aspects of the inference methods. First, transcriptome data reflect the abundance of mRNA, whereas the components that regulate are most often the proteins coded by the mRNAs. Although the concentrations of mRNA and protein correlate reasonably during steady-state growth, this correlation becomes much more tenuous in time-series data acquired during growth transitions in bacteria because of the very different half-lives of proteins and mRNA. Second, the dynamics of gene expression is not only controlled by transcription factors and other specific regulators, but also by global physiological effects that modify the activity of all genes. For example, the concentrations of (free) RNA polymerase and the concentration of ribosomes vary strongly with growth rate. We therefore have to take into account such effects when trying to reconstruct a regulatory network from gene expression data. We propose here a combined experimental and computational approach to address these two fundamental problems in the inference of quantitative models of the activity of bacterial promoters from time-series gene expression data. We focus on the case where the dynamics of gene expression is measured in vivo and in real time by means of fluorescent reporter genes. Our network reconstruction approach accounts for the differences between mRNA and protein half-lives and takes into account global physiological effects. When the half-lives of the proteins are available, the measurement models used for deriving the activities of genes from fluorescence data are integrated to yield estimates of protein concentrations. The global physiological state of the cell is estimated from the activity of a phage promoter, whose expression is not controlled by any transcription factor and depends only on the activity of the transcriptional and translational machinery. We apply the approach to a central module in the regulatory network controlling motility and the chemotaxis system in Escherichia coli. This module comprises the FliA, FlgM and tar genes. FliA is a sigma factor that directs RNA polymerase to operons coding for components of the flagellar assembly. The effect of FliA is counteracted by the antisigma factor FlgM, itself transcribed by FliA. The third component of the network, tar, codes for the aspartate chemoreceptor protein Tar and is directly transcribed by the FliA-containing RNA polymerase holoenzyme. The FliA-FlgM module is particularly well-suited for studying the inference problems considered here, since the network has been well-studied and protein half-lives play an important role in its functioning. We stimulated the FliA-FlgM module in a variety of wild-type and mutant strains and different growth media. The measured transcriptional response of the genes was used to systematically test the information required for the reliable inference of the regulatory interactions and quantitative predictive models of gene regulation. Our results show that for the reliable reconstruction of transcriptional regulatory networks in bacteria it is necessary to include global effects into the network model and explicitly deduce protein concentrations from the observed expression profiles. Our approach should be generally applicable to a large variety of network inference problems and we discuss limitations and possible extensions of the method.
20

Etude du comportement mécanique à l’arrachement de fils multi-filamentaires enrobés dans une matrice cimentaire et influence de l’imprégnation / Study of the mechanical pull-out behaviour of multi-filament yarns embedded in a cementitious matrix and influence of the impregnation

Aljewifi, Hana 12 December 2011 (has links)
Cette recherche porte sur les fils multifilamentaires de verre utilisés pour renforcer les matériaux à base de ciment. Elle est focalisée sur les interactions mécaniques de ce type de fils, constitués d'un assemblage de milliers de filaments micrométriques, avec un micro-béton et sur le rôle spécifique de l'imprégnation du fil par cette matrice cimentaire. Trois pré-conditionnements des fils ont été employés lors de la fabrication des éprouvettes afin de moduler les conditions d'imprégnation par la matrice cimentaire. L'imprégnation de 5 fils multi-filamentaires par la matrice cimentaire a été caractérisée et les paramètres d'imprégnation ont été définis en s'appuyant sur des observations MEB, ainsi que des essais de porosimétrie au mercure et des essais spécifiques d'écoulement le long du fil enrobé. Des essais classiques d'arrachement de type pull-out ont été utilisés pour la caractérisation mécanique. L'analyse des liens entre les propriétés mécaniques et les paramètres d'imprégnation ont permis de mieux comprendre les micro-mécanismes d'interaction filaments / matrice cimentaire et d'expliquer le comportement macroscopique à l'arrachement. / This research deals with multi-filaments glass yarns used as reinforcement of cement based materials. It focuses on the mechanical interactions of these yarns, made of thousands of micrometric filaments, with a micro-concrete and on the specific part of the impregnation of the yarn by the cementitious matrix. Modulated impregnation conditions of the yarns were obtained by using three different manufacturing processes for the samples preparation. The impregnation of 5 multi-filament yarns by the cementitious matrix has been characterized and physical parameters of impregnation were determined using SEM investigations, mercury intrusion porosity measurements and specific tests of flow all along the embedded yarn. Classical pull-out tests have been used for the mechanical characterisation. The study of the links between the mechanical properties and the physical parameters of impregnation allowed accessing a better understanding of the filaments / cementitious matrix interaction micro-mechanisms, and explaining the macroscopic pull-out behaviour.

Page generated in 0.0614 seconds