• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 482
  • 201
  • 43
  • 2
  • Tagged with
  • 723
  • 723
  • 334
  • 329
  • 196
  • 174
  • 144
  • 126
  • 114
  • 113
  • 105
  • 88
  • 83
  • 67
  • 67
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
581

Modeling, Identification and Control of a Guided Projectile in a Wind Tunnel / Modélisation, identification et commande d'un projectile guidé en soufflerie

Strub, Guillaume 20 July 2016 (has links)
Cette thèse présente une méthodologie de conception et d’évaluation de lois de commande pour projectiles guidés, au moyen d’un prototype placé dans une soufflerie via un support autorisant plusieurs degrés de liberté en rotation. Ce dispositif procure un environnement permettant à la fois de caractériser expérimentalement le comportement de la munition et d’évaluer les performances des lois de commande dans des conditions réalistes, et est mis en œuvre pour l’étude d’autopilotes de tangage et de lacet, à vitesse fixe et à vitesse variable, pour un prototype de projectile empenné piloté par canards. La modélisation d’un tel système aboutit à un modèle non-linéaire dépendant de nombreuses conditions de vol telles que la vitesse et des angles d’incidence. Les méthodes de séquencement de gain basées sur des linéarisations d’un modèle non-linéaire sont couramment employées dans l’industrie pour la commande de ce type de systèmes. A cette fin, le système est représenté au moyen d’une famille de modèles linéaires dont les paramètres sont directement estimés à partir de données recueillies sur le dispositif expérimental. L’observation du comportement à différents points de vol permet de considérer la vitesse de l’air comme unique variable de séquencement. La synthèse des différents contrôleurs est réalisée au moyen d’une méthode H∞ multi-objectifs à ordre et structure fixes, afin de garantir la stabilité et la robustesse du système vis-à-vis d’incertitudes liées à la variation du point de fonctionnement. Ces lois de commande sont alors validées au moyen d’analyses de robustesse, puis par leur implémentation sur le dispositif expérimental. Les résultats obtenus lors d’essais en soufflerie correspondent aux simulations numériques et sont conformes aux spécifications attendues. / This work presents a novel methodology for flight control law design and evaluation, using a functional prototype installed in a wind tunnel by the means of a support structure allowing multiple rotational degrees of freedom. This setup provides an environment allowing experimental characterization of the munition’s behavior, as well as for flight control law evaluation in realistic conditions. The design and validation of pitch and yaw autopilots for a fin-stabilized, canard-guided projectile is investigated, at fixed and variable airspeeds. Modeling such a system leads to a nonlinear model depending on numerous flight conditions such as the airspeed and incidence angles. Linearization-based gain scheduling techniques are widely employed in the industry for controlling this class of systems. To this end, the system is represented with a family of linear models whose parameters are directly estimated from experimentally collected data. Observation of the projectile’s behavior for different operating points indicates the airspeed can be considered as the only scheduling variable. Controller synthesis is performed using a multi-objective, fixed-order, fixed-structure H∞ technique in order to guarantee the stability and robustness of the closed-loop against operating point uncertainty. The obtained control laws are validated with robustness analysis techniques and are then implemented on the experimental setup, where wind-tunnel tests results correlate with numerical simulations and conform to the design specifications.
582

Modélisation et analyse de systèmes stochastiques et temps réel / Modeling and Analysis of Stochastic Real-Time Systems

Mediouni, Braham Lotfi 28 June 2019 (has links)
Dans cette thèse, nous abordons le problème de la modélisation et de la vérification de systèmes complexes présentant des comportements à la fois probabilistes et temporisés. La conception de tels systèmes est devenue de plus en plus complexe en raison de l’hétérogénéité des composants impliqués, l’incertitude découlant d’un environnement ouvert et les contraintes temps réelinhérentes à leurs domaines d’application. La gestion à la fois du logiciel et du matériel dans une vue unifiée tout en incluant des informations sur les performances (par exemple, temps de calcul et de communication, consommation d’énergie, etc.) devient indispensable. Construire et analyser des modèles de performance est d’une importance primordiale pour donner des garanties sur les exigences fonctionnelles et extra-fonctionnelles des systèmes, et permettre uneprise de décision fondée sur des mesures quantitatives dès les premières étapes de la conception.Cette thèse apporte plusieurs nouvelles contributions. Tout d’abord, nous introduisons un nouveau formalisme de modélisation appelé BIP stochastique et temps réel (SRT-BIP) pour la modélisation, la simulation et la génération de code de systèmes à base de composants. Ce formalisme hérite du framework BIP ses capacités de modélisation basées sur les composants et le temps réel et, en outre, il fournit des primitives pour exprimer des comportements stochastiquescomplexes.Deuxièmement, nous étudions des techniques d’apprentissage automatique pour faciliter la construction de modèles de performance. Nous proposons d’améliorer et d’adapter une procédure d’apprentissage présentée dans la littérature pour déduire des modèles stochastiques et temporisés à partir d’exécutions concrètes du système, et de les exprimer dans le formalisme SRT-BIP.Troisièmement, étant donné les modèles de performance dans SRT-BIP, nous explorons l’utilisation du model checking statistique (SMC) pour l’analyse d’exigences concernant la fonctionnalité et les performances du système. Pour ce faire, nous fournissons un framework complet, appelé SBIP, en tant qu’outil de support pour la modélisation, la simulation et l’analyse des systèmes SRT-BIP. SBIP est un environnement de développement intégré (IDE) qui implémente des algorithmes SMC pour des analyses quantitatives, qualitatives et d’événementsrares, en plus d’une procédure d’automatisation pour l’exploration des paramètres d’une propriété. Nous validons nos propositions sur des études de cas réels touchant à des domaines variés tels que les protocoles de communication, les systèmes concurrents et les systèmesembarqués.Enfin, nous étudions plus en détail l’intérêt du SMC lorsqu’il est inclus dans des méthodes d’analyse de système élaborées. Nous illustrons cela en proposant deux approches d’évaluation des risques. Dans la première approche, nous introduisons une méthodologie en spirale pour modéliser des systèmes résilients avec des composants FDIR que nous validons à travers l’évaluation de la sécurité du système de locomotion d’un rover d’exploration planétaire. La deuxième approche concerne l’évaluation des politiques de sécurité des organisations selon une approche de sécurité offensive. L’objectif est de synthétiser des configurations de défense efficaces contre des stratégies d’attaque optimisées (qui minimisent le coût d’attaque et maximisent la probabilité de succès). Ces stratégies d’attaque sont obtenues en combinant l’apprentissage de modèles et les méthodes méta-heuristiques, dans lesquels le SMC a le rôle principal d’évaluer et de prioriser les potentielles stratégies candidates. / In this thesis, we address the problem of modeling and verification of complex systems exhibiting both probabilistic and timed behaviors. Designing such systems has become increasingly complex due to the heterogeneity of the involved components, the uncertainty resulting from open environment and the real-time constraints inherent to their application domains. Handling both software and (abstraction of) hardware in a unified view while also including performanceinformation (e.g. computation and communication times, energy consumption, etc.) becomes a must. Building and analyzing performance models is of paramount importance in order to give guarantees on the functional and extra-functional system requirements and to make well-founded design decisions based on quantitative measures at early design stages.This thesis brings several new contributions. First, we introduce a new modeling formalism called Stochastic Real-Time BIP (SRT-BIP) for the modeling, the simulation and the code generation of component-based systems. This formalism inherits from the BIP framework its component-based and real-time modeling capabilities and, extends it by providing comprehensive primitives to express complex stochastic behaviors.Second, we investigate machine learning techniques to ease the construction of performance models. We propose to enhance and adapt a state-of-the-art learning procedure to infer stochastic real-time models from concrete system execution and to represent them in the SRT-BIP formalism.Third, given performance models in SRT-BIP, we explore the use of statistical Model Checking (SMC) for the anaysis of system’s functional and performance requirements. To do so, we provide a full framework, called SBIP, as a support tool for the modeling, simulation and analysis of SRT-BIP systems. SBIP is an Integrated Development Environment (IDE) that implements SMC algorithms for quantitative, qualitative and rare events analyses together with an automated exploring procedure for parameterized requirements. We validate our proposalson real-life case studies ranging from communication protocols and concurrent systems to embedded systems.Finally, we further investigate the interest of SMC when included in elaborated system analysis workflows. We illustrate this by proposing two risk assessment approaches. In the first approach, we introduce a spiral methodology to build resilient systems with FDIR components that we validate on the safety assessment of a planetary rover locomotion system. The second approach is concerned with the security assessment of organization’s defenses following an offensive security approach. The goal is to synthesize impactful defense configurations against optimized attack strategies (that minimize attack cost and maximize success probability). These attack strategies are obtained by combining model learning with meta heuristics, and where SMC is used to score and prioritize potential candidate strategies.
583

Echantillonage d'importance des sources de lumières réalistes / Importance Sampling of Realistic Light Sources

Lu, Heqi 27 February 2014 (has links)
On peut atteindre des images réalistes par la simulation du transport lumineuse avec des méthodes de Monte-Carlo. La possibilité d’utiliser des sources de lumière réalistes pour synthétiser les images contribue grandement à leur réalisme physique. Parmi les modèles existants, ceux basés sur des cartes d’environnement ou des champs lumineuse sont attrayants en raison de leur capacité à capter fidèlement les effets de champs lointain et de champs proche, aussi bien que leur possibilité d’être acquis directement. Parce que ces sources lumineuses acquises ont des fréquences arbitraires et sont éventuellement de grande dimension (4D), leur utilisation pour un rendu réaliste conduit à des problèmes de performance.Dans ce manuscrit, je me concentre sur la façon d’équilibrer la précision de la représentation et de l’efficacité de la simulation. Mon travail repose sur la génération des échantillons de haute qualité à partir des sources de lumière par des estimateurs de Monte-Carlo non-biaisés. Dans ce manuscrit, nous présentons trois nouvelles méthodes.La première consiste à générer des échantillons de haute qualité de manière efficace à partir de cartes d’environnement dynamiques (i.e. qui changent au cours du temps). Nous y parvenons en adoptant une approche GPU qui génère des échantillons de lumière grâce à une approximation du facteur de forme et qui combine ces échantillons avec ceux issus de la BRDF pour chaque pixel d’une image. Notre méthode est précise et efficace. En effet, avec seulement 256 échantillons par pixel, nous obtenons des résultats de haute qualité en temps réel pour une résolution de 1024 × 768. La seconde est une stratégie d’échantillonnage adaptatif pour des sources représente comme un "light field". Nous générons des échantillons de haute qualité de manière efficace en limitant de manière conservative la zone d’échantillonnage sans réduire la précision. Avec une mise en oeuvre sur GPU et sans aucun calcul de visibilité, nous obtenons des résultats de haute qualité avec 200 échantillons pour chaque pixel, en temps réel et pour une résolution de 1024×768. Le rendu est encore être interactif, tant que la visibilité est calculée en utilisant notre nouvelle technique de carte d’ombre (shadow map). Nous proposons également une approche totalement non-biaisée en remplaçant le test de visibilité avec une approche CPU. Parce que l’échantillonnage d’importance à base de lumière n’est pas très efficace lorsque le matériau sous-jacent de la géométrie est spéculaire, nous introduisons une nouvelle technique d’équilibrage pour de l’échantillonnage multiple (Multiple Importance Sampling). Cela nous permet de combiner d’autres techniques d’échantillonnage avec le notre basé sur la lumière. En minimisant la variance selon une approximation de second ordre, nous sommes en mesure de trouver une bonne représentation entre les différentes techniques d’échantillonnage sans aucune connaissance préalable. Notre méthode est pertinence, puisque nous réduisons effectivement en moyenne la variance pour toutes nos scènes de test avec différentes sources de lumière, complexités de visibilité et de matériaux. Notre méthode est aussi efficace par le fait que le surcoût de notre approche «boîte noire» est constant et représente 1% du processus de rendu dans son ensemble. / Realistic images can be rendered by simulating light transport with Monte Carlo techniques. The possibility to use realistic light sources for synthesizing images greatly contributes to their physical realism. Among existing models, the ones based on environment maps and light fields are attractive due to their ability to capture faithfully the far-field and near-field effects as well as their possibility of being acquired directly. Since acquired light sources have arbitrary frequencies and possibly high dimension (4D), using such light sources for realistic rendering leads to performance problems.In this thesis, we focus on how to balance the accuracy of the representation and the efficiency of the simulation. Our work relies on generating high quality samples from the input light sources for unbiased Monte Carlo estimation. In this thesis, we introduce three novel methods.The first one is to generate high quality samples efficiently from dynamic environment maps that are changing over time. We achieve this by introducing a GPU approach that generates light samples according to an approximation of the form factor and combines the samples from BRDF sampling for each pixel of a frame. Our method is accurate and efficient. Indeed, with only 256 samples per pixel, we achieve high quality results in real time at 1024 × 768 resolution. The second one is an adaptive sampling strategy for light field light sources (4D), we generate high quality samples efficiently by restricting conservatively the sampling area without reducing accuracy. With a GPU implementation and without any visibility computations, we achieve high quality results with 200 samples per pixel in real time at 1024 × 768 resolution. The performance is still interactive as long as the visibility is computed using our shadow map technique. We also provide a fully unbiased approach by replacing the visibility test with a offline CPU approach. Since light-based importance sampling is not very effective when the underlying material of the geometry is specular, we introduce a new balancing technique for Multiple Importance Sampling. This allows us to combine other sampling techniques with our light-based importance sampling. By minimizing the variance based on a second-order approximation, we are able to find good balancing between different sampling techniques without any prior knowledge. Our method is effective, since we actually reduce in average the variance for all of our test scenes with different light sources, visibility complexity, and materials. Our method is also efficient, by the fact that the overhead of our "black-box" approach is constant and represents 1% of the whole rendering process.
584

A holistic approach to green networking in wireless networks : collaboration among autonomic systems as a mean towards efficient resource-sharing / Une approche holistique pour les réseaux sans fil économes en énergie

Peres, Martin 19 December 2014 (has links)
Les vingt dernières années ont vu l’émergence de systèmes sans fil dans la vie de tous les jours. Ils ont rendu possible la création de technologies telles que les téléphones portables, le WiFi ou l’internet mobile qui sont maintenant tenus pour acquis dans la société actuelle. L’impact environnemental des technologies de l’information et des communications connaît une croissance exponentielle et a atteint l’impact de l’industrie du transport aérien. L’initiative d’informatique verte a été lancée en réponse à cette observation pour réduire de 15 à 30% les émissions de gaz à effet de serre en 2020 comparé aux prédictions faites en 2002 afin de garder le réchauffement climatique inférieur à 2°C. Dans cette thèse, nous avons étudié des techniques d’économie d’énergie dans les réseaux sans fil et comment elles interagissent entre elles afin de donner une vue holistique des réseaux verts. Nous prenons également en compte l’usage du spectre radio fréquence qui est le moyen le plus utilisé pour les communications entre systèmes sans fil et qui devient une ressource rare à cause du besoin grandissant de notre société pour de la bande passante en mobilité. Cette thèse suit les couches réseaux avant de remonter les piles matérielleset logicielles. Des contributions ont été apportées à la plupart des couches afin de proposer un réseau sans fil autonome où les noeuds peuvent collaborer pour améliorer les performances du réseau, réduire de façon globale l’utilisation du spectre radio tout en limitant la consommation énergétique du réseau. / The last twenty years saw the emergence of wireless systems in everyday’s life. They made possible technologies such as mobile phones, WiFi or mobile Internet which are now taken for granted in today’s society. The environmental impact of Information and Communications Technology (ICT) has been raising exponentially to equate the impact of the airline industry. The green computing initiative has been created in response to this observation in order to meet the 15%-30% reduction in green-house gases by 2020 compared to estimations made in 2002 to keep the global temperature increasebelow 2°C. In this thesis, we studied power-saving techniques in wireless networks and how they interact with each others to provide a holistic view of green networking. We also take into account the radio frequency resource which is the most commonly usedcommunication medium for wireless systems and is becoming a scarce resource due to our society’s ever-increasing need for mobile bandwidth. This thesis goes down the network stacks before going up the hardware and software stack. Contributions have been madeat most layers in order to propose an autonomic wireless network where nodes can work collaboratively to improve the network’s performance, globally reduce the radio frequency spectrum usage while also increasing their battery life.
585

Génération automatique de distributions/ordonnancements temps réel, fiables et tolérants aux fautes

Kalla, Hamoudi 17 December 2004 (has links) (PDF)
Les systèmes réactifs sont de plus en plus présents dans de nombreux secteurs d´activité tels que l´automobile, les télécommunications et l´aéronautique. Ces systèmes réalisent des tâches complexes qui sont souvent critiques. Au vu des conséquences catastrophiques que pourrait entraîner une défaillance dans ces systèmes, suite à la présence de fautes matérielles (processeurs et média de communication), il est essentiel de prendre en compte la tolérance aux fautes dans leur conception. En outre, plusieurs domaines exigent une évaluation quantitative du comportement de ces systèmes par rapport à l'occurrence et à l'activation des fautes. Afin de concevoir des systèmes sûrs de fonctionnement, j'ai proposé dans cette thèse trois méthodologies de conception basées sur la théorie d'ordonnancement et la redondance active et passive des composants logiciels du système. Ces trois méthodologies permettent de résoudre le problème de la génération automatique de distribution et d'ordonnancements temps réel, fiables et tolérants aux fautes. Ce problème étant NP-difficile, ces trois méthodologies sont basées sur des heuristiques de type ordonnancement de liste. Plus particulièrement, les deux premières méthodologies traitent le problème de la tolérance aux fautes matérielles des processeurs et des media de communication, respectivement pour des architectures à liaisons point-à-point et des architectures à liaison bus. La troisième méthodologie traite le problème de l'évaluation quantitative d'une distribution/ordonnancement en terme de fiabilité à l'aide d'une heuristique bi-critère originale. Ces méthodologies offrent de bonnes performances sur des graphes d'algorithme et d'architecture générés aléatoirement.
586

Modélisation analytique et contrôle d'admission dans les réseaux 802.11e pour une maîtrise de la Qualité de Service.

Chendeb Taher, Nada 31 March 2009 (has links) (PDF)
La maîtrise de la QoS dans 802.11e EDCA (Enhanced Distributed Coordination Function) ne peut être assurée que par un mécanisme de contrôle d'admission qui empêche le réseau d'atteindre un état de saturation critique et par la même garantit les besoins de QoS des applications voix/vidéo.<br />Ce mécanisme de contrôle d'admission a besoin pour sa prise de décision de prédire les métriques de performances si un nouveau flux est admis. Dans le but de rendre les décisions efficaces, nous choisissons d'utiliser une méthode de prédiction basée sur un modèle analytique. Ce dernier doit remplir deux conditions : 1) fournir une bonne précision de prédiction et 2) avoir une complexité numérique faible et un temps de réponse limité. Vu que la majorité des modèles analytiques de la littérature ne satisfont pas à ces deux conditions, nous développons un nouveau modèle analytique pour EDCA qui est capable de prédire le débit et le délai d'accès des différentes Access Category (AC) d'EDCA.<br />Ainsi, après la modélisation analytique du temps de transmission des ACs en prenant en compte le paramètre de différentiation TXOPLimit, nous développons un modèle analytique pour EDCA sous la forme d'une chaîne de Markov à quatre dimensions. Celui-ci est développé d'abord dans les conditions de saturation puis étendu aux conditions générales de trafic.<br />Pour finir, nous proposons un algorithme de contrôle d'admission à implémenter au sein du point d'accès et qui utilise le modèle analytique proposé. Nous proposons un abaque de solution d'optimisation des paramètres d'accès d'EDCA. Le but étant d'améliorer les performances du mécanisme de contrôle d'admission par l'utilisation optimale des ressources du réseau.
587

Contribution à l'étude des Systèmes à Fonctionnement par Morceaux : Application à l'Identification en Ligne et à la commande en Temps Réel

Chamroo, Afzal 29 June 2006 (has links) (PDF)
Ce travail de recherche concerne une approche nouvelle d'identification et de commande de processus réels. Les travaux sont fondés sur une classe particulière de systèmes qui possèdent des propriétés hybrides et qui ont une dynamique caractérisée par un fonction-nement par morceaux. Ces systèmes permettent de développer des outils particulièrement adaptés à une architecture temps réel. Le mémoire consacre un chapitre au concept de système hybride et à l'origine et à la nature des systèmes à fonctionnement par morceaux (SFM). Les autres chapitres fournissent la mise en œuvre théorique et pratique de nouvel-les méthodes d'identification et de commande utilisant les SFM et donc adaptées au temps réel. L'identification en ligne, assurée par une méthode appelée « clonage », est régie par un algorithme adaptatif qui garantit une convergence rapide. La commande, quant à elle, vise à réaliser la poursuite échantillonnée d'une trajectoire consigne par l'état d'un système linéaire, même dans le cas où le seul retour possible correspond à l'information provenant d'un capteur numérique qui délivre la sortie du système sous forme retardée et échantillonnée. Chaque méthode est fournie avec une introduction permettant de la situer par rapport à l'existant, une formalisation mathématique et des exemples de simulation et d'implantation temps réel.
588

Contributions à la validation d'ordonnancement temps réel en présence de transactions sous priorités fixes et EDF

Rahni, Ahmed 05 December 2008 (has links) (PDF)
Un système temps réel critique nécessite une validation temporelle utilisant un test d'ordonnançabilité avant sa mise en œuvre. Cette thèse traite le problème d'ordonnancement des taches à offset (transactions) sur une architecture monoprocesseur, en priorités fixes et en priorités dynamiques. Les méthodes existantes pour un test exact ont une complexité exponentielle et seules existent des méthodes approchées, donc pessimistes, qui sont pseudo-polynomiales. En priorités fixes nous proposons des méthodes pseudo-polynomiales, basées sur l'analyse de temps de réponse qui sont moins pessimistes que les méthodes existantes. Nous présentons quelques propriétés (accumulativité monotonique, dominance de tâches) rendant exacte les méthodes d'analyse approchées pour certains cas de systèmes, et optimisant le temps de calcul. En priorités dynamiques, nous proposons un test d'ordonnançabilité exact avec une complexité pseudo-polynomiale. Ce test est basé sur l'analyse de la demande processeur. Les qualités des résultats de nos méthodes sont confirmées par des évaluations expérimentales.
589

Contribution à la compensation active des vibrations des machines électriques

Granjon, Pierre 19 December 2000 (has links) (PDF)
Ce travail de recherche est consacré à l'élaboration d'une méthode de compensation active des vibrations d'une machine tournante électrique. Son originalité tient au fait que les enroulements statoriques sont alimentés par<br />des courants de commande additionnels afin d'engendrer des forces radiales sur le stator. Celui-ci répond alors par des vibrations additionnelles qui interagissent avec les vibrations naturelles de la machine. Le but de ce<br />système de contrôle actif est donc de calculer la valeur ”optimale” de ces courants, permettant de minimiser la puissance des signaux vibratoires au niveau de capteurs accéléromètriques fixés à la périphérie du stator.<br />Dans un premier temps, la modélisation du transfert situé entre les commandes et les contre-vibrations engendrées conduit à un système linéaire et variant périodiquement dans le temps (LVPT). La fréquence fondamentale de ses variations est alors proportionnelle à la fréquence de rotation de la machine.<br />Après avoir montré l'insuffisance des méthodes classiques de contrôle actif pour cette application, une étude théorique détaillée des systèmes LVPT est réalisée. Elle conduit à la définition d'une matrice de transfert, jouant le même rôle que la fonction de transfert classique employée pour les systèmes linéaires et invariants dans le temps. Cette matrice permet d'écrire simplement la relation entre les entrées et les sorties du système<br />considéré dans le domaine fréquentiel.<br />Finalement, les résultats précédents sont utilisés afin de déterminer l'expression optimale des courants de commande minimisant la puissance des signaux de vibrations mesurés. Un algorithme récursif permet également de converger vers cet optimum, et de prendre en compte d'éventuelles variations des perturbations vibratoires à éliminer. Divers résultats, obtenus sur des signaux synthétiques puis sur des signaux vibratoires réels, illustrent les performances obtenues par ce système de contrôle actif. Il permet une réduction significative des vibrations<br />synchrones au phénomène de rotation, sans pour autant modifier les caractéristiques des autres. Enfin, son implantation en temps-réel dans un processeur numérique de traitement de signal est discutée et réalisée.
590

Expression et évolution de gènes de la famille des ARN hélicases à boîte DEAD chez Arabidopsis thaliana (L.) Heynh

Mingam, Annaïck 08 June 2004 (has links) (PDF)
L'évolution de la régulation de l'expression des gènes participe à l'évolution de leur fonction. L'existence de profils d'expression spécifiques évitant la redondance fonctionnelle expliquerait le maintien des gènes dupliqués dans les génomes. La PCR quantitative en temps réel se révèle adaptée à l'étude de l'expression des familles de gènes présentant des niveaux très variés et des séquences proches. Le génome modèle d'Arabidopsis thaliana contient une famille d'ARN hélicases à boîte DEAD (RH) de 58 membres, i.e. environ deux fois plus que n'en comptent les génomes d'animaux ou celui de la levure. L'expression transcriptionnelle de 20 AtRH a été obtenue par RT-PCR quantitative dans neuf organes différents. Dans cette famille de gènes " de ménage ", deux AtRH présentent des profils spécifiques alors que les 18 autres AtRH présentent le même profil spatial, mais des niveaux d'expression transcriptionnelle très différents. L'élément régulateur principal du niveau transcriptionnel est la présence simultanée d'une boîte TATA caractéristique et d'un intron en 5' UTR. Dès lors que la boîte TATA est présente, il y a une corrélation positive significative entre la taille de l'intron en 5' UTR et le niveau d'expression. Notre travail sur l'expression des AtRH permet d'introduire un scénario sur la dynamique évolutive des gènes dupliqués qui forment une même branche terminale d'un arbre phylogénétique et dont le niveau d'expression diffère fréquemment. Après la duplication d'un gène fortement transcrit, l'altération de l'activité transcriptionnelle des copies se produirait par des événements successifs de suppression de la boîte TATA et/ou de l'intron en 5' UTR.

Page generated in 0.0605 seconds