• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 365
  • 155
  • 24
  • 2
  • Tagged with
  • 541
  • 280
  • 155
  • 130
  • 120
  • 113
  • 98
  • 70
  • 70
  • 62
  • 52
  • 51
  • 45
  • 43
  • 42
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Amélioration et criblages de propriétés d'ARN aptamères fluorogènes en systèmes microfluidiques / Screening and improving light-up RNA aptamer properties using droplet-based microfluidics

Autour, Alexis 17 September 2018 (has links)
Les ARN (Acide RiboNucléique) remplissent de nombreuses fonctions clés dans le vivant. Ils peuvent être support de l'information génétique, régulateurs de celle-ci. Visualiser ces molécules au sein d'une cellule représenterait une étape importante vers une meilleure compréhension de la régulation de l'expression des gènes. Les ARN fluorogènes tels que Spinach et Mango sont des outils extrêmement prometteurs pour atteindre cet objectif. Cependant ces deux ARN fluorogènes présentent une brillance limitée. La Compartimentation in vitro assistée par microfluidique (µCIV) est un outil très prometteur dont notre groupe a démontré l’efficacité pour l’évolution d’ARN. Dans le cadre de cette thèse, la µCIV a été adaptée à la sélection d'aptamères d'ARN fluorogènes pour en améliorer les propriétés (surtout la brillance). De plus, l’utilisation conjointe du séquençage haut débit a permis l’optimisation très rapide et semi-automatisée à la fois d’aptamères mais aussi de biosenseurs fluorogènes. Ainsi, cette thèse a permis de mettre en place et d’exploiter des technologies de criblage robustes pour la découverte de nouveaux aptamères d'ARN et de biosenseurs. / RNA is a key molecule in gene expression and its regulation. Therefore, being able to monitor RNA through live-cell imaging would represent an important step toward a better understanding of gene expression regulation. RNA-based fluorogenic modules are extremely promising tools to reach this goal. To this end, two light-up RNA aptamers (Spinach and Mango) display attractive properties but they suffer from a limited brightness. Since previous work in the group demonstrated the possibility to evolve RNA using microfluidic-assisted in vitro compartmentalization (µIVC), this technology appeared to be well suited to improve light-up aptamers properties by an evolution strategy. Therefore, the µIVC procedure was adapted to fluorogenic RNA aptamers to improve their properties (especially the brightness). Finally, using µIVC in tandem with high-throughput sequencing (NGS) allowed further developing the technology into a more integrated and semi-automatized approach in which RNAs and biosensors are selected by µIVC screening and the best variants identified by a bioinformatics process upon NGS analysis. To summarize, this thesis allowed establishing robust µIVC screening workflows for the discovery of novel efficient light-up RNA aptamers as well as metabolites biosensors.
32

New Trends in High Definition Video Compression - Application to Multiple Description Coding

Agostini, Marie Andrée 26 June 2009 (has links) (PDF)
La problématique principale de cette thèse est la compression de masses de données vidéo haute résolution. Nous proposons un schéma de compression vidéo par transformée en ondelettes compensée en mouvement. Plus précisément, dans le but de réduire le coût des vecteurs mouvement parfois trop élevé dans ce type de schéma, nous avons développé une approche de quantification avec pertes de ces vecteurs, permettant d'adapter leur précision tout en respectant le compromis débit/ distorsion. Cette approche permet d'améliorer considérablement les performances du codeur, spécialement `a bas débit. Pour modéliser l'influence de l'introduction de perte sur l'information de mouvement, nous avons établi un modèle théorique de distorsion de l'erreur de codage, et, enfin, nous avons réalisé une allocation de débit optimale basée modèle entre les vecteurs mouvement et les coefficients d'ondelettes. Pour éviter certains artefacts dus à une mauvaise estimation du mouvement, nous avons ensuite amélioré le schéma lifting utilisé pour la transformée en ondelettes par une approche novatrice : les coefficients du schéma lifting sont adaptés à la norme des vecteurs mouvement. Notre méthode de quantification des vecteurs mouvement a par ailleurs été appliquée au codeur H.264, la norme actuelle de compression vidéo pour la Haute Définition. Enfin, nous avons travaillé sur le Codage par Descriptions Multiples, une approche de codage conjoint source / canal pour la compression robuste de vidéos utilisée dans la transmission sur des canaux de communication bruités. Nous avons développé un codeur vidéo robuste, par des approches de Codage par Descriptions Multiples dans le domaine transformé. Une allocation de débit est réalisée au codeur pour répartir le débit des coefficients d'ondelettes entre les différentes descriptions, en fonction des paramètres du canal. Plus particulièrement, pour reconstruire au mieux la vidéo en sortie du canal, nous avons réalisé des approches de décodage optimal, basées sur la connaissance des densités de probabilités des sous bandes des différentes descriptions, sur un modèle de canal et sur des probabilités à posteriori. En parallèle, le codage de source vidéo distribué a également été exploré.
33

Modélisation d'un joint viscoplastique pour la filière hydrogène

Peigat, Laurent 19 June 2012 (has links) (PDF)
L'Electrolyse de la Vapeur d'eau à Haute Température (EVHT) est l'un des procédésde production d'hydrogène les plus prometteurs. Dans l'optique d'une économie del'hydrogène produit par EVHT, de nombreux verrous restent à lever. L'un d'entre euxporte sur l'étanchéité. En effet, dans un EVHT, la gestion des gaz est primordiale. Ilfaut pouvoir gérer et prévoir dans le temps le comportement des joints afin d'éviter unedégradation des performances. Or, en EVHT, les températures de fonctionnement sontélevées (classiquement autour de 800 °C), des phénomènes de fluage ou de relaxationapparaissent, le différentiel de dilatation thermique entre les cellules électrochimiques encéramique et les interconnecteurs métalliques doit être pris en compte. Enfin, il convientde maintenir l'étanchéité de l'empilement à faible niveau d'effort pour ne pas risquerd'endommager la partie céramique.L'objet du travail de cette thèse démarre par un constat simple : nous ne disposons pasd'outils de prédimensionnement des joints à haute température permettant de prévoirun débit de fuite. Dès lors que l'on est amené à changer un paramètre de fonctionnement,comme la température, la pression, la stratégie de chargement, la géométrie ou la naturedu joint, une nouvelle expérience doit être menée.A partir d'essais d'étanchéité et de simulations numériques aux éléments finis, un modèleoriginal est proposé. Ce modèle qui a été validé en fonction de différents paramètresexpérimentaux permet d'estimer le débit de fuite associé à un joint en Fecralloy (Fe-CrAl) selon sa forme, ses conditions de serrage et du temps de maintien. Offrant ainsila possibilité de concevoir à moindre coût des joints spécifiques pour l'application visée.
34

Insensibilité dans les réseaux de files d'attente et applications au partage de ressources informatiques

Tran, Minh Anh 29 October 2007 (has links) (PDF)
Nous abordons dans cette thèse le problème de l'insensibilité dans les réseaux de files d'attente et quelques applications au partage de ressources informatiques. Tout d'abord, nous montrons que les réseaux de files d'attente symétriques avec le routage de Jackson ou de Kelly sont tous insensibles à la distribution des demandes de service même si à l'arrivée, au départ ou au changement de files d'un client quelconque, les autres clients dans chaque file sont permutés au hasard selon certaine loi dépendante de l'état du réseau. Nous identifions également certaines disciplines de service non symétriques pour lesquellesla propriété d'insensibilité est satisfaite. Ensuite, nous proposons deux nouvelles métriques de débit pour les réseaux de données. Nous montrons quelques propriétés génériques satisfaites par ces deux métriques et nous illustrons leur différence à travers quelques exemples. Enfin, nous montrons que l'équilibrage de sources de trafic élastique détériore la performance en termes de débit, et en présence de contrôle d'admission, de probabilité de blocage.
35

Protocoles coopératifs pour réseaux sans fil / Cooperative protocols for wireless networks

Slimani, Hicham 12 November 2013 (has links)
La technique MIMO (Multiple-Input Multiple-Output) est l’une des techniques de base qui offre une diversité spatiale. Elle associe plusieurs antennes à l’émission et à la réception. En plus de la diversité spatiale, le système MIMO permet d’augmenter le gain de multiplexage sans avoir besoin de plus de bande passante ou de puissance d’émission. Cependant, la technique MIMO a des limites liées au coût d’installation de plusieurs antennes sur un terminal, et a l’écart minimal exigé entre les antennes. La communication coopérative a été proposée comme une technologie alternative, dans laquelle la diversité spatiale peut être réalisée en coordonnant plusieurs nœuds qui sont proches géographiquement pour former des réseaux d’antennes virtuelles. La coopération permet de lutter contre l’instabilité du canal radio et de faire face aux phénomènes qui le perturbent comme les évanouissements, les bruits, ou les interférences. Elle permet aussi d’améliorer les performances du système en termes de débit global, d’énergie consommée et d’interférences, etc. Dans le cadre des communications coopératives, nous avons proposé deux protocoles MAC coopératifs dans le contexte des réseaux ad hoc. La première proposition est le protocole RACT (Rate Adaptation with Cooperative Transmission). Ce protocole combine la coopération avec un mécanisme d’adaptation de débit. Lorsqu’un lien entre une source et une destination subit de mauvaises conditions de canal, une station relais est sélectionnée dans le voisinage des deux nœuds de sorte que la liaison directe à faible débit de transmission soit remplacée par un lien à deux sauts avec un débit de données plus élevé. La sélection du meilleur relais est fondée sur un processus de contention distribué. La procédure ne nécessite aucune connaissance de la topologie et aucune communication entre les relais potentiels. Lorsque la qualité de la liaison directe est bonne et que la transmission coopérative n’est pas nécessaire, le protocole fonctionne comme un mécanisme d’adaptation de débit. L’adaptation de débit de données est également réalisée sans aucune signalisation supplémentaire. La sélection du meilleur relais et l’adaptation de débit sont fondés sur des mesures instantanées du canal pour s’adapter aux conditions dynamiques du canal radio. Dans le but d’améliorer davantage les performances du système, nous avons proposé notre deuxième protocole MAC coopératif PRACT (Power and Rate Adaptation with Cooperative Transmission). Ce protocole combine un mécanisme d’adaptation de puissance et de débit (TPRC : Transmit Power and Rate Control) avec un mécanisme de coopération. C’est en cela que cette contribution se distingue des solutions proposées dans la littérature. Notre objectif avec cette contribution est d’atteindre une efficacité d’énergie pour la transmission des données tout en augmentant le débit global du réseau. PRACT propose d’ajuster dynamiquement la puissance et le débit de transmission en s’adaptant aux variations de la qualité du canal radio. Cela permet de gagner davantage dans l’énergie économisée. En outre, le contrôle de puissance, réduit les interférences et augmente la réutilisation spatiale entre cellules ad hoc adjacentes en utilisant la même fréquence de transmission. L’idée de base du protocole est de permettre à chaque nœud dans le réseau ad hoc de créer une table avec les combinaisons puissance-débit optimales, en se fondant seulement sur les spécifications de la carte réseau, à savoir, les débits de transmission possible et la consommation en énergie de la carte. Avec la connaissance des qualités des liens obtenue grâce à l’échange des trames de contrôle et en recherchant dans la table puissance-débit, les nœuds choisissent la stratégie de transmission la plus adaptée pour chaque transmission de trames de données, ainsi que le mode de transmission (direct ou coopératif). / MIMO (Multiple-Input Multiple-Output) technology is one of the basic techniques that offer a spatial diversity. It combines multiple antennas for transmission and reception. In addition to spatial diversity, MIMO can increase the multiplexing gain without requiring more bandwidth or transmit power. However, the MIMO technology has limitations related to the cost of installing multiple antennas on a terminal, and to the minimum distance required between antennas. The cooperative communication has been proposed as an alternative technology, in which the spatial diversity can be achieved by coordinating multiple nodes that are geographically close to form virtual antenna arrays. Cooperation helps to fight against the instability of the radio channel and deal with phenomena that disturb this channel like fading, noise or interference. It also improves system performance in terms of overall throughput, energy consumption and interference, etc. In the context of cooperative communications, we proposed two MAC protocols in the context of cooperative ad-hoc networks. The first proposal is the RACT (Rate Adaptation with Cooperative Transmission) protocol. This protocol combines cooperation with a rate adaptation mechanism. When a link between a source and a destination suffers from poor channel conditions, a relay station is selected in the neighborhood of the two nodes so that the direct low data-rate link is replaced by a two-hop link with a higher data-rate. Selecting the best relay is based on a distributed contention process. The procedure requires no knowledge of the topology and no communication between the potential relay. When the quality of the direct link is good enough and the cooperative transmission is not necessary, the protocol operates as a rate adaptation mechanism. The data rate adaptation is also performed without any additional signaling. Both the best relay selection and the rate adaptation is based only on the instantaneous channel measurements to adapt to the dynamic conditions of the radio channel. In order to further improve the system performance, we proposed our second cooperative MAC protocol PRACT (Power and Rate Adaptation with Cooperative Transmission). This protocol combines a power and rate control mechanism (TPRC: Transmit Power and Rate Control) with a mechanism for cooperation, this feature distinguishes this contribution from the solutions proposed in the literature. Our objective with this contribution is to achieve energy efficiency for data transmission while increasing the overall throughput of the network. PRACT proposes to dynamically adjust dynamically the power and the transmission rate to adapt to the radio channel quality variations. This way more energy can be saved. In addition, the power control reduces interference and increases the spatial reuse between adjacent ad-hoc cells using the same channel transmission frequency. The basic idea of the protocol is to allow each node in the network to create a table with the best power-rate combinations, based only on the specifications of the network card, namely the possible transmission rates, transmit power levels and the power consumption of the card. With the knowledge of the qualities of links obtained through the exchange of the control frames and looking up in the power-rate table, the nodes choose the most suitable transmission strategy, for each data frame transmission, and the transmission mode (direct or cooperative).
36

Développement d'un protocole d'extraction et de détection des principaux pathogènes majeurs causant la mammite chez le bovin laitier

Cressier, Bertrand January 2010 (has links)
Malgré des années de recherche, la mammite est encore la maladie qui engendre le plus de pertes pour les producteurs agricoles du secteur laitier. Il est possible que ce fait puisse s'expliquer en partie par l'effort important investi au niveau de l'amélioration génétique des vaches laitières de manière à favoriser des phénotypes permettant une production supérieure. Cette pression génétique s'est effectuée au détriment de la santé de celles-ci. Afin de corriger cette erreur, des technologies plus récentes sont donc appelées à être mises à contribution. L'identification et la caractérisation des différents microorganismes responsables de cette maladie sont des bonnes étapes vers la possibilité de mieux traiter les animaux atteints et de diminuer l'incidence des infections. L'utilisation de méthodes de détection moléculaires de ces pathogènes amène d'ores et déjà une capacité de diagnostic et un débit d'obtention de résultats difficilement atteignable à l'aide des méthodes d'identification microbiologiques seules, et ce, dans plusieurs domaines. Le secteur agroalimentaire n'y échappe pas et des méthodes de détection moléculaires des pathogènes causant des infections intramammaires menant à la mammite sont disponibles. Toutefois, il est important d'analyser les forces et les faiblesses des systèmes proposés actuellement de manière à évaluer leur utilité dans un cadre pratique pour l'industrie laitière. Le but du travail présenté est de proposer une méthode de détection des pathogènes causant des infections intramammaires en utilisant une approche moléculaire. De plus, celle-ci devait respecter plusieurs critères pré-établis qui sont, selon notre avis, nécessaires pour mettre au point un système qui puisse être vraiment utilisé dans un cadre appliqué. Ainsi, l'approche proposée permet d'identifier tous les pathogènes majeurs responsables de cas de mammite au Canada tout en ayant un coût d'opération raisonnable, une capacité de travail à haut débit automatisé et une sensibilité suffisamment élevée pour être utilisée avec des échantillons de lait. La méthode ainsi développée pour respecter ces critères a permis l'analyse de 273 échantillons de lait provenant de cas de mammite en utilisant une amplification PCR avec amorces fluorescentes suivie d'une électrophorèse capillaire et d'une analyse de fragments assistée par laser. Afin d'évaluer sa validité, les mêmes échantillons ont été analysés préalablement par les méthodes de microbiologie préconisées par le « National Mastitis Council », et ce, dans deux laboratoires indépendants. La méthode fut également validée à l'aide d'échantillons de lait contaminés artificiellement avec une quantité connue de chacun des microorganismes ciblés dans cette étude. Les résultats ont permis de déterminer les paramètres de sensibilité et de spécificité en comparant les résultats moléculaires avec ceux obtenus par les méthodes microbiologiques. Ces paramètres, bien qu'étant essentiels pour juger de la performance d'un outil de diagnostic moléculaire, sont trop souvent ignorés dans les études présentant de telles méthodes. Les travaux présentés sont donc à la fois prometteurs pour le diagnostic rapide de la mammite que pour la possibilité de mettre au point des marqueurs génétiques de résistance à la mammite dans le futur.
37

Une méthode de détermination d'un réseau de transport optimal

Fargier, Paul-Henri 23 September 1977 (has links) (PDF)
.
38

Algorithme non intrusif de localisation et de correction de distorsions dans les signaux sonores compressés à bas débits

Desrochers, Simon. January 2016 (has links)
Des sites de visionnement de contenu audio-vidéo en temps-réel comme YouTube sont devenus très populaires. Le téléchargement des fichiers audio/vidéo consomme une quantité importante de bande passante des réseaux Internet. L’utilisation de codecs à bas débit permet de compresser la taille des fichiers transmis afin de consommer moins de bande passante. La conséquence est une diminution de la qualité de ce qui est transmis. Une diminution de qualité mène à l’apparition de défauts perceptibles dans les fichiers. Ces défauts sont appelés des artifices de compression. L’utilisation d’un algorithme de post-traitement sur les fichiers sonores pourrait augmenter la qualité perçue de la musique transmise en corrigeant certains artifices à la réception, sans toutefois consommer davantage de bande passante. Pour rehausser la qualité subjective des fichiers sonores, il est d’abord nécessaire de déterminer quelles caractéristiques dégradent la qualité perceptuelle. Le présent projet a donc pour objectif le développement d’un algorithme capable de localiser et de corriger de façon non intrusive, un artifice provoqué par des discontinuités et des incohérences au niveau des harmoniques qui dégrade la qualité objective dans les signaux sonores compressés à bas débits (8 – 12 kilobits par seconde).
39

Vascular and morphological changes of the optic nerve head following therapeutic intraocular pressure reduction in open angle glaucoma and ocular hypertension

Hafez, Ali S. January 2007 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
40

Développement et validation de la plateforme de criblage virtuel VSM-G et étude du domaine FAT de la kinase d'adhérence focale FAK / Development and validation of the virtual screening platform VSM-G and study of the fat domain of the focal adhesion kinase (FAK)

Beautrait, Alexandre 15 January 2008 (has links)
Les travaux présentés dans ce mémoire se situent dans le cadre général de la recherche de nouveaux médicaments par le biais de techniques informatiques. La première partie de ce document est centrée autour du développement de la plateforme logicielle VSM-G (Virtual Screening Manager for Grids). Le but poursuivi par ce projet est de fournir un outil convivial et simple d'utilisation afin de conduire des études de criblage virtuel à haut-débit. Le coeur de VSM-G repose sur une stratégie multi-étapes de filtres successifs permettant le traitement efficace de chimiothèques de grande taille. Deux filtres ont été utilisés pour ce travail et implémentés dans VSM-G : un programme innovant d’estimation rapide de complémentarité géométrique entre molécules-candidates et site actif (SHEF) précéde un algorithme de docking flexible plus conventionnel (GOLD). Les avantages de cette méthodologie, associée à la prise en charge de multiples conformations de la cible étudiée (le récepteur nucléaire LXRß), sont présentés tout d’abord par une étude de preuve de concept, puis à travers une campagne de criblage virtuel à grande échelle. L'autre partie de ces travaux, exclusivement applicative, concerne l'étude du domaine FAT de la kinase d'adhérence focale FAK. FAK est une cible d’intérêt pharmaceutique particulièrement intéressante, car clairement impliquée dans divers processus de développement cancéreux. Le but de cette étude est double : il s’agit tout d’abord de mieux comprendre le mode de fonctionnement du domaine FAT de FAK à travers une étude biophysique pour en évaluer la flexibilité ; et ensuite concevoir in silico des petites molécules peptidomimétiques permettant de moduler son activité, ce qui pourrait limiter une progression tumorale. / The work presented here deals with drug discovery by means of computational techniques. The first part is focused around the development of the VSM-G (Virtual Screening Manager for Grids) software platform. This project aims to provide a user-friendly and easy-to-use tool for performing high throughput virtual screening experiments. The core of VSM-G is a multiple-step screening strategy in which several filters are organized sequentially as to tackle large chemical libraries efficiently. Two filters were used for this study and implemented into VSM-G: a new and fast ligand-active site geometrical complementarity estimation program (SHEF) precedes a conventional flexible docking tool (GOLD). We describe the advantages of such an approach, associated with the use of multiple target conformations for the LXRß nuclear receptor, by presenting a proof-of-concept study. A high-throughput virtual screening campaign is then performed. The second part of this work, exclusively applicative, deals with the study of the FAT domain of the focal adhesion kinase (FAK). FAK is an important pharmaceutical target due to its involvement in the development of various forms of cancer. The first goal is to gain knowledge regarding FAT flexibility and active state structural properties. The second objective is to design in silico peptidomimetic compounds targeting FAT and therefore potentially modulate FAK activity during tumour progression.

Page generated in 0.422 seconds