• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 192
  • 91
  • 15
  • 1
  • Tagged with
  • 282
  • 282
  • 148
  • 121
  • 114
  • 98
  • 63
  • 42
  • 36
  • 26
  • 25
  • 24
  • 22
  • 22
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Etude théorique et expérimentale de l'impact de la régénération 2R dans un système de transmission optique haut débit

Gay, Mathilde 10 February 2006 (has links) (PDF)
Ce mémoire est consacré à l'étude de l'impact de la régénération 2R dans un système de transmission optique. La régénération optique 2R devrait permettre d'améliorer les performances et limiter le coût des liaisons longue distance et métropolitaines. Des dispositifs simples et peu coûteux pourraient en effet remplacer certains transpondeurs des liaisons optiques. Seules les techniques compatibles avec le réseau multiplexé en longueur d'onde (WDM) seront susceptibles de voir le jour. Ces travaux se sont par conséquent plus particulièrement tournés vers un dispositif 2R à base d'un absorbant saturable en microcavité verticale, dispositif qui présente les qualités requises pour l'application visée. Ces travaux ont donné lieu à des considérations tant d'un point de vue compréhension des phénomènes que d'un point de vue performances. Ils ont été réalisés dans le cadre du projet RNRT (Réseau National de Recherche en Télécommunications) ASTERIX (Absorbant Saturable pour la régénération TERabits multIpleXée en longueurs d'onde).<br />Après une présentation des généralités sur les systèmes de transmission optique et des principales dégradations subies par le signal, nous abordons la régénération optique. Nous mettons ensuite en évidence la difficulté de démontrer l'efficacité d'un régénérateur. Nous montrons notamment que pour démontrer son efficacité, un régénérateur optique doit être caractérisé dans une liaison.<br />L'étude numérique et expérimentale d'une liaison comportant une cascade de régénérateurs optiques 3R, nous permet ensuite, dans le cas où l'accumulation de bruit d'amplitude limite la transmission, de connaître l'évolution des densités de probabilité depuissance des symboles et donc du taux d'erreur binaire (TEB).<br />Le cas d'une régénération 2R est ensuite abordé. Un dispositif original constitué d'un absorbant saturable suivi d'un amplificateur optique à semiconducteur (SOA) est caractérisé avant d'être cascadé dans une ligne de transmission à 10 Gbit/s. L'efficacitédu dispositif est démontrée puisqu'un facteur d'amélioration de la distance de propagation supérieur à 9,5 est obtenu pour un TEB de 10-8 permettant une propagation sur 20 000 km. L'accordabilité du dispositif est également démontrée sur une bande spectrale de 13 nm, ce qui est prometteur pour une transmission WDM.<br />Ce dispositif 2R nous permet finalement d'aborder de manière plus générale, l'effet d'une cascade de régénérateurs 2R dans une liaison. Une étude numérique clarifie le phénomène d'accumulation de gigue temporelle en présence de régénérateurs 2R. Une boucle à recirculation à pas de régénération variable permet d'étudier expérimentalemen l'impact du pas entre régénérateurs. Il existe un pas de régénération optimal correspondant au meilleur compromis entre accumulation de gigue temporelle et de bruit d'amplitude. L'étude met également en évidence l'intérêt d'espacer largement les régénérateurs (distance doublée pour 6 régénérateurs cascadés à un TEB de 10-8 dans le cas considéré). Enfin la limitation de la transmission par la gigue temporelle est mise en évidence expérimentalement.
132

Simulation hybride des réseaux IP-DiffServ-MPLS multi-services sur environnement d'exécution distribuée

GAUCHARD, David 25 April 2003 (has links) (PDF)
La technologique utilisée dans les réseaux de télécommunication à commutation de paquets est en développement permanent. La tendance actuelle est orientée vers la mutualisation des services voix et données, de leurs infrastructures et des techniques associées (réseaux IP/MPLS, QoS dans Internet). Les méthodes classiques utilisées pour l'évaluation de performances des ces réseaux sont la modélisation analytique et la simulation événementielle. La simulation événementielle requiert des temps de calcul prohibitifs, tandis que les modèles issus des méthodes analytiques manquent parfois de précision. Le travail présenté dans cette thèse définit un cadre de modélisation appelé Simulation Hybride Distribuée qui combine de manière rigoureuse la théorie différentielle du trafic et la simulation événementielle. Dans une première technique, les ressources du réseau sont partitionnées en domaines dont certains sont simulés par événements, et les autres sont modélisés par des équations intégrées numériquement. La seconde technique proposée permet la circulation de trafics simulés par événements sur les ressources du réseau modélisées par des équations. La simulation hybride permet ainsi de prolonger la modélisation analytique au-delà de ses limites théoriques. Elle permet également de concevoir des modèles d'évaluation de performances très généraux et de développer des logiciels plus performants en temps de calculs. Un prototype de simulateur hybride a été conçu. Il permet de modéliser précisément des routeurs Internet Diffserv et MPLS, le protocole TCP ainsi que diverses sources de trafic multimédia (Audio, Vidéo). Pour réduire les temps de calcul, le simulateur peut être parallélisé. En ce sens, un nouveau noyau de communication de l'environnement de parallélisme LANDA a été conçu. Il offre une bibliothèque à la norme MPI et permet d'utiliser simultanément et efficacement (latence, bande passante) plusieurs media de communication haut-débit ainsi que la mémoire commune S MP.
133

Architectures distribuées temps réel fondées sur ATM

Guillaud, Jean-Francois 19 October 1995 (has links) (PDF)
L'évolution des réseaux de communication rend aujourd'hui possible l'apparition de nouvelles applications distribuées. Néanmoins, l'émergence du multimédia renforce les besoins de bande passante élevée et de garantie des délais, qui devront être pris en considération tant au niveau du réseau que des machines. Cette thèse propose l'architecture d'un système de communication complet, basé sur ATM, permettant de satisfaire les besoins des applications distribuées temps réel. En particulier, il est nécessaire d'intégrer de manière efficace les flux audio et vidéo, qui devront cohabiter avec d'autres trafics comme les alarmes ou les données traditionnelles. L'état de l'art sur l'architecture des machines pour les hauts débits permet de mieux cerner les problèmes posés par l'emploi des nouvelles technologies de communication, et montre que les nombreuses études dans ce domaine ne fournissent que des réponses partielles au problème posé. L'architecture du système de communication proposée permet de supporter plusieurs équipements audio/vidéo sur une même station, de construire des topologies de réseau variées, et d'assurer la redondance de chemins. L'introduction d'un micro-contrôleur sur la carte d'interface au réseau offre des services temps réel de haut niveau grâce au concept de télé-DMA, et fait ainsi profiter les applications des avantages d'ATM. D'autre part, une organisation protocolaire particulière permet de faire cohabiter efficacement les services temps réel et les services télé-informatique classiques. Pour les communications entre les équipements, un mécanisme de contrôle de flux à la source pour garantir un délai d'acheminement borné des messages temps réel est proposé. Les problèmes de récupération des applications existantes, de signalisation, d'administration et de gestion du basculement en cas de défaillance du réseau sont aussi abordés. Enfin, les performances globales du système de communication, puis celles d'un service de transfert périodique de variables temps réel implanté sur le micro-contrôleur sont évaluées.
134

Optimisation de la gestion des données pour les applications MapReduce sur des infrastructures distribuées à grande échelle

Moise, Diana Maria 16 December 2011 (has links) (PDF)
Les applications data-intensive sont largement utilisées au sein de domaines diverses dans le but d'extraire et de traiter des informations, de concevoir des systèmes complexes, d'effectuer des simulations de modèles réels, etc. Ces applications posent des défis complexes tant en termes de stockage que de calcul. Dans le contexte des applications data-intensive, nous nous concentrons sur le paradigme MapReduce et ses mises en oeuvre. Introduite par Google, l'abstraction MapReduce a révolutionné la communauté intensif de données et s'est rapidement étendue à diverses domaines de recherche et de production. Une implémentation domaine publique de l'abstraction mise en avant par Google, a été fournie par Yahoo à travers du project Hadoop. Le framework Hadoop est considéré l'implémentation de référence de MapReduce et est actuellement largement utilisé à des fins diverses et sur plusieurs infrastructures. Nous proposons un système de fichiers distribué, optimisé pour des accès hautement concurrents, qui puisse servir comme couche de stockage pour des applications MapReduce. Nous avons conçu le BlobSeer File System (BSFS), basé sur BlobSeer, un service de stockage distribué, hautement efficace, facilitant le partage de données à grande échelle. Nous étudions également plusieurs aspects liés à la gestion des données intermédiaires dans des environnements MapReduce. Nous explorons les contraintes des données intermédiaires MapReduce à deux niveaux: dans le même job MapReduce et pendant l'exécution des pipelines d'applications MapReduce. Enfin, nous proposons des extensions de Hadoop, un environnement MapReduce populaire et open-source, comme par example le support de l'opération append. Ce travail inclut également l'évaluation et les résultats obtenus sur des infrastructures à grande échelle: grilles informatiques et clouds.
135

Développement et validation de la plateforme de criblage virtuel VSM-G et étude du domaine FAT de la kinase d'adhérence focale FAK

Beautrait, Alexandre 15 January 2008 (has links) (PDF)
Les travaux présentés dans ce mémoire se situent dans le cadre général de la recherche de nouveaux médicaments par le biais de techniques informatiques. La première partie de ce document est centrée autour du développement de la plateforme logicielle VSM-G (Virtual Screening Manager for Grids). Le but poursuivi par ce projet est de fournir un outil convivial et simple d'utilisation afin de conduire des études de criblage virtuel à haut-débit. Le coeur de VSM-G repose sur une stratégie multi-étapes de filtres successifs permettant le traitement efficace de chimiothèques de grande taille. Deux filtres ont été utilisés pour ce travail et implémentés dans VSM-G : un programme innovant d'estimation rapide de complémentarité géométrique entre molécules-candidates et site actif (SHEF) précéde un algorithme de docking flexible plus conventionnel (GOLD). Les avantages de cette méthodologie, associée à la prise en charge de multiples conformations de la cible étudiée (le récepteur nucléaire LXRβ), sont présentés tout d'abord par une étude de preuve de concept, puis à travers une campagne de criblage virtuel à grande échelle. L'autre partie de ces travaux, exclusivement applicative, concerne l'étude du domaine FAT de la kinase d'adhérence focale FAK. FAK est une cible d'intérêt pharmaceutique particulièrement intéressante, car clairement impliquée dans divers processus de développement cancéreux. Le but de cette étude est double : il s'agit tout d'abord de mieux comprendre le mode de fonctionnement du domaine FAT de FAK à travers une étude biophysique pour en évaluer la flexibilité ; et ensuite concevoir in silico des petites molécules peptidomimétiques permettant de moduler son activité, ce qui pourrait limiter une progression tumorale.
136

Simulation numérique et approche orientée connaissance pour la découverte de nouvelles molécules thérapeutiques

Ghemtio, Leo 07 May 2010 (has links) (PDF)
L'innovation thérapeutique progresse traditionnellement par la combinaison du criblage expérimental et de la modélisation moléculaire. En pratique, cette dernière approche est souvent limitée par la pénurie de données expérimentales, particulièrement les informations structurales et biologiques. Aujourd'hui, la situation a complètement changé avec le séquençage à haut débit du génome humain et les avancées réalisées dans la détermination des structures tridimensionnelles des protéines. Cette détermination permet d'avoir accès à une grande quantité de données pouvant servir à la recherche de nouveaux traitements pour un grand nombre de maladies. À cet égard, les approches informatiques permettant de développer des programmes de criblage virtuel à haut débit offrent une alternative ou un complément aux méthodes expérimentales qui font gagner du temps et de l'argent dans la découverte de nouveaux traitements. Appliqué aux grandes bases de données moléculaires, le criblage virtuel à haut débit permet de limiter le criblage expérimental en fournissant, pour chaque cible biologique visée, des molécules potentiellement intéressantes au moyen de méthodes informatiques adaptées. Cependant, la plupart de ces approches souffrent des mêmes limitations. Le coût et la durée des temps de calcul pour évaluer la fixation d'une collection de molécules à une cible, qui est considérable dans le contexte du haut débit, ainsi que la précision des résultats obtenus sont les défis les plus évidents dans le domaine. Le besoin de gérer une grande quantité de données hétérogènes est aussi particulièrement crucial. Pour surmonter les limitations actuelles du criblage virtuel à haut débit et ainsi optimiser les premières étapes du processus de découverte de nouveaux médicaments, j'ai mis en place une méthodologie innovante permettant, d'une part, de gérer une masse importante de données hétérogènes et d'en extraire des connaissances et, d'autre part, de distribuer les calculs nécessaires sur les grilles de calcul comportant plusieurs milliers de processeurs, le tout intégré à un protocole de criblage virtuel en plusieurs étapes. L'objectif est la prise en compte, sous forme de contraintes, des connaissances sur le problème posé afin d'optimiser la précision des résultats et les coûts en termes de temps et d'argent du criblage virtuel. Les approches méthodologiques développées ont été appliquées avec succès à une étude concernant le problème de résistance du VIH aux antiviraux, projet soutenu par la fondation Bill et Melinda Gates dans le cadre d'un projet de collaboration avec le CIRCB au Cameroun.
137

Méthodologies et Outils pour l'évaluation des Protocoles de Transport dans le contexte des réseaux très haut débit

Guillier, Romaric 29 October 2009 (has links) (PDF)
Au cours des vingt dernières années, c'est une évolution très rapide non seulement en termes de nombre d'éléments inter-connectés mais surtout en termes de capacités des liens qui a pu être constatée au sein des réseaux de communications. A la création du réseau ARPANET en 1969, il y a plus de quarante ans, quatre ordinateurs, tous situés aux États-Unis étaient connectés avec des liens avec un débit de 50 kilobits par seconde. En 1986, à la création du réseau des universités américaines, le NSFNET, le nombre de machines dépassait déjà plusieurs milliers mais le débit des liens de coeur était encore de 56 kilobits par seconde. A partir de ce moment, la croissance à la fois en termes de nombre d'éléments inter-connectés et de capacités des liens a été exponentielle, grâce au succès de nouvelles applications populaires comme le WWW ou les avancées technologiques comme SDH, SONET ou DWDM dans le domaine des réseaux de fibres optiques et ATM et les protocoles DSL qui en dérivent. L'Internet actuel interconnecte des milliards d'utilisateurs (un demi-milliard de machines fin 2006) répartis partout dans le monde, pouvant utiliser des liens de coeur dont les débits cumulés sont supérieurs à plusieurs Térabits par seconde et dont les liens d'accès peuvent atteindre jusqu'à 10 Gigabits par seconde. Une autre évolution technologique fondamentale est que, aujourd'hui, certains liens d'accès ont des débits du même ordre de grandeur que les débits des liens de coeur auxquels ils sont connectés. Il est aujourd'hui courant de trouver des fermes de serveurs où les noeuds sont interconnectés avec des liens à 1 Gbps ou 10 Gbps et qui ont une connexion vers l'extérieur avec un débit similaire. Cette modification est importante car désormais quelques connexions suffisent à provoquer une saturation des liens de coeur. Cette situation risque d'empirer au fur et à mesure du remplacement des technologies DSL par la Fibre-Jusqu'à-La-Maison (FTTH). Des connexions à 5 Mbps agrégées sur des liens OC48 (2.5 Gbps) vont alors être remplacées par des connexions à 100 Mbps, voire 1 Gbps, agrégées sur des liens à 10 Gbps, voire moins suivant la technologie optique utilisée sur le réseau d'accès. Il est fort probable que dans de tels environnements des niveaux de congestion élevés ne soient pas rares, engendrant des perturbations pour de nombreuses applications. Un grand nombre d'applications prometteuses ont émergé et pourraient bénéficier de capacités de communication accrues, comme par exemple la Vidéo-à-la-Demande (VoD) qui permet aux utilisateurs de regarder des films en haute définition chez eux quand ils le désirent ou les expériences scientifiques générant des quantités massives de données (comme le LHC) qui doivent être acheminées dans des centres de calcul répartis tout autour du globe. L'interaction d'utilisateurs avec des objets distants via un réseau de communication ou Téléprésence commence également à prendre un rôle prépondérant dans de nombreux domaines allant du médical au militaire en passant par l'exploration spatiale. Mais ces applications sont encore construites au dessus de logiciels ou de protocoles à succès comme TCP et IP, conçus il y a longtemps pour un contexte de réseaux bas-débit. Le conception était dirigé par un but principal: fournir une interconnexion robuste entre des réseaux existants. Plongés maintenant dans un contexte de réseaux très haut-débit, ces protocoles extrêmement robustes et capables de passer à l'échelle sont toujours en activité mais commencent à montrer leurs limites en termes de performance, sécurité, fonctionnalités et flexibilité. L'exemple le plus typique est TCP au niveau de la couche de transport. TCP a été conçu comme un protocole ``à tout faire'' mais à mesure que la capacité des liens augmente dans les réseaux fixes, que les caractéristiques intrinsèques changent pour les réseaux sans fils et que les besoins des applications divergent, TCP n'est plus capable de permettre une utilisation performante pour tous des capacités nominales des liens du réseau. De nombreuses solutions ont été proposées, mais les concepteurs de protocoles d'aujourd'hui ont un large désavantage par rapport à ceux d'il y a quarante ans. Faire fonctionner ensemble quatre machines identiques n'est pas exactement pareil que concevoir un logiciel de communication ou protocole susceptible d'être utilisé entre des milliards de machines hétérogènes. Apporter du changement dans un système d'une telle ampleur est problématique: il n'est pas possible d'envisager une migration massive du jour au lendemain surtout si des équipements physiques sont concernés. Le changement ne peut être que graduel et via des mises à jour logicielles dans les hôtes d'extrémité. La peur d'un effondrement de l'Internet dû à la congestion comme à la fin des années 80 resurgit. Causés par une surabondance de trafic réseau sur des liens saturés, ces troubles ont mis en avant la nécessité d'introduire un mécanisme de contrôle de congestion dans les protocoles de transport. Si les nouvelles solutions introduites se comportent de façon égoïste quand elles partagent une ressource commune (un lien), alors cette peur est fondée. Il est donc nécessaire de fournir des moyens de vérifier si une solution donnée possède les propriétés adéquates avant de l'introduire dans un système partagé à très large échelle.
138

Deciphering enhancer activity in Drosophila based on transcription factor occupancy and chromatin state chromatin state characterization

Girardot, Charles 09 July 2012 (has links) (PDF)
La caractérisation des modules cis-régulateurs (CRM) ainsi que de leur activité sont essentiels pour comprendre la régulation des gènes au cours du développement des métazoaires. La technique de l'immunoprécipitation de la chromatine suivie du séquenage à haut débit de l'ADN (ChIP-seq) constitue une approche puissante pour localiser les CRM. Afin de localiser des facteurs génériques au sein de tissus spécifiques, nous avons développé une approche ChIP-seq sur des noyaux triés par cytométrie de flux et localisons des modifications post-traductionelles de l'histone H3, ainsi que l'ARN polymérase II (PolII) dans le mésoderme de la Drosophile. Nous montrons que les CRM actifs sont caractérisés par la présence d'H3 modifiés (K27Ac et K79me3) et de PolII. De plus, la présence et la forme des signaux correspondants à ces marques corrèlent dynamiquement avec l'activité des CRM. Enfin, nous prédisons la présence de CRM actifs et confirmons leur activité in vivo à 89%. Paralllement, nous étudions comment cinq facteurs essentiels au développement cardiaque se coordonnent en cis au sein du mésoderme dorsal, précurseur des mésodermes cardiaque (MC) et viscéral (MV). Nous démontrons que ces facteurs sont recrutés en tant que collectif au niveau des CRM cardiaques via un nombre limité de sites de fixation et en l'absence de contraintes architecturales. En outre, nous découvrons que ces facteurs cardiaques sont recrutés au niveau de CRM actifs dans le MV voisin et activement réprimés dans le MC, reflétant ainsi l'origine tissulaire commune de ces deux populations cellulaires. Nous concluons que les CRM impliqués dans le développement peuvent présenter une empreinte développementale.
139

Purification sanguine au cours du choc septique

Rimmelé, Thomas 23 June 2010 (has links) (PDF)
Le choc septique est la première cause de mortalité en réanimation. Des techniques extracorporelles de purification sanguine sont aujourd'hui proposées pour améliorer le pronostic de cette pathologie. Leur mode d'action est basé sur l'immunomodulation de la réponse inflammatoire systémique de l'hôte, obtenue principalement par épuration nonsélective des médiateurs de l'inflammation. Nous rapportons les résultats de différentes études in vitro, animales et cliniques ayant évalué les techniques de purification sanguine suivantes :hémofiltration à haut débit, hémofiltration en cascade, hémofiltration hautement adsorbante,filtration et adsorption couplée, hémoadsorption, et hémodialyse à haute perméabilité.Ce travail de recherche translationnelle montre que les techniques de purification sanguine sont non seulement capables d'épurer les médiateurs de l'inflammation mais aussi l'endotoxine pour l'hémofiltration hautement adsorbante et l'hémoadsorption. Nous démontrons par ailleurs la faisabilité technique, la sécurité d'application et les intérêts del'hémofiltration en cascade et de l'hémodialyse continue à haute perméabilité. Les effets hémodynamiques bénéfiques des techniques de purification sanguine sont également retrouvés. Pour les années à venir, il conviendra d'optimiser les techniques les plus performantes en tenant compte de leurs avantages et inconvénients respectifs. Sur le planphysiopathologique, l'effet plus direct de ces thérapies sur les leucocytes sera à approfondir. Il semble maintenant admis que convection, diffusion et adsorption ne doivent plus être opposés mais plutôt être considérés comme des mécanismes complémentaires
140

Architecture de transport multimedia à connexions d'ordre partiel

Chassot, Christophe 21 December 1995 (has links) (PDF)
Les travaux présentés dans ce mémoire ont pour cadre la recherche de nouveaux services et protocoles de Transport, aptes à supporter le transfert de données multimédia en tenant compte des exigences applicatives en termes de hauts débits et de synchronisation. L'approche proposée repose sur la définition et le développement d'un nouveau concept: la connexion d'ordre partiel (POC - Partial Order Connection), établissant un lien conceptuel entre les modes de service/protocole orientés-connexion tels que TCP, et sans connexion tels que UDP. Une POC est une connexion de bout en bout permettant de définir et de mettre en œuvre tous les services et protocoles d'ordre partiel entre deux entités communicantes ; dans une POC, la délivrance des données à l'utilisateur récepteur peut être effectuée dans un ordre différent de l'ordre de soumission de ces données par l'utilisateur émetteur: la différence (acceptable) entre ces deux ordres résulte de la définition, par l'utilisateur, d'un ordre partiel de délivrance lors de l'ouverture de la connexion. Une formalisation des mécanismes correspondants est proposée au moyen de la technique de description formelle Estelle. Les caractéristiques intrinsèques des différents média d'un flux multimédia ont conduit ces dernières années au développement d'architectures de communication intégrant la prise en compte des contraintes applicatives à différents niveaux conceptuels, et notamment au niveau Transport du modèle OSI ; à partir d'une modélisation de ces contraintes utilisant le formalisme des réseaux de Petri (le modèle TSPN), l'auteur propose d'intégrer le concept de POC dans une architecture de Transport multimédia autorisant une prise en compte globale des contraintes d'ordre et de fiabilité d'un flux multimédia. Les mécanismes de gestion de l'ordre et de la fiabilité qui sont proposés permettent de définir un service de Transport multimédia offrant une hypothèse nouvelle aux utilisateurs vis à vis de la problématique de la synchronisation. Une étude de la faisabilité d'un protocole multimédia d'ordre partiel à l'aide des procédures XTP est finalement présentée: elle conclut en la possibilité d'une telle réalisation

Page generated in 0.0318 seconds