• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 190
  • 91
  • 15
  • 1
  • Tagged with
  • 280
  • 280
  • 148
  • 121
  • 113
  • 98
  • 62
  • 42
  • 36
  • 26
  • 25
  • 24
  • 22
  • 22
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Architectures distribuées temps réel fondées sur ATM

Guillaud, Jean-Francois 19 October 1995 (has links) (PDF)
L'évolution des réseaux de communication rend aujourd'hui possible l'apparition de nouvelles applications distribuées. Néanmoins, l'émergence du multimédia renforce les besoins de bande passante élevée et de garantie des délais, qui devront être pris en considération tant au niveau du réseau que des machines. Cette thèse propose l'architecture d'un système de communication complet, basé sur ATM, permettant de satisfaire les besoins des applications distribuées temps réel. En particulier, il est nécessaire d'intégrer de manière efficace les flux audio et vidéo, qui devront cohabiter avec d'autres trafics comme les alarmes ou les données traditionnelles. L'état de l'art sur l'architecture des machines pour les hauts débits permet de mieux cerner les problèmes posés par l'emploi des nouvelles technologies de communication, et montre que les nombreuses études dans ce domaine ne fournissent que des réponses partielles au problème posé. L'architecture du système de communication proposée permet de supporter plusieurs équipements audio/vidéo sur une même station, de construire des topologies de réseau variées, et d'assurer la redondance de chemins. L'introduction d'un micro-contrôleur sur la carte d'interface au réseau offre des services temps réel de haut niveau grâce au concept de télé-DMA, et fait ainsi profiter les applications des avantages d'ATM. D'autre part, une organisation protocolaire particulière permet de faire cohabiter efficacement les services temps réel et les services télé-informatique classiques. Pour les communications entre les équipements, un mécanisme de contrôle de flux à la source pour garantir un délai d'acheminement borné des messages temps réel est proposé. Les problèmes de récupération des applications existantes, de signalisation, d'administration et de gestion du basculement en cas de défaillance du réseau sont aussi abordés. Enfin, les performances globales du système de communication, puis celles d'un service de transfert périodique de variables temps réel implanté sur le micro-contrôleur sont évaluées.
132

Optimisation de la gestion des données pour les applications MapReduce sur des infrastructures distribuées à grande échelle

Moise, Diana Maria 16 December 2011 (has links) (PDF)
Les applications data-intensive sont largement utilisées au sein de domaines diverses dans le but d'extraire et de traiter des informations, de concevoir des systèmes complexes, d'effectuer des simulations de modèles réels, etc. Ces applications posent des défis complexes tant en termes de stockage que de calcul. Dans le contexte des applications data-intensive, nous nous concentrons sur le paradigme MapReduce et ses mises en oeuvre. Introduite par Google, l'abstraction MapReduce a révolutionné la communauté intensif de données et s'est rapidement étendue à diverses domaines de recherche et de production. Une implémentation domaine publique de l'abstraction mise en avant par Google, a été fournie par Yahoo à travers du project Hadoop. Le framework Hadoop est considéré l'implémentation de référence de MapReduce et est actuellement largement utilisé à des fins diverses et sur plusieurs infrastructures. Nous proposons un système de fichiers distribué, optimisé pour des accès hautement concurrents, qui puisse servir comme couche de stockage pour des applications MapReduce. Nous avons conçu le BlobSeer File System (BSFS), basé sur BlobSeer, un service de stockage distribué, hautement efficace, facilitant le partage de données à grande échelle. Nous étudions également plusieurs aspects liés à la gestion des données intermédiaires dans des environnements MapReduce. Nous explorons les contraintes des données intermédiaires MapReduce à deux niveaux: dans le même job MapReduce et pendant l'exécution des pipelines d'applications MapReduce. Enfin, nous proposons des extensions de Hadoop, un environnement MapReduce populaire et open-source, comme par example le support de l'opération append. Ce travail inclut également l'évaluation et les résultats obtenus sur des infrastructures à grande échelle: grilles informatiques et clouds.
133

Développement et validation de la plateforme de criblage virtuel VSM-G et étude du domaine FAT de la kinase d'adhérence focale FAK

Beautrait, Alexandre 15 January 2008 (has links) (PDF)
Les travaux présentés dans ce mémoire se situent dans le cadre général de la recherche de nouveaux médicaments par le biais de techniques informatiques. La première partie de ce document est centrée autour du développement de la plateforme logicielle VSM-G (Virtual Screening Manager for Grids). Le but poursuivi par ce projet est de fournir un outil convivial et simple d'utilisation afin de conduire des études de criblage virtuel à haut-débit. Le coeur de VSM-G repose sur une stratégie multi-étapes de filtres successifs permettant le traitement efficace de chimiothèques de grande taille. Deux filtres ont été utilisés pour ce travail et implémentés dans VSM-G : un programme innovant d'estimation rapide de complémentarité géométrique entre molécules-candidates et site actif (SHEF) précéde un algorithme de docking flexible plus conventionnel (GOLD). Les avantages de cette méthodologie, associée à la prise en charge de multiples conformations de la cible étudiée (le récepteur nucléaire LXRβ), sont présentés tout d'abord par une étude de preuve de concept, puis à travers une campagne de criblage virtuel à grande échelle. L'autre partie de ces travaux, exclusivement applicative, concerne l'étude du domaine FAT de la kinase d'adhérence focale FAK. FAK est une cible d'intérêt pharmaceutique particulièrement intéressante, car clairement impliquée dans divers processus de développement cancéreux. Le but de cette étude est double : il s'agit tout d'abord de mieux comprendre le mode de fonctionnement du domaine FAT de FAK à travers une étude biophysique pour en évaluer la flexibilité ; et ensuite concevoir in silico des petites molécules peptidomimétiques permettant de moduler son activité, ce qui pourrait limiter une progression tumorale.
134

Simulation numérique et approche orientée connaissance pour la découverte de nouvelles molécules thérapeutiques

Ghemtio, Leo 07 May 2010 (has links) (PDF)
L'innovation thérapeutique progresse traditionnellement par la combinaison du criblage expérimental et de la modélisation moléculaire. En pratique, cette dernière approche est souvent limitée par la pénurie de données expérimentales, particulièrement les informations structurales et biologiques. Aujourd'hui, la situation a complètement changé avec le séquençage à haut débit du génome humain et les avancées réalisées dans la détermination des structures tridimensionnelles des protéines. Cette détermination permet d'avoir accès à une grande quantité de données pouvant servir à la recherche de nouveaux traitements pour un grand nombre de maladies. À cet égard, les approches informatiques permettant de développer des programmes de criblage virtuel à haut débit offrent une alternative ou un complément aux méthodes expérimentales qui font gagner du temps et de l'argent dans la découverte de nouveaux traitements. Appliqué aux grandes bases de données moléculaires, le criblage virtuel à haut débit permet de limiter le criblage expérimental en fournissant, pour chaque cible biologique visée, des molécules potentiellement intéressantes au moyen de méthodes informatiques adaptées. Cependant, la plupart de ces approches souffrent des mêmes limitations. Le coût et la durée des temps de calcul pour évaluer la fixation d'une collection de molécules à une cible, qui est considérable dans le contexte du haut débit, ainsi que la précision des résultats obtenus sont les défis les plus évidents dans le domaine. Le besoin de gérer une grande quantité de données hétérogènes est aussi particulièrement crucial. Pour surmonter les limitations actuelles du criblage virtuel à haut débit et ainsi optimiser les premières étapes du processus de découverte de nouveaux médicaments, j'ai mis en place une méthodologie innovante permettant, d'une part, de gérer une masse importante de données hétérogènes et d'en extraire des connaissances et, d'autre part, de distribuer les calculs nécessaires sur les grilles de calcul comportant plusieurs milliers de processeurs, le tout intégré à un protocole de criblage virtuel en plusieurs étapes. L'objectif est la prise en compte, sous forme de contraintes, des connaissances sur le problème posé afin d'optimiser la précision des résultats et les coûts en termes de temps et d'argent du criblage virtuel. Les approches méthodologiques développées ont été appliquées avec succès à une étude concernant le problème de résistance du VIH aux antiviraux, projet soutenu par la fondation Bill et Melinda Gates dans le cadre d'un projet de collaboration avec le CIRCB au Cameroun.
135

Méthodologies et Outils pour l'évaluation des Protocoles de Transport dans le contexte des réseaux très haut débit

Guillier, Romaric 29 October 2009 (has links) (PDF)
Au cours des vingt dernières années, c'est une évolution très rapide non seulement en termes de nombre d'éléments inter-connectés mais surtout en termes de capacités des liens qui a pu être constatée au sein des réseaux de communications. A la création du réseau ARPANET en 1969, il y a plus de quarante ans, quatre ordinateurs, tous situés aux États-Unis étaient connectés avec des liens avec un débit de 50 kilobits par seconde. En 1986, à la création du réseau des universités américaines, le NSFNET, le nombre de machines dépassait déjà plusieurs milliers mais le débit des liens de coeur était encore de 56 kilobits par seconde. A partir de ce moment, la croissance à la fois en termes de nombre d'éléments inter-connectés et de capacités des liens a été exponentielle, grâce au succès de nouvelles applications populaires comme le WWW ou les avancées technologiques comme SDH, SONET ou DWDM dans le domaine des réseaux de fibres optiques et ATM et les protocoles DSL qui en dérivent. L'Internet actuel interconnecte des milliards d'utilisateurs (un demi-milliard de machines fin 2006) répartis partout dans le monde, pouvant utiliser des liens de coeur dont les débits cumulés sont supérieurs à plusieurs Térabits par seconde et dont les liens d'accès peuvent atteindre jusqu'à 10 Gigabits par seconde. Une autre évolution technologique fondamentale est que, aujourd'hui, certains liens d'accès ont des débits du même ordre de grandeur que les débits des liens de coeur auxquels ils sont connectés. Il est aujourd'hui courant de trouver des fermes de serveurs où les noeuds sont interconnectés avec des liens à 1 Gbps ou 10 Gbps et qui ont une connexion vers l'extérieur avec un débit similaire. Cette modification est importante car désormais quelques connexions suffisent à provoquer une saturation des liens de coeur. Cette situation risque d'empirer au fur et à mesure du remplacement des technologies DSL par la Fibre-Jusqu'à-La-Maison (FTTH). Des connexions à 5 Mbps agrégées sur des liens OC48 (2.5 Gbps) vont alors être remplacées par des connexions à 100 Mbps, voire 1 Gbps, agrégées sur des liens à 10 Gbps, voire moins suivant la technologie optique utilisée sur le réseau d'accès. Il est fort probable que dans de tels environnements des niveaux de congestion élevés ne soient pas rares, engendrant des perturbations pour de nombreuses applications. Un grand nombre d'applications prometteuses ont émergé et pourraient bénéficier de capacités de communication accrues, comme par exemple la Vidéo-à-la-Demande (VoD) qui permet aux utilisateurs de regarder des films en haute définition chez eux quand ils le désirent ou les expériences scientifiques générant des quantités massives de données (comme le LHC) qui doivent être acheminées dans des centres de calcul répartis tout autour du globe. L'interaction d'utilisateurs avec des objets distants via un réseau de communication ou Téléprésence commence également à prendre un rôle prépondérant dans de nombreux domaines allant du médical au militaire en passant par l'exploration spatiale. Mais ces applications sont encore construites au dessus de logiciels ou de protocoles à succès comme TCP et IP, conçus il y a longtemps pour un contexte de réseaux bas-débit. Le conception était dirigé par un but principal: fournir une interconnexion robuste entre des réseaux existants. Plongés maintenant dans un contexte de réseaux très haut-débit, ces protocoles extrêmement robustes et capables de passer à l'échelle sont toujours en activité mais commencent à montrer leurs limites en termes de performance, sécurité, fonctionnalités et flexibilité. L'exemple le plus typique est TCP au niveau de la couche de transport. TCP a été conçu comme un protocole ``à tout faire'' mais à mesure que la capacité des liens augmente dans les réseaux fixes, que les caractéristiques intrinsèques changent pour les réseaux sans fils et que les besoins des applications divergent, TCP n'est plus capable de permettre une utilisation performante pour tous des capacités nominales des liens du réseau. De nombreuses solutions ont été proposées, mais les concepteurs de protocoles d'aujourd'hui ont un large désavantage par rapport à ceux d'il y a quarante ans. Faire fonctionner ensemble quatre machines identiques n'est pas exactement pareil que concevoir un logiciel de communication ou protocole susceptible d'être utilisé entre des milliards de machines hétérogènes. Apporter du changement dans un système d'une telle ampleur est problématique: il n'est pas possible d'envisager une migration massive du jour au lendemain surtout si des équipements physiques sont concernés. Le changement ne peut être que graduel et via des mises à jour logicielles dans les hôtes d'extrémité. La peur d'un effondrement de l'Internet dû à la congestion comme à la fin des années 80 resurgit. Causés par une surabondance de trafic réseau sur des liens saturés, ces troubles ont mis en avant la nécessité d'introduire un mécanisme de contrôle de congestion dans les protocoles de transport. Si les nouvelles solutions introduites se comportent de façon égoïste quand elles partagent une ressource commune (un lien), alors cette peur est fondée. Il est donc nécessaire de fournir des moyens de vérifier si une solution donnée possède les propriétés adéquates avant de l'introduire dans un système partagé à très large échelle.
136

Deciphering enhancer activity in Drosophila based on transcription factor occupancy and chromatin state chromatin state characterization

Girardot, Charles 09 July 2012 (has links) (PDF)
La caractérisation des modules cis-régulateurs (CRM) ainsi que de leur activité sont essentiels pour comprendre la régulation des gènes au cours du développement des métazoaires. La technique de l'immunoprécipitation de la chromatine suivie du séquenage à haut débit de l'ADN (ChIP-seq) constitue une approche puissante pour localiser les CRM. Afin de localiser des facteurs génériques au sein de tissus spécifiques, nous avons développé une approche ChIP-seq sur des noyaux triés par cytométrie de flux et localisons des modifications post-traductionelles de l'histone H3, ainsi que l'ARN polymérase II (PolII) dans le mésoderme de la Drosophile. Nous montrons que les CRM actifs sont caractérisés par la présence d'H3 modifiés (K27Ac et K79me3) et de PolII. De plus, la présence et la forme des signaux correspondants à ces marques corrèlent dynamiquement avec l'activité des CRM. Enfin, nous prédisons la présence de CRM actifs et confirmons leur activité in vivo à 89%. Paralllement, nous étudions comment cinq facteurs essentiels au développement cardiaque se coordonnent en cis au sein du mésoderme dorsal, précurseur des mésodermes cardiaque (MC) et viscéral (MV). Nous démontrons que ces facteurs sont recrutés en tant que collectif au niveau des CRM cardiaques via un nombre limité de sites de fixation et en l'absence de contraintes architecturales. En outre, nous découvrons que ces facteurs cardiaques sont recrutés au niveau de CRM actifs dans le MV voisin et activement réprimés dans le MC, reflétant ainsi l'origine tissulaire commune de ces deux populations cellulaires. Nous concluons que les CRM impliqués dans le développement peuvent présenter une empreinte développementale.
137

Purification sanguine au cours du choc septique

Rimmelé, Thomas 23 June 2010 (has links) (PDF)
Le choc septique est la première cause de mortalité en réanimation. Des techniques extracorporelles de purification sanguine sont aujourd'hui proposées pour améliorer le pronostic de cette pathologie. Leur mode d'action est basé sur l'immunomodulation de la réponse inflammatoire systémique de l'hôte, obtenue principalement par épuration nonsélective des médiateurs de l'inflammation. Nous rapportons les résultats de différentes études in vitro, animales et cliniques ayant évalué les techniques de purification sanguine suivantes :hémofiltration à haut débit, hémofiltration en cascade, hémofiltration hautement adsorbante,filtration et adsorption couplée, hémoadsorption, et hémodialyse à haute perméabilité.Ce travail de recherche translationnelle montre que les techniques de purification sanguine sont non seulement capables d'épurer les médiateurs de l'inflammation mais aussi l'endotoxine pour l'hémofiltration hautement adsorbante et l'hémoadsorption. Nous démontrons par ailleurs la faisabilité technique, la sécurité d'application et les intérêts del'hémofiltration en cascade et de l'hémodialyse continue à haute perméabilité. Les effets hémodynamiques bénéfiques des techniques de purification sanguine sont également retrouvés. Pour les années à venir, il conviendra d'optimiser les techniques les plus performantes en tenant compte de leurs avantages et inconvénients respectifs. Sur le planphysiopathologique, l'effet plus direct de ces thérapies sur les leucocytes sera à approfondir. Il semble maintenant admis que convection, diffusion et adsorption ne doivent plus être opposés mais plutôt être considérés comme des mécanismes complémentaires
138

Architecture de transport multimedia à connexions d'ordre partiel

Chassot, Christophe 21 December 1995 (has links) (PDF)
Les travaux présentés dans ce mémoire ont pour cadre la recherche de nouveaux services et protocoles de Transport, aptes à supporter le transfert de données multimédia en tenant compte des exigences applicatives en termes de hauts débits et de synchronisation. L'approche proposée repose sur la définition et le développement d'un nouveau concept: la connexion d'ordre partiel (POC - Partial Order Connection), établissant un lien conceptuel entre les modes de service/protocole orientés-connexion tels que TCP, et sans connexion tels que UDP. Une POC est une connexion de bout en bout permettant de définir et de mettre en œuvre tous les services et protocoles d'ordre partiel entre deux entités communicantes ; dans une POC, la délivrance des données à l'utilisateur récepteur peut être effectuée dans un ordre différent de l'ordre de soumission de ces données par l'utilisateur émetteur: la différence (acceptable) entre ces deux ordres résulte de la définition, par l'utilisateur, d'un ordre partiel de délivrance lors de l'ouverture de la connexion. Une formalisation des mécanismes correspondants est proposée au moyen de la technique de description formelle Estelle. Les caractéristiques intrinsèques des différents média d'un flux multimédia ont conduit ces dernières années au développement d'architectures de communication intégrant la prise en compte des contraintes applicatives à différents niveaux conceptuels, et notamment au niveau Transport du modèle OSI ; à partir d'une modélisation de ces contraintes utilisant le formalisme des réseaux de Petri (le modèle TSPN), l'auteur propose d'intégrer le concept de POC dans une architecture de Transport multimédia autorisant une prise en compte globale des contraintes d'ordre et de fiabilité d'un flux multimédia. Les mécanismes de gestion de l'ordre et de la fiabilité qui sont proposés permettent de définir un service de Transport multimédia offrant une hypothèse nouvelle aux utilisateurs vis à vis de la problématique de la synchronisation. Une étude de la faisabilité d'un protocole multimédia d'ordre partiel à l'aide des procédures XTP est finalement présentée: elle conclut en la possibilité d'une telle réalisation
139

Conception et caractérisation fréquentielle et temporelle d'antennes réseaux planaires à très large bande passante

Clementi, Guillaume 23 November 2011 (has links) (PDF)
Une grande partie des travaux de cette thèse a été guidée par les réflexions mené au sein du groupe de travail " Antennes Réseaux Très Large Bande " du GDR Ondes. Il s'agit de concevoir des antennes réseaux planaires de faible épaisseur (sur plan de masse) très large bande passante. Pour ces travaux la bande de fréquence choisie est celle allouée par la Federal Communications Commission (3.1-10.6GHz). Une première phase de ce travail a consisté à définir le facteur de réseau dans les domaines fréquentiel et temporel. Puis la métrologie particulière pour déterminer les caractéristiques radioélectriques des antennes ULB a été décrite et mise en place grâce à l'installation de deux bancs de mesure : l'un dans le domaine temporel et l'autre dans le domaine fréquentiel. Une antenne planaire originale présentant un diagramme de rayonnement hémisphérique a été conçue. Il s'agit d'une fente rectangulaire dans un plan de masse alimentée par ligne microruban terminée par un stub carré centré dans la largeur de l'ouverture. Une cavité métallique remplie d'air dont les dimensions sont identiques à celles de l'ouverture est soudée du coté du plan de masse. Les performances de l'élément proposé (gain, réponse impulsionnelle, facteur de fidélité, etc...) ont pu alors être mesurées et comparées à celle d'autres éléments. Enfin ce travail a aboutit à la réalisation de deux antennes réseaux planaires à fort gain utilisables dans les systèmes de communication à haut débit et en régime impulsionnel.
140

Applications de l'apprentissage statistique à la biologie computationnelle

Pauwels, Edouard 14 November 2013 (has links) (PDF)
Les biotechnologies sont arrivées au point ou la quantité d'information disponible permet de penser les objets biologiques comme des systèmes complexes. Dans ce contexte, les phénomènes qui émergent de ces systèmes sont intimement liés aux spécificités de leur organisation. Cela pose des problèmes computationnels et statistiques qui sont précisément l'objet d'étude de la communauté liée à l'apprentissage statistique. Cette thèse traite d'applications de méthodes d'apprentissage pour l'étude de phénomène biologique dans une perspective de système complexe. Ces méthodes sont appliquées dans le cadre de l'analyse d'interactions protéine-ligand et d'effets secondaires, du phenotypage de populations de cellules et du plan d'expérience pour des systèmes dynamiques non linéaires partiellement observés.D'importantes quantités de données sont désormais disponibles concernant les molécules mises sur le marché, tels que les profils d'interactions protéiques et d'effets secondaires. Cela pose le problème d'intégrer ces données et de trouver une forme de structure sous tendant ces observations à grandes échelles. Nous appliquons des méthodes récentes d'apprentissage non supervisé à l'analyse d'importants jeux de données sur des médicaments. Des exemples illustrent la pertinence de l'information extraite qui est ensuite validée dans un contexte de prédiction.Les variations de réponses à un traitement entre différents individus posent le problème de définir l'effet d'un stimulus à l'échelle d'une population d'individus. Par exemple, dans le contexte de la microscopie à haut débit, une population de cellules est exposée à différents stimuli. Les variations d'une cellule à l'autre rendent la comparaison de différents traitement non triviale. Un modèle génératif est proposé pour attaquer ce problème et ses propriétés sont étudiées sur la base de données expérimentales.A l'échelle moléculaire, des comportements complexes émergent de cascades d'interactions non linéaires entre différentes espèces moléculaires. Ces non linéarités engendrent des problèmes d'identifiabilité du système. Elles peuvent cependant être contournées par des plans expérimentaux spécifiques, un des champs de recherche de la biologie des systèmes. Une stratégie Bayésienne itérative de plan expérimental est proposée est des résultats numériques basés sur des simulations in silico d'un réseau biologique sont présentées.

Page generated in 0.0551 seconds