• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 366
  • 155
  • 26
  • 2
  • Tagged with
  • 544
  • 282
  • 155
  • 130
  • 120
  • 114
  • 98
  • 71
  • 71
  • 63
  • 52
  • 51
  • 45
  • 43
  • 42
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
251

Simulation numérique et approche orientée connaissance pour la découverte de nouvelles molécules thérapeutiques

Ghemtio, Leo 07 May 2010 (has links) (PDF)
L'innovation thérapeutique progresse traditionnellement par la combinaison du criblage expérimental et de la modélisation moléculaire. En pratique, cette dernière approche est souvent limitée par la pénurie de données expérimentales, particulièrement les informations structurales et biologiques. Aujourd'hui, la situation a complètement changé avec le séquençage à haut débit du génome humain et les avancées réalisées dans la détermination des structures tridimensionnelles des protéines. Cette détermination permet d'avoir accès à une grande quantité de données pouvant servir à la recherche de nouveaux traitements pour un grand nombre de maladies. À cet égard, les approches informatiques permettant de développer des programmes de criblage virtuel à haut débit offrent une alternative ou un complément aux méthodes expérimentales qui font gagner du temps et de l'argent dans la découverte de nouveaux traitements. Appliqué aux grandes bases de données moléculaires, le criblage virtuel à haut débit permet de limiter le criblage expérimental en fournissant, pour chaque cible biologique visée, des molécules potentiellement intéressantes au moyen de méthodes informatiques adaptées. Cependant, la plupart de ces approches souffrent des mêmes limitations. Le coût et la durée des temps de calcul pour évaluer la fixation d'une collection de molécules à une cible, qui est considérable dans le contexte du haut débit, ainsi que la précision des résultats obtenus sont les défis les plus évidents dans le domaine. Le besoin de gérer une grande quantité de données hétérogènes est aussi particulièrement crucial. Pour surmonter les limitations actuelles du criblage virtuel à haut débit et ainsi optimiser les premières étapes du processus de découverte de nouveaux médicaments, j'ai mis en place une méthodologie innovante permettant, d'une part, de gérer une masse importante de données hétérogènes et d'en extraire des connaissances et, d'autre part, de distribuer les calculs nécessaires sur les grilles de calcul comportant plusieurs milliers de processeurs, le tout intégré à un protocole de criblage virtuel en plusieurs étapes. L'objectif est la prise en compte, sous forme de contraintes, des connaissances sur le problème posé afin d'optimiser la précision des résultats et les coûts en termes de temps et d'argent du criblage virtuel. Les approches méthodologiques développées ont été appliquées avec succès à une étude concernant le problème de résistance du VIH aux antiviraux, projet soutenu par la fondation Bill et Melinda Gates dans le cadre d'un projet de collaboration avec le CIRCB au Cameroun.
252

Typologie des impacts potentiels des ouvrages hydroélectriques sur les populations de truite situées en aval

Fahrner, Gwenaelle 09 December 2010 (has links) (PDF)
Les recherches menées sur les populations de truite à l'aval des barrages ont mis en évidence l'influence de nombreuses contraintes naturelles. Dans un premier temps, une analyse de la dynamique de 3 populations de truite (Salmo trutta), combinée à une analyse multi-sites (53 sites) des relations entre les populations et leur cadre d'habitat physique en TCC, ont mis en évidence différents éléments structurants. Le premier filtre est la largeur du cours d'eau. A cela se surimpose un forçage par les crues naturelles. En outre, le niveau de fragmentation du réseau hydrographique lié à la taille du barrage influence la variabilité du stade juvénile, tandis que le degré de reconstitution du débit le long du TCC détermine en partie l'abondance de truite. Dans un second temps, le travail a consisté à caractériser pour l'ensemble du parc hydroélectrique EDF le cadre géophysique général dans lequel s'inscrivent les différents types de tronçons de cours d'eau salmonicoles soumis à l'influence d'ouvrages hydroélectriques. 15 types ont ainsi été définis sur la base de leur appartenance à l'un des trois massifs Alpes, Pyrénées et Massif Central, de la combinaison de 2 caractéristiques hydromorphologiques majeures (pente et module), et du régime hydrosédimentaire. Finalement, le croisement des connaissances générales issues de la littérature sur les impacts des ouvrages sur les populations de truite, des connaissances spécifiques acquises via l'analyse multi-sites avec les types de situation ouvrages/milieu permet de tirer des enseignements généraux sur les sensibilités a priori des habitats des cours d'eau d'une région.
253

Evaluation analytique des performanes des réseaux sans-fil par un processus de Markov spatial prenant en compte leur géométrie, leur dynamique et leurs algorithmes de contrôle

Karray, Mohamed Kadhem 10 September 2007 (has links) (PDF)
Nous proposons des algorithmes de contrôle de charge pour les réseaux cellulaires sans fil et développons des méthodes analytiques pour l'évaluation des performances de ces réseaux par un processus de Markov spatial prenant en compte leur géométrie, dynamique et algorithmes de contrôle. D'abord, nous caractérisons la performnace d'un lien unique en utilisant les techniques de communication numérique. Ensuite les interactions entre les liens sont prises en compte en formulant un problème d'allocation de puissances. Nous proposons des algorithmes de contrôle de charge décentralisés qui tiennent compte de l'influence de la géométrie sur la combinaison des interférences inter-cellules et intra-cellules. Afin d'étudier les performances de ces algorithmes, nous analysons un générateur d'un processus Markovien de saut qui peut être vu comme une généralisation du générateur de naissance-et-mort spatial, qui tient compte de la mobilité des particules. Nous donnons des conditions suffisantes pour la régularité du générateur (c.-à-d., unicité du processus de Markov associé) aussi bien que pour son ergodicité. Enfin nous appliquons notre processus de Markov spatial pour évaluer les performances des réseaux cellulaires sans fil utilisant les algorithmes de contrôle de charge basés sur la faisabilité de l'allocation de puissance.
254

Contribution à l'amélioration de l'expertise en situation de crise par l'utilisation de l'informatique distribuée : application aux crues à cinétique rapide

Thierion, Vincent 09 July 2010 (has links) (PDF)
Les crues à cinétique rapide, telles que l'évènement du 8 et 9 septembre 2002 dans le département du Gard, causent régulièrement d'importants dommages socio-économiques. A la suite de cette catastrophe, une réforme des services d'annonce des crues (SAC) a été initiée, et a engendré la transformation des 52 services existants en 22 services de prévision des crues (SPC) et la création d'un service central au niveau national, le SCHAPI. Plus cohérent hydrologiquement, ces services se sont vus assigner une nouvelle mission de prévision des crues. Dans le cadre des prévisions des crues à cinétique rapide, le service de prévision des crues " Grand Delta " (SPC-GD) utilise l'application ALHTAÏR capable d'intégrer des données hydrométéorologiques et la modélisation " temps réel " des débits des cours d'eau des bassins versants amont. Cependant, ce service ne dispose pas à l'heure actuelle d'une véritable capacité de prévision des crues à cinétique rapide. Cette thèse s'attache donc à perfectionner cette capacité de prévision en utilisant la vocation de la technologie grille, une technologie informatique innovante, à fournir de ressources informatiques à la demande et un environnement collaboratif. La méthodologie et les expérimentations ont permis de développer un système spatial d'aide à la décision hydrologique (G-ALHTAÏR) basé sur les ressources de l'architecture de grille européenne EGEE (Enabling Grids for E-science). Des résultats prometteurs montrent une capacité à modéliser un nombre important de scénarios de prévision hydrologique dans un contexte opérationnel, et en adéquation avec les besoins du SPC-GD.
255

Méthodologies et Outils pour l'évaluation des Protocoles de Transport dans le contexte des réseaux très haut débit

Guillier, Romaric 29 October 2009 (has links) (PDF)
Au cours des vingt dernières années, c'est une évolution très rapide non seulement en termes de nombre d'éléments inter-connectés mais surtout en termes de capacités des liens qui a pu être constatée au sein des réseaux de communications. A la création du réseau ARPANET en 1969, il y a plus de quarante ans, quatre ordinateurs, tous situés aux États-Unis étaient connectés avec des liens avec un débit de 50 kilobits par seconde. En 1986, à la création du réseau des universités américaines, le NSFNET, le nombre de machines dépassait déjà plusieurs milliers mais le débit des liens de coeur était encore de 56 kilobits par seconde. A partir de ce moment, la croissance à la fois en termes de nombre d'éléments inter-connectés et de capacités des liens a été exponentielle, grâce au succès de nouvelles applications populaires comme le WWW ou les avancées technologiques comme SDH, SONET ou DWDM dans le domaine des réseaux de fibres optiques et ATM et les protocoles DSL qui en dérivent. L'Internet actuel interconnecte des milliards d'utilisateurs (un demi-milliard de machines fin 2006) répartis partout dans le monde, pouvant utiliser des liens de coeur dont les débits cumulés sont supérieurs à plusieurs Térabits par seconde et dont les liens d'accès peuvent atteindre jusqu'à 10 Gigabits par seconde. Une autre évolution technologique fondamentale est que, aujourd'hui, certains liens d'accès ont des débits du même ordre de grandeur que les débits des liens de coeur auxquels ils sont connectés. Il est aujourd'hui courant de trouver des fermes de serveurs où les noeuds sont interconnectés avec des liens à 1 Gbps ou 10 Gbps et qui ont une connexion vers l'extérieur avec un débit similaire. Cette modification est importante car désormais quelques connexions suffisent à provoquer une saturation des liens de coeur. Cette situation risque d'empirer au fur et à mesure du remplacement des technologies DSL par la Fibre-Jusqu'à-La-Maison (FTTH). Des connexions à 5 Mbps agrégées sur des liens OC48 (2.5 Gbps) vont alors être remplacées par des connexions à 100 Mbps, voire 1 Gbps, agrégées sur des liens à 10 Gbps, voire moins suivant la technologie optique utilisée sur le réseau d'accès. Il est fort probable que dans de tels environnements des niveaux de congestion élevés ne soient pas rares, engendrant des perturbations pour de nombreuses applications. Un grand nombre d'applications prometteuses ont émergé et pourraient bénéficier de capacités de communication accrues, comme par exemple la Vidéo-à-la-Demande (VoD) qui permet aux utilisateurs de regarder des films en haute définition chez eux quand ils le désirent ou les expériences scientifiques générant des quantités massives de données (comme le LHC) qui doivent être acheminées dans des centres de calcul répartis tout autour du globe. L'interaction d'utilisateurs avec des objets distants via un réseau de communication ou Téléprésence commence également à prendre un rôle prépondérant dans de nombreux domaines allant du médical au militaire en passant par l'exploration spatiale. Mais ces applications sont encore construites au dessus de logiciels ou de protocoles à succès comme TCP et IP, conçus il y a longtemps pour un contexte de réseaux bas-débit. Le conception était dirigé par un but principal: fournir une interconnexion robuste entre des réseaux existants. Plongés maintenant dans un contexte de réseaux très haut-débit, ces protocoles extrêmement robustes et capables de passer à l'échelle sont toujours en activité mais commencent à montrer leurs limites en termes de performance, sécurité, fonctionnalités et flexibilité. L'exemple le plus typique est TCP au niveau de la couche de transport. TCP a été conçu comme un protocole ``à tout faire'' mais à mesure que la capacité des liens augmente dans les réseaux fixes, que les caractéristiques intrinsèques changent pour les réseaux sans fils et que les besoins des applications divergent, TCP n'est plus capable de permettre une utilisation performante pour tous des capacités nominales des liens du réseau. De nombreuses solutions ont été proposées, mais les concepteurs de protocoles d'aujourd'hui ont un large désavantage par rapport à ceux d'il y a quarante ans. Faire fonctionner ensemble quatre machines identiques n'est pas exactement pareil que concevoir un logiciel de communication ou protocole susceptible d'être utilisé entre des milliards de machines hétérogènes. Apporter du changement dans un système d'une telle ampleur est problématique: il n'est pas possible d'envisager une migration massive du jour au lendemain surtout si des équipements physiques sont concernés. Le changement ne peut être que graduel et via des mises à jour logicielles dans les hôtes d'extrémité. La peur d'un effondrement de l'Internet dû à la congestion comme à la fin des années 80 resurgit. Causés par une surabondance de trafic réseau sur des liens saturés, ces troubles ont mis en avant la nécessité d'introduire un mécanisme de contrôle de congestion dans les protocoles de transport. Si les nouvelles solutions introduites se comportent de façon égoïste quand elles partagent une ressource commune (un lien), alors cette peur est fondée. Il est donc nécessaire de fournir des moyens de vérifier si une solution donnée possède les propriétés adéquates avant de l'introduire dans un système partagé à très large échelle.
256

Prévision des crues au pas de temps horaire : pour une meilleure assimilation de l'information de débit dans un modèle hydrologique

Berthet, Lionel 19 February 2010 (has links) (PDF)
La modélisation hydrologique Pluie - Débit compte parmi les outils incontournables pour prévoir les crues, car elle permet d'atteindre des horizons plus lointains que de nombreuses autres méthodes. Pour tenter d'améliorer la qualité des prévisions, les hydrologues ont proposé de nombreuses approches d'assimilation de données. Cette thèse s'intéresse à un modèle Pluie - Débit fonctionnant au pas de temps horaire. Elle propose une comparaison de nombreuses méthodes de mise-à-jour de ce modèle par l'assimilation de la donnée de débit observé à l'exutoire du bassin versant, dans le but de fournir des prévisions de crue à des horizons allant de quelques heures à quelques jours. Les mises-à-jour étudiées portent sur les paramètres du modèle, ses états et ses sorties. Certaines sont déterministes, d'autres probabilistes. Ce travail a permis de mettre en avant l'interaction qui existe entre la structure du modèle hydrologique et les mises-à-jour. Ces deux éléments se caractérisent par des dynamiques temporelles différentes. Nos résultats plaident pour que le modèle soit considéré comme un tout et non comme la juxtaposition d'un modèle hydrologique et d'une procédure de mise-à-jour. Il nous paraît préférable d'optimiser la structure et de caler le modèle en tenant compte des mises-à-jour qui seront appliquées. Le modèle donnant les meilleures prévisions associe une structure hydrologique très proche de celle obtenue au pas de temps journalier et deux mises-à-jour du modèle, l'une modifiant un état crucial du modèle, l'autre corrigeant ses sorties par un réseau de neurones artificiels. Cette combinaison a été évaluée à l'aide d'une sélection de critères de performance adaptés à l'objectif du modèle, sur un vaste ensemble de bassins versants français. Ses performances sont robustes et se comparent favorablement à d'autres modèles de prévision.
257

Evaluation et Optimisation des Réseaux Sans Fil Denses

Malik, Salman 16 November 2012 (has links) (PDF)
L'objectif principal de cette thèse est d'analyser la performance des réseaux sans fil selon divers scénarios: réseaux fixes, réseaux mobiles, réseaux mono-saut, et réseaux multi-sauts. Dans les deux premières parties de cette thèse, nous nous focalisons sur le placement géométrique des émetteurs simultanés dans le réseau. Dans la première partie, par l'intermédiaire d'une méthode d'accès au médium, nous étudions l'impact de l'emplacement des émetteurs sur la performance du réseau sans fil mono-saut. Nous établissons une structure générale et nous étudions l'emplacement des émetteurs dans le réseau. Ensuite, on compare ces résultats aux résultats obtenus à l'aide d'un par processus ponctuels aléatoires tels que le processus ponctuel de Poisson, ALOHA, le coloriage des nœuds et CSMA. Notre analyse nous permet d'évaluer les gains en performance d'une méthode d'accès au médium efficace qui serait nécessaire pour mettre en œuvre le déploiement optimal des émetteurs. Par exemple, nous montrons que la capacité garantie par une méthode d'accès très complexe est au plus deux fois la capacité d'un contrôle d'accès avec une faible complexité comme ALOHA. Plus tard, nous utilisons des méthodes analytiques pour évaluer les heuristiques pour l'optimisation de la capacité et de la couverture d'un réseau cellulaire existant de façon optimale via l'ajout de stations de base supplémentaires. Dans la deuxième partie, nous étendons notre analyse à un réseau sans fil multi-sauts où nous évaluons la portée de transmission optimale et la capacité du réseau avec différentes méthodes d'accès au médium. Nos analyses dans les deux premières parties de cette thèse nous permettent d'avoir des perspectives par rapport aux limites théoriques de la performance d'une méthode optimisée d'accès au médium pour les réseaux sans fil mono-saut et multi-sauts. Dans la dernière partie, nous concentrons nos efforts sur l'étude du compromi entre les délais et la capacité dans le réseau mobile sans fil. Nous proposons un routage géographique et nous étudions ses propriétés de passage l'échelle. En se basant sur un modèle de mobilité réaliste et des informations disponibles au niveau des nœuds mobiles, notre méthode de routage permet d'obtenir des délais qui sont bornés par une constante lorsque la capacité du réseau augmente de façon quasi-linéaire et quand le nombre de nœuds dans le réseau augmente et tend vers l'infini.
258

Deciphering enhancer activity in Drosophila based on transcription factor occupancy and chromatin state chromatin state characterization

Girardot, Charles 09 July 2012 (has links) (PDF)
La caractérisation des modules cis-régulateurs (CRM) ainsi que de leur activité sont essentiels pour comprendre la régulation des gènes au cours du développement des métazoaires. La technique de l'immunoprécipitation de la chromatine suivie du séquenage à haut débit de l'ADN (ChIP-seq) constitue une approche puissante pour localiser les CRM. Afin de localiser des facteurs génériques au sein de tissus spécifiques, nous avons développé une approche ChIP-seq sur des noyaux triés par cytométrie de flux et localisons des modifications post-traductionelles de l'histone H3, ainsi que l'ARN polymérase II (PolII) dans le mésoderme de la Drosophile. Nous montrons que les CRM actifs sont caractérisés par la présence d'H3 modifiés (K27Ac et K79me3) et de PolII. De plus, la présence et la forme des signaux correspondants à ces marques corrèlent dynamiquement avec l'activité des CRM. Enfin, nous prédisons la présence de CRM actifs et confirmons leur activité in vivo à 89%. Paralllement, nous étudions comment cinq facteurs essentiels au développement cardiaque se coordonnent en cis au sein du mésoderme dorsal, précurseur des mésodermes cardiaque (MC) et viscéral (MV). Nous démontrons que ces facteurs sont recrutés en tant que collectif au niveau des CRM cardiaques via un nombre limité de sites de fixation et en l'absence de contraintes architecturales. En outre, nous découvrons que ces facteurs cardiaques sont recrutés au niveau de CRM actifs dans le MV voisin et activement réprimés dans le MC, reflétant ainsi l'origine tissulaire commune de ces deux populations cellulaires. Nous concluons que les CRM impliqués dans le développement peuvent présenter une empreinte développementale.
259

Purification sanguine au cours du choc septique

Rimmelé, Thomas 23 June 2010 (has links) (PDF)
Le choc septique est la première cause de mortalité en réanimation. Des techniques extracorporelles de purification sanguine sont aujourd'hui proposées pour améliorer le pronostic de cette pathologie. Leur mode d'action est basé sur l'immunomodulation de la réponse inflammatoire systémique de l'hôte, obtenue principalement par épuration nonsélective des médiateurs de l'inflammation. Nous rapportons les résultats de différentes études in vitro, animales et cliniques ayant évalué les techniques de purification sanguine suivantes :hémofiltration à haut débit, hémofiltration en cascade, hémofiltration hautement adsorbante,filtration et adsorption couplée, hémoadsorption, et hémodialyse à haute perméabilité.Ce travail de recherche translationnelle montre que les techniques de purification sanguine sont non seulement capables d'épurer les médiateurs de l'inflammation mais aussi l'endotoxine pour l'hémofiltration hautement adsorbante et l'hémoadsorption. Nous démontrons par ailleurs la faisabilité technique, la sécurité d'application et les intérêts del'hémofiltration en cascade et de l'hémodialyse continue à haute perméabilité. Les effets hémodynamiques bénéfiques des techniques de purification sanguine sont également retrouvés. Pour les années à venir, il conviendra d'optimiser les techniques les plus performantes en tenant compte de leurs avantages et inconvénients respectifs. Sur le planphysiopathologique, l'effet plus direct de ces thérapies sur les leucocytes sera à approfondir. Il semble maintenant admis que convection, diffusion et adsorption ne doivent plus être opposés mais plutôt être considérés comme des mécanismes complémentaires
260

Rein, vasopressine et pression artérielle : importance de la concentration de l'urine et du rythme nycthéméral d'excrétion d'eau et de sodium

Perucca, Julie 11 September 2008 (has links) (PDF)
La vasopressine (AVP), ou hormone antidiurétique, a deux effets majeurs : 1°) des effets sur la perméabilité à l'eau du canal collecteur rénal, médiés par les récepteurs V2, qui permettent la formation d'urine hyperosmotique et donc une économie d'eau ; 2°) des effets vasoconstricteurs sur le muscle lisse vasculaire, médiés par les récepteurs V1a, qui peuvent induire un effet presseur. L'idée que l'AVP puisse jouer un rôle dans l'hypertension artérielle par ses effets vasculaires est souvent avancée, mais les travaux explorant cette hypothèse n'ont pas été concluants. Par contre, peu de travaux ont été consacrés au fait que l'AVP puisse contribuer à l'hypertension de façon indirecte, par son action sur le rein. Pourtant, on sait que l'AVP stimule la réabsorption de sodium dans le canal collecteur en augmentant l'activité du canal sodium épithélial. Il est donc concevable que, dans certains cas, les effets de l'AVP puissent produire une rétention hydrosodée susceptible d'augmenter la pression artérielle. Le but de nos travaux a été d'étudier les relations entre l'excrétion d'eau et de sodium et la pression artérielle, en tenant compte notamment du débit urinaire, de la concentration de l'urine, de l'AVP et du rythme nycthéméral d'excrétion d'eau et de sodium en relation avec celui de la pression artérielle. Nous avons réalisé des travaux expérimentaux chez le rat normal, conscient, et chez des sujets participant à diverses investigations cliniques. Les principaux résultats obtenus sont les suivants. (1) En utilisant des agonistes et des antagonistes sélectifs des récepteurs V1a et V2 in vivo chez le rat, nous avons pu montrer que l'influence de l'AVP sur l'excrétion du sodium était biphasique, du fait d'effets opposés médiés par les récepteurs V1a et V2 et de leurs seuils de réponse différents. (2) Chez l'Homme, nous avons montré que des changements d'apport sodé entraînent des changements correspondants de la concentration urinaire de sodium (qui ne sont pas immédiats), sans modification du débit urinaire, contrairement à l'idée généralement acceptée. (3) Nous avons également montré que le niveau de concentration de l'urine est très variable d'un individu à l'autre mais qu'en moyenne, les hommes ont une osmolalité urinaire plus élevée que les femmes. D'autre part, les afro-américains ont une urine significativement plus concentrée et un volume urinaire plus faible que les caucasiens et un rythme nycthéméral atténué. Chez les hommes jeunes normotendus, la pression pulsée est positivement corrélée à la concentration de l'urine. Ceci suggère que l'AVP a une action plus intense chez certains sujets et pourrait jouer un rôle dans le contrôle de la pression artérielle par ses effets V2. (4) Parmi des sujets présentant des caractéristiques du syndrome métabolique, ceux qui ont un rythme nycthéméral d'excrétion d'eau et de sodium perturbé ont une chute nocturne de pression artérielle plus faible (or, on sait que c'est d'un mauvais pronostic). Ce travail a permis pour la première fois de mettre en évidence des relations entre l'excrétion d'eau et de sodium et la pression artérielle, relations qui sont variables selon la période du nycthémère considérée et dans lesquelles l'AVP est probablement impliquée. Nos études ouvrent ainsi de nouvelles pistes de recherche sur le rôle potentiel de cette hormone dans certaines pathologies cardiovasculaires et rénales qui pourraient, à terme, conduire à l'utilisation d'antagonistes des récepteurs V2 de l'AVP dans le traitement de ces pathologies.

Page generated in 0.0452 seconds