• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1857
  • 935
  • 762
  • 17
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 3576
  • 3545
  • 2361
  • 1799
  • 1786
  • 1775
  • 811
  • 798
  • 797
  • 789
  • 789
  • 789
  • 788
  • 646
  • 645
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Optimisation de potentiels statistiques pour un modèle d'évolution soumis à des contraintes structurales

Bonnard, Cécile 05 January 2010 (has links) (PDF)
Ces dernières années, plusieurs modèles d'évolution moléculaire, basés sur l'hypothèse que les séquences des protéines évoluent sous la contrainte d'une structure bien dénie et constante au cours de l'évolution, ont été développés. Cependant, un tel modèle repose sur l'expression de la fonction repr ésentant le lien entre la structure et sa séquence. Les potentiels statistiques proposent une solution intéressante, mais parmi l'ensemble des potentiels statistiques existants, lequel serait le plus approprié pour ces modèles d'évolution ? Dans cette thèse est développé un cadre probabiliste d'optimisation de potentiels statistiques, dans le contexte du maximum de vraisemblance, et dans une optique de protein design. Le potentiel statistique utilisé ici est composé d'un terme de contact entre deux acides aminés et un terme d'accessibilité au solvant, mais le cadre statistique peut être très facilement généralisé à des formes plus complexes de potentiel. Ce cadre intègre diérentes méthodes d'optimisation, incluant la prise en compte de structures alternatives (decoys) pour l'optimisation des potentiels, et utilise une amélioration algorithmique permettant l'obtention rapide de potentiels statistiques adaptés au contexte. Tout cela nous fournit un cadre robuste et des tests statistiques (à la fois dans le contexte de l'optimisation des potentiels et dans le contexte de l'évolution moléculaire), permettant de comparer diérentes méthodes d'optimisation de potentiels statistiques pour les modèles soumis à des contraintes structurales.
122

Parallélisation et optimisation d'un simulateur de morphogénèse d'organes. Application aux éléments du rein

Caux, Jonathan 30 November 2012 (has links) (PDF)
Depuis plusieurs dizaines d'années, la modélisation du vivant est un enjeu majeur qui nécessite de plus en plus de travaux dans le domaine de la simulation. En effet, elle ouvre la porte à toute une palette d'applications : l'aide à la décision en environnement et en écologie, l'aide à l'enseignement, l'aide à la décision pour les médecins, l'aide à la recherche de nouveaux traitements pharmaceutiques et la biologie dite " prédictive ", etc. Avant de pouvoir aborder un problème, il est nécessaire de pouvoir modéliser de façon précise le système biologique concerné en précisant bien les questions auxquelles devra répondre le modèle. La manipulation et l'étude de systèmes complexes, les systèmes biologiques en étant l'archétype, pose, de façon générale, des problèmes de modélisation et de simulation. C'est dans ce contexte que la société Integrative BioComputing (IBC) développe depuis le début des années 2000 un prototype d'une Plateforme Générique de Modélisation et de Simulation (la PGMS) dont le but est de fournir un environnement pour modéliser et simuler plus simplement les processus et les fonctions biologiques d'un organisme complet avec les organes le composant. La PGMS étant une plateforme générique encore en phase de développement, elle ne possédait pas les performances nécessaires pour permettre de réaliser la modélisation et la simulation d'éléments importants dans des temps suffisamment courts. Il a donc été décidé, afin d'améliorer drastiquement les performances de la PGMS, de paralléliser et d'optimiser l'implémentation de celle-ci ; le but étant de permettre la modélisation et la simulation d'organes complets dans des temps acceptables. Le travail réalisé au cours de cette thèse a donc consisté à traiter différents aspects de la modélisation et de la simulation de systèmes biologiques afin d'accélérer les traitements de ceux-ci. Le traitement le plus gourmand en termes de temps de calcul lors de l'exécution de la PGMS, le calcul des champs physicochimiques, a ainsi fait l'objet d'une étude de faisabilité de sa parallélisation. Parmi les différentes architectures disponibles pour paralléliser une telle application, notre choix s'est porté sur l'utilisation de GPU (Graphical Processing Unit) à des fins de calculs généralistes aussi couramment appelé GPGPU (General-Purpose computation on Graphics Processing Units). Ce choix a été réalisé du fait, entre autres, du coût réduit du matériel et de sa très grande puissance de calcul brute qui en fait une des architectures de parallélisation les plus accessibles du marché. Les résultats de l'étude de faisabilité étant particulièrement concluant, la parallélisation du calcul des champs a ensuite été intégrée à la PGMS. En parallèle, nous avons également mené des travaux d'optimisations pour améliorer les performances séquentielles de la PGMS. Le résultat de ces travaux est une augmentation de la vitesse d'exécution d'un facteur 18,12x sur les simulations les plus longues (passant de 16 minutes pour la simulation non optimisée utilisant un seul cœur CPU à 53 secondes pour la version optimisée utilisant toujours un seul cœur CPU mais aussi un GPU GTX500). L'autre aspect majeur traité dans ces travaux a été d'améliorer les performances algorithmiques pour la simulation d'automates cellulaires en trois dimensions. En effet, ces derniers permettent aussi bien de simuler des comportements biologiques que d'implémenter des mécanismes de modélisation tels que les interactions multi-échelles. Le travail de recherche s'est essentiellement effectué sur des propositions algorithmiques originales afin d'améliorer les simulations réalisées par IBC sur la PGMS. L'accélération logicielle, à travers l'implémentation de l'algorithme Hash‑Life en trois dimensions, et la parallélisation à l'aide de GPGPU ont été étudiées de façon concomitante et ont abouti à des gains très significatifs en temps de calcul.
123

Phronesis, a diagnosis and recovery tool for system administrators

Haen, Christophe 24 October 2013 (has links) (PDF)
The LHCb online system relies on a large and heterogeneous IT infrastructure made from thousands of servers on which many different applications are running. They run a great variety of tasks : critical ones such as data taking and secondary ones like web servers. The administration of such a system and making sure it is working properly represents a very important workload for the small expert-operator team. Research has been performed to try to automatize (some) system administration tasks, starting in 2001 when IBM defined the so-called "self objectives" supposed to lead to "autonomic computing". In this context, we present a framework that makes use of artificial intelligence and machine learning to monitor and diagnose at a low level and in a non intrusive way Linux-based systems and their interaction with software. Moreover, the shared experience approach we use, coupled with an "object oriented paradigm" architecture increases a lot our learning speed, and highlight relations between problems.
124

Polymérisation par plasma froid : un outil pour l'obtention de surfaces fonctionnalisées pour les applications de type biocapteur et pour les systèmes à libération de médicaments

Amorosi, Cédric 26 June 2012 (has links) (PDF)
La réponse biologique d'un matériau est essentiellement reliée à sa surface : cela souligne l'importance du rôle des techniques de modification de surface dans la réalisation d'une réponse biologique adaptée. Ainsi les surfaces fonctionnalisées par des 'hydrogels' minces possèdent un énorme potentiel dans diverses applications. En effet, les hydrogels sensibles au pH et à la température peuvent être utilisés dans le but de libérer de façon contrôlée une molécule dans l'environnement biologique. Ces hydrogels peuvent aussi être utilisés en tant que biocapteur de par leurs fonctions disponibles permettant la reconnaissance spécifique de biomolécules cibles. Différents procédés, choisis principalement en fonction du type de matériau et de la surface à fonctionnaliser, peuvent être utilisés pour l'obtention de ce genre de films. Parmi ces procédés, le choix s'est tourné vers l'utilisation de la polymérisation par plasma dont les propriétés de surfaces peuvent être ajustées en fonction des paramètres de la décharge tel que la puissance électrique, le temps de traitement, la composition et la pression du gaz.
125

Probing the effect of conformational changes in protein complexes by vibrational spectroscopy : bioenergetics and allostery

Yegres, Michelle 24 April 2014 (has links) (PDF)
The mechanism of enzyme regulation through conformational changes is a key pattern in governing cell behavior. In this thesis the focus is on three protein complexes that reflect how protein activity can be regulated by different effectors. Different spectroscopic techniques, like IR and Raman spectroscopy, were used is order to follow the secondary and tertiary conformational changes in protein structure to identify their roles. The first protein of interest was PDZ1 from MAGI-1, involved in cellular signaling. This scaffold domain is known to interact with the E6 protein from HPV16. It was demonstrated that the different conformational states and their affinities to the C-terminus of the viral protein is regulated by the dynamics of the hydrogen bonding network formed by the connection of specific amino acids in three regions of the protein. Study of mutations around the C-terminal area of the protein and the βC strand were performed; demonstrating that both regions are crucial for assembly of the hydrogen bonding network to stabilize the substrate binding. These results leads to conclude that the pathogenicity and prevalence of a particular virus like HPV16 is in its ability to build a stronger hydrogen bonding network in comparison to the natural binder. The allosteric model and the "shift population" model agree that, upon binding, conformational changes distant from a carboxylate binding group might be the key to understanding the binding dynamics between the PDZ domains and the viral proteins.The second protein of interest was a model that constitutes a small scale prototype of the conformational changes observed in more complex proteins; it is a short Copper-binding peptide, the amyloid-beta peptide, known to beinvolved in Alzheimer's disease. The objective with this model was to describe the effect of histidine ligands in the metal centers upon Copper (Cu) reduction, a key electrochemical reaction in the development of Alzheimer's. FTIR difference spectroscopy showed two different spheres of coordination for Cu(II) and Cu(I). The major changes in the structure are dominated by the contribution of the imidazole ring of His residues (His6, His13 and His14), in addition to Asp1 and Tyr10 residues. Changes in the coordination geometry could be key to the pH-dependency of the aggregation observed in the presence of Cu(I). Accordingly, it can be suggested that the formation of the fibrils observed in Alzheimer's patients is not only triggered by the presence of Cu but it is strongly affected by its redox state. The last system of interest was a metalloprotein, the NADH:ubiquinone oxidoreductase (complex I), which plays a key role in the cellular bioenergetics. This protein bears several Fe-S clusters and one flavin and its activity is regulated by the energy produced by a bound substrate and the electron transfer of its cofactors. The metal ligand-vibrations of the cofactors are described in their oxidized and reduced states. Using electrochemistry coupled to FTIR, Resonance Raman and Fluorescence spectroscopies, the investigation of complex I led to the conclusion that the properties of the metal centers are dictated, to a large extent, by their surrounding environment. [...]
126

Problème de livraison - collecte dans un environnement hospitalier : méthodes d'optimisation, modèle de simulation et couplages

André, Virginie 12 December 2011 (has links) (PDF)
La thèse porte sur la proposition de méthodes d'optimisation (modèles mathématiques et métaheuristique) et leur couplage avec un modèle de simulation pour la résolution de problèmes de livraison collecte incluant la planification des horaires des chauffeurs. L'originalité de ces travaux porte sur la diversité des ressources (véhicule, chauffeur, quai de chargement, de déchargement, contenant, ligne de production, aire de nettoyage) et des contraintes (incompatibilité véhicule/contenant, date de début au plus tôt, date de fin souhaitée, planning...) à prendre en compte. L'objectif est de proposer une organisation permettant de réaliser l'ensemble des transports tout en minimisant les retards et les heures supplémentaires. La première partie s'intéresse au transport d'un seul type de produit. Le problème est modélisé comme un RCPSP avec profil de demande en ressources variable. Les transports à vide sont modélisés comme des temps de montage dépendant de la séquence. Deux programmes linéaires en nombres entiers sont proposés. La seconde partie concerne le transport de plusieurs types de produit. Le problème présente une double complexité qui est résolue par le couplage d'une recherche locale itérée avec un modèle de simulation. Le modèle de simulation permet de répondre à la complexité structurelle et fonctionnelle, notamment en raison de la diversité des ressources. La troisième partie intègre la définition des horaires de travail des chauffeurs. Une approche itérative incluant un modèle de simulation, un programme linéaire en nombres entiers et le couplage précédemment présenté est proposée. Ce problème est traité dans un contexte hospitalier pour le transport de contenants propres ou sales (repas, linge, médicaments) entre sites de consommation et sites de production. Chaque partie fait l'objet d'une expérimentation avec des données réelles.
127

Procédés de dopage et de recuit laser pour la réalisation de cellules photovoltaïques au silicium cristallin

Paviet-Salomon, Bertrand 12 September 2012 (has links) (PDF)
Cette thèse se propose d'étudier les procédés de dopage et de recuit laser comme outils permettant la réalisation de cellules photovoltaïques au silicium cristallin. Des émetteurs dopés ou recuits par laser sont tout d'abord réalisés à l'aide de trois lasers et de différentes sources dopantes. Les lasers utilisés sont un laser vert nanoseconde, un laser excimère et un laser ultraviolet à haute cadence. Comme sources dopantes nous avons utilisé le verre de phosphore, des couches de nitrures de silicium dopées au bore ou au phosphore, ou encore des implantations ioniques de bore ou de phosphore. Des dopages très efficaces sont obtenus avec chaque couple laser/source dopante. En particulier, de faibles valeurs de résistances carrées et de densités de courant de saturation sont obtenues. Ces procédés laser sont ensuite appliqués à la réalisation de cellules à émetteur sélectif et à champ arrière au bore. Les cellules à émetteur sélectif dopé par laser (en utilisant le verre de phosphore comme source dopante) atteignent un rendement de 18,3 %, ce qui représente un gain total de 0,6 %abs comparé aux cellules standard à émetteur homogène. Les cellules à champ arrière au bore recuit par laser (à partir d'une implantation ionique de bore) montrent quant à elles un gain de 0,3 %abs par rapport aux cellules à champ arrière à l'aluminium, offrant ainsi un rendement de 16,7 %.
128

Propriétés électriques et optiques des nanofils uniques de silicium

Solanki, Amit 06 December 2012 (has links) (PDF)
Ce travail présente la caractérisation des propriétés d'absorption de lumière par des nanofils uniques (NF) de silicium en utilisant la spectroscopie de photocourant, ainsi qu'une étude préliminaire des processus d'incorporation des dopants et de réalisation de jonction dans les NFs. Tout d'abord, nous commençons par décrire les méthodes de croissance utilisées pour synthétiser des NFs actifs pour la génération de photocourant, avec l'utilisation du chlorure d'hydrogène dans les procédés classiques de croissance CVD catalysée or de fils dopés. Cette méthode offre des structures très faiblement coniques, élargit les températures de procédé, permettant en particulier d'incorporer très efficacement le bore, avec des densités d'accepteurs ionisés allant jusqu'à 1.8E19 cm-3, tout en inhibant la diffusion d'or depuis le catalyseur. L'attention est ensuite portée à la fabrication de jonctions, l'étude de ses caractéristiques électriques, ainsi que sur l'influence de paramètres morphologiques (rayon, position axiale) du fil sur sa résistivité apparente. Dans une seconde partie, nous étudions la réponse en photocourant d'un jeu de NFs actifs de différents diamètres et corrélons nos résultats à un traitement analytique de l'absorption des photons à l'échelle du nanoobjet dans le cadre de la théorie de Mie adaptée au cas cylindrique. L'accord expérience-théorie est très bon pour les deux polarisations (TE-TM). Des résonances dans le spectre d'absorption sont mises en évidence, correspondant à l'excitation de modes propres du fil, et associées à des sections efficaces d'absorption pouvant être supérieures à l'unité. Dans une dernière partie, nous adaptons la stratégie de dépôt antireflet utilisée dans les cellules solaires pour améliorer le couplage de la lumière incidente aux NFs. Pour cela, des dépôts de SiO2 et Si3N4 sont réalisés sur des NFs via la technique de PECVD, nous fournissant par là-même un jeu de structures pourvues d'un dépôt de diélectrique à haute conformité. Se basant sur les spectres d'absorption ainsi acquis, nous obtenons les gains relatifs d'absorption induits par le dépôt de diélectrique et les comparons aux calculs analytiques développés spécifiquement pour obtenir l'absorption dans le cœur seulement du cylindre coaxial, ceci nous permettant également d'estimer la partie du rayonnement incident absorbé dans la coquille diélectrique.
129

Résilience et vulnérabilité dans le cadre de la théorie de la viabilité et des systèmes dynamiques stochastiques contrôlés

Rougé, Charles 17 December 2013 (has links) (PDF)
Cette thèse propose des définitions mathématiques des concepts de résilience et de vulnérabilité dans le cadre des systèmes dynamiques stochastiques contrôlés, et en particulier celui de la viabilité stochastique en temps discret. Elle s'appuie sur les travaux antérieurs définissant la résilience dans le cadre de la viabilité pour des dynamiques déterministes. Les définitions proposées font l'hypothèse qu'il est possible de distinguer des aléas usuels, inclus dans la dynamique, et des événements extrêmes ou surprenants dont on étudie spécifiquement l'impact. La viabilité stochastique et la fiabilité ne mettent en jeu que le premier type d'aléa, et s'intéressent à l'évaluation de la probabilité de sortir d'un sous-ensemble de l'espace d'état dans lequel les propriétés d'intérêt du système sont satisfaites. La viabilité stochastique apparaît ainsi comme une branche de la fiabilité. Un objet central en est le noyau de viabilité stochastique, qui regroupe les états contrôlables pour que leur probabilité de garder les propriétés sur un horizon temporel défini soit supérieure à un seuil donné. Nous proposons de définir la résilience comme la probabilité de revenir dans le noyau de viabilité stochastique après un événement extrême ou surprenant. Nous utilisons la programmation dynamique stochastique pour maximiser la probabilité d'être viable ainsi que pour optimiser la probabilité de résilience à un horizon temporel donné. Nous proposons de définir ensuite la vulnérabilité à partir d'une fonction de dommage définie sur toutes les trajectoires possibles du système. La distribution des trajectoires définit donc une distribution de probabilité des dommages et nous définissons la vulnérabilité comme une statistique sur cette distribution. Cette définition s'applique aux deux types d'aléas définis précédemment. D'une part, en considérant les aléas du premier type, nous définissons des ensembles tels que la vulnérabilité soit inférieure à un seuil, ce qui généralise la notion de noyau de viabilité stochastique. D'autre part, après un aléa du deuxième type, la vulnérabilité fournit des indicateurs qui aident à décrire les trajectoires de retour (en considérant que seul l'aléa de premier type intervient). Des indicateurs de vulnérabilité lié à un coût ou au franchissement d'un seuil peuvent être minimisés par la programmation dynamique stochastique. Nous illustrons les concepts et outils développés dans la thèse en les appliquant aux indicateurs pré-existants de fiabilité et de vulnérabilité, utilisés pour évaluer la performance d'un système d'approvisionnement en eau. En particulier, nous proposons un algorithme de programmation dynamique stochastique pour minimiser un critère qui combine des critères de coût et de sortie de l'ensemble de contraintes. Les concepts sont ensuite articulés pour décrire la performance d'un réservoir.
130

Suivi visuel multi-cibles par partitionnement de détections : application à la construction d'albums de visages

Schwab, Siméon 08 July 2013 (has links) (PDF)
Ce mémoire décrit mes travaux de thèse menés au sein de l'équipe ComSee (Computers that See) rattachée à l'axe ISPR (Image, Systèmes de Perception et Robotique) de l'Institut Pascal. Celle-ci a été financée par la société Vesalis par le biais d'une convention CIFRE avec l'Institut Pascal, subventionnée par l'ANRT (Association Nationale de la Recherche et de la Technologie). Les travaux de thèse s'inscrivent dans le cadre de l'automatisation de la fouille d'archives vidéo intervenant lors d'enquêtes policières. L'application rattachée à cette thèse concerne la création automatique d'un album photo des individus apparaissant sur une séquence de vidéosurveillance. En s'appuyant sur un détecteur de visages, l'objectif est de regrouper par identité les visages détectés sur l'ensemble d'une séquence vidéo. Comme la reconnaissance faciale en environnement non-contrôlé reste difficilement exploitable, les travaux se sont orientés vers le suivi visuel multi-cibles global basé détections. Ce type de suivi est relativement récent. Il fait intervenir un détecteur d'objets et traite la vidéo dans son ensemble (en opposition au traitement séquentiel couramment utilisé). Cette problématique a été représentée par un modèle probabiliste de type Maximum A Posteriori. La recherche de ce maximum fait intervenir un algorithme de circulation de flot sur un graphe, issu de travaux antérieurs. Ceci permet l'obtention d'une solution optimale au problème (défini par l'a posteriori) du regroupement des détections pour le suivi. L'accent a particulièrement été mis sur la représentation de la similarité entre les détections qui s'intègre dans le terme de vraisemblance du modèle. Plusieurs mesures de similarités s'appuyant sur différents indices (temps, position dans l'image, apparence et mouvement local) ont été testées. Une méthode originale d'estimation de ces similarités entre les visages détectés a été développée pour fusionner les différentes informations et s'adapter à la situation rencontrée. Plusieurs expérimentations ont été menées sur des situations complexes, mais réalistes, de scènes de vidéosurveillance. Même si les qualités des albums construits ne satisfont pas encore à une utilisation pratique, le système de regroupement de détections mis en œuvre au cours de cette thèse donne déjà une première solution. Grâce au point de vue partitionnement de données adopté au cours de cette thèse, le suivi multi-cibles développé permet une extension simple à du suivi autre que celui des visages.

Page generated in 0.0632 seconds