• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 83
  • 27
  • 6
  • 1
  • Tagged with
  • 117
  • 117
  • 106
  • 57
  • 54
  • 43
  • 33
  • 24
  • 16
  • 15
  • 15
  • 14
  • 13
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Modeling of linkage disequilibrium in whole genome genetic association studies. / Modélisation du déséquilibre de liaison dans les études d’association génome entier

Johnson, Randall 19 December 2014 (has links)
L’approche GWAS est un outil essentiel pour la découverte de gènes associés aux maladies, mais elle pose des problèmes de puissance statistique quand il est impossible d’échantillonner génétiquement des dizaines de milliers de sujets. Les résultats présentés ici—ALDsuite, un programme en utilisant une correction nouvelle et efficace pour le déséquilibre de liaison (DL) ancestrale de la population locale, en permettant l'utilisation de marqueurs denses dans le MALD, et la démonstration que la méthode simpleM fournit une correction optimale pour les comparaisons multiples dans le GWAS—réaffirment la valeur de l'analyse en composantes principales (APC) pour capturer l’essence de la complexité des systèmes de grande dimension. L’APC est déjà la norme pour corriger la structure de la population dans le GWAS; mes résultats indiquent qu’elle est aussi une stratégie générale pour faire face à la forte dimensionnalité des données génomiques d'association. / GWAS is an essential tool for disease gene discovery, but has severe problems of statistical power when it is impractical to genetically sample tens of thousands of subjects. The results presented here—a novel, effective correction for local ancestral population LD allowing use of dense markers in MALD using the ALDsuite and the demonstration that the simpleM method provides an optimum Bonferroni correction for multiple comparisons in GWAS, reiterate the value of PCA for capturing the essential part of the complexity of high- dimensional systems. PCA is already standard for correcting for population substructure in GWAS; my results point to it’s broader applicability as a general strategy for dealing with the high dimensionality of genomic association data.
52

Imagerie 3D de l'anatomie interne d'une souris par dynamique de fluorescence

Provencher, David January 2012 (has links)
L'imagerie médicale sur petits animaux est d'une grande utilité en recherche préclinique, car elle permet d'imager in vivo et en 3D l'intérieur de l'animal. Ceci sert au développement de nouveaux médicaments et au suivi de l'évolution de certaines pathologies. En effet, les techniques d'imagerie éliminent la nécessité de sacrifier les animaux, ce qui permet le suivi de processus biomoléculaires sur un même individu et l'obtention de données statistiquement plus significatives. Cependant, l'information moléculaire recueillie s'avère généralement de faible résolution spatiale, notamment en imagerie optique à cause de la diffusion de la lumière, et donc difficile à localiser dans le corps de l'animal. Le jumelage de modalités d'imagerie complémentaires permet donc d'obtenir des images anatomiques et moléculaires superposées, mais cela s'avère toutefois relativement coûteux. Le projet présenté vise à améliorer une technique d'imagerie 2D toute optique à faible coût permettant d'obtenir une carte approximative 3D des organes internes d'une souris. Cette technique devrait permettre le recalage spatial automatique d'informations moléculaires obtenues sur le même appareil, bien que cela n'ait pas encore été démontré. L'amélioration apportée par le projet consiste à obtenir des images anatomiques 3D, plutôt que 2D, en utilisant une caméra tournante et des techniques de vision numérique stéréo. Pour ce faire, la technique existante est d'abord reproduite. Celle-ci consiste à injecter de l'ICG , un marqueur fluorescent non spécifique qui demeure confiné au réseau vasculaire une fois injecté, à une souris anesthésiée. De par leurs métabolismes distincts et le temps que met l'ICG à atteindre chacun d'eux, la dynamique de fluorescence varie entre les organes, mais demeure relativement uniforme à l'intérieur d'un même organe. Certains organes peuvent donc être segmentés par des techniques appropriées de traitement de signal, telles l'analyse en composantes principales et la régression par moindres carrés non négative. Un système d'imagerie à caméra rotative comme le QOS® de Quidd permet d'obtenir des images 2D segmentées de l'anatomie. interne de l'animal selon plusieurs plans de vue. Ces plans de vue servent à reconstruire l'information anatomique en 3D par des techniques de vision numérique. La procédure pourrait être répétée avec un ou plusieurs marqueurs fluorescents fonctionnalisés dans le but d'obtenir des images moléculaires 3D du même animal et de les superposer aux images anatomiques 3D. La technique développée devrait ainsi permettre d'obtenir à faible coût et de manière toute optique des images 3D anatomiques et moléculaires recalées spatialement automatiquement.
53

Modeling of linkage disequilibrium in whole genome genetic association studies / Modélisation du déséquilibre de liaison dans les études d’association génome entier

Johnson, Randall 19 December 2014 (has links)
L’approche GWAS est un outil essentiel pour la découverte de gènes associés aux maladies, mais elle pose des problèmes de puissance statistique quand il est impossible d’échantillonner génétiquement des dizaines de milliers de sujets. Les résultats présentés ici—ALDsuite, un programme en utilisant une correction nouvelle et efficace pour le déséquilibre de liaison (DL) ancestrale de la population locale, en permettant l'utilisation de marqueurs denses dans le MALD, et la démonstration que la méthode simpleM fournit une correction optimale pour les comparaisons multiples dans le GWAS—réaffirment la valeur de l'analyse en composantes principales (APC) pour capturer l’essence de la complexité des systèmes de grande dimension. L’APC est déjà la norme pour corriger la structure de la population dans le GWAS; mes résultats indiquent qu’elle est aussi une stratégie générale pour faire face à la forte dimensionnalité des données génomiques d'association. / GWAS is an essential tool for disease gene discovery, but has severe problems of statistical power when it is impractical to genetically sample tens of thousands of subjects. The results presented here—a novel, effective correction for local ancestral population LD allowing use of dense markers in MALD using the ALDsuite and the demonstration that the simpleM method provides an optimum Bonferroni correction for multiple comparisons in GWAS, reiterate the value of PCA for capturing the essential part of the complexity of high- dimensional systems. PCA is already standard for correcting for population substructure in GWAS; my results point to it’s broader applicability as a general strategy for dealing with the high dimensionality of genomic association data.
54

Fusion de l'information dans les réseaux de capteurs : application à la surveillance de phénomènes physiques / Information aggregation in sensor networks : application to monitoring of physical activities

Ghadban, Nisrine 14 December 2015 (has links)
Cette thèse apporte des solutions clés à deux problèmes omniprésents dans les réseaux de capteurs sans fil, à savoir la précision des mesures acquises dans les régions à faible couverture et la dimensionnalité sans cesse grandissante des données collectées. La première contribution de cette thèse est l’amélioration de la couverture de l'espace à surveiller par le biais de la mobilité des capteurs. Nous avons recours aux méthodes à noyaux en apprentissage statistique pour modéliser un phénomène physique tel que la diffusion d’un gaz. Nous décrivons plusieurs schémas d'optimisation pour améliorer les performances du modèle résultant. Nous proposons plusieurs scénarios de mobilité des capteurs. Ces scénarios définissent d'une part l'ensemble d'apprentissage du modèle et d'autre part le capteur mobile. La seconde contribution de cette thèse se situe dans le contexte de la réduction de la dimensionnalité des données collectées par les capteurs. En se basant sur l'analyse en composantes principales, nous proposons à cet effet des stratégies adaptées au fonctionnement des réseaux de capteurs sans fil. Nous étudions également des problèmes intrinsèques aux réseaux sans fil, dont la désynchronisation entre les nœuds et la présence de bruits de mesures et d’erreurs de communication. Des solutions adéquates avec l'approche Gossip et les mécanismes de lissage sont proposées. L'ensemble des techniques développées dans le cadre de cette thèse est validé sur un réseau de capteurs sans fil qui estime le champ de diffusion d’un gaz / This thesis investigates two major problems that are challenging the wireless sensor networks (WSN): the measurements accuracy in the regions with a low density of sensors and the growing volume of data collected by the sensors. The first contribution of this thesis is to enhance the collected measurements accuracy, and hence to strengthen the monitored space coverage by the WSN, by means of the sensors mobility strategy. To this end, we address the estimation problem in a WSN by kernel-based machine learning methods, in order to model some physical phenomenon, such as a gas diffusion. We propose several optimization schemes to increase the relevance of the model. We take advantage of the sensors mobility to introduce several mobility scenarios. Those scenarios define the training set of the model and the sensor that is selected to perform mobility based on several mobility criteria. The second contribution of this thesis addresses the dimensionality reduction of the set of collected data by the WSN. This dimensionality reduction is based on the principal component analysis techniques. For this purpose, we propose several strategies adapted to the restrictions in WSN. We also study two well-known problems in wireless networks: the non-synchronization problem between nodes of the network, and the noise in measures and communication. We propose appropriate solutions with Gossip-like algorithms and smoothing mechanisms. All the techniques developed in this thesis are validated in a WSN dedicated to the monitoring of a physical species leakage such as the diffusion of a gas
55

Modélisation géométrique du corps humain (externe et interne) à partir des données externes / Subject-specific geometric modeling of the human body (external and internal) from external data

Nérot, Agathe 08 September 2016 (has links)
Les modèles humains numériques sont devenus des outils indispensables à l’étude de la posture est du mouvement dans de nombreux domaines de la biomécanique visant des applications en ergonomie ou pour la clinique. Ces modèles intègrent une représentation géométrique de la surface du corps et un squelette filaire interne composé de segments rigides et d’articulations assurant leur mise en mouvement. La personnalisation des mannequins s'effectue d’abord sur les dimensions anthropométriques externes, servant ensuite de données d’entrée à l’ajustement des longueurs des segments du squelette en interne. Si les données externes sont de plus en plus facilement mesurables à l’aide des outils de scanning 3D actuels, l’enjeu scientifique est de pouvoir prédire des points caractéristiques du squelette en interne à partir de données uniquement externes. L’Institut de Biomécanique Humaine Georges Charpak (Arts et Métiers ParisTech) a développé des méthodes de reconstruction des os et de l’enveloppe externe à partir de radiographies biplanes obtenues avec le système basse dose EOS. En s’appuyant sur cette technologie, ces travaux ont permis de proposer de nouvelles relations statistiques externes-internes pour prédire des points du squelette longitudinal, en particulier l’ensemble des centres articulaires du rachis, à partir d’une base de données de 80 sujets. L'application de ce travail pourrait permettre d’améliorer le réalisme des modèles numériques actuels en vue de mener des analyses biomécaniques, principalement en ergonomie, nécessitant des informations dépendant de la position des articulations comme les mesures d’amplitude de mouvement et de charges articulaires / Digital human models have become instrumental tools in the analysis of posture and motion in many areas of biomechanics, including ergonomics and clinical settings. These models include a geometric representation of the body surface and an internal linkage composed of rigid segments and joints allowing simulation of human movement. The customization of human models first starts with the adjustment of external anthropometric dimensions, which are then used as input data to the adjustment of internal skeletal segments lengths. While the external data points are more readily measurable using current 3D scanning tools, the scientific challenge is to predict the characteristic points of the internal skeleton from external data only. The Institut de Biomécanique Humaine Georges Charpak (Arts et Métiers ParisTech) has developed 3D reconstruction methods of bone and external envelope from biplanar radiographs obtained from the EOS system (EOS Imaging, Paris), a low radiation dose technology. Using this technology, this work allowed proposing new external-internal statistical relationships to predict points of the longitudinal skeleton, particularly the complete set of spine joint centers, from a database of 80 subjects. The implementation of this work could improve the realism of current digital human models used for biomechanical analysis requiring information of joint center location, such as the estimation of range of motion and joint loading
56

Etude multidimensionnelle de la qualité des eaux de surface dans un régime méditerranéen. Cas de quatre rivières au Liban : Damour, Ibrahim, Kadisha-Abou Ali, et Oronte / Multidimensional study of surface water quality in the Mediterranean region. Study case of four Lebanese rivers : Damour, Ibrahim, Kadisha Abou-Ali and Orontes

Salloum, Marise 12 July 2013 (has links)
La préservation de la richesse aquatique est devenue un souci majeur d'ordre mondial suite au risque de pénurie en eau. Au Liban, les rejets anthropiques incontrôlés et incontrôlables au bord des rivières menacent la qualité de ses eaux de surface. Pour cela, quatre cours d'eau libanais ont été choisis comme cadre d'étude : la rivière Damour, la rivière Kadisha-Abou Ali, la rivière Ibrahim et la rivière Oronte.Les différents paramètres physico-chimiques et microbiologiques étudiés ont permis dans un premier temps la construction d'une base de données de chacune de ces rivières. Une seule analyse spatio-temporelle des paramètres séparément n'aide pas à définir l'état trophique des rivières. Partant de l'idée des corrélations que peuvent exister entre certains paramètres, l'Analyse en Composante Principale (ACP) retenant la totalité de l'information sera utilisée en dépit des méthodes classiques. Cet outil statistique a permis de classer les rivières par niveau de pollution. Il a aussi aidé à observer l'impact des apports des polluants sur les différentes stations de rivières étudiées.Pour suivre le devenir des coliformes fécaux dans les eaux, l'ACP des variables microbiologiques a montré la persistance des colonies bactériennes dans les eaux malgré les conditions climatiques diverses et le régime méditerranéen torrentiel des rivières. En effet, les sédiments constituent des réservoirs potentiels de microorganismes pathogènes. Le décrochage bactérien des agrégats sédimentaires et la remise en suspension dans l'eau pose un problème alarmant de santé publique. / Preservation of aquatic wealth has worldwide become a major concern due to the risk of water shortage. In Lebanon, uncontrolled and uncontrollable anthropogenic rejections along rivers threaten the quality of its surface waters. Four Lebanese rivers were selected as study framework: The Damour river, Kadisha-Abu Ali river, Ibrahim river and Orontes river. The physico-chemical and microbiological parameters analyzed has formed a large database of these rivers. The spatio-temporal analysis of separate parameters did not help defining the trophic status of rivers. The assumption that correlations exist between certain parameters, guides us to use the Principal Component Analysis (PCA) in spite of conventional methods. This statistical tool was used to define the pollution levels in rivers. It also leads to observe the impact of pollutants inflows on different sites studied. To follow the fate of fecal coliform in water, the ACP of microbiological variables showed the persistence of bacterial colonies in water despite the various climatic conditions and the Mediterranean flow rate. Indeed, sediments are potential reservoirs of pathogenic microorganisms. The bacteria aggregated to the sediment can be present again in water column causing an alarming public health problem.
57

Analyse du Processus de Fissuration dans le Bois sous Sollicitations Mécanique et Climatique : Apports de l'Emission Acoustique / Crack analysis in wood under mechanical and climatic loadings : Contribution of Acoustic Emission

Lamy, Frederic 13 July 2016 (has links)
L’objectif de ce travail de thèse est d’envisager les apports de l’Emission Acoustique (EA) en tant qu’outil de diagnostic et de surveillance des structures et ouvrages en bois. Nous avons appliqué cet outil et développé des méthodes de suivi de la fissuration. Si l’objectif affiché est l’utilisation de l’EA pour de la surveillance in-situ, un passage par des manipulations en laboratoire a été nécessaire pour valider les méthodes mises en œuvre. Des essais de chargement à déplacement imposé ont été réalisés sur des éprouvettes de Douglas (DCB à inertie constante) soumises à un chargement en mode I, pour deux teneurs en eaux distinctes. En parallèle du système d’acquisition acoustique, un système d’acquisition d’images a été utilisé pour suivre l’évolution de la fissuration sur les faces principales des éprouvettes.Dans un premier temps, nous avons constaté que la cinétique de fissuration était corrélée à l’énergie acoustique des signaux enregistrés. Une écoute globale, sans filtration des données, fournit une indication sur l’évolution de l’endommagement d’une structure.En effectuant un premier traitement des données, en considérant les évènements acoustiques et en utilisant des courbes de correction de localisation et d’amplitude des signaux, nous avons pu déterminer la position d’un (ou plusieurs) pic(s) d’activité acoustique. La courbe d’évolution de la position de ce(s) pic(s) d’activité donne un résultat similaire à celle de la pointe de fissure obtenue avec le système d’imagerie. Nous avons ainsi pu estimer un taux de restitution d’énergie moyen Gc. Dans le but de passer à des applications in situ, nous avons mis en œuvre cette méthode lors d’un essai de fluage sur une éprouvette à inertie variable. L’EA a su prendre le relais lorsque les relevés visuels étaient absents. L’EA a aussi pu fournir des informations complémentaires sur l’initiation et la propagation de la fissuration et ce, sur une durée surveillance longue.La méthode de détection des pics d’activités par EA montre que les évènements acoustiques de forte amplitude sont localisés de part et d’autre de la pointe de fissure obtenue par imagerie. Dans un deuxième temps, en effectuant un parallèle avec les méthodes développées dans les matériaux composites, le bois pouvant y être assimilé par certains aspects, nous avons pu, par une utilisation conjointe des outils statistiques, de l’imagerie électronique (MEB) et de l’analyse des formes d’ondes, identifier les mécanismes de ruine présents lors des essais.Après un travail de filtration des données obtenues sur des essais à mode de ruine choisi (traction, flexion et cisaillement), quatre familles d’évènements ont pu être mis en évidence. Par l’étude de leurs formes d’ondes respectives, ces familles ont pu être associées à de la rupture de fibre, de la fissuration de matrice, de la décohésion et du délaminage telles qu’on les retrouve dans les matériaux composites. L’étude au MEB a confirmé qu’une multitude de mécanismes étaient présents sur les plans de fissuration des éprouvettes et la vraisemblance des résultats obtenus.D’un point de vue quantitatif, deux mécanismes de ruine principaux ressortent : la rupture de fibres et la fissuration matricielle. Il s’agit là d’indicateurs dont l’évolution peut constituer un indicateur, précurseur à la ruine d’un ouvrage. Le travail effectué dans cette thèse constitue un pas dans l’emploi de l’EA dans la surveillance des structures et des ouvrages en bois et laisse entrevoir d’autres emplois notamment en mécanique de la rupture et dans l’étude des zones d’élaboration. / The aim of this thesis is to consider what Acoustic Emission (AE) can provide as a tool for diagnosis and assessment of wood structures and works. We applied this tool and developed methods for tracking crack propagation. If our intention is using AE for the in-situ monitoring, we have to do experiments in laboratory to validate the methods developped. Loading tests under imposed displacement were conducted on Douglas samples (DCB constant inertia) subjected to a loading in mode I, for two levels of moisture content. In tandem of the acoustic emission emission system, an image acquisition system was used to record crack propagation on the main faces of the samples.First, we showed that the cracking kinetics correlates with the acoustic energy of the recorded signals. A global analysis, with unfiltered data, provides a good indication of the evolution of the damage within a structure. Then by performing a first data processing, by taking into account the acoustic events and by using correction curves of localization and amplitude, we were able to determine the position of one (or more) peak(s) of acoustic activity. The evolution curve of the position of this (these) peak(s) of activity gives a result similar of the crack tip evolution obtained with the digital image acquisition system. By this way we were able to estimate an average restoration level of critical energy Gc. In the purpose of making in situ applications, we have implemented this method during a creep test on a specimen with variable inertia. A previously loaded sample was placed to a relative humidity variation - from a humid atmosphere to a dry atmosphere. Only spot measurements of the crack tip position has been made. AE was able to take over when visual statements were absent. AE was also able to provide additional information on the initiation and propagation of cracks over a long term monitoring. The method for detecting peaks of activities by AE shows that acoustic events with high amplitude are located on both side of the crack tip obtained by imaging.Secondly, by comparing with the methods developed in composite materials, wood could be considered as such, we were able, by joint use of statistical tools, electronic imaging (SEM) and analysis of waveforms, to identify failure mechanisms which were present during testing. After processing data obtained on failure specific mode test (tensile, bending and shear), four clusters of events have been highlighted. By studying their respective waveforms and signal caracteristics, these families have been associated with the rupture of fiber, matrix cracking, debonding and delamination such as those found in composites. The study of SEM images made from owr samples has confirmed the presence of a multitude of mechanisms on the cracking path of the wood samples. This confirms the reasonableness of results obtained. From a quantitative perspective, two major failure mechanisms stand out: the breaking of fibers and matrix cracking. The evolution of these indicators may be a precursor to the ruin of a structure.The work undertaken in this thesis is a step in the use of AE in monitoring structures and wooden structures. It suggests other purposes for the use of AE in wood. We could imaging using AE in order to study the process zones by using mTDCB samples.
58

Optimal inference for one-sample and multisample principal component analysis

Verdebout, Thomas 24 October 2008 (has links)
Parmi les outils les plus classiques de l'Analyse Multivariée, les Composantes Principales sont aussi un des plus anciens puisqu'elles furent introduites il y a plus d'un siècle par Pearson (1901) et redécouvertes ensuite par Hotelling (1933). Aujourd'hui, cette méthode est abondamment utilisée en Sciences Sociales, en Economie, en Biologie et en Géographie pour ne citer que quelques disciplines. Elle a pour but de réduire de façon optimale (dans un certain sens) le nombre de variables contenues dans un jeu de données.<p>A ce jour, les méthodes d'inférence utilisées en Analyse en Composantes Principales par les praticiens sont généralement fondées sur l'hypothèse de normalité des observations. Hypothèse qui peut, dans bien des situations, être remise en question.<p><p>Le but de ce travail est de construire des procédures de test pour l'Analyse en Composantes Principales qui soient valides sous une famille plus importante de lois de probabilité, la famille des lois elliptiques. Pour ce faire, nous utilisons la méthodologie de Le Cam combinée au principe d'invariance. Ce dernier stipule que si une hypothèse nulle reste invariante sous l'action d'un groupe de transformations, alors, il faut se restreindre à des statistiques de test également invariantes sous l'action de ce groupe. Toutes les hypothèses nulles associées aux problèmes considérés dans ce travail sont invariantes sous l'action d'un groupe de transformations appellées monotones radiales. L'invariant maximal associé à ce groupe est le vecteur des signes multivariés et des rangs des distances de Mahalanobis entre les observations et l'origine. <p><p>Les paramètres d'intérêt en Analyse en composantes Principales sont les vecteurs propres et valeurs propres de matrices définies positives. Ce qui implique que l'espace des paramètres n'est pas linéaire. Nous développons donc une manière d'obtenir des procédures optimales pour des suite d'experiences locales courbées. <p>Les statistiques de test introduites sont optimales au sens de Le Cam et mesurables en l'invariant maximal décrit ci-dessus.<p>Les procédures de test basées sur ces statistiques possèdent de nombreuses propriétés attractives: elles sont valides sous la famille des lois elliptiques, elles sont efficaces sous une densité spécifiée et possèdent de très bonnes efficacités asymptotiques relatives par rapport à leurs concurrentes. En particulier, lorsqu'elles sont basées sur des scores Gaussiens, elles sont aussi efficaces que les procédures Gaussiennes habituelles et sont bien plus efficaces que ces dernières si l'hypothèse de normalité des observations n'est pas remplie. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
59

Concepts et méthodes d'analyse numérique de la dynamique des cavités au sein des protéines et applications à l'élaboration de stratégies novatrices d'inhibition / Concepts and methods of numerical analysis of protein cavities dynamics and application to the design of innovative inhibition strategies

Desdouits, Nathan 29 May 2015 (has links)
Les cavités sont le lieu privilégié des interactions d’une protéine avec ses ligands, et sont donc déterminantes pour sa fonction, elle-même aussi influencée par la dynamique de la protéine. Peu de méthodes permettent d’étudier en détail la dynamique des cavités malgré leur intérêt notamment pour le criblage virtuel. Les cavités d’une protéine définissent un ensemble très labile. Ainsi, suivre une cavité le long d’une trajectoire est ardu car elle peut être sujette à des divisions, fusions, disparitions et apparitions. Je propose une méthode pour résoudre cette question afin d’exploiter la dynamique des cavités de façon systématique et rationnelle, en classifiant les cavités selon les groupes d’atomes les entourant. J’ai identifié les paramètres procurant les meilleurs critères de suivi des cavités. Pour caractériser les évolutions principales de la géométrie des cavités en relation avec la dynamique de la protéine, j’ai développé une méthode basée sur l’Analyse en Composantes Principales. Cette méthode peut être utilisée pour sélectionner ou construire des conformations à partir de la forme de leurs cavités. Deux exemples d’applications sont traitées : la sélection de conformations ayant des cavités de géométries diverses et l’étude de l’évolution des cavités de la myoglobine lors de la diffusion du monoxyde de carbone. Ces deux méthodes ont été utilisées pour trois projets de criblage virtuel ciblant l’ADN-gyrase de M tuberculosis, la subtilisine 1 de P vivax et GLIC, homologue procaryote des récepteurs pentamériques humains. Les molécules sélectionnées à l’aide de ces méthodes ont permis d’identifier une molécule active contre la subtilisine et quatre effecteurs de GLIC. / Cavities are the prime location of the interactions between a protein and its ligands, and thus are crucial for its functions, together with its dynamics. Although cavities have been studied since the seventies, specific studies on their dynamical behavior only appeared recently. Few methods can tackle this aspect, despite its interest for virtual screening and drug design. Protein cavities define an extremely labile ensemble. Following one cavity along a trajectory is therefore an arduous task, because it can be subjected to several events of fusions, divisions, apparitions and disappearances. I propose a method to resolve this question, thus enabling systematic and rational dynamical exploitation of protein cavities. This method classify cavities using the atom groups around them, using algorithms and parameters that I identified as giving best results for cavity tracking. To characterize the main directions of evolution of cavity geometry, and to relate them with the dynamics of the underlying structure, I developed a method based on Principal Component Analysis (PCA). This method can be used to select or build conformations with given cavity shapes. Two examples of applications have been treated: the selection of conformations with diverse cavity geometries, and the analysis of the myoglobin cavity network evolution during the diffusion of carbon monoxide in it. These two methods have been used in three projects involving virtual screening, targeting M. tuberculosis DNA-gyrase, P vivax subtilisin 1 and GLIC, an procaryotic model of human pentameric ligand-gated ion channel. These methods allowed us to identify an inhibitor of subtilisin 1 and four effectors of GLIC.
60

Application des méthodes de partitionnement de données fonctionnelles aux trajectoires de voiture

Paul, Alexandre 08 1900 (has links)
La classification et le regroupement des données fonctionnelles longitudinales ont fait beaucoup de progrès dans les dernières années. Plusieurs méthodes ont été proposées et ont démontré des résultats prometteurs. Pour ce mémoire, on a comparé le comportement des algorithmes de partitionnement sur un ensemble de données décrivant les trajectoires de voitures dans une intersection de Montréal. La motivation est qu’il est coûteux et long de faire la classification manuellement et on démontre dans cet ouvrage qu’il est possible d’obtenir des prédictions adéquates avec les différents algorithmes. Parmi les méthodes utilisées, la méthode distclust utilise l’approche des K-moyennes avec une notion de distance entre les courbes fonctionnelles. On utilise aussi une classification par mélange de densité gaussienne, mclust. Ces deux approches n’étant pas conçues uniquement pour le problème de classification fonctionnelle, on a donc également appliqué des méthodes fonctionnelles spécifiques au problème : fitfclust, funmbclust, funclust et funHDDC. On démontre que les résultats du partitionnement et de la prédiction obtenus par ces approches sont comparables à ceux obtenus par ceux basés sur la distance. Les méthodes fonctionnelles sont préférables, car elles permettent d’utiliser des critères de sélection objectifs comme le AIC et le BIC. On peut donc éviter d’utiliser une partition préétablie pour valider la qualité des algorithmes, et ainsi laisser les données parler d’elles-mêmes. Finalement, on obtient des estimations détaillées de la structure fonctionnelle des courbes, comme sur l’impact de la réduction de données avec une analyse en composantes principales fonctionnelles multivariées. / The study of the clustering of functional data has made a lot of progress in the last couple of years. Multiple methods have been proposed and the respective analysis has shown their eÿciency with some benchmark studies. The objective of this Master’s thesis is to compare those clustering algorithms with datasets from traÿc at an intersection of Montreal. The idea behind this is that the manual classification of these data sets is time-consuming. We show that it is possible to obtain adequate clustering and prediction results with several algorithms. One of the methods that we discussed is distclust : a distance-based algorithm that uses a K-means approach. We will also use a Gaussian mixture density clustering method known as mclust. Although those two techniques are quite e˙ective, they are multi-purpose clustering methods, therefore not tailored to the functional case. With that in mind, we apply four functional clustering methods : fitfclust, funmbclust, funclust, and funHDDC. Our results show that there is no loss in the quality of the clustering between the afore-mentioned functional methods and the multi-purpose ones. We prefer to use the functional ones because they provide a detailed estimation of the functional structure of the trajectory curves. One notable detail is the impact of a dimension reduction done with multivari-ate functional principal components analysis. Furthermore, we can use objective selection criteria such as the AIC and the BIC, and avoid using cluster quality indices that use a pre-existing classification of the data.

Page generated in 0.0759 seconds