• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 76
  • 19
  • 5
  • 1
  • Tagged with
  • 101
  • 101
  • 101
  • 47
  • 46
  • 36
  • 29
  • 20
  • 13
  • 12
  • 12
  • 11
  • 11
  • 11
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Analyse du Processus de Fissuration dans le Bois sous Sollicitations Mécanique et Climatique : Apports de l'Emission Acoustique / Crack analysis in wood under mechanical and climatic loadings : Contribution of Acoustic Emission

Lamy, Frederic 13 July 2016 (has links)
L’objectif de ce travail de thèse est d’envisager les apports de l’Emission Acoustique (EA) en tant qu’outil de diagnostic et de surveillance des structures et ouvrages en bois. Nous avons appliqué cet outil et développé des méthodes de suivi de la fissuration. Si l’objectif affiché est l’utilisation de l’EA pour de la surveillance in-situ, un passage par des manipulations en laboratoire a été nécessaire pour valider les méthodes mises en œuvre. Des essais de chargement à déplacement imposé ont été réalisés sur des éprouvettes de Douglas (DCB à inertie constante) soumises à un chargement en mode I, pour deux teneurs en eaux distinctes. En parallèle du système d’acquisition acoustique, un système d’acquisition d’images a été utilisé pour suivre l’évolution de la fissuration sur les faces principales des éprouvettes.Dans un premier temps, nous avons constaté que la cinétique de fissuration était corrélée à l’énergie acoustique des signaux enregistrés. Une écoute globale, sans filtration des données, fournit une indication sur l’évolution de l’endommagement d’une structure.En effectuant un premier traitement des données, en considérant les évènements acoustiques et en utilisant des courbes de correction de localisation et d’amplitude des signaux, nous avons pu déterminer la position d’un (ou plusieurs) pic(s) d’activité acoustique. La courbe d’évolution de la position de ce(s) pic(s) d’activité donne un résultat similaire à celle de la pointe de fissure obtenue avec le système d’imagerie. Nous avons ainsi pu estimer un taux de restitution d’énergie moyen Gc. Dans le but de passer à des applications in situ, nous avons mis en œuvre cette méthode lors d’un essai de fluage sur une éprouvette à inertie variable. L’EA a su prendre le relais lorsque les relevés visuels étaient absents. L’EA a aussi pu fournir des informations complémentaires sur l’initiation et la propagation de la fissuration et ce, sur une durée surveillance longue.La méthode de détection des pics d’activités par EA montre que les évènements acoustiques de forte amplitude sont localisés de part et d’autre de la pointe de fissure obtenue par imagerie. Dans un deuxième temps, en effectuant un parallèle avec les méthodes développées dans les matériaux composites, le bois pouvant y être assimilé par certains aspects, nous avons pu, par une utilisation conjointe des outils statistiques, de l’imagerie électronique (MEB) et de l’analyse des formes d’ondes, identifier les mécanismes de ruine présents lors des essais.Après un travail de filtration des données obtenues sur des essais à mode de ruine choisi (traction, flexion et cisaillement), quatre familles d’évènements ont pu être mis en évidence. Par l’étude de leurs formes d’ondes respectives, ces familles ont pu être associées à de la rupture de fibre, de la fissuration de matrice, de la décohésion et du délaminage telles qu’on les retrouve dans les matériaux composites. L’étude au MEB a confirmé qu’une multitude de mécanismes étaient présents sur les plans de fissuration des éprouvettes et la vraisemblance des résultats obtenus.D’un point de vue quantitatif, deux mécanismes de ruine principaux ressortent : la rupture de fibres et la fissuration matricielle. Il s’agit là d’indicateurs dont l’évolution peut constituer un indicateur, précurseur à la ruine d’un ouvrage. Le travail effectué dans cette thèse constitue un pas dans l’emploi de l’EA dans la surveillance des structures et des ouvrages en bois et laisse entrevoir d’autres emplois notamment en mécanique de la rupture et dans l’étude des zones d’élaboration. / The aim of this thesis is to consider what Acoustic Emission (AE) can provide as a tool for diagnosis and assessment of wood structures and works. We applied this tool and developed methods for tracking crack propagation. If our intention is using AE for the in-situ monitoring, we have to do experiments in laboratory to validate the methods developped. Loading tests under imposed displacement were conducted on Douglas samples (DCB constant inertia) subjected to a loading in mode I, for two levels of moisture content. In tandem of the acoustic emission emission system, an image acquisition system was used to record crack propagation on the main faces of the samples.First, we showed that the cracking kinetics correlates with the acoustic energy of the recorded signals. A global analysis, with unfiltered data, provides a good indication of the evolution of the damage within a structure. Then by performing a first data processing, by taking into account the acoustic events and by using correction curves of localization and amplitude, we were able to determine the position of one (or more) peak(s) of acoustic activity. The evolution curve of the position of this (these) peak(s) of activity gives a result similar of the crack tip evolution obtained with the digital image acquisition system. By this way we were able to estimate an average restoration level of critical energy Gc. In the purpose of making in situ applications, we have implemented this method during a creep test on a specimen with variable inertia. A previously loaded sample was placed to a relative humidity variation - from a humid atmosphere to a dry atmosphere. Only spot measurements of the crack tip position has been made. AE was able to take over when visual statements were absent. AE was also able to provide additional information on the initiation and propagation of cracks over a long term monitoring. The method for detecting peaks of activities by AE shows that acoustic events with high amplitude are located on both side of the crack tip obtained by imaging.Secondly, by comparing with the methods developed in composite materials, wood could be considered as such, we were able, by joint use of statistical tools, electronic imaging (SEM) and analysis of waveforms, to identify failure mechanisms which were present during testing. After processing data obtained on failure specific mode test (tensile, bending and shear), four clusters of events have been highlighted. By studying their respective waveforms and signal caracteristics, these families have been associated with the rupture of fiber, matrix cracking, debonding and delamination such as those found in composites. The study of SEM images made from owr samples has confirmed the presence of a multitude of mechanisms on the cracking path of the wood samples. This confirms the reasonableness of results obtained. From a quantitative perspective, two major failure mechanisms stand out: the breaking of fibers and matrix cracking. The evolution of these indicators may be a precursor to the ruin of a structure.The work undertaken in this thesis is a step in the use of AE in monitoring structures and wooden structures. It suggests other purposes for the use of AE in wood. We could imaging using AE in order to study the process zones by using mTDCB samples.
52

Optimal inference for one-sample and multisample principal component analysis

Verdebout, Thomas 24 October 2008 (has links)
Parmi les outils les plus classiques de l'Analyse Multivariée, les Composantes Principales sont aussi un des plus anciens puisqu'elles furent introduites il y a plus d'un siècle par Pearson (1901) et redécouvertes ensuite par Hotelling (1933). Aujourd'hui, cette méthode est abondamment utilisée en Sciences Sociales, en Economie, en Biologie et en Géographie pour ne citer que quelques disciplines. Elle a pour but de réduire de façon optimale (dans un certain sens) le nombre de variables contenues dans un jeu de données.<p>A ce jour, les méthodes d'inférence utilisées en Analyse en Composantes Principales par les praticiens sont généralement fondées sur l'hypothèse de normalité des observations. Hypothèse qui peut, dans bien des situations, être remise en question.<p><p>Le but de ce travail est de construire des procédures de test pour l'Analyse en Composantes Principales qui soient valides sous une famille plus importante de lois de probabilité, la famille des lois elliptiques. Pour ce faire, nous utilisons la méthodologie de Le Cam combinée au principe d'invariance. Ce dernier stipule que si une hypothèse nulle reste invariante sous l'action d'un groupe de transformations, alors, il faut se restreindre à des statistiques de test également invariantes sous l'action de ce groupe. Toutes les hypothèses nulles associées aux problèmes considérés dans ce travail sont invariantes sous l'action d'un groupe de transformations appellées monotones radiales. L'invariant maximal associé à ce groupe est le vecteur des signes multivariés et des rangs des distances de Mahalanobis entre les observations et l'origine. <p><p>Les paramètres d'intérêt en Analyse en composantes Principales sont les vecteurs propres et valeurs propres de matrices définies positives. Ce qui implique que l'espace des paramètres n'est pas linéaire. Nous développons donc une manière d'obtenir des procédures optimales pour des suite d'experiences locales courbées. <p>Les statistiques de test introduites sont optimales au sens de Le Cam et mesurables en l'invariant maximal décrit ci-dessus.<p>Les procédures de test basées sur ces statistiques possèdent de nombreuses propriétés attractives: elles sont valides sous la famille des lois elliptiques, elles sont efficaces sous une densité spécifiée et possèdent de très bonnes efficacités asymptotiques relatives par rapport à leurs concurrentes. En particulier, lorsqu'elles sont basées sur des scores Gaussiens, elles sont aussi efficaces que les procédures Gaussiennes habituelles et sont bien plus efficaces que ces dernières si l'hypothèse de normalité des observations n'est pas remplie. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
53

Concepts et méthodes d'analyse numérique de la dynamique des cavités au sein des protéines et applications à l'élaboration de stratégies novatrices d'inhibition / Concepts and methods of numerical analysis of protein cavities dynamics and application to the design of innovative inhibition strategies

Desdouits, Nathan 29 May 2015 (has links)
Les cavités sont le lieu privilégié des interactions d’une protéine avec ses ligands, et sont donc déterminantes pour sa fonction, elle-même aussi influencée par la dynamique de la protéine. Peu de méthodes permettent d’étudier en détail la dynamique des cavités malgré leur intérêt notamment pour le criblage virtuel. Les cavités d’une protéine définissent un ensemble très labile. Ainsi, suivre une cavité le long d’une trajectoire est ardu car elle peut être sujette à des divisions, fusions, disparitions et apparitions. Je propose une méthode pour résoudre cette question afin d’exploiter la dynamique des cavités de façon systématique et rationnelle, en classifiant les cavités selon les groupes d’atomes les entourant. J’ai identifié les paramètres procurant les meilleurs critères de suivi des cavités. Pour caractériser les évolutions principales de la géométrie des cavités en relation avec la dynamique de la protéine, j’ai développé une méthode basée sur l’Analyse en Composantes Principales. Cette méthode peut être utilisée pour sélectionner ou construire des conformations à partir de la forme de leurs cavités. Deux exemples d’applications sont traitées : la sélection de conformations ayant des cavités de géométries diverses et l’étude de l’évolution des cavités de la myoglobine lors de la diffusion du monoxyde de carbone. Ces deux méthodes ont été utilisées pour trois projets de criblage virtuel ciblant l’ADN-gyrase de M tuberculosis, la subtilisine 1 de P vivax et GLIC, homologue procaryote des récepteurs pentamériques humains. Les molécules sélectionnées à l’aide de ces méthodes ont permis d’identifier une molécule active contre la subtilisine et quatre effecteurs de GLIC. / Cavities are the prime location of the interactions between a protein and its ligands, and thus are crucial for its functions, together with its dynamics. Although cavities have been studied since the seventies, specific studies on their dynamical behavior only appeared recently. Few methods can tackle this aspect, despite its interest for virtual screening and drug design. Protein cavities define an extremely labile ensemble. Following one cavity along a trajectory is therefore an arduous task, because it can be subjected to several events of fusions, divisions, apparitions and disappearances. I propose a method to resolve this question, thus enabling systematic and rational dynamical exploitation of protein cavities. This method classify cavities using the atom groups around them, using algorithms and parameters that I identified as giving best results for cavity tracking. To characterize the main directions of evolution of cavity geometry, and to relate them with the dynamics of the underlying structure, I developed a method based on Principal Component Analysis (PCA). This method can be used to select or build conformations with given cavity shapes. Two examples of applications have been treated: the selection of conformations with diverse cavity geometries, and the analysis of the myoglobin cavity network evolution during the diffusion of carbon monoxide in it. These two methods have been used in three projects involving virtual screening, targeting M. tuberculosis DNA-gyrase, P vivax subtilisin 1 and GLIC, an procaryotic model of human pentameric ligand-gated ion channel. These methods allowed us to identify an inhibitor of subtilisin 1 and four effectors of GLIC.
54

Application des méthodes de partitionnement de données fonctionnelles aux trajectoires de voiture

Paul, Alexandre 08 1900 (has links)
La classification et le regroupement des données fonctionnelles longitudinales ont fait beaucoup de progrès dans les dernières années. Plusieurs méthodes ont été proposées et ont démontré des résultats prometteurs. Pour ce mémoire, on a comparé le comportement des algorithmes de partitionnement sur un ensemble de données décrivant les trajectoires de voitures dans une intersection de Montréal. La motivation est qu’il est coûteux et long de faire la classification manuellement et on démontre dans cet ouvrage qu’il est possible d’obtenir des prédictions adéquates avec les différents algorithmes. Parmi les méthodes utilisées, la méthode distclust utilise l’approche des K-moyennes avec une notion de distance entre les courbes fonctionnelles. On utilise aussi une classification par mélange de densité gaussienne, mclust. Ces deux approches n’étant pas conçues uniquement pour le problème de classification fonctionnelle, on a donc également appliqué des méthodes fonctionnelles spécifiques au problème : fitfclust, funmbclust, funclust et funHDDC. On démontre que les résultats du partitionnement et de la prédiction obtenus par ces approches sont comparables à ceux obtenus par ceux basés sur la distance. Les méthodes fonctionnelles sont préférables, car elles permettent d’utiliser des critères de sélection objectifs comme le AIC et le BIC. On peut donc éviter d’utiliser une partition préétablie pour valider la qualité des algorithmes, et ainsi laisser les données parler d’elles-mêmes. Finalement, on obtient des estimations détaillées de la structure fonctionnelle des courbes, comme sur l’impact de la réduction de données avec une analyse en composantes principales fonctionnelles multivariées. / The study of the clustering of functional data has made a lot of progress in the last couple of years. Multiple methods have been proposed and the respective analysis has shown their eÿciency with some benchmark studies. The objective of this Master’s thesis is to compare those clustering algorithms with datasets from traÿc at an intersection of Montreal. The idea behind this is that the manual classification of these data sets is time-consuming. We show that it is possible to obtain adequate clustering and prediction results with several algorithms. One of the methods that we discussed is distclust : a distance-based algorithm that uses a K-means approach. We will also use a Gaussian mixture density clustering method known as mclust. Although those two techniques are quite e˙ective, they are multi-purpose clustering methods, therefore not tailored to the functional case. With that in mind, we apply four functional clustering methods : fitfclust, funmbclust, funclust, and funHDDC. Our results show that there is no loss in the quality of the clustering between the afore-mentioned functional methods and the multi-purpose ones. We prefer to use the functional ones because they provide a detailed estimation of the functional structure of the trajectory curves. One notable detail is the impact of a dimension reduction done with multivari-ate functional principal components analysis. Furthermore, we can use objective selection criteria such as the AIC and the BIC, and avoid using cluster quality indices that use a pre-existing classification of the data.
55

Le canal du capital bancaire, voie de transmission des chocs réels et financiers / The bank capital cannel, route of eal and financial shocks transmission

Nzengue Pegnet, Christian 18 June 2012 (has links)
Cette thèse est consacrée à l'étude de la transmission des chocs réels et financiers en Europe, en traitant le canal du capital bancaire. La démarche suivie consiste à combiner des approches théoriques et empiriques de façon à mettre en évidence empiriquement l'hétérogénéité de transmission au niveau européen et l'ampleur du canal du capital bancaire. Le premier chapitre consiste à faire un tour d’horizon sur les fonds propres et la structure financière des banques, tout en analysant leur impact au niveau micro et macroéconomique. D'après l’analyse de la littérature relative à ce champ, le processus de transmission semble bien influencé par la spécificité des banques et leur niveau de fonds propres réglementaires. La contrainte exercée sur ces derniers détermine l’ampleur de la transmission des chocs. Le deuxième chapitre est consacré à l'étude des déterminants de la réaction des banques face à un choc. D'après les résultats, le niveau ex ante des fonds propres mais également les différentes composantes du capital réglementaire influencent la réaction des banques. Le troisième chapitre analyse les effets de Bâle I et II sur le mécanisme de transmission des chocs à partir d’un modèle d’équilibre général. Les résultats des simulations montrent que la prise en compte simultanée d’un canal du capital bancaire et d’un mécanisme d’accélérateur financier amplifie la propagation des chocs monétaires à travers un effet prime de liquidité. Le dernier chapitre est consacré à examiner un aspect particulier de la réglementation prudentielle : la résolution des défaillances des institutions financières. L’accent est mis sur les banques d’importance systémique. L’analyse des politiques de résolution adoptées montre que ces dernières ne permettent pas de réduire le risque moral. Aussi, pour prévenir de leur défaut, des règles de fermeture sont mises en place. À cette fin, une modélisation théorique conduit à conclure que des sanctions monétaires, couplées à une surveillance accrue peuvent limiter les incitations des banques à prendre des risques excessifs. Cette présente thèse a apporté de nouveaux résultats par rapport à la littérature et elle a montré le rôle à court et long terme des différents éléments de la structure du bilan des banques résultant de l'estimation du modèle VECM. / In this thesis, we study the transmission of real and financial shocks in Europe focusing on the bank capital channel. In our approach, we consider both theoretical and empirical issues. The ai mis to empirically emphasize the heteregeneity in the transmission of shocks at a European level and the extent of the bank capital channel. In Chapter 1, we do a survey on the structure of bank capital and balance sheet to analyse their impact at micro and macro levels. Considering the existing literature on bank capital and transmission channel, the transmission process seems to be influenced by banks’ specificities and by their level of regulatory capital. Regulatory constraint on bank capital determines the magnitude of the transmission of shocks. In Chapter 2, we study the determinants of banks’ reaction to a shock. Or results show that, the ex ante level of capital and the various components of regulatory capital significantly impact banks’ behaviour. In Chapter 3, we focus on the impact of Basel I and II regulatory frameworks on the transmission of shocks from a general equilibrium model. The simulation results point out that considering simultaneously the bank capital channel and the financial accelerator mechanism increases the propagation of monetary shocks through the liquidity premium effect. In Chapter 4, we examine a singular aspect of the prudential regulation : the resolution of failing financial institutions. We focus on the systemic importance banks. Current policy statements have not reduced moral hazard behaviour of such financial institutions. Thus, to prevent the catastrophic consequences of their failure, bankruptcy laws have been adopted. Considering a theoretical model, we conclude that monetary sanctions, strengthen by stronger monitoring pressures may limit banks’ incentives to take excessive risks. This thesis provides new results to the existing literature. It emphasizes the role of the several components of bank balance sheet structure in both short and long runs, resulting from an estimated VECM.
56

Prise en compte de la flexibilité des ressources humaines dans la planification et l’ordonnancement des activités industrielles / Considering the flexibility of human resources in planning and scheduling industrial activities

Atalla El-Awady Attia, El-Awady 05 April 2013 (has links)
Le besoin croissant de réactivité dans les différents secteurs industriels face à la volatilité des marchés soulève une forte demande de la flexibilité dans leur organisation. Cette flexibilité peut être utilisée pour améliorer la robustesse du planning de référence d’un programme d’activités donné. Les ressources humaines de l’entreprise étant de plus en plus considérées comme le coeur des structures organisationnelles, elles représentent une source de flexibilité renouvelable et viable. Tout d’abord, ce travail a été mis en oeuvre pour modéliser le problème d’affectation multi-périodes des effectifs sur les activités industrielles en considérant deux dimensions de la flexibilité: L’annualisation du temps de travail, qui concerne les politiques de modulation d’horaires, individuels ou collectifs, et la polyvalence des opérateurs, qui induit une vision dynamique de leurs compétences et la nécessité de prévoir les évolutions des performances individuelles en fonction des affectations successives. La nature dynamique de l’efficacité des effectifs a été modélisée en fonction de l’apprentissage par la pratique et de la perte de compétence pendant les périodes d’interruption du travail. En conséquence, nous sommes résolument placés dans un contexte où la durée prévue des activités n’est plus déterministe, mais résulte du nombre des acteurs choisis pour les exécuter, en plus des niveaux de leur expérience. Ensuite, la recherche a été orientée pour répondre à la question : « quelle genre, ou quelle taille, de problème pose le projet que nous devons planifier? ». Par conséquent, les différentes dimensions du problème posé sont classées et analysés pour être évaluées et mesurées. Pour chaque dimension, la méthode d’évaluation la plus pertinente a été proposée : le travail a ensuite consisté à réduire les paramètres résultants en composantes principales en procédant à une analyse factorielle. En résultat, la complexité (ou la simplicité) de la recherche de solution (c’est-à-dire de l’élaboration d’un planning satisfaisant pour un problème donné) peut être évaluée. Pour ce faire, nous avons développé une plate-forme logicielle destinée à résoudre le problème et construire le planning de référence du projet avec l’affectation des ressources associées, plate-forme basée sur les algorithmes génétiques. Le modèle a été validé, et ses paramètres ont été affinés via des plans d’expériences pour garantir la meilleure performance. De plus, la robustesse de ces performances a été étudiée sur la résolution complète d’un échantillon de quatre cents projets, classés selon le nombre de leurs tâches. En raison de l’aspect dynamique de l’efficacité des opérateurs, le présent travail examine un ensemble de facteurs qui influencent le développement de leur polyvalence. Les résultats concluent logiquement qu’une entreprise en quête de flexibilité doit accepter des coûts supplémentaires pour développer la polyvalence de ses opérateurs. Afin de maîtriser ces surcoûts, le nombre des opérateurs qui suivent un programme de développement des compétences doit être optimisé, ainsi que, pour chacun d’eux, le degré de ressemblance entre les nouvelles compétences développées et les compétences initiales, ou le nombre de ces compétences complémentaires (toujours pour chacun d’eux), ainsi enfin que la façon dont les heures de travail des opérateurs doivent être réparties sur la période d’acquisition des compétences. Enfin, ce travail ouvre la porte pour la prise en compte future des facteurs humains et de la flexibilité des effectifs pendant l’élaboration d’un planning de référence. / The growing need of responsiveness for manufacturing companies facing the market volatility raises a strong demand for flexibility in their organization. This flexibility can be used to enhance the robustness of a baseline schedule for a given programme of activities. Since the company personnel are increasingly seen as the core of the organizational structures, they provide the decision-makers with a source of renewable and viable flexibility. First, this work was implemented to model the problem of multi-period workforce allocation on industrial activities with two degrees of flexibility: the annualizing of the working time, which offers opportunities of changing the schedules, individually as well as collectively. The second degree of flexibility is the versatility of operators, which induces a dynamic view of their skills and the need to predict changes in individual performances as a result of successive assignments. The dynamic nature of workforce’s experience was modelled in function of learning-by-doing and of oblivion phenomenon during the work interruption periods. We firmly set ourselves in a context where the expected durations of activities are no longer deterministic, but result from the number and levels of experience of the workers assigned to perform them. After that, the research was oriented to answer the question “What kind of problem is raises the project we are facing to schedule?”: therefore the different dimensions of the project are inventoried and analysed to be measured. For each of these dimensions, the related sensitive assessment methods have been proposed. Relying on the produced correlated measures, the research proposes to aggregate them through a factor analysis in order to produce the main principal components of an instance. Consequently, the complexity or the easiness of solving or realising a given scheduling problem can be evaluated. In that view, we developed a platform software to solve the problem and construct the project baseline schedule with the associated resources allocation. This platform relies on a genetic algorithm. The model has been validated, moreover, its parameters has been tuned to give the best performance, relying on an experimental design procedure. The robustness of its performance was also investigated, by a comprehensive solving of four hundred instances of projects, ranked according to the number of their tasks. Due to the dynamic aspect of the workforce’s experience, this research work investigates a set of different parameters affecting the development of their versatility. The results recommend that the firms seeking for flexibility should accept an amount of extra cost to develop the operators’ multi functionality. In order to control these over-costs, the number of operators who attend a skill development program should be optimised, as well as the similarity of the new developed skills relative to the principal ones, or the number of the additional skills an operator may be trained to, or finally the way the operators’ working hours should be distributed along the period of skill acquisition: this is the field of investigations of the present work which will, in the end, open the door for considering human factors and workforce’s flexibility in generating a work baseline program.
57

Effets dynamiques et conformationnels sur le rôle de transport des albumines sériques / Dynamics and conformational effects on the transport role of serum albumins

Paris, Guillaume 05 June 2014 (has links)
L’albumine sérique humaine (HSA) est une protéine connue pour ses propriétés de transport exceptionnelles et son contenu élevé en ponts disulfure. L’étude de sa dynamique conformationnelle représente un défi important dans la compréhension de ses fonctions physiologiques. Le but de notre travail a été d’étudier cette dynamique conformationnelle et de comprendre le rôle des ponts disulfure dans le maintien de la structure native de la protéine. Notre analyse est basée sur des simulations de dynamique moléculaire couplées à des analyses par composantes principales. Outre la validation de la méthode de simulation les résultats fournissent de nouveaux éclairages sur les principaux effets de la réduction des ponts disulfure dans les albumines sériques. Les processus de dépliement/repliement protéique ont été détaillés. La prédiction de la structure réduite d’équilibre a également fait l’objet d’une attention particulière. Une étude détaillée de la dynamique conformationnelle globale de la protéine ainsi que celle des deux sites principaux de complexation a été effectuée. D’éventuels effets allostériques entre ces deux sites ont été recherchés. Les résultats théoriques obtenus ont été discutés avec les données expérimentales disponibles / Human serum albumin (HSA) is a protein known for its exceptional transport properties and its high content of disulfide bridges. The study of the conformational dynamics represents a major challenge in the comprehension of its physiological functions. The aim of our work was to study the conformational dynamics and to understand the roleof disulfide bonds in the stability of the native protein structure. Our analysis is based on simulations of molecular dynamics coupled with principal component analysis. Beyond the validation of the simulation method, the results provide new insights on the main effects of the disulfide bonds reduction in serum albumins. Protein unfolding/refolding processes were detailed. A special attention is paid to the prediction of the reduced structure at the equilibrium. A detailed study of the global protein conformational dynamics as well as the two main binding sites were performed. Possible allosteric effects between these two sites were researched. The theoretical results have been discussed with the available experimental data
58

Calibration d'algorithmes de type Lasso et analyse statistique de données métallurgiques en aéronautique / Calibration of Lasso-type algorithms & statistical analysis of metallurgical data in aeronautics

Connault, Pierre 06 April 2011 (has links)
Notre thèse comprend deux parties : l’une méthodologique, l’autre appliquée.La partie méthodologique porte sur le Lasso et une variante de cet algorithme, le Lasso projeté, en vue de leur calibration par pente. Notre méthode tire parti des propriétés de parcimonie du Lasso, en envisageant le problème de sa calibration comme un problème de sélection de modèles, permettant l’emploi de critères pénalisés nécessitant le réglage d’une constante. Pour déterminer la forme de la pénalité et la valeur de la constante, nous adaptons les approches classiques de Birgé et Massart. Ceci permet de dégager la notion de pénalité canonique. Pente et validation croisée sont ensuite comparées. La proximité des résultats suggère qu’en pratique on utilise les deux conjointement, avec des corrections visuelles concernant la pente. Des améliorations sur le temps de calcul des pénalités canoniques sont ensuite proposées, mais sans succès patent. La partie appliquée analyse certaines questions métallurgiques en aéronautique. En fiabilité, le grand nombre de variables présentes, relativement au nombre limité de données, mène à une instabilité des solutions par modèles linéaires et à des temps de calculs trop élevés ; c’est pourquoi le Lasso constitue une solution intéressante. Notre méthode de réglage permet souvent de retenir les variables conformes à l’expérience métier. La question de la qualité du procédé de fabrication, par contre, ne peut se traiter au moyen du Lasso. Quatre aspects sont alors envisagés : la détermination des facteurs du procédé, la mise en évidence de recettes, l’étude de la stabilité du procédé dans le temps et la détection de pièces hors-normes. Un schéma général d’étude procédé est ainsi dégagé,en qualité comme en fiabilité. / Our work contains a methodological and an applied part.In the methodological part we study Lasso and a variant of this algorithm : the projectedLasso. We develop slope heuristics to calibrate them.Our approach uses sparsity properties of the Lasso, showing how to remain to a modelselection framework. This both involves a penalized criterion and the tuning of a constant.To this aim, we adopt the classical approaches of Birgé and Massart about slope heuristics.This leads to the notion of canonical penalty.Slope and (tenfold) crossvalidation are then compared through simulations studies.Results suggest the user to consider both of them. In order to increase calculation speed,simplified penalties are (unsuccessfully) tried.The applied part is about aeronautics. The results of the methodological part doapply in reliability : in classical approaches (without Lasso) the large number of variables/number of data ratio leads to an instability of linear models, and to huge calculustimes. Lasso provides a helpful solution.In aeronautics, dealing with reliability questions first needs to study quality of theelaboration and forging processes. Four major axis have to be considered : analysing thefactor of the process, discrimining recipes, studying the impact of time on quality anddetecting outliers. This provides a global statistical strategy of impowerment for processes.
59

Développement de méthodes d'analyse de données en ligne / Development of methods to analyze data steams

Bar, Romain 29 November 2013 (has links)
On suppose que des vecteurs de données de grande dimension arrivant en ligne sont des observations indépendantes d'un vecteur aléatoire. Dans le second chapitre, ce dernier, noté Z, est partitionné en deux vecteurs R et S et les observations sont supposées identiquement distribuées. On définit alors une méthode récursive d'estimation séquentielle des r premiers facteurs de l'ACP projetée de R par rapport à S. On étudie ensuite le cas particulier de l'analyse canonique, puis de l'analyse factorielle discriminante et enfin de l'analyse factorielle des correspondances. Dans chacun de ces cas, on définit plusieurs processus spécifiques à l'analyse envisagée. Dans le troisième chapitre, on suppose que l'espérance En du vecteur aléatoire Zn dont sont issues les observations varie dans le temps. On note Rn = Zn - En et on suppose que les vecteurs Rn forment un échantillon indépendant et identiquement distribué d'un vecteur aléatoire R. On définit plusieurs processus d'approximation stochastique pour estimer des vecteurs directeurs des axes principaux d'une analyse en composantes principales (ACP) partielle de R. On applique ensuite ce résultat au cas particulier de l'analyse canonique généralisée (ACG) partielle après avoir défini un processus d'approximation stochastique de type Robbins-Monro de l'inverse d'une matrice de covariance. Dans le quatrième chapitre, on considère le cas où à la fois l'espérance et la matrice de covariance de Zn varient dans le temps. On donne finalement des résultats de simulation dans le chapitre 5 / High dimensional data are supposed to be independent on-line observations of a random vector. In the second chapter, the latter is denoted by Z and sliced into two random vectors R et S and data are supposed to be identically distributed. A recursive method of sequential estimation of the factors of the projected PCA of R with respect to S is defined. Next, some particular cases are investigated : canonical correlation analysis, canonical discriminant analysis and canonical correspondence analysis ; in each case, several specific methods for the estimation of the factors are proposed. In the third chapter, data are observations of the random vector Zn whose expectation En varies with time. Let Rn = Zn - En be and suppose that the vectors Rn form an independent and identically distributed sample of a random vector R. Stochastic approximation processes are used to estimate on-line direction vectors of the principal axes of a partial principal components analysis (PCA) of ~Z. This is applied next to the particular case of a partial generalized canonical correlation analysis (gCCA) after defining a stochastic approximation process of the Robbins-Monro type to estimate recursively the inverse of a covariance matrix. In the fourth chapter, the case when both expectation and covariance matrix of Zn vary with time n is considered. Finally, simulation results are given in chapter 5
60

Financial time series analysis with competitive neural networks

Roussakov, Maxime 08 1900 (has links)
No description available.

Page generated in 0.1302 seconds