• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 154
  • 78
  • 21
  • Tagged with
  • 255
  • 105
  • 52
  • 32
  • 31
  • 31
  • 30
  • 29
  • 25
  • 25
  • 21
  • 20
  • 19
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Simulations numériques de la dynamique des protéines : translation de ligands, flexibilité et dynamique des boucles

St-Pierre, Jean-François 03 1900 (has links)
La flexibilité est une caractéristique intrinsèque des protéines qui doivent, dès le mo- ment de leur synthèse, passer d’un état de chaîne linéaire à un état de structure tridimen- sionnelle repliée et enzymatiquement active. Certaines protéines restent flexibles une fois repliées et subissent des changements de conformation de grande amplitude lors de leur cycle enzymatique. D’autres contiennent des segments si flexibles que leur structure ne peut être résolue par des méthodes expérimentales. Dans cette thèse, nous présentons notre application de méthodes in silico d’analyse de la flexibilité des protéines : • À l’aide des méthodes de dynamique moléculaire dirigée et d’échantillonnage pa- rapluie, nous avons caractérisé les trajectoires de liaison de l’inhibiteur Z-pro- prolinal à la protéine Prolyl oligopeptidase et identifié la trajectoire la plus pro- bable. Nos simulations ont aussi identifié un mode probable de recrutement des ligands utilisant une boucle flexible de 19 acides aminés à l’interface des deux domaines de la protéine. • En utilisant les méthodes de dynamique moléculaire traditionnelle et dirigée, nous avons examiné la stabilité de la protéine SAV1866 dans sa forme fermée insérée dans une membrane lipidique et étudié un des modes d’ouverture possibles par la séparation de ses domaines liant le nucléotide. • Nous avons adapté auproblème de la prédiction de la structure des longues boucles flexibles la méthode d’activation et de relaxation ART-nouveau précédemment uti- lisée dans l’étude du repliement et de l’agrégation de protéines. Appliqué au replie- ment de boucles de 8 à 20 acides aminés, la méthode démontre une dépendance quadratique du temps d’exécution sur la longueur des boucles, rendant possible l’étude de boucles encore plus longues. / Flexibility is an intrinsic characteristic of proteins who from the moment of synthesis into a linear chain of amino acids, have to adopt an enzymatically active tridimensionnel structure. Some proteins stay flexible once folded and display large amplitude confor- mational changes during their enzymatic cycles. Others contain parts that are so flexible that their structure can’t be resolved using experimental methods. In this thesis, we present our application of in silico methods to the study of protein flexibility. • Using steered molecular dynamics and umbrella sampling, we characterized the binding trajectories of the Z-pro-prolinal inhibiter to the Prolyl oligopeptidase pro- tein and we identified the most probable trajectory. Our simulations also found a possible ligand recrutement mechanism that involves a 19 amino acids flexible loop at the interface of the two domains of the protein. • Using traditional and steered molecular dynamics, we examined the stability of the SAV1866 protein in its closed conformation in a lipid membrane and we studied one of its proposed opening modes by separating its nucleotide binding domains. • We also adapted the activation-relaxation technique ART-nouveau which was pre- viously used to study protein folding and aggregation to the problem of structure prediction of large flexible loops. When tested on loops of 8 to 20 amino acids, the method demonstrate a quadratic execution time dependance on the loop length, which makes it possible to use the method on even larger loops.
122

Effet de l'échantillonnage non proportionnel de cas et de témoins sur une méthode de vraisemblance maximale pour l'estimation de la position d'une mutation sous sélection

Villandré, Luc January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
123

Échantillonnage des distributions continues non uniformes en précision arbitraire et protocole pour l'échantillonnage exact distribué des distributions discrètes quantiques

Gravel, Claude 03 1900 (has links)
La thèse est divisée principalement en deux parties. La première partie regroupe les chapitres 2 et 3. La deuxième partie regroupe les chapitres 4 et 5. La première partie concerne l'échantillonnage de distributions continues non uniformes garantissant un niveau fixe de précision. Knuth et Yao démontrèrent en 1976 comment échantillonner exactement n'importe quelle distribution discrète en n'ayant recours qu'à une source de bits non biaisés indépendants et identiquement distribués. La première partie de cette thèse généralise en quelque sorte la théorie de Knuth et Yao aux distributions continues non uniformes, une fois la précision fixée. Une borne inférieure ainsi que des bornes supérieures pour des algorithmes génériques comme l'inversion et la discrétisation figurent parmi les résultats de cette première partie. De plus, une nouvelle preuve simple du résultat principal de l'article original de Knuth et Yao figure parmi les résultats de cette thèse. La deuxième partie concerne la résolution d'un problème en théorie de la complexité de la communication, un problème qui naquit avec l'avènement de l'informatique quantique. Étant donné une distribution discrète paramétrée par un vecteur réel de dimension N et un réseau de N ordinateurs ayant accès à une source de bits non biaisés indépendants et identiquement distribués où chaque ordinateur possède un et un seul des N paramètres, un protocole distribué est établi afin d'échantillonner exactement ladite distribution. / The thesis is divided mainly into two parts. Chapters 2 and 3 contain the first part. Chapters 4 and 5 contain the second part. The first part is about sampling non uniform continuous distributions with a given level of precision. Knuth and Yao showed in 1976 how to sample exactly any discrete distribution using a source of unbiased identically and independently distributed bits. The first part of this thesis extends the theory of Knuth and Yao to non uniform continuous distributions once the precision is fixed. A lower bound and upper bounds for generic algorithms based on discretization or inversion are given as well. In addition, a new simple proof of the original result of Knuth and Yao is given here. The second part is about the solution of a problem in communication complexity that originally appeared within the field of quantum information science. Given a network of N computers with a server capable of generating random unbiased bits and a parametric discrete distribution with a vector of N real parameters where each computer owns one and only one parameter, a protocol to sample exactly the distribution in a distributed manner is given here.
124

Le décours temporel de l'utilisation des fréquences spatiales dans les troubles du spectre autistique

Caplette, Laurent 08 1900 (has links)
Notre système visuel extrait d'ordinaire l'information en basses fréquences spatiales (FS) avant celles en hautes FS. L'information globale extraite tôt peut ainsi activer des hypothèses sur l'identité de l'objet et guider l'extraction d'information plus fine spécifique par la suite. Dans les troubles du spectre autistique (TSA), toutefois, la perception des FS est atypique. De plus, la perception des individus atteints de TSA semble être moins influencée par leurs a priori et connaissances antérieures. Dans l'étude décrite dans le corps de ce mémoire, nous avions pour but de vérifier si l'a priori de traiter l'information des basses aux hautes FS était présent chez les individus atteints de TSA. Nous avons comparé le décours temporel de l'utilisation des FS chez des sujets neurotypiques et atteints de TSA en échantillonnant aléatoirement et exhaustivement l'espace temps x FS. Les sujets neurotypiques extrayaient les basses FS avant les plus hautes: nous avons ainsi pu répliquer le résultat de plusieurs études antérieures, tout en le caractérisant avec plus de précision que jamais auparavant. Les sujets atteints de TSA, quant à eux, extrayaient toutes les FS utiles, basses et hautes, dès le début, indiquant qu'ils ne possédaient pas l'a priori présent chez les neurotypiques. Il semblerait ainsi que les individus atteints de TSA extraient les FS de manière purement ascendante, l'extraction n'étant pas guidée par l'activation d'hypothèses. / Our visual system usually samples low spatial frequency (SF) information before higher SF information. The coarse information thereby extracted can activate hypotheses in regard to the object's identity and guide further extraction of specific finer information. In autism spectrum disorder (ASD) however, SF perception is atypical. Moreover, individuals with ASD seem to rely less on their prior knowledge when perceiving objects. In the present study, we aimed to verify if the prior according to which we sample visual information in a coarse-to-fine fashion is existent in ASD. We compared the time course of SF sampling in neurotypical and ASD subjects by randomly and exhaustively sampling the SF x time space. Neurotypicals were found to sample low SFs before higher ones, thereby replicating the finding from many other studies, but characterizing it with much greater precision. ASD subjects were found, for their part, to extract SFs in a more fine-to-coarse fashion, extracting all relevant SFs upon beginning. This indicated that they did not possess a coarse-to-fine prior. Thus, individuals with ASD seem to sample information in a purely bottom-up fashion, without the guidance from hypotheses activated by coarse information.
125

Contrôle adaptatif et autoréglage : applications de l'approximation stochastique

Baltcheva, Irina January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
126

Contribution à la commande et l'observation des systèmes dynamiques continus sous mesures clairsemées / Contribution to the observation and control of continuous systems under sparse measurements

Khaled, Yassine 13 June 2014 (has links)
Les travaux de cette thèse portent sur l'analyse de stabilité des systèmes dynamiques impulsionnels et la synthèse d'observateurs pour les systèmes dynamiques continus avec mesures discrètes.On considère que les mesures sont prises d'une façon aléatoire pour éviter la perte d'observabilité et on montre que la synthèse d'un observateur impulsionnel couplé avec un observateur classique continu via un gain est une solution pertinente pour reconstruire l'état continu du système et commander et stabiliser ces systèmes par un retour d'état basé sur ces observateurs. De plus, ce nouveau schéma d'observateur (impulsionnel couplé avec observateur classique continu) permet de reconstruire le vecteur de sortie même si les mesures prises ne vérifient pas les conditions du Shannon-Nyquist. Ensuite, un chapitre est dédié à la détection de mode actif et à la reconstruction de son état associé, ceci pour une classe de systèmes linéaires hybrides sous mesures clairsemées. La solution que nous avons apportée à ce problème est d'une part l'analyse d'observabilité des systèmes sous échantillonnage aléatoire et d'autre part la synthèse d'observateurs impulsionnels. Ici, la première approche est basée sur le concept d'échantillonnage compressif bien connu en théorie du traitementdu signal. Une synthèse d'observateurs impulsionnels a été présentée pourquelques cas particuliers.D'autre part, une nouvelle méthode de synthèse d'observateurs spécifique aux systèmes non linéaire continus avec mesures discrètes est également proposée. Cette méthode utilise la condition de Lipchitz pour la transformation d'un système non linéaire à un système linéaire à paramètres variants basée sur l'utilisation du théorème des accroissements finis afin de synthétiser des observateurs impulsionnels.Enfin, les observateurs proposés sont testés sur une application à la synchronisation de systèmes chaotiques dédiés à la communication sécurisée. / This thesis deals with the stability analysis of impulsive systems and the design of impulsive observers for systems under sparse measurements.The measures are sparse but random in order to avoid the loss of observability.Moreover, it is highlighted that the synthesis of an impulsive observer coupled with a classical continuous observer via an observer gain is an appropriate solution to reconstruct the continuous system state and to stabilize this system by state feedback based on these observers. In addition, this new scheme (impulsive observer coupled with classical observer) can reconstruct the output vector, even if the available measurement do not verify the Nyquist-Shannon conditions. Another part is dedicated to the detection of the active mode and to the estimation of the associated continuous state for a class of linear hybrid systems under sparse measurements. The solution we found to this problem is firstly the observability of systems under random sampling and secondly the design of an impulsive observer. Here, the first approach is based on the concept of compressive sensing theory well known in signal processing. The design of the impulsive observer is presented for some special classes of nonlinear systems.Moreover, a novel observer design method for continuous nonlinear systems withdiscrete measurements is proposed. This method uses the Lipchitz conditions andthe mean value theorem in order to transform the problem in a linear one.Finally, the proposed observer are tested on application to the synchronization of chaotic systems dedicated to the secure communications
127

Échantillonnage pour l'approximation de fonctions sur des maillages / Function approximation on meshes by sampling

Nivoliers, Vincent 30 November 2012 (has links)
La numérisation est un procédé qui consiste à enregistrer un objet dans un ordinateur pour pouvoir ensuite le manipuler à l'aide d'outils informatiques. Nous nous intéressons dans ce manuscrit à la numérisation d'objets tridimensionnels. Il s'agit tout d'abord d'enregistrer leur forme. De nombreuses méthodes ont été développées pour répondre à ce problème, et nous nous concentrerons sur les objets représentés par des maillages. Sur ces objets, il est alors utile de pouvoir représenter des attributs tels que la couleur, la température ou la charge électrique, selon l'application. Nous proposons deux approches complémentaires pour aborder ce problème. La première est fondée sur le placage de textures. Cette technique consiste à déplier (paramétrer) le maillage à plat sur une image dans laquelle l'attribut est stocké. Une valeur récupérée dans l'image est ainsi associée à chaque point de l'objet. Nous proposerons une méthode permettant de masquer l'artéfact des coutures qui est inhérent à cette technique. Déplier le maillage nécessite qu'il soit de bonne qualité, ce qui n'est pas toujours le cas. Nous décrivons donc également dans un second temps une approche de l'échantillonnage d'une surface via un diagramme de Voronoï restreint. Nous expliquons en particulier comment calculer efficacement un tel objet et comment l'optimiser par rapport à un critère de qualité. Ces résultats sont ensuite appliqués au problème de l'ajustement de surfaces / Digitalisation is an operation which consists in storing an object in a computer for further manipulation using data processing tools. In this document, we are interested in the digitalisation of three-dimensional objects. It is first a matter of recording the shape of the object. Many methods have been developed to address this problem, and we will focus on objects described as meshes. On such objects the storage of attributes like colour, temperature or electrical charge is often useful, depending on the application. We will describe two complementary approaches to deal with this issue. The first one relies on texture mapping. This technique consists in unfolding ? parametrising ? the mesh on a flat image in which the attribute is stored. A value recovered from the image can therefore be associated with each point of the object. We will describe a method which hides the seam artifact, commonly encountered using this technique. Unfolding the mesh demands that its quality be good, which is not always the case. We thus secondly describe a surface sampling method based on a restricted Voronoï diagram. We especially detail how to efficiently compute such an object and how to optimise it with respect to some quality measure. These results are then applied to the surface fitting problem
128

Estimation et détection de signaux cyclostationnaires par les méthodes de ré-échantillonnage statistique : applications à l'analyse des signaux biomécaniques / Estimation and detection of cyclostationary signals by the mean of statistical resampling methods : applications to the analysis of biomechanical signals

Maiz, Sofiane 04 December 2014 (has links)
Dans le cadre de l’analyse de signaux mécaniques ou biomécaniques les outils d’aide à la décision reposent sur des hypothèses statistiques fortes: loi de probabilité normale, stationnarité des variables, variables centrées, variables indépendantes,…Or ces hypothèses sont parfois non vérifiées et engendrent des décisions erronées. Ce travail a pour objectif de proposer des méthodes qui font abstractions de certaines hypothèses et notamment de la stationnarité et de la gaussiannité des variables aléatoires. Dans cette thèse, nous avons revisité certaines méthodes de ré échantillonnages statistiques et de bootstrap et développé d’autres en incluant la cyclostationnarité des signaux. Ensuite, nous avons appliqué ces méthodes pour l’analyse de signaux biomécaniques provenant de coureurs expérimentés et d’une population de personnes âgées. Les résultats obtenus ont permis de mettre en évidence des changements significatifs dans le contenu fréquentiel du second ordre des signaux étudiés. Ces changements ont été des indicateurs très pertinents pour la description et la caractérisation de la fatigue d’un coureur professionnel, d’une part, et pour la compréhension du mécanisme complexe de la marche à pied simple et avec tâche cognitive chez les personnes âgées d’autre part / In mechanical and biomechanical signal analysis field, the decision support tools are based on strong statistical assumptions such as: normality, stationarity of variables, independence... However, these assumptions are very often unverified, consequently, wrong decisions could be taken. This work aims to propose new methods that make abstractions of such assumptions, including the stationarity and gaussianity of variables. In this thesis, we revisited some statistical resampling methods and developed new bootstrap approaches with including the cyclostationary nature of signals. Next, we applied these methods to the analysis of biomechanical signals from experienced runners and a population of elderly people. The obtained results allowed us to demonstrate significant changes in the second order frequency content of the signals under study. These changes were very relevant indicators for the description and characterization of the fatigue of a high level professional runner. Moreover, these changes helped us to understand the mechanism of normal walking and under a cognitive task condition (double task walking) in elderly
129

Choix de localisation résidentielle des ménages en milieu urbain : les apports récents des modèles de choix discrets en présence d'un nombre élevé d'alternatives / Residential location choice in urban areas : recent discrete choice model with large number of alternatives

Aissaoui, Hind 30 September 2016 (has links)
Cette thèse, portant sur le choix de localisation résidentielle des ménages, s’inscrit dans le cadre théorique de la microéconomie urbaine et de l’utilité aléatoire. Si l’approche des choix discrets reste la plus appropriée dans ce domaine, la difficulté réside dans l’adaptation de ce type de modèles au contexte spatial (autocorrélation spatiale, grand nombre d’alternatives de choix) d’une part, et dans la manière de définir l’échelle de désagrégation d’autre part. Pour ce faire, nous avons procédé en deux temps. Nous avons estimé un logit multinomial avec un échantillon aléatoire d’alternatives pour comprendre le processus de choix de localisation résidentielle, avant de tester l’apport d’une structure hiérarchique pour traiter les problèmes d’autocorrélation spatiale. Cela a aussi permis l’investigation d’une nouvelle méthode de correction des biais liés à l’échantillonnage d’alternatives dans le cas du modèle logit emboîté. En termes de résultats, nous avons montré que la qualité de l’environnement social est le facteur le plus déterminant, sans remettre en cause le poids toujours important de l’accessibilité à l’emploi. Au plan méthodologique, nous avons été en mesure de tester l’apport de l’utilisation d’un modèle logit emboîté pour analyser les choix de localisation de l’aire urbaine de Lyon. Cependant, nous n’avons pas pu dépasser la difficulté de séparer l’autocorrélation spatiale et entre les nids. Le calage du modèle de choix de localisation en 1999 et en 2007 a aussi permis de donner des éléments de réponse sur la transférabilité temporelle des modèles de choix de localisation et de questionner, dans les travaux futurs, le pouvoir prédictif d’un modèle de choix de localisation. / This thesis, focusing on the choice of residential location, is based on the theoretical framework of urban micro-economy and random utility. Though discrete choice modelling is the most appropriate in this field, the difficulty lies in choosing the appropriate model to the spatial context of residential location choice (spatial autocorrelation, large number of alternatives), on the one hand, and in the way of defining the spatial scale, on the other hand. For this purpose, we proceeded in two stages. We estimated a multinomial logit with random sampling of alternatives to understand the process of residential location choice before taking into account the spatial autocorrelation, and estimating a nested logit model. It also allowed to investigate the feasibility of applying a new method to correct biases of sampling alternatives in the case of nested logit model. In terms of results, we have shown that social environment are the most important determinants of residential location choice. Though job accessibility still weigh on household choice decision. In terms of methodology, we were able to test the feasibility of estimating a nested logit model with sampling of alternatives to analyze the choice of location of Lyon urban area. However, we could not overcome the difficulty of distinguishing spatial autocorrelation from nesting. The use of 1999 and 2007 databases to model residential location choice also helped to provide answers on the temporal transferability of location choice models and discuss in future work the predictive power of a location choice model.
130

Accélération de la simulation Monte Carlo du transport des neutrons dans un milieu évoluant par la méthode des échantillons corrélés / Monte Carlo burnup codes acceleration using the correlated sampling method

Dieudonné, Cyril 12 December 2013 (has links)
Depuis quelques années, les codes de calculs Monte Carlo évoluant qui couplent un code Monte Carlo, pour simuler le transport des neutrons, à un solveur déterministe, qui traite l'évolution des milieux dû à l'irradiation sous le flux neutronique, sont apparus. Ces codes permettent de résoudre les équations de Boltzmann et de Bateman dans des configurations complexes en trois dimensions et de s'affranchir des hypothèses multi-groupes utilisées par les solveurs déterministes. En contrepartie, l'utilisation du code Monte Carlo à chaque pas de temps requiert un temps de calcul prohibitif.Dans ce manuscrit, nous présentons une méthodologie originale évitant la répétition des simulations Monte Carlo coûteuses en temps et en les remplaçant par des perturbations. En effet, les différentes simulations Monte Carlo successives peuvent être vues comme des perturbations des concentrations isotopiques de la première simulation. Dans une première partie, nous présenterons donc cette méthode, ainsi que la méthode de perturbation utilisée: l'échantillonnage corrélé. Dans un second temps, nous mettrons en place un modèle théorique permettant d'étudier les caractéristiques de la méthode des échantillons corrélés afin de comprendre ses effets durant les calculs en évolution. Enfin, dans la troisième partie nous discuterons de l'implémentation de cette méthode dans TRIPOLI-4® en apportant quelques précisions sur le schéma de calcul qui apportera une accélération importante aux calculs en évolution. Nous commencerons par valider et optimiser le schéma de perturbation à travers l'étude de l'évolution d'une cellule de combustible de type REP. Puis cette technique sera utilisée sur un calcul d'un assemblage de type REP en début de cycle. Après avoir validé la méthode avec un calcul de référence, nous montrerons qu'elle peut accélérer les codes Monte Carlo évoluant standard de presque un ordre de grandeur. / For several years, Monte Carlo burnup/depletion codes have appeared, which couple Monte Carlo codes to simulate the neutron transport to deterministic methods, which handle the medium depletion due to the neutron flux. Solving Boltzmann and Bateman equations in such a way allows to track fine 3-dimensional effects and to get rid of multi-group hypotheses done by deterministic solvers. The counterpart is the prohibitive calculation time due to the Monte Carlo solver called at each time step.In this document we present an original methodology to avoid the repetitive and time-expensive Monte Carlo simulations, and to replace them by perturbation calculations: indeed the different burnup steps may be seen as perturbations of the isotopic concentration of an initial Monte Carlo simulation. In a first time we will present this method, and provide details on the perturbative technique used, namely the correlated sampling. In a second time we develop a theoretical model to study the features of the correlated sampling method to understand its effects on depletion calculations. In a third time the implementation of this method in the TRIPOLI-4® code will be discussed, as well as the precise calculation scheme a meme to bring important speed-up of the depletion calculation. We will begin to validate and optimize the perturbed depletion scheme with the calculation of a REP-like fuel cell depletion. Then this technique will be used to calculate the depletion of a REP-like assembly, studied at beginning of its cycle. After having validated the method with a reference calculation we will show that it can speed-up by nearly an order of magnitude standard Monte-Carlo depletion codes.

Page generated in 2.0218 seconds