• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 154
  • 78
  • 23
  • Tagged with
  • 257
  • 105
  • 52
  • 32
  • 31
  • 31
  • 30
  • 29
  • 25
  • 25
  • 21
  • 20
  • 19
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Algorithmes adaptatifs d'identification et de reconstruction de processus AR à échantillons manquants

Zgheib, Rawad 19 December 2007 (has links) (PDF)
On souhaite reconstruire en ligne des signaux à échantillons manquants en utilisant une approche paramétrique. On propose alors des algorithmes adaptatifs d'identification et de reconstruction de processus AR à échantillons manquants. On s'intéresse premièrement à l'extension des algorithmes de gradient au cas des signaux à échantillons manquants. On propose alors deux alternatives à un algorithme existant fondées sur deux autres prédicteurs. Les algorithmes proposés convergent vers une estimation non biaisée des paramètres. Or les algorithmes de gradient souffrent d'une faible vitesse de convergence. Pour cela, on s'intéresse à l'extension de l'algorithme MCR au cas des signaux à échantillons manquants. On utilise alors l'algorithme MCR pseudo-linéaire pour l'identification conjointement avec un filtre de Kalman pour une prédiction optimale du signal au sens des moindres carrés. L'algorithme résultant permet une identification non biaisée des paramètres. De plus, il est rapide et bien adapté à l'identification de processus non stationnaires. Néanmoins, souhaitant contrôler la stabilité du filtre identifié, on s'intéresse ensuite à une identification fondée sur une structure en treillis du filtre. Ainsi, on propose une extension de l'algorithme de Burg adaptatif au cas des signaux à échantillons manquants, en utilisant pour la prédiction un filtre de Kalman. La stabilité du modèle ainsi identifié est garantie. De plus, l'algorithme s'adapte rapidement aux variations des paramètres. Finalement, on propose d'utiliser les algorithmes proposés dans un système à transmission non uniforme. On obtient ainsi l'amélioration simultanée du RSB et du débit de transmission moyen.
122

Accélération de la simulation Monte Carlo du transport des neutrons dans un milieu évoluant par la méthode des échantillons corrélés.

Dieudonné, Cyril 12 December 2013 (has links) (PDF)
Depuis quelques années, les codes de calculs Monte Carlo évoluant qui couplent un code Monte Carlo, pour simuler le transport des neutrons, à un solveur déterministe, qui traite l'évolution des milieux dû à l'irradiation sous le flux neutronique, sont apparus. Ces codes permettent de résoudre les équations de Boltzmann et de Bateman dans des configurations complexes en trois dimensions et de s'affranchir des hypothèses multi-groupes utilisées par les solveurs déterministes. En contrepartie, l'utilisation du code Monte Carlo à chaque pas de temps requiert un temps de calcul prohibitif.Dans ce manuscrit, nous présentons une méthodologie originale évitant la répétition des simulations Monte Carlo coûteuses en temps et en les remplaçant par des perturbations. En effet, les différentes simulations Monte Carlo successives peuvent être vues comme des perturbations des concentrations isotopiques de la première simulation. Dans une première partie, nous présenterons donc cette méthode, ainsi que la méthode de perturbation utilisée: l'échantillonnage corrélé. Dans un second temps, nous mettrons en place un modèle théorique permettant d'étudier les caractéristiques de la méthode des échantillons corrélés afin de comprendre ses effets durant les calculs en évolution. Enfin, dans la troisième partie nous discuterons de l'implémentation de cette méthode dans TRIPOLI-4® en apportant quelques précisions sur le schéma de calcul qui apportera une accélération importante aux calculs en évolution. Nous commencerons par valider et optimiser le schéma de perturbation à travers l'étude de l'évolution d'une cellule de combustible de type REP. Puis cette technique sera utilisée sur un calcul d'un assemblage de type REP en début de cycle. Après avoir validé la méthode avec un calcul de référence, nous montrerons qu'elle peut accélérer les codes Monte Carlo évoluant standard de presque un ordre de grandeur.
123

Simulations numériques de la dynamique des protéines : translation de ligands, flexibilité et dynamique des boucles

St-Pierre, Jean-François 03 1900 (has links)
La flexibilité est une caractéristique intrinsèque des protéines qui doivent, dès le mo- ment de leur synthèse, passer d’un état de chaîne linéaire à un état de structure tridimen- sionnelle repliée et enzymatiquement active. Certaines protéines restent flexibles une fois repliées et subissent des changements de conformation de grande amplitude lors de leur cycle enzymatique. D’autres contiennent des segments si flexibles que leur structure ne peut être résolue par des méthodes expérimentales. Dans cette thèse, nous présentons notre application de méthodes in silico d’analyse de la flexibilité des protéines : • À l’aide des méthodes de dynamique moléculaire dirigée et d’échantillonnage pa- rapluie, nous avons caractérisé les trajectoires de liaison de l’inhibiteur Z-pro- prolinal à la protéine Prolyl oligopeptidase et identifié la trajectoire la plus pro- bable. Nos simulations ont aussi identifié un mode probable de recrutement des ligands utilisant une boucle flexible de 19 acides aminés à l’interface des deux domaines de la protéine. • En utilisant les méthodes de dynamique moléculaire traditionnelle et dirigée, nous avons examiné la stabilité de la protéine SAV1866 dans sa forme fermée insérée dans une membrane lipidique et étudié un des modes d’ouverture possibles par la séparation de ses domaines liant le nucléotide. • Nous avons adapté auproblème de la prédiction de la structure des longues boucles flexibles la méthode d’activation et de relaxation ART-nouveau précédemment uti- lisée dans l’étude du repliement et de l’agrégation de protéines. Appliqué au replie- ment de boucles de 8 à 20 acides aminés, la méthode démontre une dépendance quadratique du temps d’exécution sur la longueur des boucles, rendant possible l’étude de boucles encore plus longues. / Flexibility is an intrinsic characteristic of proteins who from the moment of synthesis into a linear chain of amino acids, have to adopt an enzymatically active tridimensionnel structure. Some proteins stay flexible once folded and display large amplitude confor- mational changes during their enzymatic cycles. Others contain parts that are so flexible that their structure can’t be resolved using experimental methods. In this thesis, we present our application of in silico methods to the study of protein flexibility. • Using steered molecular dynamics and umbrella sampling, we characterized the binding trajectories of the Z-pro-prolinal inhibiter to the Prolyl oligopeptidase pro- tein and we identified the most probable trajectory. Our simulations also found a possible ligand recrutement mechanism that involves a 19 amino acids flexible loop at the interface of the two domains of the protein. • Using traditional and steered molecular dynamics, we examined the stability of the SAV1866 protein in its closed conformation in a lipid membrane and we studied one of its proposed opening modes by separating its nucleotide binding domains. • We also adapted the activation-relaxation technique ART-nouveau which was pre- viously used to study protein folding and aggregation to the problem of structure prediction of large flexible loops. When tested on loops of 8 to 20 amino acids, the method demonstrate a quadratic execution time dependance on the loop length, which makes it possible to use the method on even larger loops.
124

Effet de l'échantillonnage non proportionnel de cas et de témoins sur une méthode de vraisemblance maximale pour l'estimation de la position d'une mutation sous sélection

Villandré, Luc January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
125

Échantillonnage des distributions continues non uniformes en précision arbitraire et protocole pour l'échantillonnage exact distribué des distributions discrètes quantiques

Gravel, Claude 03 1900 (has links)
La thèse est divisée principalement en deux parties. La première partie regroupe les chapitres 2 et 3. La deuxième partie regroupe les chapitres 4 et 5. La première partie concerne l'échantillonnage de distributions continues non uniformes garantissant un niveau fixe de précision. Knuth et Yao démontrèrent en 1976 comment échantillonner exactement n'importe quelle distribution discrète en n'ayant recours qu'à une source de bits non biaisés indépendants et identiquement distribués. La première partie de cette thèse généralise en quelque sorte la théorie de Knuth et Yao aux distributions continues non uniformes, une fois la précision fixée. Une borne inférieure ainsi que des bornes supérieures pour des algorithmes génériques comme l'inversion et la discrétisation figurent parmi les résultats de cette première partie. De plus, une nouvelle preuve simple du résultat principal de l'article original de Knuth et Yao figure parmi les résultats de cette thèse. La deuxième partie concerne la résolution d'un problème en théorie de la complexité de la communication, un problème qui naquit avec l'avènement de l'informatique quantique. Étant donné une distribution discrète paramétrée par un vecteur réel de dimension N et un réseau de N ordinateurs ayant accès à une source de bits non biaisés indépendants et identiquement distribués où chaque ordinateur possède un et un seul des N paramètres, un protocole distribué est établi afin d'échantillonner exactement ladite distribution. / The thesis is divided mainly into two parts. Chapters 2 and 3 contain the first part. Chapters 4 and 5 contain the second part. The first part is about sampling non uniform continuous distributions with a given level of precision. Knuth and Yao showed in 1976 how to sample exactly any discrete distribution using a source of unbiased identically and independently distributed bits. The first part of this thesis extends the theory of Knuth and Yao to non uniform continuous distributions once the precision is fixed. A lower bound and upper bounds for generic algorithms based on discretization or inversion are given as well. In addition, a new simple proof of the original result of Knuth and Yao is given here. The second part is about the solution of a problem in communication complexity that originally appeared within the field of quantum information science. Given a network of N computers with a server capable of generating random unbiased bits and a parametric discrete distribution with a vector of N real parameters where each computer owns one and only one parameter, a protocol to sample exactly the distribution in a distributed manner is given here.
126

Le décours temporel de l'utilisation des fréquences spatiales dans les troubles du spectre autistique

Caplette, Laurent 08 1900 (has links)
Notre système visuel extrait d'ordinaire l'information en basses fréquences spatiales (FS) avant celles en hautes FS. L'information globale extraite tôt peut ainsi activer des hypothèses sur l'identité de l'objet et guider l'extraction d'information plus fine spécifique par la suite. Dans les troubles du spectre autistique (TSA), toutefois, la perception des FS est atypique. De plus, la perception des individus atteints de TSA semble être moins influencée par leurs a priori et connaissances antérieures. Dans l'étude décrite dans le corps de ce mémoire, nous avions pour but de vérifier si l'a priori de traiter l'information des basses aux hautes FS était présent chez les individus atteints de TSA. Nous avons comparé le décours temporel de l'utilisation des FS chez des sujets neurotypiques et atteints de TSA en échantillonnant aléatoirement et exhaustivement l'espace temps x FS. Les sujets neurotypiques extrayaient les basses FS avant les plus hautes: nous avons ainsi pu répliquer le résultat de plusieurs études antérieures, tout en le caractérisant avec plus de précision que jamais auparavant. Les sujets atteints de TSA, quant à eux, extrayaient toutes les FS utiles, basses et hautes, dès le début, indiquant qu'ils ne possédaient pas l'a priori présent chez les neurotypiques. Il semblerait ainsi que les individus atteints de TSA extraient les FS de manière purement ascendante, l'extraction n'étant pas guidée par l'activation d'hypothèses. / Our visual system usually samples low spatial frequency (SF) information before higher SF information. The coarse information thereby extracted can activate hypotheses in regard to the object's identity and guide further extraction of specific finer information. In autism spectrum disorder (ASD) however, SF perception is atypical. Moreover, individuals with ASD seem to rely less on their prior knowledge when perceiving objects. In the present study, we aimed to verify if the prior according to which we sample visual information in a coarse-to-fine fashion is existent in ASD. We compared the time course of SF sampling in neurotypical and ASD subjects by randomly and exhaustively sampling the SF x time space. Neurotypicals were found to sample low SFs before higher ones, thereby replicating the finding from many other studies, but characterizing it with much greater precision. ASD subjects were found, for their part, to extract SFs in a more fine-to-coarse fashion, extracting all relevant SFs upon beginning. This indicated that they did not possess a coarse-to-fine prior. Thus, individuals with ASD seem to sample information in a purely bottom-up fashion, without the guidance from hypotheses activated by coarse information.
127

Contrôle adaptatif et autoréglage : applications de l'approximation stochastique

Baltcheva, Irina January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
128

Contribution à la commande et l'observation des systèmes dynamiques continus sous mesures clairsemées / Contribution to the observation and control of continuous systems under sparse measurements

Khaled, Yassine 13 June 2014 (has links)
Les travaux de cette thèse portent sur l'analyse de stabilité des systèmes dynamiques impulsionnels et la synthèse d'observateurs pour les systèmes dynamiques continus avec mesures discrètes.On considère que les mesures sont prises d'une façon aléatoire pour éviter la perte d'observabilité et on montre que la synthèse d'un observateur impulsionnel couplé avec un observateur classique continu via un gain est une solution pertinente pour reconstruire l'état continu du système et commander et stabiliser ces systèmes par un retour d'état basé sur ces observateurs. De plus, ce nouveau schéma d'observateur (impulsionnel couplé avec observateur classique continu) permet de reconstruire le vecteur de sortie même si les mesures prises ne vérifient pas les conditions du Shannon-Nyquist. Ensuite, un chapitre est dédié à la détection de mode actif et à la reconstruction de son état associé, ceci pour une classe de systèmes linéaires hybrides sous mesures clairsemées. La solution que nous avons apportée à ce problème est d'une part l'analyse d'observabilité des systèmes sous échantillonnage aléatoire et d'autre part la synthèse d'observateurs impulsionnels. Ici, la première approche est basée sur le concept d'échantillonnage compressif bien connu en théorie du traitementdu signal. Une synthèse d'observateurs impulsionnels a été présentée pourquelques cas particuliers.D'autre part, une nouvelle méthode de synthèse d'observateurs spécifique aux systèmes non linéaire continus avec mesures discrètes est également proposée. Cette méthode utilise la condition de Lipchitz pour la transformation d'un système non linéaire à un système linéaire à paramètres variants basée sur l'utilisation du théorème des accroissements finis afin de synthétiser des observateurs impulsionnels.Enfin, les observateurs proposés sont testés sur une application à la synchronisation de systèmes chaotiques dédiés à la communication sécurisée. / This thesis deals with the stability analysis of impulsive systems and the design of impulsive observers for systems under sparse measurements.The measures are sparse but random in order to avoid the loss of observability.Moreover, it is highlighted that the synthesis of an impulsive observer coupled with a classical continuous observer via an observer gain is an appropriate solution to reconstruct the continuous system state and to stabilize this system by state feedback based on these observers. In addition, this new scheme (impulsive observer coupled with classical observer) can reconstruct the output vector, even if the available measurement do not verify the Nyquist-Shannon conditions. Another part is dedicated to the detection of the active mode and to the estimation of the associated continuous state for a class of linear hybrid systems under sparse measurements. The solution we found to this problem is firstly the observability of systems under random sampling and secondly the design of an impulsive observer. Here, the first approach is based on the concept of compressive sensing theory well known in signal processing. The design of the impulsive observer is presented for some special classes of nonlinear systems.Moreover, a novel observer design method for continuous nonlinear systems withdiscrete measurements is proposed. This method uses the Lipchitz conditions andthe mean value theorem in order to transform the problem in a linear one.Finally, the proposed observer are tested on application to the synchronization of chaotic systems dedicated to the secure communications
129

Échantillonnage pour l'approximation de fonctions sur des maillages / Function approximation on meshes by sampling

Nivoliers, Vincent 30 November 2012 (has links)
La numérisation est un procédé qui consiste à enregistrer un objet dans un ordinateur pour pouvoir ensuite le manipuler à l'aide d'outils informatiques. Nous nous intéressons dans ce manuscrit à la numérisation d'objets tridimensionnels. Il s'agit tout d'abord d'enregistrer leur forme. De nombreuses méthodes ont été développées pour répondre à ce problème, et nous nous concentrerons sur les objets représentés par des maillages. Sur ces objets, il est alors utile de pouvoir représenter des attributs tels que la couleur, la température ou la charge électrique, selon l'application. Nous proposons deux approches complémentaires pour aborder ce problème. La première est fondée sur le placage de textures. Cette technique consiste à déplier (paramétrer) le maillage à plat sur une image dans laquelle l'attribut est stocké. Une valeur récupérée dans l'image est ainsi associée à chaque point de l'objet. Nous proposerons une méthode permettant de masquer l'artéfact des coutures qui est inhérent à cette technique. Déplier le maillage nécessite qu'il soit de bonne qualité, ce qui n'est pas toujours le cas. Nous décrivons donc également dans un second temps une approche de l'échantillonnage d'une surface via un diagramme de Voronoï restreint. Nous expliquons en particulier comment calculer efficacement un tel objet et comment l'optimiser par rapport à un critère de qualité. Ces résultats sont ensuite appliqués au problème de l'ajustement de surfaces / Digitalisation is an operation which consists in storing an object in a computer for further manipulation using data processing tools. In this document, we are interested in the digitalisation of three-dimensional objects. It is first a matter of recording the shape of the object. Many methods have been developed to address this problem, and we will focus on objects described as meshes. On such objects the storage of attributes like colour, temperature or electrical charge is often useful, depending on the application. We will describe two complementary approaches to deal with this issue. The first one relies on texture mapping. This technique consists in unfolding ? parametrising ? the mesh on a flat image in which the attribute is stored. A value recovered from the image can therefore be associated with each point of the object. We will describe a method which hides the seam artifact, commonly encountered using this technique. Unfolding the mesh demands that its quality be good, which is not always the case. We thus secondly describe a surface sampling method based on a restricted Voronoï diagram. We especially detail how to efficiently compute such an object and how to optimise it with respect to some quality measure. These results are then applied to the surface fitting problem
130

Estimation et détection de signaux cyclostationnaires par les méthodes de ré-échantillonnage statistique : applications à l'analyse des signaux biomécaniques / Estimation and detection of cyclostationary signals by the mean of statistical resampling methods : applications to the analysis of biomechanical signals

Maiz, Sofiane 04 December 2014 (has links)
Dans le cadre de l’analyse de signaux mécaniques ou biomécaniques les outils d’aide à la décision reposent sur des hypothèses statistiques fortes: loi de probabilité normale, stationnarité des variables, variables centrées, variables indépendantes,…Or ces hypothèses sont parfois non vérifiées et engendrent des décisions erronées. Ce travail a pour objectif de proposer des méthodes qui font abstractions de certaines hypothèses et notamment de la stationnarité et de la gaussiannité des variables aléatoires. Dans cette thèse, nous avons revisité certaines méthodes de ré échantillonnages statistiques et de bootstrap et développé d’autres en incluant la cyclostationnarité des signaux. Ensuite, nous avons appliqué ces méthodes pour l’analyse de signaux biomécaniques provenant de coureurs expérimentés et d’une population de personnes âgées. Les résultats obtenus ont permis de mettre en évidence des changements significatifs dans le contenu fréquentiel du second ordre des signaux étudiés. Ces changements ont été des indicateurs très pertinents pour la description et la caractérisation de la fatigue d’un coureur professionnel, d’une part, et pour la compréhension du mécanisme complexe de la marche à pied simple et avec tâche cognitive chez les personnes âgées d’autre part / In mechanical and biomechanical signal analysis field, the decision support tools are based on strong statistical assumptions such as: normality, stationarity of variables, independence... However, these assumptions are very often unverified, consequently, wrong decisions could be taken. This work aims to propose new methods that make abstractions of such assumptions, including the stationarity and gaussianity of variables. In this thesis, we revisited some statistical resampling methods and developed new bootstrap approaches with including the cyclostationary nature of signals. Next, we applied these methods to the analysis of biomechanical signals from experienced runners and a population of elderly people. The obtained results allowed us to demonstrate significant changes in the second order frequency content of the signals under study. These changes were very relevant indicators for the description and characterization of the fatigue of a high level professional runner. Moreover, these changes helped us to understand the mechanism of normal walking and under a cognitive task condition (double task walking) in elderly

Page generated in 0.1879 seconds