51 |
Extent of intra-isolate genetic polymorphism in glomus etunicatum using a molecular genetic approachZimmerman, Erin January 2009 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
|
52 |
Généralisation d'algorithmes de réduction de dimensionPaiement, Jean-François January 2003 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
53 |
Méthodes à noyaux appliquées à la gestion de portefeuilleDorion, Christian January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
54 |
Étude polysomnographique comparative du sommeil d'enfants souffrant du syndrôme de Gilles de la Tourette et de sujets contrôlesDesjardins, Monique January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
55 |
Aspects fondamentaux de la Résonance Quadripolaire Nucléaire de l’azote-14 par impulsion de champ radiofréquence : Vérifications expérimentales / Fundamentals of pulsed nitrogen-14 Nuclear Quadrupole Resonance : Experimental verificationsFerrari, Maude 29 October 2008 (has links)
La Résonance Quadripolaire Nucléaire (RQN) est une méthode spectroscopique qui permet de détecter, dans une poudre, les noyaux quadripolaires, comme par exemple l’azote-14. Cette technique peut répandue, connait ces dernières années un regain d’intérêt puisqu’elle semble être prédestinée à la détection des explosifs. Le but de cette thèse était de trouver des solutions qui permettraient d’utiliser la RQN au maximum de ces capacités. Dans un premier temps, nos préoccupations ont été essentiellement d’ordre théorique afin d’établir les fondements théoriques de la RQN pour un noyau de spin 1. Pour cela, nous avons établi une approche particulièrement intéressante qui peut être appliquée de façon systématique sans avoir recours à la spécificité de l’expérience. Ensuite, nous avons mis au point des méthodes de mesures fiables et surtout optimiser les paramètres expérimentaux. Toutes ces considérations théoriques ont bien sûr fait l’objet de vérifications expérimentales. Aucun spectromètre complet de RQN n’existant commercialement, l’une des priorités du laboratoire a été de développer un spectromètre par impulsion ainsi qu’un logiciel spécialement conçu pour des expériences de RQN. Nous avons étudié des composés inertes comme le nitrite de sodium et l’hexaméthylènetétramine ainsi qu’un explosif, le RDX. Ainsi, de nombreuses applications et vérifications ont été possibles comme la détection et la caractérisation d’échantillons de RDX de qualités cristallines différentes ou encore les mesures de temps de relaxation en fonction de la température. / Nuclear Quadrupole Resonance (NQR) is a spectroscopic method which is used to detect, in a powder sample, a molecule containing quadrupolar nuclei, there are nuclei with a spin greater than ½ (e.g. 35Cl, 14N). This technique has known recently a renewed interest because of its potentiality for detecting drugs and explosives. During this three-year thesis, we attempted to find appropriated methods for using Nuclear Quadrupole Resonance at the maximum of its capabilities. First, we developed a novel theoretical approach universally applicable to any type of experiment. This approach has proven especially useful for optimizing the parameters involved in several experiments. The latter have been shown to support our theoretical predictions. As there is no NQR spectrometer commercially available, the most stringent prerequisite was to develop a dedicated instrument with a specific software allowing us to design new experiments. We studied two inert compounds: sodium nitrite and hexamethylenetetramine as well as an explosive: RDX. Many applications and verifications have been possible, for instance, the detection and characterization of RDX samples from different batches, or the variation of relaxation times as a function of temperature.
|
56 |
(Méta)-noyaux constructifs et linéaires dans les graphes peu denses / Constructive and Linear (Meta)-Kernelisations on Sparse GraphsGarnero, Valentin 04 July 2016 (has links)
En algorithmique et en complexité, la plus grande part de la recherche se base sur l’hypothèse que P ≠ NP (Polynomial time et Non deterministic Polynomial time), c'est-à-dire qu'il existe des problèmes dont la solution peut être vérifiée mais non construite en temps polynomial. Si cette hypothèse est admise, de nombreux problèmes naturels ne sont pas dans P (c'est-à-dire, n'admettent pas d'algorithme efficace), ce qui a conduit au développement de nombreuses branches de l'algorithmique. L'une d'elles est la complexité paramétrée. Elle propose des algorithmes exacts, dont l'analyse est faite en fonction de la taille de l'instance et d'un paramètre. Ce paramètre permet une granularité plus fine dans l'analyse de la complexité.Un algorithme sera alors considéré comme efficace s'il est à paramètre fixé, c'est-à-dire, lorsque sa complexité est exponentielle en fonction du paramètre et polynomiale en fonction de la taille de l'instance. Ces algorithmes résolvent les problèmes de la classe FPT (Fixed Parameter Tractable).L'extraction de noyaux est une technique qui permet, entre autre, d’élaborer des algorithmes à paramètre fixé. Elle peut être vue comme un pré-calcul de l'instance, avec une garantie sur la compression des données. Plus formellement, une extraction de noyau est une réduction polynomiale depuis un problème vers lui même, avec la contrainte supplémentaire que la taille du noyau (l'instance réduite) est bornée en fonction du paramètre. Pour obtenir l’algorithme à paramètre fixé, il suffit de résoudre le problème dans le noyau, par exemple par une recherche exhaustive (de complexité exponentielle, en fonction du paramètre). L’existence d'un noyau implique donc l'existence d'un algorithme à paramètre fixé, la réciproque est également vraie. Cependant, l’existence d'un algorithme à paramètre fixé efficace ne garantit pas un petit noyau, c'est a dire un noyau dont la taille est linéaire ou polynomiale. Sous certaines hypothèses, il existe des problèmes n’admettant pas de noyau (c'est-à-dire hors de FPT) et il existe des problèmes de FPT n’admettant pas de noyaux polynomiaux.Un résultat majeur dans le domaine des noyaux est la construction d'un noyau linéaire pour le problème Domination dans les graphes planaires, par Alber, Fellows et Niedermeier.Tout d'abord, la méthode de décomposition en régions proposée par Alber, Fellows et Niedermeier, a permis de construire de nombreux noyaux pour des variantes de Domination dans les graphes planaires. Cependant cette méthode comportait un certain nombre d’imprécisions, ce qui rendait les preuves invalides. Dans la première partie de notre thèse, nous présentons cette méthode sous une forme plus rigoureuse et nous l’illustrons par deux problèmes : Domination Rouge Bleue et Domination Totale.Ensuite, la méthode a été généralisée, d'une part, sur des classes de graphes plus larges (de genre borné, sans-mineur, sans-mineur-topologique), d'autre part, pour une plus grande variété de problèmes. Ces méta-résultats prouvent l’existence de noyaux linéaires ou polynomiaux pour tout problème vérifiant certaines conditions génériques, sur une classe de graphes peu denses. Cependant, pour atteindre une telle généralité, il a fallu sacrifier la constructivité des preuves : les preuves ne fournissent pas d'algorithme d'extraction constructif et la borne sur le noyau n'est pas explicite. Dans la seconde partie de notre thèse nous effectuons un premier pas vers des méta-résultats constructifs ; nous proposons un cadre général pour construire des noyaux linéaires en nous inspirant des principes de la programmation dynamique et d'un méta-résultat de Bodlaender, Fomin, Lokshtanov, Penninkx, Saurabh et Thilikos. / In the fields of Algorithmic and Complexity, a large area of research is based on the assumption that P ≠ NP(Polynomial time and Non deterministic Polynomial time), which means that there are problems for which a solution can be verified but not constructed in polynomial time. Many natural problems are not in P, which means, that they have no efficient algorithm. In order to tackle such problems, many different branches of Algorithmic have been developed. One of them is called Parametric Complexity. It consists in developing exact algorithms whose complexity is measured as a function of the size of the instance and of a parameter. Such a parameter allows a more precise analysis of the complexity. In this context, an algorithm will be considered to be efficient if it is fixed parameter tractable (fpt), that is, if it has a complexity which is exponential in the parameter and polynomial in the size of the instance. Problems that can be solved by such an algorithm form the FPT class.Kernelisation is a technical that produces fpt algorithms, among others. It can be viewed as a preprocessing of the instance, with a guarantee on the compression of the data. More formally, a kernelisation is a polynomial reduction from a problem to itself, with the additional constraint that the size of the kernel, the reduced instance, is bounded by a function of the parameter. In order to obtain an fpt algorithm, it is sufficient to solve the problem in the reduced instance, by brute-force for example (which has exponential complexity, in the parameter). Hence, the existence of a kernelisiation implies the existence of an fpt algorithm. It holds that the converse is true also. Nevertheless, the existence of an efficient fpt algorithm does not imply a small kernel, meaning a kernel with a linear or polynomial size. Under certain hypotheses, it can be proved that some problems can not have a kernel (that is, are not in FPT) and that some problems in FPT do not have a polynomial kernel.One of the main results in the field of Kernelisation is the construction of a linear kernel for the Dominating Set problem on planar graphs, by Alber, Fellows and Niedermeier.To begin with, the region decomposition method proposed by Alber, Fellows and Niedermeier has been reused many times to develop kernels for variants of Dominating Set on planar graphs. Nevertheless, this method had quite a few inaccuracies, which has invalidated the proofs. In the first part of our thesis, we present a more thorough version of this method and we illustrate it with two examples: Red Blue Dominating Set and Total Dominating Set.Next, the method has been generalised to larger classes of graphs (bounded genus, minor-free, topological-minor-free), and to larger families of problems. These meta-results prove the existence of a linear or polynomial kernel for all problems verifying some generic conditions, on a class of sparse graphs. As a price of generality, the proofs do not provide constructive algorithms and the bound on the size of the kernel is not explicit. In the second part of our thesis, we make a first step to constructive meta-results. We propose a framework to build linear kernels based on principles of dynamic programming and a meta-result of Bodlaender, Fomin, Lokshtanov, Penninkx, Saurabh and Thilikos.
|
57 |
L'apprentissage cognitif dans la maladie de ParkinsonBeauchamp, Miriam January 2006 (has links)
No description available.
|
58 |
Recherche de nouveaux bosons légers en astronomie de haute énergie / Search for new light bosons in high energy astronomyWouters, Denis 30 June 2014 (has links)
L'astronomie de haute énergie se concentre sur l'étude des phénomènes les plus violents de l'univers à partir d'observations dans une gamme d'énergie allant des rayons X aux rayons gammas de très hautes énergies (1 keV - 100 TeV). Ces phénomènes incluent par exemple les explosions de supernovae et leurs vestiges, les pulsars et les nébuleuses de vent de pulsar ou encore la formation de jets ultrarelativistes au niveau des noyaux actifs de galaxie. Leur compréhension fait appel à des processus de physique des particules bien connus qui seront décrits dans cette thèse. Par l'intermédiaire de photons de haute énergie, l'étude de ces phénomènes de haute énergie ouvre donc une fenêtre originale pour la recherche de physique au delà du modèle standard. Les concepts relatifs à l'émission et la propagation de photons de haute énergie sont introduits dans cette thèse et appliqués à l'étude de l'émission de sources extragalactiques ainsi que du fond de lumière extragalactique, affectant la propagation des photons de haute énergie dans l'univers. Dans le cadre de cette thèse, ces sources extragalactiques de photons de haute énergie sont observées afin de rechercher de nouveaux bosons légers, tels que ceux appartenant à la famille des particules de type axion (PTA). Les bases théoriques décrivant cette famille de particules sont présentées, ainsi que la phénoménologie associée. Notamment, en raison de leur couplage à deux photons, ces particules ont la propriété d'osciller avec des photons en présence de champ magnétique externe. Une nouvelle signature de la présence de telles oscillations dans des champs magnétiques turbulents, sous la forme d'irrégularités stochastiques dans le spectre en énergie, est étudiée et discutée. Cette signature est appliquée à la recherche de PTA avec le réseau de télescopes HESS, permettant d'obtenir pour la première fois des contraintes sur ces modèles à partir d'observations en astronomie gamma. La recherche de la même signature dans des observations en rayons X permet d'améliorer les contraintes actuelles pour les PTA de très basse masse et l'extension de ces contraintes à des modèles de modification de la gravité comme explication de la nature de l'énergie noire est également évoquée. Enfin, la recherche de PTA avec l'instrument d'astronomie gamma du futur, CTA, est discutée; en particulier, une nouvelle observable est proposée qui tire partie du grand nombre de sources attendu avec cet instrument. / High-Energy astronomy studies the most violent phenomena in the universe with observations in a large spectrum of energies ranging from X rays to very high energy gamma rays (1 keV - 100 TeV). Such phenomena could be for instance supernovae explosions and their remnants, pulsars and pulsar wind nebulae or ultra relativistic jets formation by active galactic nuclei. Understanding these phenomena requires to use well-known particle physics processes. By means of high energy photons, studying such phenomena enables one to search for physics beyond the standard model. Concepts regarding the emission and propagation of high-energy photons are introduced and applied to study their emission by extragalactic sources and to constrain the extragalactic background light which affects their propagation. In this thesis, these high-energy extragalactic emitters are observed in order to search for new light bosons such as axion-like particles (ALPs). The theoretical framework of this family of hypothetical particles is reviewed as well as the associated phenomenology. In particular, because of their coupling to two photons, ALPs oscillate with photons in an external magnetic field. A new signature of such oscillations in turbulent magnetic fields, under the form of stochastic irregularities in the source energy spectrum, is introduced and discussed. A search for ALPs with the HESS telescopes with this new signature is presented, resulting in the first constraints on ALPs parameters coming from high-energy astronomy. Current constraints on ALPs at very low masses are improved by searching for the same signature in X-ray observations. An extension of these constraints to scalar field models for modified gravity in the framework of dark energy is then discussed. The potential of the search for ALPs with CTA, the prospected gamma-ray astronomy instrument, is eventually studied; in particular, a new observable is proposed that relies on the high number of sources that are expected to be discovered with this instrument.
|
59 |
Reconnaissance automatique des sillons corticauxPerrot, Matthieu 26 October 2009 (has links) (PDF)
La mise en évidence de biomarqueurs spéciques de pathologies cérébrales à l'échelle d'une population reste extrêmement dicile compte tenu de la variabilité inter-individuelle de la topographie sulco-gyrale. Cette thèse propose de répondre à cette diculté par l'identication automatique de 125 structures sulcales et leur mise en correspondance au travers des individus, à partir d'une base de 62 sujets labélisés manuellement. En s'appuyant sur la théorie des racines sulcales, les plissements corticaux sont découpés en entités élémentaires à labéliser. Dans une première phase, l'approche structurelle proposée précédemment par Jean-François Mangin et Denis Rivière a été revisitée pour faire face aux nombreux descripteurs morphomé- triques impliqués dans le processus d'identication. Dans une deuxième phase, cette modélisation a été reconsidérée intégralement au prot d'un cadre Bayésien exploitant des informations localisées (positions ou directions) négligées jusqu'alors, autorisant ainsi des schémas d'optimisation ecace. Dans ce cadre, la normalisation des données est essentielle ; cette question a été traitée sous la forme d'un processus de recalage ane global ou local à chaque sillon, de façon couplée au probl ème d'identication des sillons. Dans l'optique d'introduire plus d'information structurelle, une modélisation Markovienne traduisant une vue localisée de l'agencement entre plissements corticaux voisins a été introduite avec succès pour atteindre un taux de reconnaissance de plus de 86% pour chaque hémisphère. Seules les congurations atypiques ou les structures anatomiques les plus variables présentent encore de réelles dicultés.
|
60 |
Recherche d'événements de microlentille gravitationnelle dans les bras spiraux de la galaxie avec EROS IIDerue, Frédéric 15 April 1999 (has links) (PDF)
NIL
|
Page generated in 0.0452 seconds