• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 695
  • 319
  • 99
  • 2
  • 1
  • Tagged with
  • 1129
  • 414
  • 251
  • 244
  • 203
  • 183
  • 183
  • 154
  • 129
  • 126
  • 110
  • 109
  • 109
  • 102
  • 98
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
331

Origines des séquences microsatellites dans les génomes eucaryotes

Leclercq, Sébastien 19 December 2007 (has links) (PDF)
Les microsatellites, séquences répétées en tandem de période une à six paires de bases, sont des entités génomiques présentes dans tous les organismes qu'ils soient animaux, végétaux ou microbiens. Ils présentent un cycle de vie caractérisé par trois phases principales : une apparition et une maturation, une dynamique à l'état mature, puis une dégénérescence. Nous nous intéressons dans cette thèse à la première phase, l'apparition des microsatellites. <br />Pour traiter ces questions, nous nous sommes basés sur l'analyse de la séquence du génome humain. L'une des lacunes de ce type d'analyse est qu'il faut d'abord extraire les microsatellites du génome, et qu'il existe plusieurs algorithmes de nature et fonctionnement différents. La première partie de cette thèse se concentre donc sur la comparaison de quelques-uns des principaux algorithmes de recherche de répétitions en tandem, et dresse un portait des différentes qualités et limitations de chacun des algorithmes.<br />Deux possibilités majeures sont détaillées, l'apparition par l'intermédiaire d'éléments transposables (ETs), et l'apparition spontanée à partir d'une séquence quelconque. Dans le premier cas, l'étude est focalisée sur le rôle des queues polyA des séquences Alu chez les primates. La question de l'apparition à partir d'une séquence quelconque cherche à établir l'impact de trois mécanismes mutationnels différents sur la création et le développement primordial des microsatellites : la mutation ponctuelle, le glissement de polymérase et la micro-duplication adjacente de quelques nucléotides. Un modèle général d'apparition des microsatellites est aussi proposé, suggérant une dynamique d'apparition plus complexe que ce qui était précédemment supposé.
332

Amélioration de la régularité du béton en production

Lê, Ngoc Dong 29 May 2007 (has links) (PDF)
Les fournisseurs de bétons doivent assurer la qualité de leurs produits. Ceci requiert, en premier lieu, une maîtrise de la composition du béton fabriqué. Cependant, les variations d'humidité des granulats rendent difficile le dosage précis des constituants. Le travail présenté dans ce mémoire vise à proposer des méthodes pour améliorer la régularité du dosage en eau, et pour suivre en continu l'ouvrabilité des bétons fabriqués industriellement. Dans un premier temps, un protocole original de calibrage du wattmètre en tant que outil de mesure en ligne de l'humidité du béton frais a été proposé et évalué. Les mesures de dosage en eau calibrées sont utilisées dans un deuxième temps, pour la mise au point de plusieurs algorithmes. Le premier type d'algorithme se traduit par une correction de l'écart d'eau dans la bétonnière portée, alors que le deuxième permet le calibrage des sondes hydrométriques des granulats. Les méthodes présentées sont validées sur des données acquises en centrale industrielle. Le suivi de l'ouvrabilité fait appel à la construction d'un modèle de puissance consommée par le malaxeur, reliant les caractéristiques rhéologiques du béton à la puissance totale dépensée. La détermination de l'ouvrabilité du béton par cette méthode nécessite l'utilisation d'un variateur de vitesse du malaxeur. La validation expérimentale sur des malaxeurs à différentes échelles permet de montrer qu'il est possible d'estimer convenablement le seuil de cisaillement et l'affaissement au cône d'Abrams du béton en cours de malaxage, sans connaissance préalable de sa composition.
333

Quelques algorithmes entre le monde des graphes et les nuages de points.

Bonichon, Nicolas 03 April 2013 (has links) (PDF)
Quelques algorithmes entre le monde des graphes et les nuages de points.
334

DECOMPOSITIONS ET ALGORITHMES PROXIMAUX POUR L'ANALYSE ET LE TRAITEMENT ITERATIF DES SIGNAUX

Rozenbaum Wajs, Valérie 02 July 2007 (has links) (PDF)
Cette th'ese est consacr'ee 'a l''etude et la r'esolution de certains probl'emes non lin'eaires du traitement du signal et de l'image via l'analyse convexe. Nous proposons une 'etude variationnelle unifi'ee de probl'emes inverses et de probl'emes de d'ecomposition de signaux qui ont, jusqu''a pr'esent, 'et'e 'etudi'es individuellement en raison de leur apparente disparit'e. Dans le mod'ele adopt'e, cette famille de probl'emes est r'eduite g'en'eriquement 'a la minimisation d'une somme de deux fonctions soumises 'a certaines propri'et'es de r'egularit'e. Des r'esultats d'existence, d'unicit'e et de caract'erisation du probl'eme ainsi pos'e sont obtenus. L'op'erateur proximal, introduit par Moreau en 1962 pour les besoins de la m'ecanique, joue un rˆole essentiel dans notre analyse. Nous l'utilisons notamment pour obtenir de nouveaux sch'emas non lin'eaires de d'ecomposition de signaux. Cet outil est par ailleurs au coeur de l'algorithme explicite-implicite que nous proposons pour la r'esolution du probl'eme g'en'erique. Ce cadre th'eorique est appliqu'e 'a l'analyse de signaux et 'a la restauration d'images. Les probl'emes de restauration que nous abordons sont pos'es sur des trames et notre approche permet de prendre en compte des contraintes de parcimonie ou de mod'eliser des formulations bay'esiennes avec des connaissances a priori sur les lois des coefficients de la d'ecomposition. Des r'esultats num'eriques sont fournis.
335

Un habitat capable de reconnaître les activités planifiées dans un calendrier électronique

Nivollet, Pierre-Yves January 2013 (has links)
Le vieillissement de la population est un problème qui touche de plus en plus le monde occidental et a pour conséquence de rendre difficile le maintien à domicile des personnes âgées, étant donné les coûts engendrés et le manque de personnel soignant. D'un autre côté, la présence des technologies dans les domiciles devient répandue et ce, à des prix abordables. On est désormais capable de récupérer facilement des informations sur ce qui se passe à l'intérieur de la maison et ainsi agir en conséquence. Le maintien à domicile devient alors possible en offrant une assistance aux personnes âgées qui soit portée par la technologie, afin de les aider à réaliser leurs activités de la vie quotidienne. À l'aide d'un calendrier électronique dans lequel seront notées toutes les activités à réaliser dans la journée, on est en mesure d'utiliser les données fournies par l'appartement pour vérifier qu'elles ont bien été réalisées, et ainsi offrir des rappels efficaces pour ces activités. C'est vers cette problématique que se tourne ce mémoire en offrant un outil pouvant utiliser et interpréter les informations provenant de l'intérieur d'un habitat, combinées à celles venant d'un calendrier électronique, dans le but d'aider à la réalisation des tâches de la vie quotidienne. Cet outil est composé de deux programmes principaux: le calendrier électronique et le programme de reconnaissance d'activité, les deux fonctionnant en collaboration. Ce mémoire présente en premier lieu l'informatique ubiquitaire, les moyens de rappel existants ainsi que les différentes méthodes pour faire de la reconnaissance d'activité dans un appartement intelligent. Suit une description du calendrier électronique permettant aux personnes âgées d'entrer correctement leurs activités à rappeler. Ensuite est décrit le programme de reconnaissance d'activité, qui interprète les évènements des capteurs pour reconnaître les activités réalisées. Le chapitre suivant traite de la collaboration entre le calendrier et le programme de reconnaissance d'activité afin qu'ils soient utilisables dans l'appartement. Une expérimentation réalisée dans l'appartement intelligent du DOMUS cherche à fournir une preuve de concept du rappel d'activité en fonction de ce qui se passe dans l'appartement.
336

Etude et implantation de l'extraction de requetes frequentes dans les bases de donnees multidimensionnelles / Mining Pattern in Relational Databases

Dieng, Cheikh Tidiane 19 July 2011 (has links)
Au cours de ces dernières années, le problème de la recherche de requêtes fréquentes dans les bases de données est un problème qui a suscité de nombreuses recherches. En effet, beaucoup de motifs intéressants comme les règles d'association, des dépendances fonctionnelles exactes ou approximatives, des dépendances fonctionnelles conditionnelles exactes ou approximatives peuvent être découverts simplement, contrairement au méthodes classiques qui requièrent plusieurs transformations de la base pour extraire de tels motifs.Cependant, le problème de la recherche de requêtes fréquentes dans les bases de données relationnelles est un problème difficile car, d'une part l'espace de recherche est très grand (puisque égal à l'ensemble de toutes les requêtes pouvant être posées sur une base de données), et d'autre part, savoir si deux requêtes sont équivalentes (donc engendrant les calculs de support redondants) est un problème NP-Complet.Dans cette thèse, nous portons notre attention sur les requêtes de type projection-selection-jointure, et nous supposons que la base de données est définie selon un schéma étoile. Sous ces hypothèses, nous définissons une relation de pré-ordre (≼) entre les requêtes et nous montrons que :1. La mesure de support est anti-monotone par rapport à ≼, et2. En définissant, q ≡ q′ si et seulement si q ≼ q′ et q′ ≼ q, alors toutes les requêtes d'une même classe d'équivalence ont même support.Les principales contributions de cette thèse sont, d'une part d'étudier formellement les propriétés du pré-ordre et de la relation d'équivalence ci-dessus, et d'autre part, de proposer un algorithme par niveau de type Apriori pour rechercher l'ensemble des requêtes fréquentes d'une base de données définie sur un schéma étoile. De plus, cet algorithme a été implémenté et les expérimentations que nous avons réalisées montrent que, selon notre approche, le temps de calcul des requêtes fréquentes dans une base de données définie sur un schéma étoile reste acceptable, y compris dans le cas de grandes tables de faits. / The problem of mining frequent queries in a database has motivated many research efforts during the last two decades. This is so because many interesting patterns, such as association rules, exact or approximative functional dependencies and exact or approximative conditional functional dependencies can be easily retrieved, which is not possible using standard techniques.However, the problem mining frequent queries in a relational database is not easy because, on the one hand, the size of the search space is huge (because encompassing all possible queries that can be addressed to a given database), and on the other hand, testing whether two queries are equivalent (which entails redundant support computations) is NP-Complete.In this thesis, we focus on projection-selection-join queries, assuming that the database is defined over a star schema. In this setting, we define a pre-ordering (≼) between queries and we prove the following basic properties:1. The support measure is anti-monotonic with respect to ≼, and2. Defining q ≡ q′ if and only if q ≼ q′ and q′ ≼ q, all equivalent queries have the same support.The main contributions of the thesis are, on the one hand to formally sudy properties of the pre-ordering and the equivalence relation mentioned above, and on the other hand, to prose a levewise, Apriori like algorithm for the computation of all frequent queries in a relational database defined over a star schema. Moreover, this algorithm has been implemented and the reported experiments show that, in our approach, runtime is acceptable, even in the case of large fact tables.
337

Cyclicité finie des boucles homoclines dans R3 non dégénérées avec valeurs propres principales réelles en résonance 1:1

Guimond, Louis-Sébastien January 1999 (has links)
Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.
338

Inférence bayésienne pour la reconstruction d'arbres phylogénétiques

Oyarzun, Javier January 2006 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
339

Etude des interactions plasma-paroi par imagerie rapide : application aux plasmas de laboratoire et de tokamak / Study of plasma-wall interactions using fast camera imaging : application to laboratory and fusion plasmas

Bardin, Sébastien 12 March 2012 (has links)
La nécessité de trouver une nouvelle source d'énergie a mené les scientifiques à explorer la voie de la fusion thermonucléaire par confinement magnétique. Cependant la réalisation de tels plasmas de fusion dans les tokamaks actuels pose de nombreux défis tels que les interactions entre le plasma et les parois à l'origine de la création de poussières pouvant être néfastes au bon fonctionnement des futurs réacteurs à fusion. Une bonne connaissance de la quantité de poussières produites, de leur localisation et de leur transport durant la phase plasma est donc d'une importance fondamentale pour l'exploitation d'ITER. Un algorithme, développé et validé par l'expérience, est utilisé pour détecter et suivre les poussières dans ASDEX Upgrade (AUG) durant la phase plasma. Il permet d'analyser automatiquement des vidéos enregistrées par caméras rapides. Une large statistique sur la quantité de poussières micrométriques détectées en fonction du temps cumulé de décharge plasma est réalisée. Les premières analyses effectuées sur les cinq dernières campagnes montrent que la quantité de poussières est significativement faible voire nulle dans la plupart des décharges effectuées dans AUG, excepté pour des conditions spécifiques de décharges correspondant à des phases anormales de fonctionnement (disruptions, ELMs, déplacements du plasma vers les CFPs et absorption inefficace de la puissance de chauffage). Ces observations par caméra rapide et l'analyse via l'algorithme peuvent ainsi permettre, avec l'utilisation d'autres diagnostics plasmas, d'identifier les décharges plasmas à risque, pouvant aider à sélectionner les scénarios de fonctionnement les plus efficaces pour ITER / The necessity to find a new energy source has lead scientists to explore the way of thermonuclear fusion by magnetic confinement considered as one of the most promising possibility. However the production of such plasmas in the current tokamaks lies to several challenges like the interactions between the plasma and the first wall which spark off the creation of a lot of dust in the plasma which could be problematic for the operation of the next fusion reactors. The knowledge of dust production rates, localisation and transport through the vacuum vessel during plasma phases is of primary importance and must be investigated in preparation of ITER. A time and resource efficient algorithm named TRACE, validated thanks to a dedicated laboratory experiment, is used to detect and track dust particles in ASDEX Upgrade during plasma phase. It allows for automatically analyzing videos originating from fast framing cameras. A statistic about micron sized dust detection rate as a function of cumulated discharge duration is made on a large number of discharges (1470). First analyses covering five last campaigns clearly confirm that the amount of dust is significantly low in most of discharges realized in ASDEX Upgrade, excepted for specific conditions corresponding to off-normal plasma phases (disruptions, strong plasma fluctuations including ELMs, plasma displacement toward PFCs and inefficient absorption of heating power). These observations allow to identify the risky plasma discharges and choose the most efficient plasmas scenarios for ITER. It seems to also confirm the applicability of an all tungsten first wall for future fusion reactors as ITER
340

Improvement of Range-free Localization Systems in Wireless Sensor Networks / Amélioration de la Localisation dans les Réseaux de Capteurs sans Fil par Méthodes "Range-free"

Gui, Linqing 13 February 2013 (has links)
Dans le contexte des réseaux de capteurs sans fil, la technique de localisation ”range-free” est plus efficiente, par rapport au principe ”range-based”. Par conséquent, nous avons focalisé nos travaux de cette thèse sur les techniques ”range-free”. Afin de permettre à chaque noeud mobile ou normal de choisir son propre algorithme de localisation, nous avons proposé un mécanisme adapté en scindant les noeuds normaux en deux classes: les noeuds de la première classe ont au moins 3 ancres voisines, alors que les noeuds de la deuxième classe ont moins de trois ancres voisines. Pour les noeuds normaux de la classe 1, nous avons proposé un nouvel algorithme ”Mid-perpendicular”. Pour les noeuds normaux de la classe 2, nous avons proposé deux nouveaux algorithmes ”Checkout DV-hop” et ”Selective 3-Anchor DV-hop”.Pour simuler et évaluer la performance de nos trois nouveaux algorithmes dans le contexte protocolaire des réseaux, nous avons pris soin de proposer deux protocoles associés : ”DV-hopprotocol” et ”Classe-1 protocol”. Par la suite, nous avons combiné ces deux protocoles pour obtenir notre ”adaptive range-free localization protocol”. Basé sur nos protocoles, en utilisant le simulateur WSNet, nous avons simulé différents algorithmes ”range-free” dans le contexte des réseaux de capteurs conformes au standard IEEE 802.15.4. Les résultats ont été présentés et analysés en termes de précision de la localisation, charge du réseau, mobilité des noeuds, et synchronisation de ces derniers. / In the context of wireless sensor networks, the range-free localization technique is more costeffective than the range-base scheme. Therefore, in this thesis we focus on the range-free technique.In order to permit each normal node to choose its suitable localization algorithm, we proposed anadaptive mechanism to categorize normal nodes into two classes: the normal nodes having at least 3 neighbor anchors are class-1 nodes, while others are class-2 nodes. For class-1 normal nodes, we proposed a new algorithm named as Mid-perpendicular. For class-2 normal nodes, we proposed twoalgorithms Checkout DV-hop and Selective 3-Anchor DV-hop.In order to simulate and evaluate the performance of our three new algorithms, we proposed two protocols: DV-hop protocol and Class-1 protocol. Then we combined these two protocols into our adaptive range-free localization protocol. Based on our protocols, using the network simulator WSNet,we simulate the concerned range-free localization algorithms in the IEEE 802.15.4 wireless network.The comparative network simulation results are presented and analyzed in terms of localization accuracy, overhead, node mobility, and node synchronization

Page generated in 0.0529 seconds