• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 183
  • 70
  • 31
  • 1
  • 1
  • Tagged with
  • 290
  • 145
  • 143
  • 76
  • 50
  • 45
  • 42
  • 42
  • 40
  • 40
  • 37
  • 36
  • 34
  • 34
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Courbes très spéciales mais en aucun cas génériques

Hallouin, Emmanuel 12 November 2013 (has links) (PDF)
Si j'ai toujours été sensible à la beauté des exemples en mathématiques, je n'avais pas conscience, avant de rédiger ce mémoire, que cet intérêt pour les exemples relevait chez moi de l'obsession~! Oui, la majeure partie de mes travaux de recherches réside dans le calcul ou l'explicitation d'exemples. Selon moi, l'un des critère de beauté d'un exemple en mathématique est son caractère explicite et les exemples rejoignent ainsi l'autre spécificité des mathématiques que j'affectionne, à savoir leur aspect explicite, voire algorithmique. Cela étant, les exemples qui m'ont préoccupés sont tous issus de la théorie des nombres. Plus particulièrement, il s'agit, pour la plupart des exemples, de courbes ou de revêtements de courbes possédant des propriétés spéciales pour ce qui est de leur groupe de Galois, ou de leur module, ou de leur corps de définition, ou encore de leur nombre de points quand elles sont définies sur un corps fini. Hormis la fascination pour les exemples, le fil conducteur de mon travail reste donc l'arithmétique des courbes au sens large.
162

Human computation appliqué au trading algorithmique

Vincent, Arnaud 14 November 2013 (has links) (PDF)
Le trading algorithmique utilisé à des fins spéculatives a pris un véritable essor depuis les années 2000, en optimisant d'abord l'exécution sur les marchés d'ordres issus de décisions humaines d'arbitrage ou d'investissement, puis en exécutant une stratégie d'investissement pré-programmée ou systématique où l'humain est cantonné au rôle de concepteur et de superviseur. Et ce, malgré les mises en garde des partisans de l'Efficient Market Hypothesis (EMH) qui indiquent que pourvu que le marché soit efficient, la spéculation est vaine.Le Human Computation (HC) est un concept singulier, il considère le cerveau humain comme le composant unitaire d'une machine plus vaste, machine qui permettrait d'adresser des problèmes d'une complexité hors de portée des calculateurs actuels. Ce concept est à la croisée des notions d'intelligence collective et des techniques de Crowdsourcing permettant de mobiliser des humains (volontaires ou non, conscients ou non, rémunérés ou non) dans la résolution d'un problème ou l'accomplissement d'une tâche complexe. Le projet Fold-it en biochimie est ainsi venu apporter la preuve indiscutable de la capacité de communautés humaines à constituer des systèmes efficaces d'intelligence collective, sous la forme d'un serious game en ligne.Le trading algorithmique pose des difficultés du même ordre que celles rencontrées par les promoteurs de Fold-it et qui les ont conduits à faire appel à la CPU humaine pour progresser de façon significative. La question sera alors de savoir où et comment utiliser le HC dans une discipline qui se prête très mal à la modélisation 3D ou à l'approche ludique afin d'en mesurer l'efficacité.La qualification et la transmission de l'information par réseaux sociaux visant à alimenter un système de trading algorithmique et fondé sur ce principe de HC constituent la première expérimentation de cette thèse. L'expérimentation consistera à analyser en temps réel le buzz Twitter à l'aide de deux méthodes différentes, une méthode asémantique qui cible les événements inattendus remontés par le réseau Twitter (comme l'éruption du volcan islandais en 2010) et une méthode sémantique plus classique qui cible des thématiques connues et anxiogènes pour les marchés financiers. On observe une amélioration significative des performances des algorithmes de trading uniquement sur les stratégies utilisant les données de la méthode asémantique.La deuxième expérimentation de HC dans la sphère du trading algorithmique consiste à confier l'optimisation de paramètres de stratégies de trading à une communauté de joueurs, dans une démarche inspirée du jeu Fold-it. Dans le jeu en ligne baptisé Krabott, chaque solution prend la forme d'un brin d'ADN, les joueurs humains sont alors sollicités dans les phases de sélection et de reproduction des individus-solutions.Krabott démontre la supériorité des utilisateurs humains sur la machine dans leurs capacités d'exploration et leurs performances moyennes quelle que soit la façon dont on compare les résultats. Ainsi, une foule de plusieurs centaines de joueurs surperforme systématiquement la machine sur la version Krabott V2 et sur l'année 2012, résultats confirmés avec d'autres joueurs sur la version Krabott V3 en 2012-2013. Fort de ce constat, il devient possible de construire un système de trading hybride homme-machine sur la base d'une architecture de HC où chaque joueur est la CPU d'un système global de trading.La thèse conclut sur l'avantage compétitif qu'offrirait la mise en œuvre d'une architecture de HC à la fois sur l'acquisition de données alimentant les algorithmes de trading et sur la capacité d'un tel système à optimiser les paramètres de stratégies existantes. Il est pertinent de parier à terme sur la capacité de la foule à concevoir et à maintenir de façon autonome des stratégies de trading algorithmique, dont la complexité finirait par échapper totalement à la compréhension humaine individuelle.
163

Conception de réflecteurs pour des applications photométriques / Geometric modeling of surfaces for applications photometric

André, Julien 12 March 2015 (has links)
Dans cette thèse, nous étudions le problème du réflecteur. Etant données une source lumineuse et une cible à éclairer avec une certaine distribution d'intensité, il s'agit de construire une surface réfléchissant la lumière issue de la source vers la cible avec la distribution d'intensité prescrite. Ce problème se pose dans de nombreux domaines tels que l'art ou l'architecture. Le domaine qui nous intéresse ici est le domaine automobile. En effet, cette thèse Cifre est réalisée en partenariat avec l'entreprise Optis qui développe des logiciels de simulation de lumière et de conception optique utilisés dans les processus de fabrication des phares de voiture. Les surfaces formant les réflecteurs des phares de voiture doivent répondre à un certain nombre de critères imposés par les fabricants ainsi que les autorités de contrôle nationales et internationales. Ces critères peuvent être objectifs comme par exemple l'encombrement du véhicule ou encore le respect des normes d'éclairage mais peuvent également être subjectifs comme l'aspect esthétique des surfaces. Notre objectif est de proposer des outils industrialisables permettant de résoudre le problème du réflecteur tout en prenant en compte ces critères. Dans un premier temps, nous nous intéresserons au cas de sources lumineuses ponctuelles. Nous reprenons les travaux d'Oliker, Glim, Cafarrelli et Wang qui montrent que le problème du réflecteur peut être formulé comme un problème de transport optimal. Cette formulation du problème est présentée et mise en œuvre dans un cas discret. Dans un second temps, nous cherchons à prendre en compte les critères imposés par les fabricants de phares de voitures. Nous nous sommes intéressés ici aux contraintes d'encombrement et d'esthétique. La solution choisie consiste à utiliser des surfaces de Bézier définies comme le graphe d'une certaine fonction paramétrée par un domaine du plan. Les surfaces de Bézier permettent d'obtenir des surfaces lisses et la paramétrisation par un domaine du plan permet de gérer l'encombrement et le style d'un réflecteur. Nous avons proposé une méthode heuristique itérative par point fixe pour obtenir ce type surface. Enfin, dans un dernier temps, nous prenons en compte des sources lumineuses non ponctuelles. L'approche proposée consiste à adapter itérativement les paramètres du réflecteur de façon à minimiser une distance entre intensité souhaitée et intensité réfléchie. Ceci nous a conduits à proposer une méthode d'évaluation rapide de l'intensité réfléchie par une surface. Les méthodes développées durant cette thèse ont fait l'objet d'une implémentation dans un cadre industriel en partenariat avec l'entreprise Optis. / The far-field reflector problem consists in building a surface that reflects light from a given source back into a target at infinity with a prescribed intensity distribution. This problem arises in many fields such as art or architecture. In this thesis, we are interested in applications to the car industry. Indeed, this thesis is conducted in partnership with the company Optis that develops lighting and optical simulation software used in the design of car headlights. Surfaces in car headlight reflectors must satisfy several constraints imposed by manufacturers as well as national and international regulatory authorities. These constraints can be objective such as space requirements or compliance with lighting legal standards but can also can be subjective such as the aesthetic aspects of surfaces. Our goal is to provide industrializable tools to solve the reflector problem while taking into account these constraints. First, we focus on the case of point light sources. We rely on the work of Oliker, Glim, Cafarrelli and Wang who show that the reflector problem can be formulated as an optimal transport problem. This formulation of the problem is presented and implemented in a discrete case. In a second step, we take into account some of the constraints imposed by car headlight manufacturers, such as the size and the style of the reflector. The chosen solution consists in using Bezier surfaces defined as the graph of a function parameterized over a planar domain. Bezier surfaces allow to obtain smooth surfaces and the parameterization over a planar domain allows to control the size and style of the reflector. To build the surface, we propose a heuristic based on a fixed-point algorithm. Finally, we take into account extended light sources. We present an approach that iteratively adapts the parameters of the reflector by minimizing the distance between the desired intensity and the reflected intensity. This led us to propose a method that efficiently evaluates the reflection of light on the surface. Methods developed in this thesis were implemented in an industrial setting at our partner company Optis.
164

Algorithmique de l'alignement structure-séquence d'ARN : une approche générale et paramétrée

Rinaudo, Philippe 05 December 2012 (has links) (PDF)
L'alignement de macromolécules biologiques comme les protéines, l'ADN ou encore l'ARN est une problématique biologique et bio-informatique qui a pour but de révéler une partie des mystères du fonctionnement des cellules, constituants des êtres vivants. Les ARN non-codant sont des macromolécules intervenant dans le métabolisme de tout être vivant et les deux problématiques majeurs les concernant sont: la prédiction de leur structure pour mieux comprendre leur fonctionnement et leur détection dans des bases de données ou des génomes. L'une des approches: l'alignement structure-séquence d'ARN, répond à ces deux problématiques. Le problème d'alignement structure-séquence consiste à aligner une structure connue d'un premier ARN avec la séquence d'un deuxième ARN.La structure est représentée sous la forme d'un graphe ou de façon équivalente sous la forme d'une séquence arc-annotées et la séquence représente la suite des nucléotides de l'ARN.Pour résoudre ce problème, nous cherchons à optimiser l'alignement selon une fonction de coût. C'est donc un problème d'optimisation, qui malheureusement se révèle NP-Difficile.En conséquence différents travaux définissent des classes d'instances réduites pour lesquelles ils proposent des algorithmes spécifiques mais à complexités polynomiales.Les travaux de ma thèse unifient et la généralisent les approches précédentes par la construction d'un algorithme à complexité paramétrée non spécifique à une classe d'instances. En utilisant cet algorithme, il est possible de résoudre le problème d'alignement structure-séquence pour toutes les instances possibles, et aussi efficacement que les précédentes approches sur leur domaine de résolution respectif. Cet algorithme utilise une technique empruntée à la théorie des graphes: la décomposition arborescente, c'est-à-dire qu'il transforme la structure donnée en une décomposition arborescente et c'est ensuite cette décomposition qui est alignée avec la séquence donnée. L'alignement entre une décomposition arborescente et une séquence se fait par programmation dynamique.Sa mise en place a nécessité une reformulation du problème ainsi qu'une modification importante de l'utilisation classique de la programmation dynamique pour les décompositions arborescentes. Au final, cela conduit à un algorithme paramétré dont le paramètre est entièrement lié à la décomposition arborescente. La construction des décompositions arborescentes pour lesquelles l'alignement s'effectuera plus le efficacement possible est malheureusement un problème lui aussi NP-Difficile. Néanmoins, nous avons créé une heuristique de construction de décompositions adaptée aux structures d'ARN.Nous avons alors défini des nouvelles classes de structures pour lesquelles notre algorithme (décomposition et alignement) possède une faible complexité. Ces classes incluent notamment toutes les autres classes précédemment définies et la complexité de notre algorithme est au moins aussi faible que celles des algorithmes spécifiques sur leurs classes de structures respectives. Ces classes de structures représentent la majorité des structures connues et contiennent de nombreux éléments importants jusqu'alors non pris en compte (tel que les motifs tertiaires d'ARN). Le problème de l'alignement structure-séquence tente de répondre aux problématiques de prédictions de structures et de recherche d'ARN. Néanmoins, la qualité des résultats obtenus par sa résolution dépendent de la fonction de coût utilisée. Durant ma thèse j'ai commencé la mise place de la construction par apprentissage d'une nouvelle fonction de coût, adaptée aux nouvelles classes de structures que nous avons défini. Enfin de par la nature de l'algorithme, le travail réalisé permet des améliorations non négligeables, en terme de qualité des résultats et de rapidité de calcul comme la recherche de solution sous-optimales ou l'utilisation de l'algorithme au sein d'heuristiques dérivées d'heuristiques classiques.
165

Approches Combinatoires pour le Consensus d'Arbres et de Séquences

Guillemot, Sylvain 09 December 2008 (has links) (PDF)
Cette thèse étudie d'un point de vue algorithmique diverses méthodes de consensus portant sur des collections d'objets étiquetés. Les problèmes étudiés impliquent des objets étiquetés sans répétition d'étiquettes ; ces objets peuvent être des arbres enracinés ou des séquences, avec des applications à la bioinformatique. Ainsi, les problèmes sur les arbres considérés dans cette thèse peuvent trouver des applications pour l'estimation de congruence entre phylogénies, pour la construction de superarbres, et pour l'identification de transferts horizontaux de gènes. Pour leur part, les problèmes sur les séquences considérés dans cette thèse ont des applications potentielles pour le calcul de distance génomique basé sur les ordres de gènes. De manière générale, ce travail met à profit les théories de la complexité paramétrique et de l'approximabilité pour obtenir des algorithmes et des résultats de difficulté pour les problèmes étudiés.
166

Combinatoire and Bio-informatique : Comparaison de structures d'ARN et calcul de distances intergénomiques

Blin, Guillaume 17 November 2005 (has links) (PDF)
Nous présentons un ensemble de résultats concernant deux types de problèmes biologiques: (1) la comparaison de structures de molécules d'ARN et (2) le calcul de distances intergénomiques en présence de gènes dupliqués. Dans ce manuscrit, nous déterminons la complexité algorithmique de certains problèmes liés soit à la comparaison de structures de molécules d'ARN (distance d'édition, problème APS, recherche de motifs de 2-intervalles, design d'ARN), soit aux réarrangements génomiques (distances de breakpoints et d'intervalles conservés). \\ L'approche adoptée pour l'ensemble de ces problèmes a été de déterminer, si possible, des algorithmes exacts et rapides répondants aux problèmes posés. Pour tout problème pour lequel cela ne semblait pas possible, nous avons essayé de prouver qu'il ne peut être résolu de fa\ccon rapide. Pour ce faire, nous démontrons que le problème en question est algorithmiquement difficile. Enfin, le cas échéant, nous poursuivons l'étude de ce problème en proposant, essentiellement, trois types de résultats: (1) Approximation, (2) Complexité paramétrée, (3) Heuristique. Nous utilisons, dans ce manuscrit, des notions d'optimisation combinatoire, de mathématique, de théorie des graphes et d'algorithmique.
167

Contribution à la planification de mouvements en robotique

Taix, Michel 22 March 2011 (has links) (PDF)
Les travaux présentés dans ce manuscrit d'Habilitation à Diriger des Recherches concernent la problématique de la planification de trajectoires pour un système robotique. Nous présentons des méthodes et des algorithmes qui calculent automatiquement des trajectoires géométriques sans collision et qui prennent en compte les contraintes du système pour effectuer une tâche. Dans une première partie, nous nous intéressons aux robots mobiles à roues. Nous avons développé une algorithmique pour calculer, si elle existe, une trajectoire pour un robot articulé en terrain accidenté qui garantit les contraintes de validité (stabilité, contraintes mécaniques et non collision). Afin d'améliorer la robustesse de notre approche, il est apparu nécessaire de prendre en compte le lien entre planification, localisation et exécution. Nous proposons une méthode pour définir automatiquement les amers pertinents à sélectionner le long de la trajectoire et étudions les conditions de leurs enchaînements. Nous transformons ainsi une planification de trajectoire géométrique en une suite de tâches référencées capteurs. Nous nous sommes ensuite intéressés au problème de recouvrement de surface pour lequel c'est la tâche robotique qui amène à définir implicitement une trajectoire. Nous avons développé une nouvelle approche incluant la gestion automatique des zones de fourrière. Dans une deuxième partie, nous avons étendu la problématique hors du champ de la robotique à roues. Nous avons commencé par combiner les avantages de différentes techniques de planification probabiliste afin de résoudre plus e cacement le problème des passages étroits. Il est alors apparu intéressant de faire coopérer un opérateur humain avec un algorithme de recherche probabiliste. Nous proposons une variante basée sur les Rapidly-exploring Random Trees pour construire un RRT-Interactif qui améliore le guidage d'un opérateur lors d'une tâche d'assemblage dans un environnement virtuel. Pour mieux comprendre le mouvement h umain, nous avons appliqué des principes moteurs neurobiologiques pour le contrôle du geste d'atteinte des robots humanoïdes. Nous montrons que cette approche permet de générer des mouvements réalistes qui respectent les caractéristiques du mouvement humain et qu'il est ensuite possible de synthétiser les mouvements d'atteinte par une combinaison de primitives motrices. Pour conclure, il nous semble intéressant d'étendre nos travaux, d'une part en planifiant des mouvements réalistes par rapport au mouvement humain en vue de l'introduction de mannequins numériques ; d'autre part, en planifiant des mouvements pour des objets déformables car de nombreux problèmes pratiques ne peuvent pas être résolus en considérant des objets rigides.
168

Extraction de Motifs Communs dans un Ensemble de Séquences.<br />Application à l'identification de sites de liaison aux protéines dans les séquences primaires d'ADN.

Mancheron, Alban 29 September 2006 (has links) (PDF)
L'extraction de motifs ayant une signification biologique, et notamment l'identification de sites de régulation de la synthèse protéique dans les séquences primaires d'ADN est un des enjeux de la recherche en bioinformatique. Une anomalie dans cette régulation peut avoir de graves conséquences sur la santé d'un organisme. Aussi, l'extraction de ces sites permet de mieux comprendre le fonctionnement cellulaire et de soigner certaines pathologies.<br /><br />Les difficultés posées par ce problème sont le manque d'informations sur les motifs à extraire, ainsi que le volume important des données à traiter. Deux algorithmes polynomiaux -- l'un déterministe et l'autre probabiliste -- permettant de le traiter ont été conçus. Dans ce contexte, nous avons introduit une nouvelle famille de fonctions de score et étudié leurs propriétés statistiques. Nous avons également caractérisé le langage reconnu par la structure d'index appelée "Oracle", et proposé une amélioration la rendant plus efficace.
169

Les stratégies de résolution d'opérations arithmétiques simples. Un nouveau paradigme

Fanget, Muriel 29 September 2010 (has links) (PDF)
De nombreuses recherches montrent que les adultes résolvent de simples problèmes arithmétiques plus ou moins exclusivement par récupération de la réponse dans un réseau d'associations stockées en mémoire à long terme (Ashcraft, 1992 ; 1995 ; Campbell, 1995). Il est admis que les performances arithmétiques des jeunes enfants sont basées sur le comptage ou d'autres stratégies procédurales qui sont peu à peu remplacées par la récupération directe en mémoire (Barrouillet & Fayol, 1998). Ces premiers résultats ont été rapportés par Groen et Parkman (1972) en étudiant les temps de résolution. Mais moyenner des temps de latence d'essais impliquant différentes procédures peut conduire à des conclusions erronées sur la façon dont les problèmes sont résolus. D'autres auteurs ont préféré la méthode des protocoles verbaux. Cependant Kirk et Ashcraft (2001) remettent en question ce protocole. Nous proposons un nouveau paradigme pour faire la lumière sur la façon dont des problèmes additifs, soustractifs et multiplicatifs sont résolus par les adultes et les enfants. Ce paradigme tire avantage du fait que les procédures de calcul dégradent les traces en mémoire des opérandes impliquées dans les calculs (Thevenot, Barrouillet & Fayol, 2001). Le temps nécessaire à l'algorithme pour parvenir à la réponse et son coût cognitif entraînent une réduction du niveau d'activation des opérandes. Cette baisse d'activation résulte d'un phénomène de déclin mémoriel qui entraîne une détérioration des traces en mémoire (Towse & Hitch, 1995 ; Towse, Hitch & Hutton, 1998) et de l'activation concurrente de résultats transitoires provoquant un partage attentionnel entre les opérandes, leurs composantes et les résultats intermédiaires nécessaires pour arriver à la solution (Anderson, 1993). Par conséquent, lorsque l'algorithme aboutit à la réponse les traces des opérandes sont dégradées et la récupération en mémoire est difficile. Ce phénomène devrait être plus prononcé pour les grands nombres car parvenir au résultat nécessite plus d'étapes et plus de temps. En contrastant la difficulté rencontrée par des adultes pour reconnaître des opérandes après leur implication soit dans une opération arithmétique (addition, soustraction ou multiplication) soit dans une comparaison (qui ne nécessite aucune décomposition) avec un troisième nombre, nous pourrons déterminer si l'opération a été résolue par procédure algorithmique. Si la difficulté est la même dans les deux conditions, l'opération aura été résolue par récupération, une telle activité ne nécessite pas la décomposition des opérandes
170

Quelques contributions dans les réseaux de capteurs sans fil : Localisation et Routage

Saad, Clément 10 July 2008 (has links) (PDF)
Comme le firent Internet et les communications sans fil il y a de cela quelques décennies, l'avènement des réseaux de capteurs s'apprête à révolutionner notre mode de vie. Mais avant de voir ces réseaux atteindre un degré de démocratisation identique à celui des téléphones portables par exemple, un certain nombre de problématiques doit être résolu. Aux contraintes traditionnelles des réseaux ad hoc s'ajoutent les limites très strictes liées aux caractéristiques matérielles des capteurs telles que la puissance de calcul, la mémoire et surtout l'alimentation en énergie, rendant les algorithmes existants inadaptés. Cette thèse aborde deux problématiques : celle de la localisation et celle du routage. Concernant la localisation, une famille de trois méthodes est proposée pour estimer les positions des capteurs en y associant des bornes d'erreur, à partir de localisations exactes connues pour certains d'entre eux et en fonction de leurs capacités de mesures. Cette famille est ensuite étendue aux réseaux de capteurs mobiles. Vient alors le problème du routage permettant l'acheminement d'un message d'un capteur vers une station de base lorsqu'il détecte un événement. Les stratégies de routage dit géographique s'appuient sur les positions des capteurs qui sont considérées comme exactes. Or, dans la pratique, ces positions sont rarement précises. Cette thèse propose deux algorithmes de routage destinés respectivement aux réseaux de capteurs statiques et mobiles en considérant des positions estimées, rendant ainsi ces méthodes compatibles avec les algorithmes de localisation.

Page generated in 0.0603 seconds