• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 678
  • 322
  • 49
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1050
  • 347
  • 218
  • 207
  • 203
  • 167
  • 144
  • 142
  • 116
  • 100
  • 90
  • 84
  • 77
  • 76
  • 73
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
291

Proxy d'interface Homme-Machine : apport des algorithmes génétiques pour l'adaptation automatique de la présentation de documents Web

Lardon, Jérémy 29 November 2010 (has links) (PDF)
L'informatique pervasive, paradigme fer de lance des services "anytime/anywhere", appelle de plus en plus à des travaux de ré-ingénierie de sites Web. L'approche contemporaine de l'informatique dans les nuages va d'ailleurs générer de nouveaux besoins en ce sens. Aujourd'hui, les sites Web sont toujours pensés pour l'affichage sur un ordinateur traditionnel (comprendre desktop). Des versions alternatives sont cependant de plus en plus proposées pour l'accès via des smartphones, ou encore des dispositifs de visionnage jadis passifs, comme la télévision (interactive IPTV). Ces travaux de développement sont souvent relégués à des tâches ad hoc dans la gestion de projet du développement d'un site Web. Les algorithmes génétiques nous permettent d'approximer le problème d'optimisation de cette composition et son séquencement. En effet, les différentes compositions possibles sont mises en concurrence, croisées, et évaluées, de sorte qu'une solution proche d'un optimum puisse se dégager en un temps fini. Cet algorithme est au cœur du moteur d'adaptation proposé. La thèse fait état de l'implémentation de ce modèle complet, des résultats obtenus expérimentalement, et propose une interprétation de la performance du système. Le premier chapitre de ce mémoire est consacré au contexte de notre étude et l'étude bibliographique. Tout d'abord, nous présentons les généralités sur le domaine de l'adaptation automatique de documents Web. Par la suite, nous donnons un aperçu des contributions scientifiques ainsi que des systèmes déjà développés pour l'adaptation automatique. L'étude comparative de ces travaux nous a permis de dégager les pistes de travail de l'approche proposée dans la thèse. Le second chapitre propose notre modèle et plus particulièrement son découpage architectural. Nous présentons les concepts d'estimation de valeurs caractéristiques et de simulation de transformations permettant de construire l'algorithme génétique au centre de notre moteur d'hypermédia adaptatifs. L'implémentation de notre algorithme génétique y est également explicitée. Enfin, le chapitre 3 sert à présenter l'observation des résultats obtenus, ainsi que dresser les conclusions liées à notre implémentation. Cette présentation est associée à une étude des conséquences de la variation des paramètres de notre modèle et des ressources computationnelles. De cette analyse, nous soulevons les perspectives qu'offrent nos travaux
292

De la sémantique opérationnelle à la spécification formelle de compilateurs: l'exemple des boucles en Esterel

Tardieu, Olivier 24 September 2004 (has links) (PDF)
Esterel est un langage impératif concurrent pour la programmation des systèmes réactifs. A l'exception de l'instruction "pause", les primitives du langage s'exécutent sans consommer de temps logique. L'exécution se décompose donc en une suite d'instants. Dans ce contexte, les boucles peuvent poser deux types de problèmes: d'une part une boucle instantanée peut bloquer l'écoulement du temps; d'autre part un bloc de code peut être traversé plusieurs fois au cours du même instant, conduisant à un comportement du programme dit "schizophrène". Les boucles instantanées sont proscrites par la sémantique. Elles doivent donc être détectées par les compilateurs et les programmes correspondants doivent être rejetés. Par ailleurs, la compilation efficace des programmes schizophrènes est difficile. Ainsi, alors que plusieurs compilateurs pour Esterel sont disponibles, les algorithmes employés pour compiler les boucles ne sont ni portables, ni formellement spécifiés, et encore moins prouvés. Dans ce document, nous étudions les boucles en Esterel, établissant une correspondance formelle entre la sémantique opérationnelle du langage et l'implémentation concrète d'un compilateur. Après avoir spécifié les problèmes posés par les boucles, nous développons des techniques d'analyse statique efficaces pour les détecter dans un code Esterel quelconque. Puis, de façon à guérir la schizophrénie, c'est à dire transformer efficacement les programmes schizophrènes en programmes non schizophrènes, nous introduisons dans le langage une nouvelle primitive appelée "gotopause". Elle permet de transférer le contrôle d'un point du programme à un autre de façon non instantanée, mais sans contrainte de localité. Elle préserve le modèle de concurrence synchrone d'Esterel. Nous décrivons un premier algorithme qui, en dépliant les boucles à l'aide de cette nouvelle instruction, produit pour tout programme Esterel correct un programme non schizophrène équivalent. Enfin, en combinant analyse statique et réécriture, nous obtenons un préprocesseur qui rejette les boucles instantanées et guérit la schizophrénie, à la fois portable et très efficace. Nous l'avons implémenté. De plus, grâce à une approche formelle de bout en bout, nous avons pu prouver la correction de ce préprocesseur.
293

Etude expérimentale et numérique de la cinétique de décomposition thermique de contreplaqués en bois

Fateh, Talal 01 December 2011 (has links) (PDF)
La sécurité incendie repose sur l'utilisation de simulations numériques. Les codes de calcul sont composés de différents modèles dont un nommé modèle de pyrolyse qui a pour enjeu de décrire la décomposition thermique des solides étudiés. Toutefois, les modèles de pyrolyse actuels sont sommaires et sources de multiples erreurs. Notre démarche de travail est multi-échelles afin de procéder étape par étape à la validation du modèle, tenant compte de l'évolution des propriétés thermiques, physiques et chimiques au cours de la décomposition. Le présent programme de recherche concerne les matériaux de l'habitat et plus particulièrement deux contre plaqués en bois. Nous avons caractérisé expérimentalement la décomposition thermique de ces bois à deux échelle de travail : en analyseur thermogravimétrique (échelle particule) et en cône calorimètre (échelle matériau) couplés à divers analyseurs de gaz. Le suivi des vitesses de perte de masse et des émissions gazeuses permet la proposition de mécanismes réactionnels de décomposition thermique : étapes de la décomposition. Chaque réaction de ces mécanismes a une vitesse qui peut être décrite sous la forme d'une loi d'Arrhenius dont les paramètres sont déterminés par la méthode des Algorithmes Génétiques. La comparaison des résultats numériques et expérimentaux à l'échelle de la particule (ATG), montrant un très bon accord, le modèle de pyrolyse développé est validé à cette échelle. La modélisation des essais cône calorimètre en vue de la validation du Modèle à plus grande échelle a été menée à l'aide du code Gpyro. Les résultats obtenus ne sont toutefois pas satisfaisants.
294

Contributions à l'étude des gestionnaires de services distribués dans les réseaux ad hoc

Hauspie, Michaël 14 January 2005 (has links) (PDF)
Les réseaux ad hoc sont des réseaux distribués, auto-organisés ne nécessitant pas d'infrastructure. Les entités formant un tel réseau doivent collaborer afin d'assurer le bon fonctionnement des services réseaux, tel que le routage. Dans un tel environnement, de nombreux algorithmes développés pour le monde filaire ne peuvent être adaptés de façon naïve sans entraîner une congestion importante du réseau qui va réduire son efficacité. Notre travail de thèse se penche sur l'étude de la gestion de services. En effet, sans application, le développement d'une architecture comme les réseaux ad hoc est inutile. La gestion de services consiste à fournir tout les moyens possibles pour faciliter et rendre fiable l'utilisation d'applications distribuées. Nos travaux contribuent à l'étude de deux points précis de la gestion de services. Premièrement, nous fournissons un algorithme permettant de répartir efficacement une information dans le réseau en sélectionnant certains objets du réseau pour être des réplicats de l'information. Cet algorithme peut alors être utilisé pour publier les informations relatives à un service afin de permettre sa recherche. Deuxièmement, nous avons étudié la prédiction de déconnexion entrainée par la mobilité des noeuds. Nous proposons trois solutions basées sur la recherche d'ensemble de chemins disjoints, la recherche de liens critiques et la recherche de noeuds critiques. Les recherches que nous proposons sont entièrement réalisées à partir d'informations locales. Les résultats obtenus fournissent une base au développement d'un gestionnaire de services distribués. De plus, certains de nos algorithmes (comme la recherche d'ensembles de chemins disjoints) peuvent être réutilisés dans d'autres applications, comme le routage QoS multi-chemins.
295

Approches variationnelles et autres contributions en optimisation stochastique

Strugarek, Cyrille 15 May 2006 (has links) (PDF)
Cette thèse s'attache à l'étude des problèmes d'optimisation stochastique, en les abordant sous divers angles. Le premier chapitre donne un panorama des problèmes d'optimisation stochastique. Le deuxième chapitre montre qu'en dimension un, seuls les systèmes à espace d'état à dynamique et observation linéaire sont sans effet dual en boucle ouverte. Le troisième chapitre s'attache à montrer la nécessité de tenir compte de la structure d'information dans la discrétisation et les résultats de stabilité pour les problèmes à plusieurs pas de temps. Le quatrième chapitre propose une nouvelle famille d'algorithmes stochastiques permettant de rechercher les commandes optimales fonctionnellement sans aucune discrétisation préalable de l'aléa, et avec une garantie asymptotique d'optimalité. Le cinquième chapitre étudie les possibilités de décomposition et d'agrégation pour les problèmes stochastiques de grande taille.
296

Ordonnancements coopératifs pour les chaînes logistiques

Mouloua, Zerouk 21 November 2007 (has links) (PDF)
Dans cette thèse, nous avons développé de nouvelles méthodes d'aide à la décision pour l'ordonnancement dans la chaîne logistique. Nous avons proposé des méthodes qui privilégient la coopération entre les différents acteurs de la chaîne logistique notamment en ce qui concerne la négociation avec les fournisseurs sur les dates d'arrivée des composants, et avec les clients sur les dates de livraisons des produits finis. Au niveau opérationnel, chaque acteur construit son ordonnancement par rapport à ses propres centres de production. Comme la production de produits finis dépend des composants, des négociations sont entamées entre les acteurs concernant les dates d'arrivées des composants (les fenêtres de temps). Une solution globale est obtenue par une approche itérative pour définir l'ordonnancement juste à temps minimisant la somme des pénalités (retards et avances par rapport aux dates fixées). Pour la résolution du problème d'ordonnancement juste à temps, local à chaque centre de production, nous avons proposé une méthode approchée basée sur les algorithmes génétiques. Chaque solution est évaluée grâce à un algorithme pseudo-polynomial basé sur le PERT coût. Un contrôle semi décentralisé est développé pour assurer la convergence des négociations. Par ailleurs, nous avons étudié un ensemble de problèmes concernant l'optimisation des transports dans les chaînes logistiques.
297

Optimisation heuristique pour la résolution du m-PDPTW statique et dynamique

Harbaoui Dridi, Imen 15 December 2010 (has links) (PDF)
De nos jours, le problème de transport de marchandise occupe une place importante dans la vie économique des sociétés modernes. Le problème de ramassage et de livraison (pick-up and delivery problem) est l'un des problèmes dont une grande partie des chercheurs s'y est intéressée.Il s'agit de déterminer un circuit de plusieurs véhicules, de façon à servir à coût minimal un ensemble de clients et de fournisseurs répartis dans un réseau, satisfaisant certaines contraintes relatives aux véhicules, à leurs capacités et à des précédences entre les nœuds. Les travaux de recherche développés dans cette thèse portent sur le PDPTW (Pickup and Delivery Problem with Time Windows) à plusieurs véhicules (m-PDPTW). Ce dernier a été traité dans les deux cas : statique et dynamique. Nous avons proposé plusieurs approches de résolution du m-PDPTW basées sur les algorithmes génétiques, l'optimisation multicritère et le calcul des bornes inférieures, et ceci pour minimiser un certain nombre de critères comme : le nombre de véhicules utilisés, la somme des retards ou le coût total de transport. Ces approches ont donné de bons résultats, principalement au niveau de la minimisation de la somme des retards où nous avons obtenu, dans plusieurs cas, un retard nul avec un coût de transport tolérable
298

Contribution à l'algorithmique distribuée : arbres et ordonnancement

Butelle, Franck 17 December 2007 (has links) (PDF)
Nous présentons dans ce mémoire de thèse d'habilitation une étude sur des algorithmes distribués asynchrones de contrôle et d'ordonnancement. Un algorithme de contrôle établit une structure virtuelle sur un réseau de sites communicants. Nous faisons le choix %délibéré de faire un minimum d'hypothèses sur les connaissances de chaque site. De même, nous évitons autant que possible d'utiliser des mécanismes conduisant à des attentes qui peuvent être pénalisantes comme, par exemple, l'utilisation de synchroniseurs. Ces choix conduisent à privilégier les modes de fonctionnement essentiellement locaux. %dépendant le moins possible de l'état du reste du réseau. Nous introduisons toutefois une limite à cette démarche, dans ce travail, nous ne considérons que des algorithmes déterministes. Dans ces circonstances, un problème essentiel de l'algorithmique distribuée est l'établissement d'une structure de contrôle couvrant la totalité du réseau, dans laquelle chaque site distingue certains de ses voisins de façon spécifique. Après avoir rappelé des notions fondamentales en partie I, nous présentons dans la première partie, trois de nos algorithmes de construction d'arbre couvrant avec contraintes, ces dernières apportant une plus grande efficacité à la structure de contrôle établie. En particulier, nous considérons la contrainte de poids total minimum qui caractérise plutôt une recherche économique, celle de diamètre minimum qui concerne l'efficacité à la fois en temps mais aussi évidemment en messages et la contrainte de degré minimal qui permet par exemple d'utiliser des équipements d'interconnection moins coûteux. Dans la troisième partie nous présentons deux de nos heuristiques pour la résolution du problème de l'ordonnancement distribué en ligne, avec arrivées sporadiques, d'abord de tâches indépendantes puis de tâches avec dépendances non cycliques. Nous montrons que là encore, la structure d'arbre peut être utilisée de façon bénéfique. En particulier, dans des réseaux de taille arbitrairement grande, des arbres de plus courts chemins limités aux voisins relativement proches peuvent être utilisés pour définir un concept nouveau et prometteur ,: la Sphère de Calcul. Cette Sphère de Calcul limite le nombre de messages échangés et le temps de calcul. Tout au long de ce mémoire nous présentons des algorithmes nouveaux, voire pionniers dans leurs domaine. De nombreux développements sont possibles, certains déjà réalisés par nous-même ou par d'autres auteurs, d'autres sont des problèmes ouverts (recherche d'algorithmes optimaux par exemple).
299

Aspects probabilistes des automates cellulaires, et d'autres problèmes en informatique théorique

Gerin, Lucas 08 December 2008 (has links) (PDF)
Ce mémoire de thèse est consacré à l'étude de quelques problèmes de probabilités provenant de l'informatique théorique. Dans une première partie, nous étudions un algorithme probabiliste qui compte le nombre de mots différents dans une liste. Nous montrons que l'étude peut se ramener à un problème d'estimation, et qu'en modifiant légèrement cet algorithme, il est d'une certaine manière optimal. La deuxième partie est consacrée à l'étude de plusieurs problèmes de convergences pour des systèmes finis de particules, nous envisageons différents types de passage à une limite infinie. La première famille de systèmes considérés est une classe particulière d'automates cellulaires. En dimension 1, il apparaît des marches aléatoires dont nous caractérisons de façon complète les comportements limites. En dimension 2, sur une grille carrée, nous étudions quelques-un des cas les plus représentatifs. Nous en déterminons le temps moyen de convergence vers une configuration fixe. Enfin, nous étudions un modèle d'urnes avec des boules à deux états. Dans la troisième partie, nous étudions deux problèmes particuliers de marches aléatoires. Ces deux questions sont initialement motivées par l'étude de certains automates cellulaires, mais nous les présentons de façon indépendante. Le premier de ces deux problèmes est l'étude de marches aléatoires sur un tore discret, réfléchies les unes sur les autres. On montre la convergence de ce processus vers une limite brownienne. Nous étudions enfin de façon entièrement combinatoire une famille de marches aléatoires sur un intervalle, biaisées vers le bas. Nous en déterminons le temps moyen de sortie vers le haut.
300

Robotique évolutionniste: conception orientée vers le comportement

Doncieux, Stéphane 14 December 2010 (has links) (PDF)
L'objectif des travaux présentés dans cette HDR est de concevoir une méthode de conception orientée vers le comportement et dédiée à la robotique mobile et autonome. Cette méthode doit partir des informations disponibles, à savoir une description de la mission à accomplir. Constatant que les animaux ont un niveau d'autonomie élevé qui permettrait à des robots d'accomplir de nombreuses missions, nous avons choisi de focaliser cette étude, dans le cadre de l'approche animat, sur le “mécanisme de conception” à l'oeuvre dans la nature: la sélection naturelle. Ce processus algorithmique a l'avantage de ne prendre en compte que le résultat, c'est à dire la capacité à transmettre ses gènes dans un cadre naturel. Dans un cadre artificiel, c'est le bon accomplissement de la mission du robot qui est pris en compte. Nous nous sommes intéressé au passage à l'échelle de ces algorithmes en terme de complexité des comportements générés, l'algorithme évolutionniste étant utilisé pour synthétiser la structure et les paramètres d'un réseau de neurones artificiels. Une étude sur la modularité nous a révélé l'importance de la définition des pressions de sélection, conduisant à une approche dite d'exaptation. Nous avons alors proposé l'utilisation d'un cadre multi-objectif dans lequel la fonction de fitness récompensant le bon accomplissement de la tâche du robot est associé à des objectifs qui peuvent être indépendants de ce but, approche dite de “multi-objectivisation”. Dans ce contexte, en plus des travaux sur l'exaptation, nous avons proposé les contributions suivantes: * approche incrémentale multi-objectif: chaque sous-tâche du problème à résoudre est associée à un objectif indépendant. Il n'est alors pas nécessaire de les pondérer, de les ordonner ou de décider quand passer d'une tâche à une autre; * diversité comportementale: un objectif mesurant la distance moyenne au reste de la population dans l'espace des comportement est ajouté pour maintenir une diversité élevée dans cet espace. Cette approche s'est révélée très efficace, même avec les codages de réseaux de neurones les plus simples; * transférabilité: un objectif de transférabilité est maximisé pour faciliter le passage de la simulation à la réalité sans dégradation de performance. Dans la perspective de tendre vers des contrôleurs plus cognitifs et dans le cadre du projet ANR EvoNeuro, nous avons proposé une approche méthodologique s'appuyant sur les neurosciences et consistant à synthétiser des réseaux de neurones proches des modèles développés dans ce domaine. Sur la base d'un codage spécifique, nous avons ainsi reproduit des capacités élémentaires de sélection de l'action ou de mémoire de travail. L'objectif de ce projet est de synthétiser d'autres capacités cognitives en s'appuyant sur des protocoles d'évaluation venant des neurosciences avant de les appliquer dans un cadre robotique. Dans le cadre de ce projet, nous avons développé une méthode d'analyse multi-objectif permettant, sur la base d'une optimisation multi-objectif, de comparer et d'analyser les modèles complexes que les neuroscientifiques manipulent.

Page generated in 0.0516 seconds