• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 682
  • 323
  • 51
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1057
  • 348
  • 219
  • 209
  • 204
  • 167
  • 145
  • 144
  • 116
  • 101
  • 91
  • 84
  • 77
  • 76
  • 73
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
571

Planification de mouvement pour systèmes anthropomorphes

Dalibard, Sébastien 22 July 2011 (has links) (PDF)
L'objet de cette thèse est le développement et l'étude des algorithmes de planification de mouvement pour les systèmes hautement dimensionnés que sont les robots humanoïdes et les acteurs virtuels. Plusieurs adaptations des méthodes génériques de planification de mouvement randomisées sont proposées et discutées. Une première contribution concerne l'utilisation de techniques de réduction de dimension linéaire pour accélérer les algorithmes d'échantillonnage. Cette méthode permet d'identifier en ligne quand un processus de planification passe par un passage étroit de l'espace des configurations et adapte l'exploration en fonction. Cet algorithme convient particulièrement bien aux problèmes difficiles de la planification de mouvement pour l'animation graphique. La deuxième contribution est le développement d'algorithmes randomisés de planification sous contraintes. Il s'agit d'une intégration d'outils de cinématique inverse hiérarchisée aux algorithmes de planification de mouvement randomisés. On illustre cette méthodes sur différents problèmes de manipulation pour robots humanoïdes. Cette contribution est généralisée à la planification de mouvements corps-complet nécessitant de la marche. La dernière contribution présentée dans cette thèse est l'utilisation des méthodes précédentes pour résoudre des tâches de manipulation complexes par un robot humanoïde. Nous présentons en particulier un formalisme destiné à représenter les informations propres à l'objet manipulé utilisables par un planificateur de mouvement. Ce formalisme est présenté sous le nom d'"objets documentés".
572

Problèmes d'allocation de ressources dans les réseaux MIMO sans fil distribués

Belmega, Elena Veronica 14 December 2010 (has links) (PDF)
Dans ce manuscrit de thèse, l'objectif principal est d'étudier les réseaux sans fil dans lesquels les nœuds terminaux sont équipés de plusieurs antennes. Plusieurs thèmes d'actualité, tels que les réseaux intelligents auto-optimisants, les communications dites green ou vertes et algorithmes distribués sont abordés. Dans ce but, nous utilisons une gamme diversifiée d'outils de la théorie des jeux, théorie de l'information, théorie des matrices aléatoires et théorie de l'apprentissage. Nous commençons notre analyse par l'étude du problème d'allocation de puissance dans les réseaux MIMO distribués. Les émetteurs sont censés être autonomes et capables de gérer leurs puissances afin d'optimiser leur taux de Shannon atteignables. Le cadre des jeux non-coopératifs est utilisé pour étudier la solution de ce problème. Des algorithmes itératifs qui convergent vers la solution optimale donnée par l'équilibre de Nash sont proposés. Deux approches différentes sont appliquées: des algorithmes basés sur les meilleures réponses et des algorithmes d'apprentissage par renforcement. Un autre problème majeur dans les réseaux sans fil est lié à la question de l'efficacité énergétique. Afin d'atteindre des débits de transmission élevés, la consommation d'énergie est également élevée. Dans les réseaux où la consommation d'énergie est une question critique, le débit de Shannon atteignable n'est plus une métrique de performance adaptée. C'est pourquoi nous abordons également le problème de l'optimisation d'une fonction d'efficacité énergétique.
573

Techniques de gestion des défaillances dans les grilles informatiques tolérantes aux fautes

Ndiaye, Ndeye Massata 17 September 2013 (has links) (PDF)
La construction des grilles informatiques est un des axes de recherche majeurs sur les systèmes informatiques en réseau. L'objectif principal de la construction d'une grille informatique, c'est de fournir les concepts et composant logiciels système adéquats pour agréger les ressources informatiques (processeurs, mémoires, et aussi réseau) au sein d'une grille de traitements informatiques, pour en faire (à terme) une infrastructure informatique globale de simulations, traitement de données ou contrôle de procédés industriels. Cette infrastructure est potentiellement utilisable dans tous les domaines de recherche scientifique, dans la recherche industrielle et les activités opérationnelles (nouveaux procédés et produits, instrumentation, etc.), dans l'évolution des systèmes d'information, du Web et du multimédia. Les grilles de qualité production supposent une maitrise des problèmes de fiabilité, de sécurité renforcé par un meilleur contrôle des accès et une meilleur protection contre les attaques, de tolérance aux défaillances ou de prévention des défaillances, toutes ces propriétés devant conduire à des infrastructure de grille informatique sûres de fonctionnement. Dans cette thèse on propose de poursuivre des recherches sur les problèmes de gestion automatisée des défaillances, l'objectif principal étant de masquer le mieux possible ces défaillances, à la limite les rendre transparents aux applications, de façon à ce que, du point de vue des applications, l'infrastructure de grille fonctionne de façon quasi-continue. Nous avons conçu un nouvel algorithme hiérarchique auto-adaptatif pour assurer la tolérance aux fautes dans les grilles informatiques. Ce protocole s'appuie sur l'architecture hiérarchique des grilles informatiques. Dans chaque cluster, nous avons défini un coordonnateur appelé processus leader, dont le rôle consiste à coordonner les échanges intra-cluster et à assurer le rôle d'intermédiaire entre les processus appartenant à des clusters différents. Pour sauvegarder les états des processus inter-cluster, le protocole adaptatif utilise le mécanisme de journalisation pessimiste basé sur l'émetteur. A l'intérieur du cluster, le protocole exécuté dépend de la fréquence des messages. A partir d'un seuil de fréquence maximale déterminée en fonction de la densité des communications, c'est le protocole de point de reprise coordonné non bloquant qui sera utilisé, tandis que si le nombre de messages dans le cluster est faible, les messages sont sauvegardés avec la journalisation pessimiste.
574

Imagerie de fluorescence et intrinsèque de milieux diffusants par temps d’arrivée des premiers photons

Pichette, Julien January 2014 (has links)
La tomographie optique diffuse (DOT) se caractérise par l’utilisation de la lumière dans un régime de propagation diffusif pour sonder les tissus biologiques. L’utilisation de marqueurs fluorescents permet de cibler des processus biologiques précis (tomographie optique diffuse en fluorescence - FDOT) et d’améliorer le contraste dans les images obtenues. Les applications typiques de la DOT/FDOT sont la mammographie laser, l’imagerie cérébrale de nouveau-nés et les investigations non-invasives sur petits animaux, notamment pour l’imagerie moléculaire. Le présent projet fait partie du programme de recherche TomOptUS dirigé par le professeur Yves Bérubé-Lauzière. Un scanner optique pour petits animaux y est en cours de développement. Ce scanner possède la particularité de fonctionner avec une prise de mesures sans contact dans le domaine temporel. La première partie du projet a pour point de départ l’algorithme développé en FDOT par Vincent Robichaud qui permet la localisation spatiale d’une seule inclusion fluorescente ponctuelle immergée dans un milieu diffusant homogène ayant une géométrie cylindrique. Une nouvelle approche de localisation pour une pluralité d’inclusions discrètes est ici introduite. Cette dernière exploite l’information contenue dans le temps de vol des premiers photons provenant d’une émission de fluorescence. Chaque mesure permet de définir un lieu géométrique où une inclusion peut se trouver : ces lieux prennent la forme d’ovales en 2D ou d’ovoïdes en 3D. À partir de ces lieux, une carte de probabilité de présence des inclusions est construite : les maxima de la carte correspondent à la position des inclusions. Cette approche géométrique est soutenue par des simulations Monte Carlo en fluorescence dans des milieux reproduisant les propriétés optiques des tissus biologiques. Plusieurs expériences sont ensuite effectuées sur une mire optique homogène répliquant les propriétés optiques des tissus dans lequel des inclusions remplies de vert d’indocyanine (ICG) sont placées. L’approche permet la localisation avec une erreur positionnelle de l’ordre du millimètre. Les résultats démontrent que l’approche est précise, rapide et efficace pour localisation des inclusions fluorescentes dans un milieu hautement diffusant mimant les tissus biologiques. Des simulations Monte Carlo sur un modèle réaliste de souris montrent la faisabilité de la technique pour l’imagerie sur petits animaux. Le second volet de la thèse s’intéresse aux mesures intrinsèques par le développement d’une approche de reconstruction d’une carte des vitesses de propagation des ondes lumineuses diffuses dans un milieu diffusant hétérogène. De telles vitesses constituent un nouveau contraste pour de l’imagerie DOT. La méthode utilise une configuration en faisceaux lumineux analogue aux méthodes utilisées en tomographie par rayons X. Ici, toutefois, les temps d’arrivée des premiers photons sont utilisés plutôt que l’amplitude du signal. Des résultats sont présentés en 2D pour différentes configurations d’inclusions démontrant la validité de l’approche. Des simulations Monte Carlo sont utilisées pour simuler la propagation intrinsèque dans des milieux hétérogènes et pour venir appuyer la démarche.
575

Ordonnancement d'ateliers de traitements de surfaces pour une production mono-robot/multi-produits : Résolution et étude de la robustesse

Mhedhbi Brinis, Imen 11 April 2011 (has links) (PDF)
Les travaux de recherche de ce mémoire portent sur la contribution à l'ordonnancement et à la robustesse d'ateliers de traitement de surface pour une production mono-robot/multi-produits.Une ligne de traitement de surface est constituée d'une succession de cuves dans lesquelles une opération chimique, de durée définie sur un intervalle de temps, appelé fenêtre, doit être réalisée. Ce type de ligne est en particulier contraint par un robot, se déplaçant sur un rail au dessus des cuves et assurant le transport du produit à traiter. Ce problème d'ordonnancement traité, appelé SHMP (Single-Hoist/Multi-Products) est connu pour être NP-difficile, même avec un seul produit et une seule ressource de transport. Basé sur les techniques de satisfaction de contraintes, un algorithme a été développé et mis en œuvre avec succès pour l'atelier de traitement de surfaces étudié. L'utilisation de l'hybridation de ce même algorithme avec d'autres méthodes s'est avérée intéressante et efficace pour déterminer des solutions de meilleure qualité. Nous avons également montré que le recours aux algorithmes génétiques pour l'optimisation du problème job shop mono-robot/multi-produits étudié conduit à des résultats encore plus intéressants et significatifs.La robustesse a aussi été considérée pour l'étude de l'influence des perturbations sur l'ordonnancement. Pour cela, la distinction de divers scénarii a été nécessaire pour l'étude de l'influence d'une perturbation au niveau du chariot. La détermination systématique d'un ordonnancement robuste a été ensuite menée, avec succès, par application d'une méthode d'évaluation multi-critères
576

Identification du profil des utilisateurs d'un hypermédia encyclopédique à l'aide de classifieurs basés sur des dissimilarités : création d'un composant d'un système expert pour Hypergéo

Abou Latif, Firas 08 July 2011 (has links) (PDF)
L'objectif de cette thèse est d'identifier le profil d'utilisateur d'un hypermédia afin de l'adapter. Ceprofil est déterminé en utilisant des algorithmes d'apprentissage supervisé comme le SVM.Le modèle d'utilisateur est l'un des composants essentiels des hypermédias adaptatifs. Une des façons de caractériser ce modèle est d'associer l'utilisateur à un profil. Le Web Usage Mining (WUM)identifie ce profil à l'aide des traces de navigation. Toutefois, ces techniques ne fonctionnent généralement que sur de gros volumes de données. Dans le cadre de volumes de données réduits, nous proposons d'utiliser la structure et le contenu de l'hypermédia. Pour cela, nous avons utilisé des algorithmes d'apprentissage à noyau pour lesquels nous avons défini l'élément clé qu'est la mesure de similarité entre traces basée sur une " distance " entre documents du site. Notre approche a été validée à l'aide de données synthétiques puis à l'aide de données issues des traces des utilisateurs du site Hypergéo (site webencyclopédique spécialisé dans la géographie). Nos résultats ont été comparés à ceux obtenus à l'aide d'une des techniques du WUM (l'algorithme des motifs caractéristiques). Finalement, nos propositions pour identifier les profils a posteriori ont permis de mettre en évidence cinq profils. En appliquant une" distance sémantique " entre documents, les utilisateurs d'Hypergéo ont été classés correctement selon leurs centres d'intérêt.
577

Étude formelle d'algorithmes efficaces en algèbre linéaire

Dénès, Maxime 20 November 2013 (has links) (PDF)
Les méthodes formelles ont atteint un degré de maturité conduisant à la conception de systèmes de preuves généralistes, permettant à la fois de vérifier la correction de systèmes logiciels complexes ou de formaliser des mathématiques avancées. Mais souvent, l'accent est mis davantage sur la facilité du raisonnement sur les programmes plutôt que sur leur exécution efficace. L'antagonisme entre ces deux aspects est particulièrement sensible pour les algorithmes de calcul formel, dont la correction repose habituellement sur des concepts mathématiques élaborés, mais dont l'efficacité pratique est une préoccupation importante. Cette thèse développe des approches à l'étude formelle et l'exécution efficace de programmes en théorie des types, et plus précisément dans l'assistant à la preuve \coq{}. Dans un premier temps, nous présentons un environnement d'exécution permettant de compiler en code natif de tels programmes tout en conservant la généralité et l'expressivité du formalisme. Puis, nous nous intéressons aux représentations de données et plus particulièrement au lien formellement vérifié et automatisé entre représentations adaptées aux preuves ou au calcul. Ensuite, nous mettons à profit ces techniques pour l'étude d'algorithmes en algèbre linéaire, comme le produit matriciel de Strassen, le procédé d'élimination de Gauss ou la mise en forme canonique de matrices, dont notamment la forme de Smith pour les matrices sur un anneau euclidien. Enfin, nous ouvrons le champ des applications à la formalisation et au calcul certifié des groupes d'homologie de complexes simpliciaux issus d'images numériques.
578

Détection de la double parole dans le contexte de radiotéléphone main-libre en véhicule /

Ezzaidi, Hassan, January 1900 (has links)
Thèse (M.Eng.) -- Université du Québec à Chicoutimi, 1998. / Bibliogr.: f. [83-88]. Document électronique également accessible en format PDF. CaQCU
579

Classification multisource par la fusion évidentielle avec une nouvelle approche statistique floue

Germain, Mickaël. January 1900 (has links)
Thèse (Ph.D.)--Université de Sherbrooke (Canada), 2006. / Titre de l'écran-titre (visionné le 27 févr. 2008). In ProQuest dissertations and theses. Publié aussi en version papier.
580

Meta-learning : strategies, implementations, and evaluations for algorithm selection /

Köpf, Christian Rudolf. January 1900 (has links)
Thesis (doctorat) -- Universität Ulm, 2005. / Includes bibliographical references (p. 227-248).

Page generated in 0.0313 seconds