• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 286
  • 255
  • 81
  • 1
  • Tagged with
  • 623
  • 623
  • 623
  • 623
  • 623
  • 623
  • 114
  • 77
  • 67
  • 64
  • 48
  • 47
  • 39
  • 36
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Évaluation expérimentale d'un système statistique de synthèse de la parole, HTS, pour la langue française

Le Maguer, Sébastien 05 July 2013 (has links) (PDF)
Les travaux présentés dans cette thèse se situent dans le cadre de la synthèse de la parole à partir du texte et, plus précisément, dans le cadre de la synthèse paramétrique utilisant des règles statistiques. Nous nous intéressons à l'influence des descripteurs linguistiques utilisés pour caractériser un signal de parole sur la modélisation effectuée dans le système de synthèse statistique HTS. Pour cela, deux méthodologies d'évaluation objective sont présentées. La première repose sur une modélisation de l'espace acoustique, généré par HTS par des mélanges gaussiens (GMM). En utilisant ensuite un ensemble de signaux de parole de référence, il est possible de comparer les GMM entre eux et ainsi les espaces acoustiques générés par les différentes configurations de HTS. La seconde méthodologie proposée repose sur le calcul de distances entre trames acoustiques appariées pour pouvoir évaluer la modélisation effectuée par HTS de manière plus locale. Cette seconde méthodologie permet de compléter les diverses analyses en contrôlant notamment les ensembles de données générées et évaluées. Les résultats obtenus selon ces deux méthodologies, et confirmés par des évaluations subjectives, indiquent que l'utilisation d'un ensemble complexe de descripteurs linguistiques n'aboutit pas nécessairement à une meilleure modélisation et peut s'avérer contre-productif sur la qualité du signal de synthèse produit.
62

Minimisation de fonctions de perte calibrée pour la classification des images

Bel Haj Ali, Wafa 11 October 2013 (has links) (PDF)
La classification des images est aujourd'hui un défi d'une grande ampleur puisque ça concerne d'un côté les millions voir des milliards d'images qui se trouvent partout sur le web et d'autre part des images pour des applications temps réel critiques. Cette classification fait appel en général à des méthodes d'apprentissage et à des classifieurs qui doivent répondre à la fois à la précision ainsi qu'à la rapidité. Ces problèmes d'apprentissage touchent aujourd'hui un grand nombre de domaines d'applications: à savoir, le web (profiling, ciblage, réseaux sociaux, moteurs de recherche), les "Big Data" et bien évidemment la vision par ordinateur tel que la reconnaissance d'objets et la classification des images. La présente thèse se situe dans cette dernière catégorie et présente des algorithmes d'apprentissage supervisé basés sur la minimisation de fonctions de perte (erreur) dites "calibrées" pour deux types de classifieurs: k-Plus Proches voisins (kNN) et classifieurs linéaires. Ces méthodes d'apprentissage ont été testées sur de grandes bases d'images et appliquées par la suite à des images biomédicales. Ainsi, cette thèse reformule dans une première étape un algorithme de Boosting des kNN et présente ensuite une deuxième méthode d'apprentissage de ces classifieurs NN mais avec une approche de descente de Newton pour une convergence plus rapide. Dans une seconde partie, cette thèse introduit un nouvel algorithme d'apprentissage par descente stochastique de Newton pour les classifieurs linéaires connus pour leur simplicité et leur rapidité de calcul. Enfin, ces trois méthodes ont été utilisées dans une application médicale qui concerne la classification de cellules en biologie et en pathologie.
63

Étalonnage des robots à câbles : identification et qualification

Alexandre Dit Sandretto, Julien 11 September 2013 (has links) (PDF)
L'objectif de cette thèse est de proposer des méthodes pour étalonner un robot parallèle à câbles de grande dimension. Afin d'améliorer le comportement global d'un robot, il est nécessaire d'identifier au mieux les paramètres de son modèle. Pour cela, il est important d'obtenir des informations redondantes en mesurant l'état du robot dans différentes configurations. Cependant, le modèle choisi est un compromis entre sa capacité à représenter le comportement réel du manipulateur et les informations disponibles pour le renseigner. Dans le cas particulier des robots à câbles de grande dimension, la masse et l'élasticité des câbles ont une influence non négligeable sur le comportement du robot mais sont difficiles à modéliser. En effet, le modèle physique des câbles est complexe et nécessite de connaître la tension à laquelle ils sont soumis. Les capteurs disponibles ne pouvant nous fournir cette information avec une précision suffisante pour renseigner un modèle de câble réaliste, nous proposons d'utiliser un modèle simplifié. Dans le but de proposer un étalonnage efficace, il est donc nécessaire de définir les conditions pour l'emploi de ce modèle simplifié. Ensuite, nous avons adapté et implanté d'une part plusieurs techniques classiques pour l'étalonnage des robots parallèles mais nous avons également élaboré des approches plus innovantes. Nous proposons en effet un modèle pour les robots à câbles reposant sur une représentation des incertitudes de modélisation, de mesures et de paramètres au moyen d'intervalles.
64

Contribution à l'amélioration des techniques de la programmation génétique

El Gerari, Oussama 08 December 2011 (has links) (PDF)
Dans le cadre de cette thèse, nous nous intéresseons à l'amélioration des techniques de programmation génétique (PG), en particulier nous avons essayer d'améliorer la performance de la PG en cas d'utilisation de grammaire riche, où l'ensemble de terminaux contient plus que nécessaire pour représenter des solutions optimales. Pour cela, nous avons présenté le problème de la sélection d'attributs en rappelant les principales approches, et nous avons utilisé la technique de mesure de poids des terminaux pour affiner la sélection d'attributs. En second lieu, nous présentons des travaux sur un autre algorithme qui s'inspire de la boucle évolutionnaire : l'évolution différentielle (ED), et nous étudions la performance de cette technique sur la branche de la programmation génétique linéaire. Nous présentons et comparons les performances de cette dernière technique sur un ensemble de "benchmarks" classique de la PG.
65

Vers un langage synchrone sûr et securisé

Attar, Pejman 12 December 2013 (has links) (PDF)
Cette thèse propose une nouvelle approche du parallélisme et de la concurrence, posant les bases d'un langage de programmation à la fois sûr et "secure" (garantissant la sécurité des données), fondé sur une sémantique formelle claire et simple, tout en étant adapté aux architectures multi-cœur. Nous avons adopté le paradigme synchrone, dans sa variante réactive, qui fournit une alternative simple à la programmation concurrente standard en limitant l'impact des erreurs dépendant du temps ("data-races"). Dans un premier temps, nous avons considéré un langage réactif d'orchestration, DSL, dans lequel on fait abstraction de la mémoire (Partie 1). Dans le but de pouvoir traiter la mémoire et la sécurité, nous avons ensuite étudié (Partie 2) un noyau réactif, CRL, qui utilise un opérateur de parallélisme déterministe. Nous avons prouvé la réactivité bornée des programmes de CRL. Nous avons ensuite équipé CRL de mécanismes pour contrôler le flux d'information (Partie 3). Pour cela, nous avons d'abord étendu CRL avec des niveaux de sécurité pour les données, puis nous avons défini dans le langage étendu, SSL, un système de types permettant d'éviter les fuites d'information. Parallèlement (Partie 4), nous avons ajouté la mémoire à CRL, en proposant le modèle DSLM. En utilisant une notion d'agent, nous avons structuré la mémoire de telle sorte qu'il ne puisse y avoir de "data-races". Nous avons également étudié l'implémentation de DSLM sur les architectures multi-cœur, fondée sur la notion de site et de migration d'un agent entre les sites. L'unification de SSL et de DSLM est une piste pour un travail futur.
66

Etude de la robustesse des graphes sociaux émergents

Lemmouchi, Slimane 26 December 2012 (has links) (PDF)
Les réseaux sont présents dans pratiquement tous les aspects de la vie. Le monde quinous entoure comporte énormément de réseaux. Par exemple, les réseaux de communicationconstitués de téléphones, les réseaux électriques, les réseaux d'ordinateurs, le réseaudes lignes aériennes, ... etc, sont autant de réseaux importants dans la vie de chaque jour.Le cadre mathématique des réseaux est bien approprié pour décrire plusieurs systèmescomposés d'un grand nombre d'entités qui interagissent entre elles. Chaque entité est représentéepar un noeud du réseau et chaque interaction par un lien entre deux noeuds. Ilest donc possible de modéliser ces réseaux par des graphes. Pour la plupart de ces réseaux,la difficulté provient principalement du grand nombre d'entités, ainsi que de la façon dontelles sont interconnectées. Une approche naturelle pour simplifier de tels systèmes consistedonc à réduire leur taille. Cette simplification n'est pas faite aléatoirement, mais de tellefaçon à ce que les noeuds de la même composante aient plus de liens entre eux qu'avec lesautres composantes. Ces groupes de noeuds ou composantes sont appelés communautésd'intérêt. Notre thèse se positionne dans le domaine de l'étude des graphes sociaux. Elle s'intéresseprincipalement à l'étude de la robustesse des structures sociales émergentes dansles réseaux d'interactions. L'aspect de la robustesse des réseaux constitue un challengetrès important pour comprendre leur fonctionnement, le comportement des entités lesconstituant et surtout pour comprendre les interactions qui peuvent se produire entreelles, permettant l'émergence de certains comportements qui n'étaient pas du tout prévisiblesau préalable. Actuellement, les études de la robustesse des réseaux qui existentdans la littérature traitent cet aspect du point de vue purement structurel, i.e. toutes lesperturbations sont appliquées soit sur les noeuds, soit sur les arêtes du graphe. Pour cequi est de notre étude, nous nous sommes intéressés à définir une nouvelle stratégie qui sebase sur des perturbations appliquées sur les paramètres qui permettent l'émergence desgraphes sociaux dans les réseaux d'interaction. Cette façon d'aborder l'aspect robustessedes graphes constitue une nouvelle manière d'évaluer et de quantifier les changements quipeuvent intervenir dans les structures de ces graphes.
67

Interaction basée sur des gestes définis par l'utilisateur : Application à la réalité virtuelle

Jego, Jean-François 12 December 2013 (has links) (PDF)
Ces travaux de recherche proposent une nouvelle méthode d'interaction gestuelle. Nous nous intéressons en particulier à deux domaines d'application : la thérapie à domicile par la réalité virtuelle et les arts scéniques numériques. Nous partons du constat que les interfaces standardisées ne sont pas adaptées à ces cas d'usage, car elles font appel à des gestes prédéfinis et imposés. Notre approche consiste à laisser la possibilité à l'utilisateur de faire apprendre ses gestes d'interaction par le système. Cela permet de prendre en compte ses besoins et aptitudes sensorimotrices. L'utilisateur réutilise ensuite son langage gestuel appris par le système pour interagir dans l'environnement virtuel. Cette approche pose des questions de recherche centrées sur la mémorisation, la rétroaction visuelle et la fatigue. Pour aborder ces trois aspects, nous étudions d'abord le rôle de l'affordance visuelle des objets et celui de la colocalisation dans la remémoration d'un corpus de gestes. Ensuite, nous évaluons l'influence de différents types de rétroactions visuelles sur l'évolution des gestes répétés par l'utilisateur dans une série de tâches de manipulation. Nous comparons également les performances entre des gestes d'amplitude réaliste et des gestes d'amplitude faible pour effectuer la même action. Aussi, nous attachons une importance à rendre l'interface accessible en utilisant des dispositifs bas coûts et peu intrusifs. Nous explorons les moyens de pallier les contraintes techniques liées aux systèmes peu performants. Pour cela, nous avons conduit des expériences où plus de six mille gestes proposés par une quarantaine d'utilisateurs ont été étudiés.
68

Acceleration of a bioinformatics application using high-level synthesis

Abbas, Naeem 22 May 2012 (has links) (PDF)
The revolutionary advancements in the field of bioinformatics have opened new horizons in biological and pharmaceutical research. However, the existing bioinformatics tools are unable to meet the computational demands, due to the recent exponential growth in biological data. So there is a dire need to build future bioinformatics platforms incorporating modern parallel computation techniques. In this work, we investigate FPGA based acceleration of these applications, using High-Level Synthesis. High-Level Synthesis tools enable automatic translation of abstract specifications to the hardware design, considerably reducing the design efforts. However, the generation of an efficient hardware using these tools is often a challenge for the designers. Our research effort encompasses an exploration of the techniques and practices, that can lead to the generation of an efficient design from these high-level synthesis tools. We illustrate our methodology by accelerating a widely used application -- HMMER -- in bioinformatics community. HMMER is well-known for its compute-intensive kernels and data dependencies that lead to a sequential execution. We propose an original parallelization scheme based on rewriting of its mathematical formulation, followed by an in-depth exploration of hardware mapping techniques of these kernels, and finally show on-board acceleration results. Our research work demonstrates designing flexible hardware accelerators for bioinformatics applications, using design methodologies which are more efficient than the traditional ones, and where resulting designs are scalable enough to meet the future requirements.
69

From dataflow-based video coding tools to dedicated embedded multi-core platforms

Yviquel, Hervé 25 October 2013 (has links) (PDF)
The development of multimedia technology, along with the emergence of parallel architectures, has revived the interest on dataflow programming for designing embedded systems. Indeed, dataflow programming offers a flexible development approach in order to build complex applications while expressing concurrency and parallelism explicitly. Paradoxically, most of the studies focus on static dataflow models of computation, even if a pragmatic development process requires the expressiveness and the practicality of a programming language based on dynamic dataflow models, such as the language included in the Reconfigurable Video Coding framework. In this thesis, we describe a complete development environment for dataflow programming that eases multimedia development for embedded multi-core platforms. This development environment is built upon a modular software architecture that benefits from modern software engineering techniques such as meta modeling and aspect-oriented programming. Then, we develop an optimized software implementation of dataflow programs targeting desktop and embedded multi-core platforms. Our implementation aims to bridge the gap between the practicality of the programming language and the efficiency of the execution. Finally, we present a set of runtime actors mapping/scheduling algorithms that enable the execution of dynamic dataflow programs over multi-core platforms with scalable performance.
70

Extension des systèmes de métamodélisation persistant avec la sémantique comportementale

Bazhar, Youness 13 December 2013 (has links) (PDF)
L'Ingénierie Dirigée par les Modèles (IDM) a suscité un grand intérêt grâce aux avantages qu'elle offre. Enparticulier, l'IDM vise à accélérer le processus de développement et à faciliter la maintenance des logiciels. Mais avecl'augmentation permanente de la taille des modèles et de leurs instances, l'exploitation des modèles et de leurs instances,en utilisant des outils classiques présente des insuffisances liées au passage à l'échelle. L'utilisation des bases de donnéesest une des solutions proposées pour répondre à ce problème. Dans ce contexte, deux approches ont été proposées. Lapremière consiste à équiper les outils de modélisation avec des bases de données dédiées au stockage de modèles,appelées model repositories (p. ex. EMFStore). Ces bases de données sont équipées de langages d'exploitation limitésseulement à l'interrogation des modèles et des instances. Par conséquent, ces langages n'offrent aucune capacité poureffectuer des opérations avancées sur les modèles telles que la transformation de modèles ou la génération de code. Ladeuxième approche, que nous suivons dans notre travail, consiste à définir des environnements persistants en base dedonnées dédiés à la méta-modélisation. Ces environnements sont appelés systèmes de méta-modélisation persistants(PMMS). Un PMMS consiste en (i) une base de données dédiée au stockage des méta-modèles, des modèles et de leursinstances, et (ii) un langage d'exploitation associé possédant des capacités de méta-modélisation et d'exploitation desmodèles. Plusieurs PMMS ont été proposés tels que ConceptBase ou OntoDB/OntoQL. Ces PMMS supportentprincipalement la définition de la sémantique structurelle et descriptive des méta-modèles et des modèles en terme de(méta-)classes, (méta-)attributs, etc. Par contre, ces PMMS fournissent des mécanismes limités pour définir la sémantiquecomportementale nécessaire à l'exploitation des modèles et des instances. En effet, la sémantique comportementalepourrait être utile pour calculer des concepts dérivés, effectuer des transformations de modèles, générer du code source,etc. Ainsi, nous proposons dans notre travail d'étendre les PMMS avec la possibilité d'introduire dynamiquement desopérations qui peuvent être implémentées en utilisant des mécanismes hétérogènes. Ces opérations peuvent ainsi utiliserdes mécanismes internes au système de gestion de base de données (p. ex. les procédures stockées) tout comme desmécanismes externes tels que les services web ou les programmes externes (p. ex. Java, C++). Cette extension permetd'améliorer les PMMS en leur donnant une plus large couverture de fonctionnalités et une plus grande flexibilité. Pourvalider notre proposition, elle a été implémentée sur le prototype OntoDB/OntoQ et a été mise en oeuvre dans troiscontextes différents : (1) pour calculer les concepts dérivés dans les bases de données à base ontologique, (2) pouraméliorer une méthodologie de conception de base de données à base ontologique et finalement (3) pour faire de latransformation et de l'analyse des modèles des systèmes embarqués temps réel.

Page generated in 0.0816 seconds