• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 286
  • 255
  • 81
  • 1
  • Tagged with
  • 623
  • 623
  • 623
  • 623
  • 623
  • 623
  • 114
  • 77
  • 67
  • 64
  • 48
  • 47
  • 39
  • 36
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
241

Amélioration des systèmes de traduction par analyse linguistique et thématique : Application à la traduction depuis l'arabe

Gahbiche-Braham, Souhir 30 September 2013 (has links) (PDF)
La traduction automatique des documents est considérée comme l'une des tâches les plus difficiles en traitement automatique des langues et de la parole. Les particularités linguistiques de certaines langues, comme la langue arabe, rendent la tâche de traduction automatique plus difficile. Notre objectif dans cette thèse est d'améliorer les systèmes de traduction de l'arabe vers le français et vers l'anglais. Nous proposons donc une étude détaillée sur ces systèmes. Les principales recherches portent à la fois sur la construction de corpus parallèles, le prétraitement de l'arabe et sur l'adaptation des modèles de traduction et de langue.Tout d'abord, un corpus comparable journalistique a été exploré pour en extraire automatiquement un corpus parallèle. Ensuite, différentes approches d'adaptation du modèle de traduction sont exploitées, soit en utilisant le corpus parallèle extrait automatiquement soit en utilisant un corpus parallèle construit automatiquement.Nous démontrons que l'adaptation des données du système de traduction permet d'améliorer la traduction. Un texte en arabe doit être prétraité avant de le traduire et ceci à cause du caractère agglutinatif de la langue arabe. Nous présentons notre outil de segmentation de l'arabe, SAPA (Segmentor and Part-of-speech tagger for Arabic), indépendant de toute ressource externe et permettant de réduire les temps de calcul. Cet outil permet de prédire simultanément l'étiquette morpho-syntaxique ainsi que les proclitiques (conjonctions, prépositions, etc.) pour chaque mot, ensuite de séparer les proclitiques du lemme (ou mot de base). Nous décrivons également dans cette thèse notre outil de détection des entités nommées, NERAr (Named Entity Recognition for Arabic), et nous examions l'impact de l'intégration de la détection des entités nommées dans la tâche de prétraitement et la pré-traduction de ces entités nommées en utilisant des dictionnaires bilingues. Nous présentons par la suite plusieurs méthodes pour l'adaptation thématique des modèles de traduction et de langue expérimentées sur une application réelle contenant un corpus constitué d'un ensemble de phrases multicatégoriques.Ces expériences ouvrent des perspectives importantes de recherche comme par exemple la combinaison de plusieurs systèmes lors de la traduction pour l'adaptation thématique. Il serait également intéressant d'effectuer une adaptation temporelle des modèles de traduction et de langue. Finalement, les systèmes de traduction améliorés arabe-français et arabe-anglais sont intégrés dans une plateforme d'analyse multimédia et montrent une amélioration des performances par rapport aux systèmes de traduction de base.
242

Modélisation et mise en œuvre de processus collaboratifs ad hoc

Kedji, Komlan Akpédjé 05 July 2013 (has links) (PDF)
Le développement logiciel est une activité intensément collaborative. Les problématiques habituelles de collaboration (organisation des tâches, utilisation des ressources, communication, etc.) y sont exacerbées par le rythme rapide des changements, la complexité et la grande interdépendance des artéfacts, le volume toujours croissant d'informations de contexte à traiter, la distribution géographique des participants, etc. Par conséquent, la question du support outillé de la collaboration se pose plus fortement que jamais en ingénierie logicielle. Dans cette thèse, nous abordons la question de la collaboration sous l'angle de la modélisation et de l'exploitation des processus de développement. Ces derniers sont traditionnellement considérés comme une structure imposée sur le développement d'un produit logiciel. Cependant, une part importante de la collaboration en génie logiciel est de nature ad hoc, faite d'activités non planifiées. Afin de faire contribuer les processus logiciels au support de la collaboration, en particulier celle non planifiée, nous nous intéressons à leur fonction de banques d'information sur les éléments clés de cette collaboration et les interactions entre ces derniers. Notre contribution est, d'une part, un modèle conceptuel du support au développement collaboratif, capable de rendre compte de la structure d'outils classiques comme ceux de gestion de versions ou de gestion de défauts logiciels. Ce modèle conceptuel est ensuite appliqué aux modèles de processus logiciels. Nous définissons ainsi une approche globale d'exploitation des informations de processus pour le support de la collaboration, basée sur les notions centrales de langage de requête d'information et de mécanisme de réaction aux événements. D'autre part, nous proposons un métamodèle, CMSPEM (Collaborative Model-Based Software & System Process Engineering Metamodel), qui enrichit le standard SPEM (Software & System Process Engineering Metamodel) avec des concepts et relations nécessaires au support de la collaboration. Ce métamodèle est outillé avec des outils de création de modèle (éditeurs graphiques et textuels), et un serveur de processus offrant un langage de requêtes basé sur HTTP/REST et un framework de souscription et de réaction aux événements de processus. Enfin, notre approche conceptuelle a été illustrée et validée, en premier lieu, par une analyse des pratiques inférées à partir des données de développement de 219 projets open source. En second lieu, des utilitaires de support à la collaboration (mise à disposition d'informations conceptuelles, automatisation d'actions, extraction d'information sur les contributions individuelles) ont été implémentés à travers le serveur de processus CMSPEM.
243

Contributing to energy efficiency through a user-centered smart home

Dominici, Michele 03 June 2013 (has links) (PDF)
Smart homes are residences equipped with information and communication technologies that anticipate and respond to the needs of the occupants. Despite the numerous research and industrial efforts, today only few expensive smart homes have been built and sold. The reason behind this slow uptake is the technology-driven approach characterizing existing solutions. The doctoral Thesis aims at demonstrating that a smart home can provide functionalities designed with a user-centered approach, taking into account ergonomic considerations about domestic activity and human cognition. This is achieved in collaboration with cognitive ergonomists, which help "minding the gap" between human context and machine-understandable context. Using off-the-shelf and lightweight instrumentation (also minimizing privacy concerns), extending existing context modeling, reasoning and management tools and following the Ubiquitous Computing principles, the doctoral work led to the following achievements: (i) the inter-disciplinary design of suitable functionalities, in collaboration with cognitive ergonomists; (ii) the design of a context-aware system that captures and reasons about uncertain contextual information in a distributed fashion; (ii) the realization of a working prototype that demonstrates the provision of energy-saving and comfort-preserving functionalities.
244

Implémentation d'algorithmes de reconnaissance biométrique par l'iris sur des architectures dédiées

Hentati, Raïda 02 November 2013 (has links) (PDF)
Dans cette thèse, nous avons adapté trois versions d'une chaine d'algorithmes de reconnaissance biométrique par l'iris appelés OSIRIS V2, V3, V4 qui correspondent à différentes implémentations de l'approche de J. Daugman pour les besoins d'une implémentation logicielle / matérielle. Les résultats expérimentaux sur la base de données ICE2005 montrent que OSIRIS_V4 est le système le plus fiable alors qu'OSIRIS_V2 est le plus rapide. Nous avons proposé une mesure de qualité de l'image segmentée pour optimiser en terme de compromis coût / performance un système de référence basé sur OSIRIS V2 et V4. Nous nous sommes ensuite intéressés à l'implémentation de ces algorithmes sur des plateformes reconfigurables. Les résultats expérimentaux montrent que l'implémentation matériel / logiciel est plus rapide que l'implémentation purement logicielle. Nous proposons aussi une nouvelle méthode pour le partitionnement matériel / logiciel de l'application. Nous avons utilisé la programmation linéaire pour trouver la partition optimale pour les différentes tâches prenant en compte les trois contraintes : la surface occupée, le temps d'exécution et la consommation d'énergie
245

Conception d'heuristiques d'optimisation pour les problèmes de grande dimension : application à l'analyse de données de puces à ADN

Gardeux, Vincent 30 November 2011 (has links) (PDF)
Cette thèse expose la problématique récente concernant la résolution de problèmes de grande dimension. Nous présentons les méthodes permettant de les résoudre ainsi que leurs applications, notamment pour la sélection de variables dans le domaine de la fouille de données. Dans la première partie de cette thèse, nous exposons les enjeux de la résolution de problèmes de grande dimension. Nous nous intéressons principalement aux méthodes de recherche linéaire, que nous jugeons particulièrement adaptées pour la résolution de tels problèmes. Nous présentons ensuite les méthodes que nous avons développées, basées sur ce principe : CUS, EUS et EM323. Nous soulignons en particulier la très grande vitesse de convergence de CUS et EUS, ainsi que leur simplicité de mise en oeuvre. La méthode EM323 est issue d'une hybridation entre la méthode EUS et un algorithme d'optimisation unidimensionnel développé par F. Glover : l'algorithme 3-2-3. Nous montrons que ce dernier algorithme obtient des résultats d'une plus grande précision, notamment pour les problèmes non séparables, qui sont le point faible des méthodes issues de la recherche linéaire. Dans une deuxième partie, nous nous intéressons aux problèmes de fouille de données, et plus particulièrement l'analyse de données de puces à ADN. Le but est de classer ces données et de prédire le comportement de nouveaux exemples. Dans un premier temps, une collaboration avec l'hôpital Tenon nous permet d'analyser des données privées concernant le cancer du sein. Nous développons alors une méthode exacte, nommée delta-test, enrichie par la suite d'une méthode permettant la sélection automatique du nombre de variables. Dans un deuxième temps, nous développons une méthode heuristique de sélection de variables, nommée ABEUS, basée sur l'optimisation des performances du classifieur DLDA. Les résultats obtenus sur des données publiques montrent que nos méthodes permettent de sélectionner des sous-ensembles de variables de taille très faible,ce qui est un critère important permettant d'éviter le sur-apprentissage
246

A novel 3D recovery method by dynamic (de)focused projection

Lertrusdachakul, Intuon 30 November 2011 (has links) (PDF)
This paper presents a novel 3D recovery method based on structured light. This method unifies depth from focus (DFF) and depth from defocus (DFD) techniques with the use of a dynamic (de)focused projection. With this approach, the image acquisition system is specifically constructed to keep a whole object sharp in all of the captured images. Therefore, only the projected patterns experience different defocused deformations according to the object's depths. When the projected patterns are out of focus, their Point Spread Function (PSF) is assumed to follow a Gaussian distribution. The final depth is computed by the analysis of the relationship between the sets of PSFs obtained from different blurs and the variation of the object's depths. Our new depth estimation can be employed as a stand-alone strategy. It has no problem with occlusion and correspondence issues. Moreover, it handles textureless and partially reflective surfaces. The experimental results on real objects demonstrate the effective performance of our approach, providing reliable depth estimation and competitive time consumption. It uses fewer input images than DFF, and unlike DFD, it ensures that the PSF is locally unique.
247

Conception d'un outil de prototypage rapide sur le FPGA pour des applications de traitement d'images

Saptono, Debyo 04 November 2011 (has links) (PDF)
Ce manuscrit présente les travaux menés pour proposer un flot de conception permettant d'implanter des processeurs RISP dans un circuit reprogrammable (FPGA). Après une description des différentes solutions envisageables pour réaliser des prototypes dans le domaine du traitement d'image, ce document décrit une méthode qui consiste à générer des modèles matériels de processeurs destinés au traitement d'images, avec des opérateurs taillés sur une application donnée. Un ensemble d'expérimentations utilisant des algorithmes courants permet d'évaluer les performances du flot de conception proposé. Le prototypage rapide d'un système biométrique sans contact, basé sur la reconnaissance de paumes a été aussi réalisé sur la plateforme de test.
248

Nouvelles méthodes de traitement de signaux multidimensionnels par décomposition suivant le théorème de Superposition de Kolmogorov

Leni, Pierre-Emmanuel 23 November 2010 (has links) (PDF)
Le traitement de signaux multidimensionnels reste un problème délicat lorsqu'il s'agit d'utiliser des méthodes conçues pour traiter des signaux monodimensionnels. Il faut alors étendre les méthodes monodimensionnelles à plusieurs dimensions, ce qui n'est pas toujours possible, ou bien convertir les signaux multidimensionnels en signaux 1D. Dans ce cas, l'objectif est de conserver le maximum des propriétés du signal original. Dans ce contexte, le théorème de superposition de Kolmogorov fournit un cadre théorique prometteur pour la conversion de signaux multidimensionnels. En effet, en 1957, Kolmogorov a démontré que toute fonction multivariée pouvait s'écrire comme sommes et compositions de fonctions monovariées. Notre travail s'est focalisé sur la décomposition d'images suivant le schéma proposé par le théorème de superposition, afin d''etudier les applications possibles de cette d'ecomposition au traitement d'image. Pour cela, nous avons tout d'abord 'etudi'e la construction des fonctions monovari'ees. Ce probl'eme a fait l'objet de nombreuses 'etudes, et r'ecemment, deux algorithmes ont 'et'e propos'es. Sprecher a propos'e dans [Sprecher, 1996; Sprecher, 1997] un algorithme dans lequel il d'ecrit explicitement la m'ethode pour construire exactement les fonctions monovari'ees, tout en introduisant des notions fondamentales 'a la compr'ehension du th'eor'eme. Par ailleurs, Igelnik et Parikh ont propos'e dans [Igelnik and Parikh, 2003; Igelnik, 2009] un algorithme pour approximer les fonctions monovariéees par un réseau de splines. Nous avons appliqué ces deux algorithmes à la décomposition d'images. Nous nous sommes ensuite focalisés sur l'étude de l'algorithme d'Igelnik, qui est plus facilement modifiable et offre une repréesentation analytique des fonctions, pour proposer deux applications originales répondant à des problématiques classiques de traitement de l'image : pour la compression : nous avons étudié la qualité de l'image reconstruite par un réseau de splines généré avec seulement une partie des pixels de l'image originale. Pour améliorer cette reconstruction, nous avons proposé d'effectuer cette décomposition sur des images de détails issues d'une transformée en ondelettes. Nous avons ensuite combiné cette méthode à JPEG 2000, et nous montrons que nous améliorons ainsi le schéma de compression JPEG 2000, même à bas bitrates. Pour la transmission progressive : en modifiant la génération du réseau de splines, l'image peut être décomposée en une seule fonction monovariée. Cette fonction peut être transmise progressivement, ce qui permet de reconstruire l'image en augmentant progressivement sa résolution. De plus, nous montrons qu'une telle transmission est résistante à la perte d'information.
249

L'analyse factorielle pour la modélisation acoustique des systèmes de reconnaissance de la parole

Bouallegue, Mohamed 16 December 2013 (has links) (PDF)
Dans cette thèse, nous proposons d'utiliser des techniques fondées sur l'analyse factorielle pour la modélisation acoustique pour le traitement automatique de la parole, notamment pour la Reconnaissance Automatique de la parole. Nous nous sommes, dans un premier temps, intéressés à la réduction de l'empreinte mémoire des modèles acoustiques. Notre méthode à base d'analyse factorielle a démontré une capacité de mutualisation des paramètres des modèles acoustiques, tout en maintenant des performances similaires à celles des modèles de base. La modélisation proposée nous conduit à décomposer l'ensemble des paramètres des modèles acoustiques en sous-ensembles de paramètres indépendants, ce qui permet une grande flexibilité pour d'éventuelles adaptations (locuteurs, genre, nouvelles tâches).Dans les modélisations actuelles, un état d'un Modèle de Markov Caché (MMC) est représenté par un mélange de Gaussiennes (GMM : Gaussian Mixture Model). Nous proposons, comme alternative, une représentation vectorielle des états : les fac- teur d'états. Ces facteur d'états nous permettent de mesurer efficacement la similarité entre les états des MMC au moyen d'une distance euclidienne, par exemple. Grâce à cette représenation vectorielle, nous proposons une méthode simple et efficace pour la construction de modèles acoustiques avec des états partagés. Cette procédure s'avère encore plus efficace dans le cas de langues peu ou très peu dotées en ressouces et enconnaissances linguistiques. Enfin, nos efforts se sont portés sur la robustesse des systèmes de reconnaissance de la parole face aux variabilités acoustiques, et plus particulièrement celles générées par l'environnement. Nous nous sommes intéressés, dans nos différentes expérimentations, à la variabilité locuteur, à la variabilité canal et au bruit additif. Grâce à notre approche s'appuyant sur l'analyse factorielle, nous avons démontré la possibilité de modéliser ces différents types de variabilité acoustique nuisible comme une composante additive dans le domaine cepstral. Nous soustrayons cette composante des vecteurs cepstraux pour annuler son effet pénalisant pour la reconnaissance de la parole
250

Conception et réalisation d'un consultant basé sur le contexte : application en histopathologie pour la gradation du cancer du sein

Aroua, Anissa 13 June 2014 (has links) (PDF)
Le diagnostic du cancer du sein est une activité humaine qui dépend du contexte dans lequel il est réalisé. Ce contexte se traduit par l'existence de très nombreux éléments qui rend l'automatisation de cette activité impossible. Depuis quelques années, la numérisation des lames (support de raisonnement) a incité les pathologistes à passer à l'analyse d'image de lames à l'écran. Cette migration a offre la possibilité d'une procéduralisation au moins partielle de leurs méthodes d'analyse. Dans le cadre de cette thèse, nous nous sommes intéressés à l'activité d'analyse d'une image de lame par un pathologiste qui est modélisée dans le formalisme des graphes contextuels dans le but de proposer une solution permettant d'assister les pathologistes dans leurs diagnostics. Notre Consultant fait partie des Systèmes d'Assistance Intelligents basés sur le Contexte. L'outil principal du Consultant est basé sur la Simulation à partir de pratiques expertes décrites dans un graphe contextuel. En partant d'une image que le pathologiste doit analyser, le simulateur va développer une pratique qui est la plus adaptée au contexte de travail. Le résultat de la simulation va donc être la pratique résultante et toutes les informations sur la manière dont cette pratique a été obtenue. Le consultant propose alors à l'utilisateur une visualisation des résultats des simulations réalisées permettant de les analyser et de les comparer.

Page generated in 0.0848 seconds