• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 102
  • 30
  • 16
  • Tagged with
  • 150
  • 53
  • 51
  • 47
  • 42
  • 41
  • 29
  • 28
  • 27
  • 24
  • 21
  • 19
  • 18
  • 18
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Mise en oeuvre des architectures orientées services pour les systèmes d'information industriels

Zayati, Ahlem 09 October 2012 (has links) (PDF)
Pour faire face aux contraintes économiques (demande de plus en plus importante pour de la personnalisation de masse, globalisation et réduction des coûts...), le développement de stratégies de production " Juste À Temps ", ou " Lean Manufacturing " impose la réorganisation de l'entreprise sur les activités génératrices de valeur en suivant une logique de chaîne de valeur pour éviter tout gaspillage. Cette stratégie conduit de fait à un recentrage métier et une extension de la chaîne de valeur. L'entreprise est donc amenée à développer des stratégies de collaboration (Bare et Cox, 2008 ; Davis, 1987) et doit disposer d'un SI Lean (réponse au plus juste), agile pour réagir aux fluctuations et aléas, ouvert pour assurer un partenariat avec ses fournisseurs, ses clients et ses partenaires et, enfin, interopérable pour faciliter la communication entre les différents systèmes et concilier ces différentes facettes métiers. Or, le SI de l'entreprise est constitué d'une multiplicité de logiciels (l'ERP (Enterprise Resource Planning), le MES (Manufacturing Execution System), le PLM (Product Life-cycle Management), le SCM (Supply Chain Management)...). Chaque système vise à répondre à un objectif donné pour une facette métier, et est développé selon des spécifications métier propres échappant le plus souvent à toute standardisation. Ceci engendre une redondance, une hétérogénéité et une augmentation du volume d'information, d'où des risques d'incohérence, de rigidité du SI et notamment une grande difficulté de communication dans le cadre de collaboration interentreprises. Pour répondre à ces aléas, il importe de définir un SI agile et interopérable et de réorganiser les processus pour supporter la chaîne de valeur de l'entreprise. C'est dans cet objectif que nous proposons de développer un Lean ESB (Enterprise Service Bus), socle d'une Architecture Orientée Services, doté d'une couche sémantique métier. Nous avons défini quatre modules du Lean ESB : * Le module de médiation définit les échanges d'information entre les différents métiers et entre le métier et la technologie pour assurer le fonctionnement des autres modules. * Le module de chorégraphie dynamique permet de composer les services industriels pour définir les processus selon les besoins de production spécifiés par le client. * Le module de routage intelligent organise les ressources de l'atelier pour définir des processus en flux tirés. * Le module de monitoring et gouvernance permet de contrôler la performance de la production et la qualité des produits.
92

Approches variationnelles statistiques spatio-temporelles pour l'analyse quantitative de la perfusion myocardique en IRM

Hamrouni-Chtourou, Sameh 11 July 2012 (has links) (PDF)
L'analyse quantitative de la perfusion myocardique, i.e. l'estimation d'indices de perfusion segmentaires puis leur confrontation à des valeurs normatives, constitue un enjeu majeur pour le dépistage, le traitement et le suivi des cardiomyopathies ischémiques --parmi les premières causes de mortalité dans les pays occidentaux. Dans la dernière décennie, l'imagerie par résonance magnétique de perfusion (IRM-p) est la modalité privilégiée pour l'exploration dynamique non-invasive de la perfusion cardiaque. L'IRM-p consiste à acquérir des séries temporelles d'images cardiaques en incidence petit-axe et à plusieurs niveaux de coupe le long du grand axe du cœur durant le transit d'un agent de contraste vasculaire dans les cavités et le muscle cardiaques. Les examens IRM-p résultants présentent de fortes variations non linéaires de contraste et des artefacts de mouvements cardio-respiratoires. Dans ces conditions, l'analyse quantitative de la perfusion myocardique est confrontée aux problèmes complexes de recalage et de segmentation de structures cardiaques non rigides dans des examens IRM-p. Cette thèse se propose d'automatiser l'analyse quantitative de la perfusion du myocarde en développant un outil d'aide au diagnostic non supervisé dédié à l'IRM de perfusion cardiaque de premier passage, comprenant quatre étapes de traitement : -1.sélection automatique d'une région d'intérêt centrée sur le cœur; -2.compensation non rigide des mouvements cardio-respiratoires sur l'intégralité de l'examen traité; -3.segmentation des contours cardiaques; -4.quantification de la perfusion myocardique. Les réponses que nous apportons aux différents défis identifiés dans chaque étape s'articulent autour d'une idée commune : exploiter l'information liée à la cinématique de transit de l'agent de contraste dans les tissus pour discriminer les structures anatomiques et guider le processus de recalage des données. Ce dernier constitue le travail central de cette thèse. Les méthodes de recalage non rigide d'images fondées sur l'optimisation de mesures d'information constituent une référence en imagerie médicale. Leur cadre d'application usuel est l'alignement de paires d'images par appariement statistique de distributions de luminance, manipulées via leurs densités de probabilité marginales et conjointes, estimées par des méthodes à noyaux. Efficaces pour des densités jointes présentant des classes individualisées ou réductibles à des mélanges simples, ces approches atteignent leurs limites pour des mélanges non-linéaires où la luminance au pixel s'avère être un attribut trop frustre pour permettre une décision statistique discriminante, et pour des données mono-modal avec variations non linéaires et multi-modal. Cette thèse introduit un modèle mathématique de recalage informationnel multi-attributs/multi-vues générique répondant aux défis identifiés: (i) alignement simultané de l'intégralité de l'examen IRM-p analysé par usage d'un atlas, naturel ou synthétique, dans lequel le cœur est immobile et en utilisant les courbes de rehaussement au pixel comme ensemble dense de primitives; et (ii) capacité à intégrer des primitives image composites, spatiales ou spatio-temporelles, de grande dimension. Ce modèle, disponible dans le cadre classique de Shannon et dans le cadre généralisé d'Ali-Silvey, est fondé sur de nouveaux estimateurs géométriques de type k plus proches voisins des mesures d'information, consistants en dimension arbitraire. Nous étudions leur optimisation variationnelle en dérivant des expressions analytiques de leurs gradients sur des espaces de transformations spatiales régulières de dimension finie et infinie, et en proposant des schémas numériques et algorithmiques de descente en gradient efficace. Ce modèle de portée générale est ensuite instancié au cadre médical ciblé, et ses performances, notamment en terme de précision et de robustesse, sont évaluées dans le cadre d'un protocole expérimental tant qualitatif que quantitatif
93

La programmation DC et la méthode Cross-Entropy pour certaines classes de problèmes en finance, affectation et recherche d'informations : codes et simulations numériques

Nguyen, Duc Manh 24 February 2012 (has links) (PDF)
La présente thèse a pour objectif principal de développer des approches déterministes et heuristiques pour résoudre certaines classes de problèmes d'optimisation en Finance, Affectation et Recherche d'Informations. Il s'agit des problèmes d'optimisation non convexe de grande dimension. Nos approches sont basées sur la programmation DC&DCA et la méthode Cross-Entropy (CE). Grâce aux techniques de formulation/reformulation, nous avons donné la formulation DC des problèmes considérés afin d'obtenir leurs solutions en utilisant DCA. En outre, selon la structure des ensembles réalisables de problèmes considérés, nous avons conçu des familles appropriées de distributions pour que la méthode Cross-Entropy puisse être appliquée efficacement. Toutes ces méthodes proposées ont été mises en œuvre avec MATLAB, C/C++ pour confirmer les aspects pratiques et enrichir notre activité de recherche.
94

Acquisition automatique de traductions d'unités lexicales complexes à partir du Web

Léon, Stéphanie 08 December 2008 (has links) (PDF)
Les systèmes de traduction automatique ont connu des progrès récents avec la prise en compte d'expressions complexes telles que " vol à main armée " ("armed robbery" en anglais). Cependant, dès que l'on sort de ces listes d'expressions figées, on retombe rapidement dans des erreurs de traduction. Par exemple, le traducteur Systran traduit " caisse centrale " par "central case" au lieu de "central fund". Cette expression aurait pu être automatiquement traduite grâce au Web. Le but de cette étude est la création d'une base bilingue français-anglais de traduction automatique d'unités lexicales complexes à partir du Web. Nous axerons notre étude sur les difficultés de traduction telles que la polysémie ou le caractère idiomatique et proposerons des traitements adaptés. Au-delà des aspects linguistiques et technologiques, nous analyserons les utilisations du Web dans le domaine de la linguistique.
95

Fusion d'informations et segmentation d'images basées sur la théorie des fonctions de croyance : Application à l'imagerie médicale TEP multi-traceurs

Lelandais, Benoît 23 April 2013 (has links) (PDF)
L'imagerie fonctionnelle par Tomographie d'Émission de Positons (TEP) multi-traceurs pourrait avoir un rôle essentiel dans le traitement du cancer par radiothérapie externe. Les images TEP aux traceurs 18Fluoro-Déoxy-Glucose (18 FDG), 18F-Fluoro-L Thymidine (18 FLT) et 18Fluoro-Misonidazole (18 FMiso) sont respectivement témoins du métabolisme glucidique, de la prolifération cellulaire et de l'hypoxie (manque d'oxygénation des cellules). L'utilisation conjointe de ces trois traceurs pourrait permettre de définir des sous-volumes donnant lieu à un traitement particulier. À cet effet, il est impératif de mettre à la disposition du corps médical un outil de segmentation et de fusion de ces images. Les images TEP ont pour caractéristique d'être très bruitées et d'avoir une faible résolution spatiale. Ces imperfections ont pour conséquence respective d'induire la présence d'informations incertaines et imprécises dans les images. Notre contribution réside dans la proposition d'une méthode, nommée EVEII pour Evidential Voxel-based Estimation of Imperfect Information, basée sur la théorie des fonctions de croyance, offrant une segmentation fiable et précise dans le contexte d'images imparfaites. Elle réside également dans la proposition d'une méthode de fusion d'images TEP multi-traceur. L'étude d'EVEII sur des images simulées a révélé qu'elle est la mieux adaptée comparée à d'autres méthodes basées sur la théorie des fonctions de croyance, en donnant un taux de bonne reconnaissance des pixels de près de 100 % lorsque le rapport signal-sur-bruit dépasse 2, 5. Sur les fantômes TEP physiques, simulant les caractéristiques des images TEP au 18 FDG, à la 18 FLT et au 18 FMiso, les résultats ont montré que notre méthode estime le mieux les volumes des sphères à segmenter comparé à des méthodes de la littérature proposées à cet effet. Sur les deux fantômes faiblement et fortement bruités respectivement, les biais moyens d'erreur d'estimation des volumes sont seulement de -0,27 et 3,89 mL, témoignant de sa pertinence à visée de segmentation d'images TEP. Enfin, notre méthode a été appliquée à la segmentation d'images TEP multi-traceurs chez trois patients. Les résultats ont montré que notre méthode est adaptée à la fusion d'images TEP multi-traceurs, offrant à cet effet un ensemble d'images paramétriques permettant de différencier les différents tissus biologiques.
96

Pratiques et difficultés de l'enseignement de la traduction en Corée : comparaison avec sa pratique en France

Kim, Daeyoung 10 May 2013 (has links) (PDF)
Cette thèse analyse les pratiques actuelles de l'enseignement de la traduction dans les universités et les écoles professionnelles en Corée, par comparaison avec la situation en France, à partir d'entretiens, de QCM et de l'observation de cours de traduction. L'objectif est de reconnaître les particularités de la situation en Corée et d'en repérer les principales difficultés. Il apparaît que les facteurs socioculturels coréens, tels que la société autoritaire et collectiviste, induisent des cours centrés sur l'enseignant et la passivité des élèves. Nous découvrons aussi le faible niveau de créativité des étudiants coréens du fait d'un recours systématique à la mémorisation et aux QCM dans le système éducatif coréen. L'évaluation orientée processus et l'évaluation diagnostique font largement défaut tant à l'université qu'à l'école professionnelle de traduction, où l'évaluation est sommative plus que formative. Sous forme d'évaluation microstructurelle, les enseignants coréens pratiquent une évaluation globale et variable qui leur est personnelle, par manque de critères précis et concrets d'évaluation et de barème commun ayant force de directive. L'accent est mis sur les compétences linguistiques et textuelles plus que sur les autres compétences, au constat établi que ce sont celles qui font le plus défaut aux étudiants, aussi bien à l'université qu'à l'école professionnelle. Il y a peu de différences entre les étudiants coréens de l'université et de l'école professionnelle en matière de recherche d'informations. Malgré les difficultés particulières affectant les cours de traduction à l'université, la possibilité existe d'y former à la traduction professionnelle.
97

Une Architecture à base d'Ontologies pour la Gestion Unifiées des Données Structurées et non Structurées

Diallo, Gayo 11 December 2006 (has links) (PDF)
Les systèmes d'information des organisations contiennent des données de diverses natures, dispersées dans une grande variété de sources. La gestion unifiée permet d'offrir un accès uniforme et transparent à cet ensemble hétérogène de sources. Nous nous intéressons à l'intégration de données structurées (bases de données relationnelles) et de données non structurées (sources textuelles, pouvant être multilingues) et particulièrement à la prise en compte de sources textuelles dans une infrastructure de gestion unifiée. L'approche que nous proposons repose sur l'utilisation des technologies du Web sémantique et de différents types d'ontologies. Les ontologies servent d'une part à définir le schéma global d'intégration (ontologie globale) et les différentes sources à intégrer. Les ontologies qui représentent les sources à intégrer sont appelées schémas virtuels de sources ou ontologies locales (obtenues par un processus de rétroingénierie). D'autre part, les ontologies permettent d'effectuer une reprrésentation hybride de chaque source textuelle qui combine des informations de catalogage, les vecteurs de termes, les vecteurs de concepts et, de façon optionnelle, les entités nommées ; tous ces éléments étant identifiés dans chaque document de la source. Nous avons par ailleurs élaboré une approche de gestion conjointe de plusieurs ontologies à travers un serveur d'ontologies qui sert notamment de support à l'interrogation. Un premier domaine d'application de notre travail a été la gestion de données dans le domaine du cerveau. Nous avons construit ou enrichi des ontologies pour l'organisation des connaissances dans ce domaine, utilisées notamment pour la caractérisation sémantique de sources.
98

Modélisation du dialogue homme-machine pour la recherche d'informations : approche questions-réponses

Loisel, Alain 20 October 2008 (has links) (PDF)
Cette thèse décrit la conception d'un système de dialogue Homme- Machine pour la recherche d'informations capable d'interagir avec l'utilisateur en langue naturelle en utilisant des stratégies coopératives. Pour étudier les processus dialogiques impliqués dans la recherche d'informations, une méthodologie ascendante a été adoptée. Une série d'expérimentations a permis le recueil de corpus de dialogues humains présentant de telles recherches dans le cadre du système de documentation médicale CISMeF. L'analyse des dialogues recueillis a montré que leur structure correspond bien aux structures sémantiques de l'approche " questionsréponses ". Fondé sur un modèle existant nommé GoDIS, notre système y intègre de nombreux ajouts permettant d'améliorer la cohérence du dialogue et de proposer des exemples, des choix, des assistances. Une implémentation de ce modèle est réalisée et des pistes d'évaluation sont proposées.
99

Annotation sémantique 2D/3D d'images spatialisées pour la documentation et l'analyse d'objets patrimoniaux / 2D/3D semantic annotation of spatialized images for the documentation and analysis of cultural heritage

Manuel, Adeline 22 March 2016 (has links)
Dans le domaine de l’architecture et de la conservation du patrimoine historique, les technologies de l’information et de la communication permettent l’acquisition de grandes quantités de données introduisant des supports d’analyses pour différentes finalités et à différents niveaux de détails (photographies, nuages de points, imagerie scientifique, …). L’organisation et la structuration de ces ressources est aujourd’hui un problème majeur pour la description, l’analyse et la compréhension d’objets patrimoniaux. Cependant les solutions existantes d’annotations sémantiques d’images ou de modèle 3D se révèlent insuffisantes notamment sur l’aspect de mise en relation des différents supports d’analyse.Cette thèse propose une approche permettant de conduire des annotations sur les différents supports bidimensionnels tout en permettant la propagation de ces annotations entre les différentes représentations (2D ou 3D) de l’objet. L’objectif est d’identifier des solutions pour corréler (d’un point de vue spatial, temporel et sémantique) des jeux d’annotations au sein d’un jeu d’images. Ainsi le système repose sur le principe de spatialisation des données permettant d’établir une relation entre les représentations 3D, intégrant toute la complexité géométrique de l’objet et par conséquent permettant l’extraction d’informations métriques, et les représentations 2D de l’objet. L’approche cherche donc à la mise en place d’une continuité informationnelle depuis l’acquisition d’images jusqu’à la construction de représentations 3D sémantiquement enrichies en intégrant des aspects multi-supports et multi-temporels. Ce travail a abouti à la définition et le développement d’un ensemble de modules informatiques pouvant être utilisés par des spécialistes de la conservation d’un patrimoine architectural comme par le grand public. / In the field of architecture and historic preservation , the information and communication technologies enable the acquisition of large amounts of data introducing analysis media for different purposes and at different levels of details ( photographs, point cloud, scientific imaging, ...). The organization and the structure of these resources is now a major problem for the description, the analysis and the understanding of cultural heritage objects. However the existing solutions in semantic annotations on images or on 3D model are insufficient, especially in the linking of different analysis media.This thesis proposes an approach for conducting annotations on different two-dimensional media while allowing the propagation of these annotations between different representations (2D or 3D) of the object. The objective is to identify solutions to correlate (from a spatial, temporal and semantic point of view) sets of annotations within sets of images. Thus, the system is based on the principle of data spatialization for establishing a relationship between the 3D representations, incorporating all the geometric complexity of the object and therefore to the metric information extraction, and 2D representations of object. The approach seeks to the establishment of an information continuity from the image acquisition to the construction of 3D representations semantically enhanced by incorporating multi-media and multi-temporal aspects. This work resulted in the definition and the development of a set of software modules that can be used by specialists of conservation of architectural heritage as by the general public.
100

Information fusion for scene understanding / Fusion d'informations pour la compréhesion de scènes

Xu, Philippe 28 November 2014 (has links)
La compréhension d'image est un problème majeur de la robotique moderne, la vision par ordinateur et l'apprentissage automatique. En particulier, dans le cas des systèmes avancés d'aide à la conduite, la compréhension de scènes routières est très importante. Afin de pouvoir reconnaître le grand nombre d’objets pouvant être présents dans la scène, plusieurs capteurs et algorithmes de classification doivent être utilisés. Afin de pouvoir profiter au mieux des méthodes existantes, nous traitons le problème de la compréhension de scènes comme un problème de fusion d'informations. La combinaison d'une grande variété de modules de détection, qui peuvent traiter des classes d'objets différentes et utiliser des représentations distinctes, est faites au niveau d'une image. Nous considérons la compréhension d'image à deux niveaux : la détection d'objets et la segmentation sémantique. La théorie des fonctions de croyance est utilisée afin de modéliser et combiner les sorties de ces modules de détection. Nous mettons l'accent sur la nécessité d'avoir un cadre de fusion suffisamment flexible afin de pouvoir inclure facilement de nouvelles classes d'objets, de nouveaux capteurs et de nouveaux algorithmes de détection d'objets. Dans cette thèse, nous proposons une méthode générale permettant de transformer les sorties d’algorithmes d'apprentissage automatique en fonctions de croyance. Nous étudions, ensuite, la combinaison de détecteurs de piétons en utilisant les données Caltech Pedestrian Detection Benchmark. Enfin, les données du KITTI Vision Benchmark Suite sont utilisées pour valider notre approche dans le cadre d'une fusion multimodale d'informations pour de la segmentation sémantique. / Image understanding is a key issue in modern robotics, computer vison and machine learning. In particular, driving scene understanding is very important in the context of advanced driver assistance systems for intelligent vehicles. In order to recognize the large number of objects that may be found on the road, several sensors and decision algorithms are necessary. To make the most of existing state-of-the-art methods, we address the issue of scene understanding from an information fusion point of view. The combination of many diverse detection modules, which may deal with distinct classes of objects and different data representations, is handled by reasoning in the image space. We consider image understanding at two levels : object detection ans semantic segmentation. The theory of belief functions is used to model and combine the outputs of these detection modules. We emphazise the need of a fusion framework flexible enough to easily include new classes, new sensors and new object detection algorithms. In this thesis, we propose a general method to model the outputs of classical machine learning techniques as belief functions. Next, we apply our framework to the combination of pedestrian detectors using the Caltech Pedestrain Detection Benchmark. The KITTI Vision Benchmark Suite is then used to validate our approach in a semantic segmentation context using multi-modal information

Page generated in 0.1284 seconds