• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2768
  • 906
  • 403
  • 12
  • 5
  • 4
  • 2
  • 1
  • Tagged with
  • 4136
  • 1297
  • 979
  • 902
  • 735
  • 732
  • 700
  • 633
  • 598
  • 577
  • 504
  • 393
  • 384
  • 375
  • 349
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1031

Méthodes pour informatiser les langues et les groupes de langues « peu dotées »

Berment, Vincent 18 May 2004 (has links) (PDF)
En 2004, moins de 1 % des 6800 langues du monde bénéficie d'un niveau d'informatisation élevé, incluant un éventail large de services allant du traitement de textes à la traduction automatique. Cette thèse, qui s'intéresse aux autres langues - les langues-pi - s'attache à proposer des solutions pour remédier à leur sous-développement informatique. Dans une première partie destinée à montrer la complexité du problème, nous présentons la diversité des langues, les technologies utilisées, ainsi que les approches des différents acteurs impliqués : populations linguistiques, éditeurs de logiciels, Nations Unies, États... Une mesure du degré d'informatisation des langues - l'indice-sigma - ainsi que plusieurs méthodes sont proposées. La seconde partie traite de l'informatisation du laotien et présente concrètement les travaux réalisés pour cette langue en appliquant les méthodes décrites précédemment. Les réalisations décrites ont permis d'améliorer l'indice-sigma de la langue laotienne d'environ 4 points, cet indice étant actuellement évalué à 8,7/20. Dans la troisième partie, nous montrons qu'une approche par groupe de langues peut encore réduire les coûts d'informatisation grâce à l'utilisation d'une architecture modulaire associant des logiciels grand public et des compléments spécifiques. Pour les parties intimement liées aux langues, des outils linguiciels génériques complémentaires permettent aux populations d'informatiser elles-mêmes leurs langues. Nous avons validé cette méthode en l'appliquant à la segmentation syllabique de langues à écritures non segmentée d'Asie du Sud-Est, telles que le birman, le khmer, le laotien et le siamois (thaï).
1032

Equations aux dérivées partielles et réseaux de neurones pour le traitement d'images

Elayyadi, Mohamed 14 October 1997 (has links) (PDF)
Ce travail porte sur des techniques à base d'équations aux dérivées partielles et de réseaux de neurones pour le traitement d'images. L'approximation des réseaux de neurones par des systèmes de réaction-diffusion nous a permis de définir un nouveau modèle de diffusion anisotrope de type Volterra pour le filtrage sélectif d'images bruitées. La loi d'évolution régissant le tenseur de diffusion traduit des lois d'apprentissage synaptiques naturelles. L'étude de la dynamique de ces réseaux à synapses adaptatives montre qu'ils possèdent des propriétés d'attractivité et de stabilité asymptotique au sens de Lyapunov. Les images traitées sont donc obtenues sur les asymptotiques en temps du modèle. Les techniques présentées dans cette thèse améliorent de manière importante le pré-traitement d'images car elles ne nécessitent qu'une connaissance (\em a priori) d'un paramètre de contraste sur l'image désirée et permettent la restauration des images ayant subi jusqu'à 90\% de niveau de bruit et la segmentation des images médicales d'echographie
1033

Conception et réalisation de l'électronique frontale du détecteur de pied de gerbe et de l'unité de décision du système du premier niveau de déclenchement de l'expérience LHCb

Cornat, Rémi 11 October 2002 (has links) (PDF)
Les expériences de physique des particules associées au collisionneur LHC devront traiter une collision toutes les 25 ns sur plusieurs centaines de milliers de voies de mesure. La quantité de données produites est considérable.<br> Sur l'expérience LHCb une unité de décision en effectue une première sélection. Nous proposons une solution pour sa réalisation. Il s'agit d'une électronique numérique pipelines à 40 MHz et réalisée en composants programmables avec des interfaces LVDS. Une première version du banc de test est présentée afin de générer des stimuli à la cadence de 40 MHz pour des mots jusqu'à 512 bits.<br> Le preshower fait partie du système calorimétrique de LHCb. Il est composé de 6000 voies de mesure. Le signal physique est d'abord mis en forme grâce à des intégrations analogiques sur 25ns sans temps mort (ASIC). Au bout de 20m de câble, les valeurs d'intégrales (en tension) sont numérisées puis traitées sur une centaine de cartes frontales.<br> La réalisation de prototypes de la partie de traitement des données ont permis de mettre en concurrence une technologie programmable et une technologie ASIC (AMS 0,35 µm) et de prendre en compte les contraintes fortes en terme de nombre de voies de mesure par carte (128 demi-voies) et de résistance aux radiations.
1034

Immersion dans des documents scientifiques et techniques : unités, modèles théoriques et processus

Andreani, Vanessa 23 September 2011 (has links) (PDF)
Cette thèse aborde la problématique de l'accès à l'information scientifique et technique véhiculée par de grands ensembles documentaires. Pour permettre à l'utilisateur de trouver l'information qui lui est pertinente, nous avons oeuvré à la définition d'un modèle répondant à l'exigence de souplesse de notre contexte applicatif industriel ; nous postulons pour cela la nécessité de segmenter l'information tirée des documents en plans ontologiques. Le modèle résultant permet une immersion documentaire, et ce grâce à trois types de processus complémentaires : des processus endogènes (exploitant le corpus pour analyser le corpus), exogènes (faisant appel à des ressources externes) et anthropogènes (dans lesquels les compétences de l'utilisateur sont considérées comme ressource) sont combinés. Tous concourent à l'attribution d'une place centrale à l'utilisateur dans le système, en tant qu'agent interprétant de l'information et concepteur de ses connaissances, dès lors qu'il est placé dans un contexte industriel ou spécialisé.
1035

Conception de nouveaux superalliages MdP base nickel pour disques de turbines

Augustins-Lecallier, Isabelle 20 December 2011 (has links) (PDF)
Dans l'objectif de la modernisation du moteur M88 de la SNECMA, de nouvelles spécifications relatives au matériau des pièces qui sont actuellement forgées et usinées en superalliage N18 - notamment les disques de turbine haute pression - ont été formulées. Cette étude s'est attachée à la définition de nouveaux superalliages polycristallins à base de nickel, élaborés par métallurgie des poudres, qui répondent à ces spécifications, c'est-à-dire, globalement, qui présentent des propriétés mécaniques et une stabilité microstructurale supérieures à celles du N18 tout en diminuant sensiblement la fraction volumique de la phase durcissante γ'. En se référant aux connaissances collectées sur le rôle des différents éléments d'alliages et des traitements thermiques sur les caractéristiques microstructurales et mécaniques des superalliages, de nouvelles compositions sont proposées. Les alliages expérimentaux, élaborés selon ces compositions, sont analysés microstructuralement et testés mécaniquement en traction, en fluage et en propagation de fissure afin de comparer leurs propriétés à celles de superalliages utilisés industriellement et pris comme références. Certains des alliages testés présentant une remarquable tenue en traction et en fluage, une analyse en microscopie électronique en transmission des mécanismes de déformation a été réalisée et une interprétation de cette excellente résistance à la déformation à haute température est proposée.
1036

Towards Creating Context-Aware Dynamically-Adaptable Business Processes Using Complex Event Processing

Hermosillo, Gabriel 05 June 2012 (has links) (PDF)
En plus de l'utilisation des appareils ubiquitaires qui continue à croître, nous avons accès de plus en plus à d'informations dites contextuelles. Ces informations permettent de connaître l'état de notre environnement et nous aident à prendre les décisions de notre vie quotidienne en fonction du contexte dans lequel nous nous positionnons. Les processus métiers informatiques sont de plus en plus en expansion, alors que les activités qu'ils traitent deviennent automatisées. Toutefois, lorsqu'il s'agit de processus métiers dans un domaine particulier, il y a un manque d'intégration avec ces informations contextuelles. Nous pouvons envisager actuellement une situation donnée dans une partie bien définie du processus à un moment donné et prendre une décision basée sur cette information, mais nous ne pouvons pas contrôler ces informations contextuelles en temps réel et adapter le processus en conséquence, comme nous le faisons dans la vie normale. De plus, la nature statique des processus métiers ne leur permet pas d'être modifiés dynamiquement, les rendant ainsi moins utiles dans un nouveau contexte. Si nous voulons changer le comportement d'un processus métier, nous devons le stopper, le modifier et le redéployer entièrement, ce qui fait perdre toutes les exécutions en cours et l'information associée. Pour répondre à ces problèmes, dans cette thèse, nous présentons le cadre logiciel CEVICHE. Nous proposons une approche qui permet de représenter des processus métiers sensibles au contexte où les informations de contexte sont considérées comme des événements contrôlés en temps réel. Pour cela, nous nous basons sur une nouvelle approche appelée Complex Event Processing (CEP). En utilisant un outil externe pour contrôler le contexte en temps réel, nous sommes alors en mesure de dépasser les limites d'accés à l'information uniquement à des endroits bien précis du processus. Cependant, la connaissance de ces événements ne suffit pas. Nous avons, de plus, besoin d'être capable d'adapter nos processus en conséquence à l'exécution. Avec CEVICHE, nous intégrons les informations obtenues à partir du contexte avec la capacité d'adaptation des processus métiers en cours d'exécution. De plus, l'une des originalités du cadre logiciel CEVICHE vient de la définition d'une opération de désadaptation et de sa mise en œuvre. Défaire l'adaptation peut facilement se passer mal et conduire à des états non désirés et rendre les processus instables. Naïvement considérée comme une tâche triviale, cette question a été peu considérée quand on regarde les approches dynamiques actuelles. Nous proposons donc un modèle formel de ce mécanisme dans CEVICHE. La réalisation du cadre logiciel CEVICHE offre des propriétés de flexibilité et de dynamicité aux processus métiers en se basant sur une approche à composants, permettant ainsi la modification des liaisons en cours d'exécution. En outre, avec CEVICHE, nous apportons une propriété de stabilité au niveau du traitement des événements complexes. Comme toute nouvelle approche, le traitement des événements complexes n'est pas normalisé et est en cours d'évolution, chaque outil utilisant son propre langage pour les exprimer. En définissant notre propre langage, Adaptive Business Process Language (ABPL), comme un langage pivot, CEVICHE facilite l'utilisation de CEP sans les inconvénients de l'adoption anticipée de l'approche. Nous utilisons une technique de type plug-in qui permet aux événements définis en ABPL d'être utilisés dans pratiquement n'importe quel moteur CEP. Cette approche rend les règles de traitement des événements plus faciles à maintenir, car nous centralisons la mise à jour au niveau du plug-in lorsque le langage CEP évolue, ou si nous décidons l'utilisation d'un autre outil, au lieu de mettre à jour toutes les définitions d'événements. Finalement, nous avons validé notre approche en mettant en œuvre un scénario de crise nucléaire, avec des cas d'utilisation qui impliquent de nombreux acteurs, des informations de contexte et des conditions d'adaptation.
1037

Détection et localisation de défaillances sur un entraînement électrique

Raison, Bertrand 19 September 2000 (has links) (PDF)
L'étude présentée propose des solutions pour la détection et localisation de défauts dans les entraînements électriques et en particulier pour ceux à base de machine asynchrone. Les défauts considérés peuvent affecter la machine, le convertisseur, la mécanique et les capteurs. Ces ensembles fonctionnent à vitesse variable et possèdent une structure de contrôle vectoriel à flux orienté ainsi qu'un contrôle de vitesse. A partir des résultats de caractérisation des défauts, issus des simulations ou des mesures, deux approches sont proposées. La première repose sur l'utilisation d'outils de traitement du signal. Des solutions sont proposées pour s'affranchir du contexte de la vitesse variable via l'enregistrement à écart de position constant (position mécanique ou du champ statorique). La deuxième approche repose sur l'utilisation de la redondance analytique pour effectuer la détection et localisation de défauts. Des observateurs d'état étendus (filtre de Kalman étendu, modèle de référence adaptatif) sont étudiés et testés expérimentalement. Afin de réaliser la localisation des défauts, des observateurs à entrées inconnues sont également proposés. A partir des outils développés, des approches pour constituer un outil de surveillance globale sont proposées. Certaines reposent sur des combinaisons logiques, d'autres sur les réseaux de neurones.
1038

Contrôle du maclage thermique et de la taille de grains par traitements thermomécaniques dans deux superalliages base de Ni

Souai, Nadia 22 December 2011 (has links) (PDF)
Cette thèse porte sur l'évolution de la microstructure de superalliages à base de Nickel au cours de traitements thermomécaniques, avec une attention particulière portée sur la taille de grains et la quantité de macles thermiques. Ce travail a été réalisé dans l'optique d'évaluer la possibilité d'optimiser les propriétés de service par le principe de l'ingénierie de joints de grains. Les matériaux étudiés sont principalement l'alliage PER®72, et de manière exploratoire l'alliage N19. Ces deux matériaux appartiennent à la famille des superalliages à base de nickel à durcissement structural élaborés par voie conventionnelle (coulé et forgé) et par métallurgie des poudres respectivement. Deux modes de déformation, la torsion et la compression, ont été testés. Nous avons démontré que le maclage thermique est favorisé par les grandes vitesses de migration des joints de grains, essentiellement induites par (1) leur courbure qui diminue lorsque la taille de grains augmente et (2) les gradients de densité de dislocations produits par les faibles déformations appliquées à grande vitesse qui peuvent maintenir des vitesses de migration élevées même lorsque la taille de grains augmente. La force motrice associée à la courbure est en outre sensible à la distribution de taille de grains, qui s'est avéré être un paramètre microstructural important. La force motrice associée aux gradients de densité de dislocations peut par ailleurs permettre le franchissement des précipités primaires malgré la force de freinage de Zener qui s'exerce sur les joints de grains, ceci au cours de la déformation comme au cours d'un recuit subsolvus. L'occurrence ou la non-occurrence de la recristallisation dynamique au cours de la phase de déformation s'est ainsi avérée être une condition décisive pour l'évolution de la microstructure au cours d'un recuit ultérieur dans le domaine sub- ou super-solvus. Les conditions thermomécaniques de mise en forme permettent donc de moduler la taille de grains et la quantité de macles, même à l'issue d'un traitement supersolvus final.
1039

Vers Une Animation Robuste d' Objets Complexes en Interaction

Raghupathi, Laks 15 November 2006 (has links) (PDF)
La traitement robuste des collisions et des contacts est important dans les scénarios d'animation et de simulation par modèle physique. Un problème important est comment traiter les collisions et les auto-collisions simultanées se produisant entre les objets dans la scène. Nous présentons de nouvelles méthodes pour la simulation robuste des objets déformables complexes. Notre technique se base sur la détection continue et la détection discrète descollisions. Nous proposons deux approches pour traiter les collisions une fois qu'elles sont détectées. D'abord, nous modélisons les collisions comme des contraintes linéaires adjointes aux équations de la dynamique, ce qui aboutit à un problème de programmation quadratique (QP). À cet effet, nous avons développé un algorithme qui traite les équations dynamiques et les contraintes linéaires d'une manière globale. En second lieu, nous avons développé une méthode utilisant des pénalités qui traite les collisions multiples en exploitant la cohèrence temporelle. Le but est de garantir un état final sans collisions tout en réduisant au minimum la création des "collisions secondaires". Nous présentons nos résultats et analysons les avantages et la pertinence de notre méthode vis-à-vis des méthodes existantes. Les applications incluent les simulations mécaniques et chirurgicales, ainsi que les jeux vidéo et les effets spéciaux pour le cinéma
1040

Déconvolution Multicanale et Détection de Sources en utilisant des représentations parcimonieuses : application au projet Fermi

Schmitt, Jeremy 07 December 2011 (has links) (PDF)
Ce mémoire de thèse présente de nouvelles méthodologies pour l'analyse de données Poissoniennes sur la sphère, dans le cadre de la mission Fermi. Les objectifs principaux de la mission Fermi, l'étude du fond diffus galactique et l'établissement du catalogue de source, sont com pliqués par la faiblesse du flux de photons et les effets de l'instrument de mesure. Ce mémoire introduit une nouvelle représentation mutli-échelles des données Poissoniennes sur la sphère, la Transformée Stabilisatrice de Variance Multi-Echelle sur la Sphère (MS-VSTS), consistant à combiner une transformée multi-échelles sur la sphère (ondelettes, curvelets), avec une transformée stabilisatrice de variance (VST). Cette méthode est appliquée à la suppression du bruit de Poisson mono et multicanale, à l'interpolation de données manquantes, à l'extraction d'un modèle de fond et à la déconvolution multicanale. Enfin, ce mémoire aborde le problème de la séparation de composantes en utilisant des représentations parcimonieuses (template fitting).

Page generated in 0.1026 seconds