• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 249
  • 134
  • 32
  • Tagged with
  • 438
  • 438
  • 245
  • 210
  • 178
  • 153
  • 138
  • 108
  • 103
  • 94
  • 86
  • 84
  • 82
  • 79
  • 77
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
341

Définition de protocoles rationnels d'identification de loi de comportement élastoplastique :<br />Application à la simulation éléments finis d'opérations industrielles d'emboutissage

Incandela, Olga 22 September 2006 (has links) (PDF)
L'objectif de la thèse effectuée dans le cadre du projet européen « Intelligent system for NET shape FORming of Sheet MEtal Product » est la recherche de procédures optimisées pour la mise au point de simulations numériques d'opérations industrielles d'emboutissage. Ce travail a pour but d'apporter des réponses efficaces, applicables au sein d'une entreprise en regard de la mauvaise perception de ce type de procédé dans le milieu industriel.<br />La procédure met en avant le rôle clé de l'identification des lois de comportement élastoplastiques définissant le comportement de la tôle pendant la simulation.<br />Dans un premier temps on s'intéresse à l'identification classique à partir d'essais de traction utilisés habituellement à cet effet.<br />Différentes techniques et protocoles sont alors retenus pour tirer le meilleur parti de ce type d'essais en utilisant notamment les techniques expérimentales d'analyse d'images.<br />Ces choix conduisent à une amélioration notable des résultats concernant l'effet du retour élastique, l'état de contraintes résiduelles et la prédiction de la localisation de la déformation.<br />Cependant les limites de ce type d'identification réalisé sur des essais homogènes apparaissent clairement.<br />C'est pourquoi, nous proposons une méthode originale d'identification des paramètres de la loi de comportement à partir d'essais hétérogènes voisins du cas réel de mise en forme. L'optimisation des coefficients de la loi de comportement est alors fondée sur l'utilisation de réseaux de neurones. Les avantages de cette méthode sont démontrés sur un exemple d'emboutissage de pièces axisymétriques à flan bloqué.
342

Carte topologique pour données qualitatives: application à la reconnaissance automatique de la densité du trafic routier

Lebbah, Mustapha 21 May 2003 (has links) (PDF)
Le travail de recherche concerne le traitement des données qualitatives par des méthodes neuronales. Différents modèles d'apprentissage non supervisés sont proposés.<br /><br />Ce travail de thèse a été réalisé à la direction de la recherche de RENAULT. Le travail s'est focalisé sur le développement d'un modèle de reconnaissance de trafic.<br /><br />Le premier modèle proposé dans cette thèse est dédié aux données binaires ''BTM''. C'est un modèle de quantification vectorielle de type carte topologique. Ce modèle prend les caractéristiques principales des cartes topologiques. Pour ce nouveau modèle, afin de prendre en compte les spécificités des données binaires, on a choisi de changer la métrique usuelle utilisée dans les modèles de cartes topologiques et d'utiliser la distance Hamming.<br /><br />Le second modèle est le premier modèle probabiliste de cartes topologiques dédié aux données binaires. Ce modèle s'inspire de travaux antérieurs qui modélisent une distribution par un mélange de mélange de lois de Bernoulli.<br /><br />Le troisième modèle est un nouveau modèle de carte topologique appelé CTM (Categorical topological Map) adapté à la classification non supervisée des données qualitatives multi-dimensionnelles. Ce nouveau modèle conserve cependant les principales caractéristiques des deux modèles précédents. Afin de maximiser les vraisemblance des données, CTM utilise de manière classique l'algorithme EM.<br /><br />Dans ce mémoire, on introduit le domaine d'application propre au travail mené chez RENAULT. Nous détaillerons l'apport original de notre travail: utilisation de l'information catégorielle pour traiter de la reconnaissance du trafic. Nous exposerons les différentes analyses effectuées sur l'application des algorithmes proposés.
343

Approche systématique de l'optimisation du dimensionnement et de l'élaboration de lois de gestion d'énergie de véhicules hybrides

Scordia, Julien 10 November 2004 (has links) (PDF)
Un véhicule hybride est un véhicule qui dispose d'au moins deux sources d'énergie pour son déplacement. Dans le cas du véhicule hybride thermique électrique, une source est non-réversible (réservoir de carburant) l'autre est réversible (batterie).<br />Le problème est d'utiliser de manière optimum par rapport à la consommation de carburant (et donc les émissions de CO2) l'énergie disponible dans la batterie. Cette optimisation est possible en utilisant au mieux les degrés de liberté de la chaîne de traction du véhicule (rapports de boîte par exemple), tout en satisfaisant la demande de puissance du conducteur.
344

Détection de métaux lourds dans les sols par spectroscopie d'émission sur plasma induit par laser (LIBS)

Sirven, Jean-Baptiste 18 September 2006 (has links) (PDF)
Dans les domaines de l'analyse, du contrôle et de la mesure physique, le laser constitue un outil métrologique particulièrement puissant et polyvalent, capable d'apporter des réponses concrètes à des problématiques variées, y compris d'ordre sociétal. Parmi ces dernières, la contamination des sites et des sols par les métaux lourds est un enjeu de santé publique important qui requiert de disposer de moyens de mesure adaptés aux réglementations existantes et suffisamment souples d'utilisation. Technique rapide et ne nécessitant pas de préparation de l'échantillon, la spectroscopie sur plasma induit par laser (LIBS) présente des avantages très intéressants pour réaliser des mesures sur site de la teneur en métaux lourds à l'échelle de la dizaine de ppm; la conception d'un appareil portable à moyen terme est envisageable.<br />Dans cette thèse nous montrons d'abord que le régime femtoseconde ne présente pas d'avantages par rapport au régime nanoseconde standard pour notre problématique. Ensuite nous mettons en œuvre un traitement avancé des spectres LIBS par des méthodes chimiométriques dont les performances améliorent sensiblement les résultats des analyses qualitatives et quantitatives d'échantillons de sols.
345

Outils pour la détection et la classification<br />Application au diagnostic de défauts de surface de rail

Bentoumi, Mohamed 15 October 2004 (has links) (PDF)
Le travail présenté dans ce mémoire aborde les problématiques de détection et de classification pour le diagnostic de défauts. Deux approches différentes sont abordées. La première approche est l'approche de détection et classification simultanées où le problème global à K classes est scindé en sous-problèmes. Chaque sous-problème a en charge la détection d'une ou plusieurs classes de défauts et il est traité par une cellule qui enchaîne les phases de prétraitement des signaux, de choix de l'espace de représentation, de détection, puis de décision. La résolution complète du problème à K classes s'effectue par un agencement séquentiel des cellules selon un arbre de décision hiérarchique ou par une mise en parallèle des cellules avec règles de décision associées.<br />La seconde approche est l'approche de détection et classification successives. Elle consiste à traiter tout<br />d'abord les signaux issus du capteur de manière simple pour la délivrance d'un signal d'alarme indiquant la<br />présence possible d'un défaut. Dans ce cas, et dans ce cas seulement, des traitements haut niveau sont mis en<br />oeuvre dans le but d'analyser plus finement les signatures de ces défauts. Les outils pour la classification - les différents classifieurs linéaires, les classifieurs neuronaux et les machines à vecteurs de support - sont détaillés. L'accent est mis sur le réglage des marges des classifieurs linéaires, sur leurs capacités de généralisation et sur les estimateurs de cette capacité de généralisation.<br />L'ensemble de ces méthodes a été validé sur une application concernant la détection de défauts de surface de rail dans un contexte métro. Un démonstrateur temps réel et opérant en condition d'exploitation a permis de tester les solutions de l'approche détection et classification simultanées, en considérant les taux de bonne détection et de<br />fausse alarme sur 4 classes de défauts de rail. La transformée en ondelettes, le filtrage inverse et la séparation de sources par analyse en composantes indépendantes sont les outils de prétraitement qui ont été particulièrement détaillés dans ce contexte applicatif.<br />Une base de données, constituée à partir de mesures sur site labellisées, a permis de qualifier statistiquement les solutions de l'approche détection et classification successives. Une hiérarchisation des méthodes est proposée en fonction de leur capacité de généralisation, mais aussi de leur complexité et de leur aptitude à traiter le problème avec ou sans optimisation des espaces de représentation.
346

Apport de la fusion d'images satellitaires multicapteurs au niveau pixel en télédétection et photo-interprétation

Mangolini, Marc 15 November 1994 (has links) (PDF)
Le nombre croissant d'images de la Terre en provenance de capteurs satellitaires pose aux utilisateurs un problème d'exploitation, auquel la fusion de données semble pouvoir apporter des solutions. Ce travail illustre l'apport de la fusion de données en télédétection et en photo-interprétation, sur des données issues des capteurs SPOT, ERS-1, et Landsat, qui sont parmi les plus utilisés dans le domaine. Les spécificités et complémentarités de ces capteurs, de type optique (visible ou infrarouge) ou radar, ont été prises en compte pour réaliser une fusion dite hétérogène. Face à la grande diversité des méthodes de fusion de données, nous avons choisi de nous restreindre à la fusion au niveau pixel, c'est-à-dire proche du signal physique bidimensionnel, par opposition au niveau sémantique. Trois développements méthodologiques majeurs ont été réalisés. L'exploitation thématique des images satellitaires multispectrales se heurte souvent à une limitation de leur résolution spatiale. Afin d'y remédier, nous proposons une méthode, nommée ARSIS, qui utilise une image de meilleure résolution spatiale pour améliorer celle des images multispectrales, sans en modifier l'information spectrale. Les outils mathématiques mis en oeuvre sont l'analyse multirésolution, la transformée en ondelettes, et la modélisation des similitudes spectrales entre les images à fusionner. Des critères d'estimation de la qualité image des produits synthétisés ont été développés, pour pouvoir comparer la méthode ARSIS aux méthodes préexistantes, sur plusieurs scènes SPOT et Landsat. L'intérêt de la méthode ARSIS tient à sa richesse conceptuelle et à un réel gain en qualité spectrale par rapport aux autres méthodes. Nous avons également étudié quelques méthodes de représentation visuelle du volume de données, qui sont destinées à faciliter le travail de photo-interprétation et à améliorer la qualité de l'information extraite, mais aussi à concentrer l'important volume de données en un minimum d'images. Les méthodes de changement d'espace de représentation des données et l'utilisation de la couleur ont été expérimentées. Les critiques des photo-interprètes sur les produits réalisés ont mis en évidence la nécessité de prendre en compte les spécificités des capteurs pour la fusion de données hétérogènes. Nous avons donc développé une méthode de fusion hétérogène optique-radar, qui consiste à extraire les objets ponctuels à fort écho radar pour les représenter dans un contexte optique. Le troisième développement a porté sur la comparaison de différentes architectures de fusion, dont le rôle est de définir l'enchaînement des algorithmes qui constituent une méthode de fusion. L'application retenue est la classification automatique, très utilisée en télédétection, qui permet de comparer numériquement les performances des architectures grâce à l'utilisation d'une vérité terrain. Des architectures centralisée, décentralisée, et une architecture "mixte" sont présentées. Leurs avantages et inconvénients en ternes de contraintes opérationnelles, de souplesse d'utilisation, et de qualité de la classification sont discutés. Ces derniers sont illustrés par la comparaison des résultats de classification des différentes architectures, pour deux classificateurs et deux sites différents. Enfin, ce travail met clairement en évidence l'apport de la fusion en classification par rapport aux traitements monocapteurs.
347

Modèles de Potts désordonnés et hors de l'équilibre

Chatelain, Christophe 17 December 2012 (has links) (PDF)
Cette thèse présente de manière synthétique mes travaux de recherche dont les deux thématiques principales sont le comportement critique du modèle de Potts en présence de désordre et le vieillissement de modèles de spin lors d'une trempe.
348

L’extraction de phrases en relation de traduction dans Wikipédia

Rebout, Lise 06 1900 (has links)
Afin d'enrichir les données de corpus bilingues parallèles, il peut être judicieux de travailler avec des corpus dits comparables. En effet dans ce type de corpus, même si les documents dans la langue cible ne sont pas l'exacte traduction de ceux dans la langue source, on peut y retrouver des mots ou des phrases en relation de traduction. L'encyclopédie libre Wikipédia constitue un corpus comparable multilingue de plusieurs millions de documents. Notre travail consiste à trouver une méthode générale et endogène permettant d'extraire un maximum de phrases parallèles. Nous travaillons avec le couple de langues français-anglais mais notre méthode, qui n'utilise aucune ressource bilingue extérieure, peut s'appliquer à tout autre couple de langues. Elle se décompose en deux étapes. La première consiste à détecter les paires d’articles qui ont le plus de chance de contenir des traductions. Nous utilisons pour cela un réseau de neurones entraîné sur un petit ensemble de données constitué d'articles alignés au niveau des phrases. La deuxième étape effectue la sélection des paires de phrases grâce à un autre réseau de neurones dont les sorties sont alors réinterprétées par un algorithme d'optimisation combinatoire et une heuristique d'extension. L'ajout des quelques 560~000 paires de phrases extraites de Wikipédia au corpus d'entraînement d'un système de traduction automatique statistique de référence permet d'améliorer la qualité des traductions produites. Nous mettons les données alignées et le corpus extrait à la disposition de la communauté scientifique. / Working with comparable corpora can be useful to enhance bilingual parallel corpora. In fact, in such corpora, even if the documents in the target language are not the exact translation of those in the source language, one can still find translated words or sentences. The free encyclopedia Wikipedia is a multilingual comparable corpus of several millions of documents. Our task is to find a general endogenous method for extracting a maximum of parallel sentences from this source. We are working with the English-French language pair but our method -- which uses no external bilingual resources -- can be applied to any other language pair. It can best be described in two steps. The first one consists of detecting article pairs that are most likely to contain translations. This is achieved through a neural network trained on a small data set composed of sentence aligned articles. The second step is to perform the selection of sentence pairs through another neural network whose outputs are then re-interpreted by a combinatorial optimization algorithm and an extension heuristic. The addition of the 560~000 pairs of sentences extracted from Wikipedia to the training set of a baseline statistical machine translation system improves the quality of the resulting translations. We make both the aligned data and the extracted corpus available to the scientific community.
349

Understanding deep architectures and the effect of unsupervised pre-training

Erhan, Dumitru 10 1900 (has links)
Cette thèse porte sur une classe d'algorithmes d'apprentissage appelés architectures profondes. Il existe des résultats qui indiquent que les représentations peu profondes et locales ne sont pas suffisantes pour la modélisation des fonctions comportant plusieurs facteurs de variation. Nous sommes particulièrement intéressés par ce genre de données car nous espérons qu'un agent intelligent sera en mesure d'apprendre à les modéliser automatiquement; l'hypothèse est que les architectures profondes sont mieux adaptées pour les modéliser. Les travaux de Hinton (2006) furent une véritable percée, car l'idée d'utiliser un algorithme d'apprentissage non-supervisé, les machines de Boltzmann restreintes, pour l'initialisation des poids d'un réseau de neurones supervisé a été cruciale pour entraîner l'architecture profonde la plus populaire, soit les réseaux de neurones artificiels avec des poids totalement connectés. Cette idée a été reprise et reproduite avec succès dans plusieurs contextes et avec une variété de modèles. Dans le cadre de cette thèse, nous considérons les architectures profondes comme des biais inductifs. Ces biais sont représentés non seulement par les modèles eux-mêmes, mais aussi par les méthodes d'entraînement qui sont souvent utilisés en conjonction avec ceux-ci. Nous désirons définir les raisons pour lesquelles cette classe de fonctions généralise bien, les situations auxquelles ces fonctions pourront être appliquées, ainsi que les descriptions qualitatives de telles fonctions. L'objectif de cette thèse est d'obtenir une meilleure compréhension du succès des architectures profondes. Dans le premier article, nous testons la concordance entre nos intuitions---que les réseaux profonds sont nécessaires pour mieux apprendre avec des données comportant plusieurs facteurs de variation---et les résultats empiriques. Le second article est une étude approfondie de la question: pourquoi l'apprentissage non-supervisé aide à mieux généraliser dans un réseau profond? Nous explorons et évaluons plusieurs hypothèses tentant d'élucider le fonctionnement de ces modèles. Finalement, le troisième article cherche à définir de façon qualitative les fonctions modélisées par un réseau profond. Ces visualisations facilitent l'interprétation des représentations et invariances modélisées par une architecture profonde. / This thesis studies a class of algorithms called deep architectures. We argue that models that are based on a shallow composition of local features are not appropriate for the set of real-world functions and datasets that are of interest to us, namely data with many factors of variation. Modelling such functions and datasets is important if we are hoping to create an intelligent agent that can learn from complicated data. Deep architectures are hypothesized to be a step in the right direction, as they are compositions of nonlinearities and can learn compact distributed representations of data with many factors of variation. Training fully-connected artificial neural networks---the most common form of a deep architecture---was not possible before Hinton (2006) showed that one can use stacks of unsupervised Restricted Boltzmann Machines to initialize or pre-train a supervised multi-layer network. This breakthrough has been influential, as the basic idea of using unsupervised learning to improve generalization in deep networks has been reproduced in a multitude of other settings and models. In this thesis, we cast the deep learning ideas and techniques as defining a special kind of inductive bias. This bias is defined not only by the kind of functions that are eventually represented by such deep models, but also by the learning process that is commonly used for them. This work is a study of the reasons for why this class of functions generalizes well, the situations where they should work well, and the qualitative statements that one could make about such functions. This thesis is thus an attempt to understand why deep architectures work. In the first of the articles presented we study the question of how well our intuitions about the need for deep models correspond to functions that they can actually model well. In the second article we perform an in-depth study of why unsupervised pre-training helps deep learning and explore a variety of hypotheses that give us an intuition for the dynamics of learning in such architectures. Finally, in the third article, we want to better understand what a deep architecture models, qualitatively speaking. Our visualization approach enables us to understand the representations and invariances modelled and learned by deeper layers.
350

Étude de systèmes de spins complexes ou désordonnés : analogies avec la transition vitreuse structurelle

Cherrier, Raphaël 02 July 2003 (has links) (PDF)
Cette thèse s'interesse à la nature dynamique de la transition vitreuse. Dans une première partie, nous nous intéressons à une classe de modèles de verres de spins en champ moyen. Nous montrons que la nature continue -avec brisure complète de la symétrie des répliques- ou structurelle -avec brisure à un pas de la symétrie des répliques- de la transition vitreuse peut être prédite en regardant le spectre de la matrice des couplages et plus précisément la zone de ce spectre située au voisinage de la valeur propre la plus grande, c'est-à-dire correspondant à l'état d'énergie minimale. La transition dynamique correspondant à l'apparition d'une multitude d'états métastables, nous nous intéressons au nombre de ceux-ci dans le modèle orthogonal aléatoire généralisé, qui est un modèle analogue au modèle de Hopfield avec un nombre extensif de motifs, mais où les motifs sont strictement orthogonaux. Nous étudions l'influence de l'orthogonalité des motifs sur le nombre d'états 1-stables (états stables par retournement d'un spin quelconque). Les études analytiques précédentes par la méthode des répliques sont appuyées par des simulations numériques. Nous réalisons à la fois des simulations Monte-Carlo et des énumérations exactes sur des petits systèmes qui permettent d'obtenir les grandeurs thermodynamiques d'équilibre ou le nombre d'états 1-stables en excellent accord avec les prédictions analytiques.\\ Dans une deuxième partie, nous étudions un modèle sans désordre dont le paramètre d'ordre possède la symétrie $O(N)$ et dont les états fondamentaux ne sont pas tous équivalents. Ce modèle décrivant de manière schématique l'évolution vers une phase cristallisé ou amorphe d'un système de colloïdes de sphéres dures. Nous montrons que l'état amorphe est favorisé par la dynamique. Nous étudions alors les bassins d'attraction de chaque phase pour la dynamique à température nulle : analytiquement à la limite où $N$ est grand, et numériquement lorsque $N$ est fini.

Page generated in 0.074 seconds