• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 228
  • 73
  • 42
  • 1
  • Tagged with
  • 347
  • 105
  • 84
  • 78
  • 75
  • 71
  • 70
  • 62
  • 61
  • 60
  • 55
  • 54
  • 52
  • 51
  • 48
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

Contribution de l'analyse électromyographique des muscles des membres supérieurs pour l'entraînement au saut à la perche

Frère, Julien 27 November 2009 (has links) (PDF)
L'objet de cette thèse est d'étudier, par EMG transformée en ondelettes, les coordinations musculaires des membres supérieurs lors d'un saut à la perche et d'éléments en barre fixe. Notre travail se propose (1) de comparer les coordinations musculaires inter membres au cours d'un saut et (2) d'identifier leur part relative à la performance. Les activités musculaires (3) perche/barre fixe sont comparées. Ainsi, l'activité musculaire est majeure au début du saut, lorsque la perche se fléchit. Les ultimes actions musculaires sur la perche avant de franchir la barre servent au contrôle de la posture inversée du perchiste. Les exercices en barre fixe révèlent des coordinations musculaires semblables à celles du saut à la perche par la distinction de trois groupes musculaires fonctionnels. Dans le cadre de l'optimisation de la performance, cette thèse a permis d'identifier de nouveaux indicateurs, ainsi que de valider la pratique d'éléments en barre fixe pour l'entraînement des perchistes.
212

Gestion optimale de l'énergie dans un procédé multi-source pour le chauffage de bâtiments

Eynard, Julien 01 October 2010 (has links) (PDF)
L'exploitation excessive des ressources énergétiques fossiles pose aujourd'hui des problèmes liés au changement climatique, à leur épuisement et en conséquence à l'augmentation de leur prix. Ces problèmes nécessitent des solutions innovantes, telles que le recours aux énergies renouvelables, afin d'en restreindre l'impact. Les travaux présentés dans ce manuscrit s'attachent à répondre à cette problématique par l'intermédiaire d'une méthodologie d'optimisation énergétique, appliquée au secteur du bâtiment et notamment au poste de chauffage, l'un des plus gros consommateurs d'énergie en France. Cette méthodologie est basée sur la modélisation du procédé de chauffage considéré et d'un moyen de stockage énergétique, ainsi que sur le développement d'outils de contrôle prédictif exploitant la connaissance de perturbations futures. Cette approche a été utilisée pour l'optimisation énergétique d'une chaufferie collective, gérée par la société Cofely GDF-SUEZ et qui alimente en eau chaude, via un réseau de chaleur, un quartier de La Rochelle. Un modèle modulaire de l'installation actuelle, dont le fonctionnement s'appuie sur un mix énergétique renouvelable et non renouvelable, a été développé à partir de mesures réalisées sur le site et de techniques de modélisation de types boite noire, boite grise ou boite blanche, en fonction de la connaissance disponible. La chaufferie ne disposant pas d'un système de stockage, nous avons proposé une modification hydraulique afin d'en intégrer un. Le modèle de ce système a complété le modèle de la chaufferie. Pour la gestion du stockage, deux contrôleurs différents, dont l'un basé sur la commande prédictive optimale et exploitant des prédictions pour anticiper le comportement de la chaufferie, ont été proposés. Ces prédictions sont fournies par un module intégrant une analyse multi-résolution par décomposition en ondelettes et utilisant les réseaux de neurones artificiels. Les résultats obtenus avec le contrôleur prédictif montrent que l'utilisation optimale d'un système de stockage permet d'améliorer de façon très significative le fonctionnement de la chaufferie. La consommation énergétique fossile, le coût de fonctionnement de l'installation, les émissions de CO2 et le taux de couverture de l'énergie fossile sont fortement réduits, tout en améliorant le respect des contraintes techniques de fonctionnement.
213

Modèles de représentation multi-résolution pour le rendu photo-réaliste de matériaux complexes

Baril, Jérôme 10 January 2010 (has links) (PDF)
L'émergence des périphériques de capture numériques ont permis le dé- veloppement de l'acquisition 3D pour numériser les propriétés d'un objet réel : sa forme et son apparence. Ce processus fournit une représentation dense et précise d'objets réels et permet de s'abstraire d'un processus de simulation physique coûteux pour modéliser un objet. Ainsi, les problématiques ont évolué et portent non plus uniquement sur la modélisation des caractéristiques d'un objet réel mais sur les traitements de données issues de l'acquisition pour intégrer une copie de la réalité dans un processus de synthèse d'images. Dans ces travaux de thèse, nous proposons de nouvelles représentations pour des fonctions d'apparence issues de l'acquisition dont le but est de dénir un ensemble de modèles multi-échelles, de faible complexité en taille, capable d'être visualisé en temps réel sur le matériel graphique actuel.
214

Ondelettes, analyse de singularités lissées et traitement d'hologrammes numériques de micro-particules

Ducottet, Christophe 27 November 2003 (has links) (PDF)
Les travaux présentés dans ce mémoire se répartissent en deux principaux thèmes : l'analyse de singularités par ondelettes et le traitement numérique d'hologrammes. Pour effectuer des mesures sur les images il peut être utile de rechercher des formes particulières ou des primitives élémentaires telles que des points, des contours, les droites,... En pratique, de part la nature des images rencontrées dans les applications, ces primitives n'apparaissent pas nettement à cause de la présence de bruit ou de flou. Il convient alors de définir des opérateurs de détection adaptés capables d'obtenir de bonnes performances dans ces conditions. Nous montrons comment, à partir d'un modèle de singularités lissées, l'analyse en ondelettes permet de répondre à cette problématique. Deux opérateurs sont alors présentés : un opérateur de détection de points caractéristiques et un opérateur de détection de contours. Ces opérateurs sont capable d'estimer les caractéristiques locales de chaque point détecté (type, amplitude et degré de flou) en adaptant l'échelle de détection au degré de flou. Nous présenterons également des applications traitées dans le cadre de l'imagerie en mécanique des fluides et l'imagerie biomédicale. Pour obtenir des mesures tridimensionnelles en tous les points d'un volume de mesure, la technique de référence est l'holographie. Cette technique a été appliquée à l'analyse des écoulements dès les années 70, en utilisant des plaques photosensibles comme support de stockage de l'information. Depuis quelques années, grâce au développement des capteurs CCD et des techniques de traitement numérique, l'holographie numérique a pu être utilisée pour des mesures quantitatives tridimensionnelles. Le travail que nous présentons dans le deuxième thème, se place dans le contexte du traitement d'hologrammes numériques en vue de mesurer la position, la taille, ou la vitesse d'un ensemble de particules enregistrées sur cet hologramme. En faisant le lien avec les ondelettes et l'analyse de singularités lissées, nous proposons d'abord une fonction de restitution adaptée à la localisation axiale des particules. Nous déduisons ensuite une technique d'inter-corrélation permettant la mesure du champ de déplacement des particules.
215

Tenue à la fatigue des culasses : modélisation du traitement thermique et développement de nouvelles méthodes numériques.

Comte, François 24 January 2006 (has links) (PDF)
AFIN D'OBTENIR LES PROPRIETES METALLURGIQUES OPTIMALES DU MATERIAU, LES CULASSES AUTOMOBILES EN ALLIAGE D'ALUMINIUM SUBISSENT UN TRAITEMENT THERMIQUE (TREMPE-REVENU) GENERANT D'IMPORTANTES CONTRAINTES RESIDUELLES. LEUR MODELISATION EST NECESSAIRE POUR POUVOIR PREDIRE LA TENUE EN FATIGUE POLYCYCLIQUE. LES CONTRAINTES RESIDUELLES ETANT PILOTEES PAR LA THERMIQUE DE TREMPE, IDENTIFIER L'HISTOIRE THERMIQUE DU REFROIDISSEMENT EST PRIMORDIAL. LES COEFFICIENTS D'ECHANGE H(T), MODELISANT LES TRANSFERTS THERMIQUES AVEC L'EXTERIEUR, DETERMINENT LE REFROIDISSEMENT. LEUR EVOLUTION EST DEFINIE PAR UNE FONCTION ANALYTIQUE SIMPLE DONT LES PARAMETRES SONT RECALES PAR OPTIMISATION A PARTIR DE DONNEES EXPERIMENTALES. UNE FOIS L'HISTOIRE THERMIQUE SIMULEE CORRECTEMENT, LES CONTRAINTES RESIDUELLES SONT OBTENUES SUITE A UN CALCUL MECANIQUE METTANT EN EVIDENCE, DANS LES REGIONS A RISQUE, DES ZONES DE TRACTION DEFAVORABLES A LA TENUE EN SERVICE. LA PRISE EN COMPTE DE CET ETAT INITIAL PERMET ALORS DE CARACTERISER LES ZONES CRITIQUES EXPERIMENTALEMENT OBSERVEES. PAR AILLEURS, AFIN DE RENDRE L'OUTIL OPERATIONNEL EN BE, IL EST NECESSAIRE DE PROPOSER UNE METHODE NUMERIQUE PERMETTANT DE DIMINUER LES DUREES DE SIMULATION POUR LA RESOLUTION D'UN PROBLEME D'EVOLUTION ET POUR LA RECHERCHE DIRECTE DE LA REPONSE STABILISEE D'UNE STRUCTURE SOUMISE A UN CHARGEMENT CYCLIQUE. L'APPROCHE DEVELOPPEE REPOSE SUR LA METHODE A GRAND INCREMENT DE TEMPS ET LA METHODE CYCLIQUE DIRECTE : L'EQUILIBRE GLOBAL, ECRIT SOUS SA FORME RESIDUELLE, EST RESOLU SUR UNE BASE D'ONDELETTES REDUITE. DES GAINS SIGNIFICATIFS EN TEMPS CPU SONT OBTENUS POUR LA RECHERCHE DU CYCLE STABILISE.
216

Contribution à la détection et à l'analyse des signaux EEG épileptiques : débruitage et séparation de sources

Romo-Vázquez, Rebeca 24 February 2010 (has links) (PDF)
L'objectif principal de cette thèse est le pré-traitement des signaux d'électroencéphalographie (EEG). En particulier, elle vise à développer une méthodologie pour obtenir un EEG dit "propre" à travers l'identification et l'élimination des artéfacts extra-cérébraux (mouvements oculaires, clignements, activité cardiaque et musculaire) et du bruit. Après identification, les artéfacts et le bruit doivent être éliminés avec une perte minimale d'information, car dans le cas d'EEG, il est de grande importance de ne pas perdre d'information potentiellement utile à l'analyse (visuelle ou automatique) et donc au diagnostic médical. Plusieurs étapes sont nécessaires pour atteindre cet objectif : séparation et identification des sources d'artéfacts, élimination du bruit de mesure et reconstruction de l'EEG "propre". A travers une approche de type séparation aveugle de sources (SAS), la première partie vise donc à séparer les signaux EEG dans des sources informatives cérébrales et des sources d'artéfacts extra-cérébraux à éliminer. Une deuxième partie vise à classifier et éliminer les sources d'artéfacts et elle consiste en une étape de classification supervisée. Le bruit de mesure, quant à lui, il est éliminé par une approche de type débruitage par ondelettes. La mise en place d'une méthodologie intégrant d'une manière optimale ces trois techniques (séparation de sources, classification supervisée et débruitage par ondelettes) constitue l'apport principal de cette thèse. La méthodologie développée, ainsi que les résultats obtenus sur une base de signaux d'EEG réels (critiques et inter-critiques) importante, sont soumis à une expertise médicale approfondie, qui valide l'approche proposée.
217

Schéma lifting quinconce pour la compression d'images

Gouze, Annabelle 12 December 2002 (has links) (PDF)
Les travaux développés dans cette thèse portent la transformée en ondelettes 2D non-séparable appliquée dans le domaine de la compression d'images. L'implémentation en schéma lifting réduit la complexité de la transformée. Notre premier objectif consiste à factoriser un banc de filtres bidimensionnels non-séparables en schéma lifting quinconce. La solution apportée s'applique aux filtres à symétrie octogonale. Nous proposons une implémentation au fil de l'eau du schéma lifting quinconce. Les coûts de l'implémentation et le gain en mémoire et en complexité par rapport au filtrage par banc de filtres sont évalués. Le second objectif consiste à définir un schéma lifting en fonction des propriétés statistiques de l'image. Le but est de définir un schéma optimisant les performances, en adéquation avec les méthodes d'allocation de débit. Ces méthodes ont pour objectif de fournir un algorithme de compression approprié et efficace pour des images directement échantillonnées en quinconce.
218

Ondelettes, repères et couronne solaire

Jacques, Laurent 21 June 2004 (has links)
Dans cette thèse, nous explorons premièrement la notion de directionnalité lors de la conception de repères d'ondelettes du plan. Cette propriété, qui semble essentielle pour la vision biologique, donne lieu à une meilleure représentation des contours d'objets dans les décompositions d'images utilisant ces repères. Elle génère en outre une redondance supplémentaire qui exploitée à bon escient, permet par exemple de réduire les effets d'un bruit additif (gaussien). Nous montrons également comment cette directionnalité, généralement perçue comme un paramètre figé, peut être adaptée localement aux éléments d'une image. Nous définissons ainsi le concept d'analyse d'images multisélective. Dans ce cadre, des règles de récurrence héritées d'une analyse multirésolution circulaire associent des ondelettes d'une certaine sélectivité angulaire pour générer des ondelettes de plus faible directionnalité jusqu'à l'obtention d'une ondelette totalement isotrope. Dans le cas d'un repère d'ondelettes linéaire, ces différents niveaux de sélectivité ont la possibilité de s'ajuster localement au contenu d'une image. Nous constatons par ailleurs que cette adaptabilité fournit de meilleures reconstructions que les méthodes à sélectivité fixe lors d'approximations non linéaires d'images. Cette thèse traite ensuite du problème de l'analyse de données représentées sur la sphère. Il a été établi précédemment [AV99] que la transformée continue en ondelettes (CWT) s'étend à cet espace par l'emploi d'une dilatation stéréographique respectant la compacité de S2. Dans certain cas, il est utile de réduire la redondance de cette transformée, ne fut ce que pour faciliter le traitement des données dans l'espace multi-échelle généré. Nous étudions par conséquent comment créer des repères sphériques semi-continus, où seule l'échelle est échantillonnée, et totalement discrétisés. Nous tirons parti dans ce dernier cas de grilles sphériques équi-angulaires et des règles de quadrature associées pour obtenir des conditions suffisantes à la reconstruction des fonctions analysées. Les capacités d'analyse et de synthèse de repères d'ondelettes DOG sont également testées sur des exemples de données sphériques. Une dernière partie de ce document est dédiée à l'étude d'un objet physique étonnant : la couronne solaire. Cette couche extérieure du soleil est observée depuis 1996 par l'expérience EIT à bord du satellite SoHO dans différentes longueurs d'onde de l'ultraviolet lointain. La compréhension physique des multiples phénomènes apparaissant dans la couronne solaire passe par le traitement automatique des images EIT. Dans cette tâche, nous nous limitons à deux problèmes particuliers. Nous utilisons premièrement la CWT et sa capacité à analyser la régularité locale d'une image pour gommer les traces laissées par les rayons cosmiques, majoritairement non solaires, sur les enregistrements EIT. Deuxièmement, la couronne solaire contient des éléments de faible taille (<60arcsec) nommés points brillants (ou BPs pur Bright points). Ceux-ci trouvent leur origine dans l'échauffement local du plasma coronal sous l'action du champs magnétique solaire. En abordant une approche similaire à celle développée en [Bij99], nous étudions comment sélectionner et caractériser ces BPS en décomposant une image en ses objets constitutifs. Ces derniers sont issus de tubes de maxima dans la description multi-échelle de l'image, c'est-à-dire d'une généralisation discrète des lignes de maxima de la CWT.
219

Estimation de fonctions géométriques et déconvolution

Dossal, Charles 05 December 2005 (has links) (PDF)
Le travail présenté se divise en trois partie. Dans un premier temps, nous montrons que le formalisme de la sélection de modèles permet d'établir la vitesse de décroissance de l'erreur d'estimation d'un estimateur par seuillage dans une base orthogonale de bandlettes d'une image bruitée par un bruit additif gaussien pour un modèle d'images géométriquement régulières. Cette vitesse étant optimale à un facteur logarithmique près pour les fonctions de régularité C_alpha en dehors de courbes C_alpha. Dans un second temps, nous montrons qu'une approche similaire permet également d'atteindre un estimateur optimal pour l'inversion de l'opérateur de tomographie sur la même classe de fonctions. Dans une troisième partie nous analysons la déconvolution sparse spike 1D par minimisation l_1 et montrons qu'une distance minimum entre les spikes, dépendant du filtre assure la reconstruction exacte de la déconvolution par minimisation l_1
220

Génération de symptômes flous par FFT et SWT : applications à la détection de vibrations

Taleb, Samir 14 February 2007 (has links) (PDF)
L'objectif de ce travail est la détection des défauts à travers la détection des changements ou des anomalies dans les signaux mesurés. Notre travail présente une méthode permettant de construire, à partir d'historique de données (signaux de référence), un modèle comportemental du procédé, puis de détecter des situations anormales issues des dysfonctionnements. Cette méthode consiste à générer des symptômes flous en ligne permettant de suivre l'évolution temporelle du fonctionnement du système à surveiller. Ces symptômes prennent en considération les incertitudes sur la décision en fusionnant le résultat du test de détection avec celui de sa validité. Par leurs propriétés de localisation fréquentielle et temps-fréquence, la transformée de Fourier à court terme et la transformée en ondelettes stationnaires sont deux méthodes adaptables au diagnostic. Les choix de la longueur et du type de la fenêtre de pondération pour la STFT, de l'ondelette mère et du nombre de niveaux de décomposition pour la SWT sont les degrés de liberté qui leur permettent d'extraire des informations pertinentes des signaux analysés. Un symptôme graduel est obtenu en fonction du type et de l'ampleur du défaut. La méthode de détection conçue a été testée sur des signaux contenant des défauts simulés, puis a été ensuite validée sur des données industrielles pour la détection des vibrations torsionnelles dans un laminoir réversible (laminage à chaud). Les degrés de liberté de la méthode proposée confèrent aux méthodes développées la flexibilité par rapport à différentes applications.

Page generated in 0.3112 seconds