• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 249
  • 134
  • 32
  • Tagged with
  • 438
  • 438
  • 245
  • 210
  • 178
  • 153
  • 138
  • 108
  • 103
  • 94
  • 86
  • 84
  • 82
  • 79
  • 77
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Réseaux multicouches de neurones artificiels : algorithmes d'apprentissage, implantations sur hypercube : applications

Wang, Shengrui 26 September 1989 (has links) (PDF)
En adoptant une methode générale de distribution du réseau de cellules, sont proposes des algorithmes de communication sur un anneau et sur un hypercube qui résolvent les problèmes de multi-accumulation et de diffusion all-to-all. Il est montre, de plus, que ces algorithmes sont asymptotiquement optimaux. La simulation de l'identification des visages en contexte présentée constitue une tentative d'utilisation du modèle connexioniste comme nouveau paradigme pour modéliser des phénomènes cognitifs. Par ailleurs, l'application des réseaux multicouches a la reconnaissance de mots met en valeur l'intérêt de l'architecture a connexions partielles et superposées pour traiter des informations temporelles
222

Contrôle des systèmes rapides non linéaires - Application au moteur à allumage commandé turbocompressé à distribution variable

Colin, Guillaume 12 October 2006 (has links) (PDF)
Le contrôle des moteurs à allumage commandé est devenu capital pour satisfaire la législation sur les émissions polluantes tout en garantissant un bon agrément de conduite et une consommation réduite. <br /><br />Le downsizing, c'est-à-dire la réduction de la cylindrée du moteur, est une des voies prometteuses pour réduire la consommation de carburant et les émissions de CO2 qui en découlent. Combinant plusieurs technologies existantes telles que la turbocompression et la distribution variable, le downsizing est un exemple typique des problèmes rencontrés dans le contrôle des motorisations : systèmes non linéaires avec saturations d'actionneurs ; nombreuses grandeurs physiques importantes non mesurables ; temps de calcul limité ; objectifs du contrôle (consommation, pollution, performance) souvent concurrents.<br /><br />Une démarche de modélisation et de contrôle à base de modèle (par modèle interne et prédictif) pour ces systèmes est alors proposée et appliquée au contrôle de la chaîne d'air du moteur à essence à cylindrée réduite. Des estimateurs, physiques et génériques, sont construits pour la masse d'air dans le cylindre, la masse de gaz brûlés résiduels et la masse d'air balayé de l'admission vers l'échappement. L'architecture complète et générique du contrôle en couple pour le moteur à allumage commandé turbocompressé à déphaseurs d'arbre à cames a été testée en simulation puis expérimentalement (sur moteur et véhicule).<br />Ces essais ont alors montré que de nouvelles possibilités étaient offertes pour diminuer les émissions polluantes et optimiser le rendement du moteur.
223

Analyse des Signatures de Cibles à l'aide du Radar HF – VHF Multifréquence et Multipolarisation MOSAR

David, Arnaud 29 October 1999 (has links) (PDF)
Les travaux de cette thèse concernent l'analyse des signatures de cibles aériennes dans le domaine des basses fréquences, à l'aide du radar HF-VHF multifréquence et multipolarisation MOSAR. On considère en particulier les possibilités de reconnaissance de cibles par le comportement de la surface équivalente radar (SER) dans cette bande de fréquence où les cibles ne peuvent être furtives. <br />Dans un premier temps, les capacités du radar MOSAR sont décrites, ainsi que les évolutions et améliorations que le système a subi pour atteindre un fonctionnement optimal. Ensuite, une première analyse est effectuée sur les campagnes de mesures. Elle met en évidence les difficultés de caractériser les cibles par une signature sans la connaissance de leur trajectoire. <br />Dans un second temps, les possibilités de développement de modèles numériques d'avions sont étudiées, pour essayer de mieux caractériser la SER des cibles dans la bande de fréquence utilisée. Un modèle d'avion commercial est réalisé et est évalué par comparaison à des mesures effectuées en chambre anéchoïde. Ses performances ont permis de quantifier l'influence de la trajectoire sur les signatures des cibles et de confirmer les observations.<br />Finalement, les possibilités de classification de cibles sont considérées. A cet effet, deux méthodes de classification sont utilisées : la méthode du plus proche voisin et la méthode du réseau de neurones perceptron multicouche (MLP). L'importance du choix des critères discriminants, ainsi que du nombre de fréquences émises, est mise en évidence, et l'application de ces méthodes aux données du système MOSAR est discutée.
224

Architecture et Apprentissage d'un Système Hybride Neuro-Markovien pour la Reconnaissance de l'Écriture Manuscrite En-Ligne

Caillault, Emilie 12 December 2005 (has links) (PDF)
Les travaux présentés dans le cadre de cette thèse portent sur l'étude, la conception, le développement et le test d'un système de reconnaissance de mots manuscrits non contraints en-ligne pour une application omni-scripteurs. Le système proposé repose sur une architecture hybride neuro-markovienne comportant d'une part, un réseau de neurones à convolution (TDNN et/ou SDNN), et d'autre part des modèles de Markov à états cachés (MMC). Le réseau de neurones a une vision globale et travaille au niveau caractère, tandis que le MMC s'appuie sur une description plus locale et permet le passage du caractère au niveau mot. Nous avons d'abord étudié le système de reconnaissance au niveau caractère isolé (digits, majuscules, minuscules) et optimisé les architectures des réseaux en termes de performances et de taille. La seconde partie du travail a porté sur le passage au niveau mot. Ici, l'effort a consisté avant tout à la définition d'un schéma d'apprentissage global au niveau mot qui permet d'assurer la convergence globale du système, en définissant une fonction d'objectif qui mixe des critères basés modèle générateur (typiquement par maximum de vraisemblance) et des critères discriminants (de type maximum d'information mutuelle). Les différentes résultats présentés (sur les bases MNIST, IRONOFF, UNIPEN) montrent l'influence des principaux paramètres du système, soit en termes de topologie, de sources d'information, de modèles d'apprentissage (nombre d'états, pondération des critères, durée).
225

Traitement visuel rapide de scènes naturelles chez le singe, l'homme et la machine : une vision qui va de l'avant...

Delorme, Arnaud 26 October 2000 (has links) (PDF)
À la frontière entre neurosciences et intelligence artificielle, les neurosciences computationnelles tentent de comprendre les formidables capacités de calcul du cerveau, notamment l'efficacité du traitement de l'image par le système visuel. Mon travail est un double travail expérimental et de modélisation. Dans la partie expérimentale, je tente de déterminer les raisons qui font la précision et la rapidité des processus visuels. On présente brièvement (20-30 ms) des photographies contenant ou non des animaux au sujet qui doit relâcher un bouton quand l'image contient un animal. Le singe macaque réalise cette tâche avec une précision légèrement inférieure à celle de l'homme mais avec une plus grande rapidité. Je tente ensuite de contraindre la catégorisation pour déterminer le rôle à la fois des propriétés intrinsèques des images - couleur, luminance, nombre d'animaux présents, parties visibles de leurs corps, espèce de l'animal... - mais aussi de leurs propriétés extrinsèques - condition de présentation, effet de séquence, familiarité du stimulus, consigne... Bien que certaines conditions accélèrent la catégorisation, les réponses les plus précoces (dont on montre qu'elles ne sont pas spécifiques de certaines images), et les enregistrements EEGs correspondant au traitement de l'image ne sont que très peu affectés. Cela implique donc un traitement rapide massivement parallèle - quasiment automatique - des informations visuelles, où chaque neurone du système visuel peut difficilement émettre plus d'une décharge. À partir de ces contraintes, et de celles imposées par la structure du système visuel, j'ai construit un simulateur biologiquement plausible (SpikeNET) qui permet de simuler le comportement des neurones réels (de la détection de barres orientées jusqu'à la reconnaissance de visages). Les performances de ces modèles sont étonnantes du point de vue du traitement d'image et rivalisent avec les approches classiques en intelligence artificielle.
226

METHODES D'ANALYSE DES DEFORMEES MODALES PAR TRAITEMENT DU SIGNAL POUR LE DIAGNOSTIC IN SITU DE STRUCTURES

Morlier, Joseph 01 December 2005 (has links) (PDF)
Cette thèse s'inscrit dans la thématique de l'évaluation non destructive en génie civil et plus particulièrement le diagnostic in situ de structure. Elle a pour but d'une part d'étudier l'aspect théorique de la détection et la caractérisation de défaut seulement à partir des données issues de l'analyse modale<br /> et d'autre part d'identifier le meilleur outil pratique pour acquérir ces données modales. On s'est donc attaché à développer des méthodes d'analyse des déformées modales par traitement du signal afin de caractériser les défauts structuraux mais aussi d'essayer de quantifier la qualité des assemblages. Nous avons, à ces fins, mis en oeuvre des outils numériques de simulation (MEF) et des algorithmes d'analyse (ondelettes, dimension fractale, réseaux de neurones) sous Matlab permettant d'automatiser le diagnostic. La validation s'est aussi bien effeectuée sur des déformées simulées, mais aussi sur <br />des déformées issues de la bibliographie et finalement sur des déformées expérimentales d'un portique de dimension laboratoire (en utilisant un vibromètre laser à balayage).
227

Contribution à la Surveillance des Systèmes de Production en Utilisant l'Intelligence Artificielle

Racoceanu, Daniel 19 January 2006 (has links) (PDF)
En suivant les principales tendances d'évolution des systèmes automatisés et de la productique, nos travaux de recherche se positionnent dans l'optique des mutations induites par l'intégration des Sciences et Technologies de l'Information et de la Communication dans ces disciplines. Dans ce contexte, la décentralisation de l'intelligence et sa migration vers les niveaux bas, génèrent une évolution vers des services nouveaux, à même de permette non seulement de garder des positions privilégiées en terme de parts de marché, mais aussi d'en gagner de nouvelles. <br />Nos contributions se sont orientées précisément vers la mise au point de systèmes de surveillance dynamiques intelligents, en abordant des problématiques liées à la détection dynamique et au diagnostic curatif et préventif. Les techniques de l'intelligence artificielle ont ainsi constituées la colonne vertébrale de nos études, avec des travaux allant de la conception théorique et le test de nouveaux outils de surveillance dynamique, jusqu'à la validation, le prototypage et l'exploitation industrielle des concepts développés.<br />Dans le domaine de la surveillance dynamique, une de nos contributions majeures correspond à l'introduction d'un réseau de neurones dynamique innovant, le Réseau Récurrent à base de Fonctions radiales (RRFR). En faisant appel aux propriétés dynamiques des architectures localement récurrentes, le RRFR se caractérise par une approche de reconnaissance locale – essentielle en surveillance industrielle –, tout en permettant – de part ses caractéristiques dynamiques intrinsèques – une détection précoce des paliers de dégradation et une robustesse vis-à-vis des fausses alarmes. L'existence d'une mémoire statique et d'une mémoire dynamique facilement paramétrables au sein de la même structure, confère au réseau une souplesse d'utilisation très intéressante, ainsi qu'un accès à des techniques d'apprentissage allégées. Par ailleurs, dans le but d'augmenter la rapidité et l'efficacité de l'apprentissage, une version améliorée de l'algorithme des k-moyennes, permet d'améliorer la robustesse des algorithmes et de se situer dans la zone optimale de « bonne généralisation ».<br />La prise en compte de l'incertain fait l'objet d'une deuxième partie de nos travaux, située dans la continuité de la première. Dans ce sens, l'utilisation de la logique floue en surveillance dynamique se montre très intéressante de part la proximité par rapport au raisonnement et à l'expérience des opérateurs et ingénieurs, ainsi que de part la possibilité d'assurer une traçabilité essentielle pour le retour d'expérience en maintenance. Un outil de type réseau de Petri flou dédié à la surveillance (RdPFS) des systèmes de production a ainsi constitué l'objet de cette étude. Cet outil, basé essentiellement sur la modélisation floue de la variable "instant d'apparition" de l'événement discret, est muni d'un mécanisme d'interfaçage intégré, inspiré des réseaux de Petri à synchronisations internes, permettant la communication entre les outils de modélisation, de surveillance et de reprise. Dans un tel système, l'utilisation de la logique floue offre une souplesse d'utilisation et une dimension prédictive très intéressante. Basé sur un modèle RdPFS construit à partir des règles logiques induites par l'arbre de défaillance du système surveillé, nous avons montré sa capacité d'analyse dynamique des défauts, en utilisant une approche temporelle floue. <br />Dans nos travaux les plus récents, les avantages des outils neuronaux dynamiques et de la logique floue ont été mis à l'œuvre conjointement dans le cadre de systèmes hybrides neuro-flous d'aide à la surveillance. L'outil hybride ainsi proposé comporte deux parties, une première pour la détection dynamique – utilisant le RRFR amélioré essentiellement au niveau des algorithmes d'apprentissage dynamiques – et une deuxième pour le diagnostic curatif et prédictif, utilisant un réseau neuro-flou construit à partir de l'arbre de défaillance et de l'AMDEC du système / sous-système surveillé. Il est à noter que ce type de système de surveillance dynamique utilise l'approche abductive de recherche de cause – élément indispensable pour un diagnostic efficace. Par ailleurs, l'apprentissage dynamique permet de commencer l'activité de surveillance dynamique même en l'absence de données très consistantes, en enrichissant et affinant les symptômes et les causes associées (respectivement les degrés de crédibilité de celles-ci) au fur et à mesure du fonctionnement du système, grâce aux algorithmes neuronaux incorporés. <br />Parmi les verrous technologiques abordés lors de nos contributions, une place importante est accordée à la surveillance dynamique par apprentissage en ligne, en traitant des problèmes liés à la rapidité et la flexibilité de l'apprentissage, au temps de réponse, au traitement de grands flux de données, ainsi qu'aux méthodes de validation utilisant le test sur des benchmarks et le prototypage industriel. <br />Dans ce sens, l'exploitation industrielle du réseau récurrent à fonctions de base radiales a représenté une étape importante de nos travaux. Elle nous a permis la mise en œuvre d'une application de surveillance dynamique en temps réel d'un système, en utilisant l'apprentissage dynamique distant via le web. Mettant en évidence l'intérêt des techniques développées dans la réorganisation de l'activité de surveillance grâce aux nouvelles technologies, cette exploitation industrielle a donné lieu à un brevet d'invention, déposé en collaboration avec une SSII bisontine. <br />La conception de l'outil de surveillance neuro-flou a été menée en utilisant des spécifications UML. Cette approche a été initiée (étude, normalisation, spécification) dans le cadre du projet Européen PROTEUS/ITEA et finalisée (prototypage) dans le cadre d'un projet financé par l'ANVAR. Essentiels pour l'industrialisation des systèmes proposés, l'information de départ est considérée sous un format industriel classique (ADD, AMDEC, ...) et la mise à jour est assurée par une réelle ouverture du système traduite par des liens permanents avec les systèmes d'acquisition (capteurs, SCADA, ...) et les systèmes de gestion (GMAO, ...). <br />Dans le domaine de la e-maintenance, un défi considérable est constitué par le besoin de normalisation des plates-formes de e-maintenance, dans l'objectif d'arriver à terme à une génération automatique de ces plateformes, et à un standard qui pourra constituer un guide pour tous les constructeurs d'équipement soucieux d'intégrer leur produit dans une plate-forme de ce type. Du point de vue scientifique, il s'agit d'arriver à une génération automatique ou interactive d'une telle plate-forme, en fonction des services participants et du contexte d'utilisation. L'objectif est très ambitieux, car générateur de nouveaux services et de nouvelles opportunités commerciales. Il constitue l'objectif principal du projet européen SHIVA, dans lequel se retrouvent les partenaires les plus actifs de PROTEUS, avec – mise a part des partenaires déjà existants comme Cegelec et Schneider – des partenaires industriels nouveaux, tout aussi prestigieux, comme la Division des Constructions Navales et Airbus. <br />Concernant les perspectives de nos travaux, s'inscrivant dans le cadre des mêmes tendances de décentralisation et de migration de l'intelligence vers les niveaux opérationnels, une direction d'étude intéressante est constituée par le domaine des réseaux de capteurs intelligents. Cette perspective pourra ainsi intégrer des tendances technologiques liées aux connecteurs intelligents (« smart connectors ») basés sur le multiplexage et sur les courants porteurs, afin de réduire le volume de câblage, des points de connexion et afin de mieux prendre en considération les contraintes de sûreté de fonctionnement de ce type de réseaux, contraintes qui – dans un avenir très proche – seront vraisemblablement déterminantes.<br />Par ailleurs, dans un contexte régional, lié à la création du pôle de compétitivité « microtechniques », la problématique de la fabrication des microsystèmes est une problématique présentant un intérêt croissant. En effet, de nombreux prototypes de microsystèmes sont proposés en phase de prototype, avec une création liée à une manière plutôt artisanale, tout à fait compréhensible – vu les technologies innovantes utilisées -, mais qui ne se prête pas à une commercialisation de ces produits. De ce fait, l'étude des microsystèmes de production semble être un domaine porteur et permettant de garder des emplois européens – souvent menacés par la délocalisation.<br />Enfin, le diagnostic à partir de l'imagerie médicale en utilisant les techniques de l'intelligence artificielle me semble un domaine où mes compétences en recherche (surveillance par IA) et en enseignement (traitement de l'image) peuvent se donner la main pour aborder une thématique nouvelle, présentant un grand intérêt dans le domaine des biotechnologies, dans lequel la France est bien engagée depuis un certain nombre d'années. Cette perspective correspond au projet de recherche propose dans le cadre de ma délégation CNRS au laboratoire IPAL – Image Perception, Access and Learning (actuellement FRE, UMI-CNRS a partir de 2006) de Singapour.
228

Modèle connexionniste neuromimétique pour la perception visuelle embarquée du mouvement

Castellanos SÁnchez, Claudio 21 October 2005 (has links) (PDF)
Le recherche en connexionnisme est en face des fortes contraintes d'autonomie en robotique notamment issues des tâches perceptives visuelles qui n'ont pas encore été satisfaites par les modèles neuronaux utilisés jusqu'à aujourd'hui, surtout celles liées à la perception du mouvement. Dans ce cadre, nous proposons un modèle connexionniste neuromimétique permettant de traiter un ensemble de tâches de perception visuelle dynamique (robot/objets environnants en mouvement). Cela implique le compromis de maintenir la satisfaction des contraintes (bio-inspiration, traitements locaux massivement distribués en vue d'une implantation ultérieure temps-réel embarquée sur circuit FPGA, Field Programmable Gate Array) au coeur de la définition du modèle proposé, malgré la complexité des tâches en jeu.<br />Le modèle connexionniste proposé pour la perception visuelle du mouvement est constitué de trois modules : le premier opère un filtrage spatio-temporel causal issu des filtres de Gabor et inspiré des réponses des cellules simples du cortex visuel primaire, V1. Le deuxième met en place un mécanisme distribué de fortes interactions localisées fondé sur un principe antagoniste inspiré de l'organisation en colonnes d'orientation dans V1. Finalement, en nous inspirant des propriétés des champs récepteurs des neurones de MT et MST (aire temporelle moyenne et supérieur moyenne, respectivement), nous intégrons les réponses du second module et les envoyons au troisième. Ce dernier fait émerger un seul objet en mouvement à travers l'évolution en différentes cartes des interactions latérales, en pro-action et en retro-action d'une population neuronale densément interconnectée selon le principe de la CNFT (Continuum Neural Field Theory). L'attention sur l'objet émergé nous permet donc de le suivre.
229

Contribution à la vérification multi-modale de l'identité en utilisant la fusion de décisions

Verlinde, Patrick 17 September 1999 (has links) (PDF)
La vérification automatique de l'identité d'une personne est utilisée dans beaucoup d'applications telles que l'accès à des services automatisés et à des endroits protégés (banques,....). Un facteur important, qui limite le développement de ces services, est la nécessité de diminuer la probabilité d'intrusion par des imposteurs (ce qu'on appelle le taux de fausses acceptations: FA), tout en minimisant la probabilité d'être rejeté pour les clients (ce qu'on appelle le taux de faux réjets: FR). Une possibilité pour relever ce défi est d'utiliser plusieurs "procédés d'identification" (souvent appelés modalités) différents, et de les combiner ou de les fusionner. L'utilisation d'un "mot de passe" ou d'une carte avec numéro d'identification personnel (PIN) est une modalité de vérification bien connue et très populaire. Malheureusement, on peut oublier ce PIN ou le "perdre" et, en plus, la seule chose que l'on vérifie vraiment est la connaissance du bon numéro. Une autre approche consiste à utiliser des modalités dites biométriques, qui se basent sur la mesure de certaines caractéristiques biologiques de personnes (empreintes digitales, visage, parole,....). L'être humain utilise d'ailleurs la vision et le signal vocal, lorsqu'il est confronté à ce même problème de reconnaissance. L'avantage intrinsèque de ces modalités biométriques est qu'elles sont "liées" à l'individu (on ne peut pas les perdre). Parmi les modalités biométriques les plus utilisées, on trouve tout d'abord le signal vocal (vérification du locuteur). Cette méthode de vérification est déjà bien connue, mais souffre de quelques désavantages majeurs. Un de ces désavantages est la variabilité dans le temps des caractéristiques d'un même locuteur (variabilité intra-locuteur). Pour intégrer cette variabilité fondamentale et pour assurer la robustesse des méthodes traditionnelles de vérification de locuteur, il faut obligatoirement effectuer des séances d'entraînement relativement longues et répetées dans le temps, ce qui ne rend pas cette méthode très conviviale. Si on diminue la durée ou la fréquence des séances d'entraînement, on dégrade ipso facto les performances de ce genre de méthodes. Un autre désavantage est le risque d'un enregistrement du signal de parole à des fins d'imposture. Une des possibilités attractives pour amméliorer les performances des méthodes de vérification d'identité à faible niveau d'entraînement, tout en préservant la convivialité, est de ne pas se baser uniquement sur la parole, mais d'y inclure également d'autres informations (modalités), de préférence indépendantes (afin de maximaliser l'apport d'information). Une des autres modalités possibles est sans aucun doute la vision. L'identification basée sur le visage peut évidemment utiliser des caractéristiques biométriques aussi bien de face (distance entre les yeux et la bouche,etc....) que de profil. La vue de face permet en outre de localiser les lèvres et de suivre leurs mouvements, et donc d'utiliser la synchronisation entre les lèvres et la parole. Pour améliorer les résultats obtenus par une seule modalité, on peut combiner plusieurs d'entre elles, ce qui implique l'application de techniques de fusion de données. Ces techniques sont souvent classées dans trois catégories différentes, basées respectivement sur l'utilisation de modèles physiques, de procédés d'inférence et de méthodes cognitives. Les modèles physiques utilisent la simulation et l'estimation. Les techniques d'inférence comprennent entre autres les méthodes statistiques (Bayes, Dempster-Shafer), les méthodes de clustering, les réseaux de neurones, les méthodes par vote et les méthodes de reconnaissance de formes. Enfin les stratégies cognitives se regroupent surtout autour de la logique floue et des systèmes experts. L'objet de cette thèse est d'explorer différentes techniques de fusion de données en mettant l'accent sur les techniques d'inférence.
230

Reconstruction de données. Application à la dosimétrie des radiotéléphones

Brishoual, Morgan 09 October 2001 (has links) (PDF)
Dans le cadre de la vérification de la conformité aux normes des personnes exposées aux champs électromagnétiques des radiotéléphones, une méthodologie a été développée permettant d'évaluer les champs électriques qui ne sont pas accessibles par la mesure. <br /><br />Des études ont montré qu'une large partie de la puissance absorbée est concentrée dans les tissus proches de l'antenne du radiotéléphone. Ces tissus englobant la région de l'oreille sont les plus exposés aux champs électromagnétiques. A l'interface peau - mobile, les valeurs de champs électriques sont donc importantes et décroissent rapidement à mesure que l'on s'éloigne de l'antenne du radiotéléphone et que l'on se rapproche du centre de la tête. Etant donné que dans la certification des radiotéléphones, on s'intéresse à la puissance maximale absorbée, la région proche de l'antenne est donc primordiale à caractériser.<br /><br />De par la sonde de mesure du champ électrique utilisée, le point de mesure est placé à quelques millimètres du bout de la sonde et ce décalage ainsi que la fragilité de la sonde ne permettent pas d'effectuer des mesures proches des bords du fantôme utilisé pour modéliser soit une tête d'un utilisateur, soit un rat. Ainsi un schéma d'extrapolation doit être défini. De plus pour accélérer le processus d'acquisition des mesures, ces dernières sont effectuées suivant un échantillonnage grossier et un schéma d'interpolation doit être également défini pour obtenir ces mesures suivant un échantillonnage plus fin.<br /> <br />Cette thèse présente les ondelettes, dans le but de les utiliser dans les schémas d'extrapolation et d'interpolation. Ainsi une méthode à base d'ondelettes, habituellement utilisée en traitement d'image, a été développée dans le cas de la reconstruction de signaux unidimensionnels et étendue à des données tridimensionnelles. Une extension de cette méthode à des fonctions de base interpolatrices et non-interpolatrices a également été réalisée. Il s'est avéré qu'une meilleure précision de reconstruction est obtenue lorsque la fonction de base est une fonction de base interpolatrice de type triangle. Dans chacun des cas, cette méthode a été comparée à d'autres techniques de reconstruction de données échantillonnées, telles que polynomiales, splines, fonctions radiales, réseaux de neurones et krigeage.<br /> <br />Pour la reconstruction des données issues de la dosimétrie des radiotéléphones, les volumes à reconstruire sont volumineux et les techniques nommées précédemment ont un temps de calcul et/ou un coût mémoire non négligeable(s). Si bien qu'une nouvelle méthode pour interpoler et extrapoler les mesures dans un volume a été développée. Cette nouvelle méthode de reconstruction, nommée technique 2D_1D_2D, qui peut être utilisée pour de nombreuses autres applications, est très rapide et peu coûteuse en stockage mémoire. Elle sert de référence dans la norme CENELEC (Comité Européen de Normalisation ELECtrotechnique) ENV50361. Une partie des travaux de cette thèse ont donné naissance à un logiciel sous Matlab.

Page generated in 0.1441 seconds