• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 68
  • 27
  • 5
  • Tagged with
  • 97
  • 51
  • 25
  • 23
  • 21
  • 18
  • 16
  • 16
  • 15
  • 15
  • 14
  • 14
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

L'évolution de l'accouchement dans la lignée humaine. Estimation de la contrainte fœto-pelvienne par deux méthodes complémentaires : la simulation numérique de l'accouchement et l'analyse discriminante des modalités d'accouchement au sein d'un échantillon obstétrical / Evolution of birth process in human lineage. Assessment of fetal-pelvic constrain with to complementary methods : virtual birth simulation and discriminant analysis of delivery groups in an obstetrical sample

Fremondière, Pierre 23 June 2015 (has links)
Notre objectif est d’étudier les modalités d’accouchement au sein de la lignée humaine. Pour cela, nous utilisons deux approches complémentaires : la simulation numérique de l’accouchement et l’analyse discriminante des modalités d’accouchement au sein d’un échantillon obstétrical. Dans un premier temps, nous construisons des maillages de bassins et de crânes de foetus fossiles grâce à une méthode d’interpolation : le krigeage. Les groupes fossiles considérés sont les Australopithèques, les premiers représentants du genre Homo (PRGH) et les représentants du genre Homo au Pléistocène moyen et supérieur (RPMS). Les dimensions des crânes juvéniles sont utilisées pour estimer « à rebours » les dimensions néonatales à l’aide de courbes de croissance humaine et de chimpanzé. Nous réalisons une simulation numérique de l’accouchement à partir des maillages de ces dyades « virtuelles ». Puis nous réalisons des analyses discriminantes avec un jeu de données issu de mesures réalisées sur le pelviscanner de femmes et sur les mesures du crâne de leur nouveau-né afin de séparer les modalités d’accouchement grâce aux variables foeto-pelviennes. Ces mêmes variables foeto-pelviennes sont mesurées chez les dyades fossiles afin d’identifier, par les analyses discriminantes, leurs modalités d’accouchement les plus probables. Nos résultats suggèrent un accouchement eutocique sans rotation intra-pelvienne chez les Australopithèques, eutocique avec rotation intrapelvienne chez les PRGH, dystocique ou eutocique chez les RPMS, l’accouchement eutocique est caractérisé par une rotation et une incurvation de la trajectoire de descente. / The purpose of this thesis is to estimate delivery outcomes for extinct hominids. We therefore use two complementary methods : numerical simulation of childbirth and discriminant analysis of delivery outcomes from an obstetrical sample. First, we use kriging to construct meshes of pelves and neonatal skulls. Fossil hominid specimens included in the study are Australopithecines, early Homo (EH) and middle to early Pleistocene Homo (MEPH). We estimate fetal cranial dimensions with chimpanzee or human cranial growth curve that we reversly use and apply on juveniles skull measurements. “Virtual” dyads are formed from pelves and neonatal skulls. Then, we simulate childbirth of these « virtual » dyads. Different levels of laxity of the sacro-iliac junction and different positions of the fetal head are considered. Finally, we use an obstetrical sample: delivery outcome is noted, CT-scans are used to obtain maternal pelvic measurements and diameters of the fetal head were also measured after delivery. A discriminant analysis is performed using this obstetrical sample to separate delivery outcomes thanks to fetal-pelvic measurements. Fossil dyads were subsequently added in the discriminant analysis to assess delivery outcomes to which they belong. Results suggest small fetal-pelvic constraint for Austalopithecines. This constraint is moderate for EH. Fetal-pelvic constraint is more important for MEPH. We suggest that rotational birth appears with EH. The curved trajectory of the fetal head appears with MEPH. Emergence of rotational birth and curved trajectory of fetal head are probably explained by two major increases in brain size during late and middle Pleistocene.
52

Etude de l'exposition des personnes aux ondes électromagnétiques en environnement complexe / Study of people's exposure to electromagnetic waves in complex environment

Jawad, Ourouk 22 October 2014 (has links)
Les recherches en dosimétrie numérique non-ionisante ont connu des avancées considérables notamment grâce à la capacité de calcul croissante des ordinateurs. Ces dernières années, la prise en compte de la variabilité dans la dosimétrie est devenue un enjeu majeur. Les sources de variabilité sont nombreuses, parmi elles, les conditions d'exposition au rayonnement électromagnétique peuvent induire des doses absorbées très différentes. La modélisation de canal de propagation en environnement intérieur a permis d'avoir une connaissance précise des conditions d'exposition d'un corps humain plongé dans cet environnement. Cette thèse a pour but de développer une méthode statistique du calcul de la dose absorbée par le corps et d'adapter le modèle de canal stochastique à la dosimétrie. L'étude statistique de l'exposition a révélé la nécessité d'obtenir les valeurs de Débit d'Absorption Spécifique corps entier dans le cas d'expositions à une onde plane pour tous les angles d'incidence possibles. Compte tenu des temps de calcul particulièrement long en dosimétrie, une méthode d'interpolation efficace, le krigeage, des valeurs de Débit d'Absorption Spécifique a été mise en oeuvre. L'analyse de sensibilité aux paramètres du canal des moments du Débit d'Absorption Spécifique a permis de connaître l'impact de chacun de ces paramètres. Le modèle de canal a pu être simplifié et donc adapté à la dosimétrie tout en quantifiant l'erreur d'approximation qu'implique cette simplification. Cette thèse répond à l'enjeu de la prise en compte de la variabilité en dosimétrie dans un environnement complexe. / Research in non-ionizing numerical dosimetry has been improved thanks to high calculation capacity of computers. These years, integrating variability in the field of dosimetry has become a major issue. Sources of variability are numerous; among them, there are the exposure conditions to electromagnetic radiation which can lead to very different absorbed doses. Indoor channel modeling enables to have a deep knowledge of the exposure conditions of a human body located inside this indoor environment. The aim of this thesis is to develop a statistical method of calculation of the absorbed dose by the human body and to adapt the stochastic channel model to dosimetry. The statistical study of exposure reveals the need to obtain Specific Absorption Rate values for a plane wave exposure for all possible angles of incidence. Taking into account that computation in dosimetry is time consuming, an efficient interpolation method, kriging method, is implemented in order to get whole body Specific Absorption Rate values. Kriging method enables to obtain Specific Absorption Rate for all possible angles of incidence and then to calculate expectation and variance of Specific Absorption Rate. Sensitivity Analysis of expectation and variance to the statistical channel parameters reveals the impact of each parameter. The channel model has been simplified and then adapted to dosimetry by estimating the approximation error induced by this reduction. This thesis answers to the issue of integrating variability in dosimetry in a complex environment and develop the tools that open a new path in studying exposure in any complex environment.
53

Modélisation statistique de données fonctionnelles environnementales : application à l'analyse de profils océanographiques. / Statistical modeling of environmental functional data : application to the analyse of oceanographic profiles.

Bayle, Severine 12 June 2014 (has links)
Afin d'étudier les processus biogéochimiques de l'Océan Austral, des balises posées sur des éléphants de mer ont permis de récolter en 2009-2010 des profils de variables océanographiques (Chlorophylle a (Chl a), température, salinité, lumière) dans une zone s'étalant du sud des îles Kerguelen jusqu'au continent Antarctique. Cette thèse se penche en particulier sur les données de Chl a, car celle-ci est contenue dans les organismes photosynthétiques qui jouent un rôle essentiel de pompe à carbone. Mais les profils verticaux de Chl a, récoltés peu fréquemment, ne permettent pas d'obtenir une cartographie de cette variable dans cette zone de l'océan. Cependant, nous disposons de profils de lumière, échantillonnés plus souvent. L'objectif était alors de développer une méthodologie permettant de reconstruire de manière indirecte les profils de Chl a à partir des profils de lumière, et qui prenne en compte les caractéristiques de ce type de données qui se présentent naturellement comme des données fonctionnelles. Pour cela, nous avons abordé la décomposition des profils à reconstruire ou explicatifs sur une base de splines, ainsi que les questions d'ajustement associées. Un modèle linéaire fonctionnel a été utilisé, permettant de prédire des profils de Chl a à partir des dérivées des profils de lumière. Il est montré que l'utilisation d'un tel modèle permet d'obtenir une bonne qualité de reconstruction pour accéder aux variations hautes fréquences des profils de Chl a à fine échelle. Enfin, une interpolation par krigeage fonctionnel permet de prédire la concentration en Chl a de nuit, car les mesures de lumière acquises à ce moment-là ne peuvent pas être exploitées. / To study biogeochemical processes in the Southern Ocean, tags placed on elephant seals allowed to collect during 2009-2010 oceanographic variables profiles (Chlorophyll a (Chl a), temperature, salinity, light) in an area ranging from southern Kerguelen until the Antarctic continent. This thesis focuses on Chl a data as it is contained in photosynthetic organisms and these ones play an essential role in the oceanic carbon cycle. The infrequently collected vertical Chl a profiles don't provide a mapping of this variable in this area of the ocean. However, we have light profiles sampled more often. The aim of this thesis was then to develop a methodology for reconstructing indirectly Chl a profiles from light profiles, and that takes into account characteristics of this kind of data that naturally occur as functional data. For this, we adressed the profiles decomposition to rebuild or explanations on splines basis, as well as issues related adjustment. A functional linear model was used to predict Chl a profiles from light profiles derivatives. It was shown that the use of such a model provides a good quality of reconstruction to access high frequency variations of Chl a profiles at fine scale. Finally, a functional kriging interpolation predicted the Chl a concentration during night, as light measurements acquired at that time can't be exploited. In the future, the methodology aims to be applied to any type of functional data.
54

Application of Design-of-Experiment Methods and Surrogate Models in Electromagnetic Nondestructive Evaluation / Application des méthodes de plans d’expérience numérique et de modèles de substitution pour le contrôle nondestructif électromagnétique

Bilicz, Sandor 30 May 2011 (has links)
Le contrôle non destructif électromagnétique (CNDE) est appliqué dans des domaines variés pour l'exploration de défauts cachés affectant des structures. De façon générale, le principe peut se poser en ces termes : un objet inconnu perturbe un milieu hôte donné et illuminé par un signal électromagnétique connu, et la réponse est mesurée sur un ou plusieurs récepteurs de positions connues. Cette réponse contient des informations sur les paramètres électromagnétiques et géométriques des objets recherchés et toute la difficulté du problème traité ici consiste à extraire ces informations du signal obtenu. Plus connu sous le nom de « problèmes inverses », ces travaux s'appuient sur une résolution appropriée des équations de Maxwell. Au « problème inverse » est souvent associé le « problème direct » complémentaire, qui consiste à déterminer le champ électromagnétique perturbé connaissant l'ensemble des paramètres géométriques et électromagnétiques de la configuration, défaut inclus. En pratique, cela est effectué via une modélisation mathématique et des méthodes numériques permettant la résolution numérique de tels problèmes. Les simulateurs correspondants sont capables de fournir une grande précision sur les résultats mais à un coût numérique important. Sachant que la résolution d'un problème inverse exige souvent un grand nombre de résolution de problèmes directs successifs, cela rend l'inversion très exigeante en termes de temps de calcul et de ressources informatiques. Pour surmonter ces challenges, les « modèles de substitution » qui imitent le modèle exact peuvent être une solution alternative intéressante. Une manière de construire de tels modèles de substitution est d'effectuer un certain nombre de simulations exactes et puis d'approximer le modèle en se basant sur les données obtenues. Le choix des simulations (« prototypes ») est normalement contrôlé par une stratégie tirée des outils de méthodes de « plans d'expérience numérique ». Dans cette thèse, l'utilisation des techniques de modélisation de substitution et de plans d'expérience numérique dans le cadre d'applications en CNDE est examinée. Trois approches indépendantes sont présentées en détail : une méthode d'inversion basée sur l'optimisation d'une fonction objectif et deux approches plus générales pour construire des modèles de substitution en utilisant des échantillonnages adaptatifs. Les approches proposées dans le cadre de cette thèse sont appliquées sur des exemples en CNDE par courants de Foucault / Electromagnetic Nondestructive Evaluation (ENDE) is applied in various industrial domains for the exploration of hidden in-material defects of structural components. The principal task of ENDE can generally be formalized as follows: an unknown defect affects a given host structure, interacting with a known electromagnetic field, and the response (derived from the electromagnetic field distorted by the defect) is measured using one or more receivers at known positions. This response contains some information on the electromagnetic constitutive parameters and the geometry of the defect to be retrieved. ENDE aims at extracting this information for the characterization of the defect, i.e., at the solution of the arising “inverse problem”. To this end, one has to be able to determine the electromagnetic field distorted by a defect with known parameters affecting a given host structure, i.e., to solve the “forward problem”. Practically, this is performed via the mathematical modeling (based on the Maxwell's equations) and the numerical simulation of the studied ENDE configuration. Such simulators can provide fine precision, but at a price of computational cost. However, the solution of an inverse problem often requires several runs of these “expensive-to-evaluate” simulators, making the inversion procedure firmly demanding in terms of runtime and computational resources. To overcome this challenge, “surrogate modeling” offers an interesting alternative solution. A surrogate model imitates the true model, but as a rule, it is much less complex than the latter. A way to construct such surrogates is to perform a couple of simulations and then to approximate the model based on the obtained data. The choice of the “prototype” simulations is usually controlled by a sophisticated strategy, drawn from the tools of “design-of-experiments”. The goal of the research work presented in this Dissertation is the improvement of ENDE methods by using surrogate modeling and design-of-experiments techniques. Three self-sufficient approaches are discussed in detail: an inversion algorithm based on the optimization of an objective function and two methods for the generation of generic surrogate models, both involving a sequential sampling strategy. All approaches presented in this Dissertation are illustrated by examples drawn from eddy-current nondestructive testing.
55

De l'utilisation de méta-modèles pour la modélisation et l'analyse de la réponse radar des forêts / On the use of metamodeling for modeling and analysis of the radar response of forests

Piteros, Panagiotis 15 April 2016 (has links)
Dans ce travail, une nouvelle approche de conduite des observations radar de la forêt est proposée. Elle combine des méthodes statistiques pour l’analyse de sensibilité et les plans d’expériences numériques séquentiels et un code de calcul simulant la rétrodiffusion d’une forêt en vue de l’élaboration d’un modèle approché (métamodèle) à moindre coût numérique. L’introduction de ces outils mathématiques a pour objectif d’aider à la planification et à l’exécution des simulations radar et à l’organisation et l’analyse de leurs résultats. D’une part, les techniques de l’analyse de sensibilité sont appliquées afin de classer par ordre d’importance les paramètres d’entrée du modèle et d’identifier les paramètres de la forêt les plus significatifs ainsi que leurs effets sur le signal radar. D’autre part, la construction d’un métamodèle adaptable accélère le code de calcul, en préservant la physique du phénomène. Le cadre opérationnel de ce modèle approché sert finalement à introduire le principe du radar cognitif dans notre stratégie. Dans ce cas, une analyse rapide du signal reçu est nécessaire pour concevoir, en temps réel, le nouveau signal à émettre. De cette façon, les observations du radar simulées incluent en temps réel l’effet de l’environnement illuminé grâce aux simulations plus rapides et ciblées. / In this work, a new approach to conduct the radar observations of forests is proposed. It combines statistical methods for sensitivity analysis and adaptive design of simulation experiments and a numerical code simulating the the forest backscattering for the use of a approximate model (metamodel) with less computational cost. The introduction of these mathematical tools has as an objective to assist the design and the execution of radar simulations and at the organization and the analysis of their results. On the one hand, the sensitivity analysis techniques were applied in order to classify the input parameters by means of their importance and to identify the most significant forest parameters as well as their effects on the radar signal. On the other hand, the construction of an adaptive metamodel accelerates the simulation model, while keeping the physics of the phenomenom. The operational frame of this approximate model serves finally in the introduction of the cognitive radar principle in our strategy. In that case, a fast analysis of the received signal is necessary to design, in real time, the new signal to be emitted. That way, the simulated radar observations take into account in real time the effect of the illuminated environment, thanks to the more focused and fast simulations.
56

Optimisation de la tête d'extrusion pour la fabrication de pièces thermoplastiques / Optimization of the extrusion die for the manufacture of thermoplastic parts

Lebaal, Nadhir 15 June 2007 (has links)
L’objectif de nos travaux de recherches est d’homogénéiser la répartition des vitesses à la sortie des filières, par la maîtrise et l’optimisation des paramètres géométrique et opératoires. Une procédure d’optimisation, basée sur la méthode de surface de réponse, a été proposée. Toutes les fonctions sont écrites sous une forme explicite en utilisant soit l’approximation diffuse ou l’interpolation Krigeage. Compte tenu de la présence des contraintes non linéaires, un algorithme de type SQP, a été utilisé. Pour localiser l’optimum global avec précision, une procédure d’échantillonnage auto adaptatif de l’espace de recherche a été adoptée. Les résultats d’optimisation mettent en évidence l'intérêt de l’optimisation des paramètres géométriques et opératoires du procédé d’extrusion. Une filière optimisée numériquement pour une gamme différente de polymère a été réalisée et une comparaison expérimentale a permis de valider toute la procédure de simulation et d’optimisation mise en place. / The objective of our research tasks is to homogeneous the velocity distribution on the outlet side of the die, through the control and the optimization of the geometrical parameters and operating conditions. An optimization procedure, based on the response surface method, was proposed. All the functions are written in an explicit form by using the either diffuse approximation or the Kriging interpolation. Due to the presence of the nonlinear constraints, an iterative algorithm of type SQP, was used. To find the global optimum with precision and at lower cost an auto-adaptive research space is adopted. The results of three other applications highlight the interest of the optimization of the geometrical and operational parameters of the extrusion process. A die optimized numerically for multiple operating conditions and materials was produced. An experimental comparison allowed us to validate all the procedure of simulation and optimization put in place.
57

Méthodologie de dimensionnement d’un assemblage collé pour application aérospatiale / Design methodology applied to bonded structure for space application

Le Pavic, Jérémy 26 April 2018 (has links)
Les lanceurs spatiaux sont des structures complexes associant une multitude de composants. L’assemblage de ces éléments doit répondre à un niveau de performance élevé. Le collage structural demeure un bon candidat en raison des nombreux avantages qu’il présente. Cependant, cette technologie montre des inconvénients. En raison des changements brusques de géométrie et de propriétés matériaux, des concentrations de contraintes apparaissent aux extrémités du joint de colle. Ce phénomène appelé effets de bords est néfaste pour la tenue mécanique de l’assemblage collé. La présence des effets de bords exclut l’utilisation de critères en contrainte utilisés classiquement. Le dimensionnement d’assemblages collés requiert des outils fiables prenant en compte ces effets de bords. Dans cette étude, un modèle de ruine incrémentale, associant une approche en contrainte et en énergie, est utilisé. L’utilisation de cet outil dans un cadre industriel, impose de répondre aux besoins d’un Bureau d’Études, notamment en termes de coût de calculs. Afin de le diminuer, une implémentation semi-analytique, est tout d’abord développée. Puis, une seconde méthode d’implémentation, basée sur la méthode des Eléments Finis, permet une prévision plus précise de la ruine d’un assemblage. La pertinence de ces deux approches a été vérifiée pour plusieurs configurations de joints collés. Des campagnes d’essais, destinées à confronter les résultats expérimentaux aux prévisions numériques, ont été réalisées. Dans le cadre de ce travail, un montage de collage et d’essai pour assemblages tubulaires a en particulier été développé. L’objectif du pré-dimensionnement est d’identifier une zone d’intérêt dans l’ensemble du domaine d’étude. Aussi, une étude paramétrique peut être requise afin de réaliser cette tâche. Afin de réduire le coût de calcul, une méthode d’interpolation spatiale appelée Krigeage a été mise en œuvre, et permet la construction efficace d’une surface de réponse. / Space Launchers are complex structures composed of a large number of elements. The assembling of these components must show a high level of reliability. The use of adhesive bonding technology is an interesting solution since it presentsseveral assets compared to “classical” joint techniques (such as riveting, bolting and welding), mainly because it can help to construct lighter and less energy consuming systems However„ the implementation of adhesives also has somedrawbacks. Due to the strong variations of geometrical and material properties, stress concentrations appear at the extremities of the joint. This phenomenon; called edge effects; has a great influence on the failure of the bond. As a result, the simple use of a classical stress or energetic criteria is not appropriate to predict the fracture of such structures. Therefore, it is obvious that the design of bonded assemblies requires reliable tools to take the edge effects into account. In this work an incremental failure model, which combines the stress and energetic criteria, is used. In order to decrease the computational cost, a semi-analytical application of this model is proposed. This is intended to make the approach more interesting to be implemented in an industrial environment. The accuracy of the prediction of the failure load is enhanced by means of the Finite Element method. The reliability of both the semi-analytical and Finite Element approaches is verified by comparing the model predictions with experimental data issued from double-notched Arcan and tubular specimen geometries. The aim of the pre-design phase is to identify the critical area in the whole range of the application of the studied geometry. Therefore, the realization of a parametric study is required in order to build a response surface. In the present study, this has been achieved by means of spatial interpolation using the Kriging model.
58

Qualification du calcul de la puissance des coeurs de réacteurs à plaques : développement et application d'une nouvelle approche géostatistique / Qualification of the power profile for slabs core reactors : development and application of a new approach based on geostatistics

Simonini, Giorgio 04 October 2012 (has links)
Cette thèse a pour but de contribuer à la qualification du formulaire de calcul neutronique NARVAL, dédié aux coeurs de réacteurs à plaques. En particulier, l’objectif est de développer des méthodes innovantes permettant d’utiliser les données expérimentales inédites du programme HIPPOCAMPE pour évaluer la précision du profil de puissance calculé. La complexité provient de la localisation de l’instrumentation (chambres à fission placées entre les assemblages) et des hétérogénéités caractéristiques de ce type de coeurs (géométrie à plaques, poisons consommables et de contrôle solides). Pour aborder ce problème deux voies ont été mises en oeuvre : la première voie consiste à « combiner puis extrapoler » les écarts C/E observés afin de déterminer les incertitudes associées aux facteurs de puissance. Nous avons utilisé, pour ce faire, la méthode « P/A », traditionnellement employée dans les REP électrogènes mais jamais appliquée aux coeurs à plaques à ce jour. La deuxième voie passe, en revanche, par la reconstruction d’une nappe de puissance à utiliser comme référence (comparaison calcul/« expérience-reconstruite ») : nous avons focalisé notre travail sur des techniques géostatistiques. Après avoir constaté que les deux méthodes conduisent à des résultats satisfaisants (erreur comparable à l’incertitude expérimentale cible) nous avons continué notre recherche, en explorant les possibles développements et en introduisant en particulier une nouvelle méthode hybride (associant les techniques géostatistiques à la méthode P/A) qui permet d'améliorer ultérieurement la qualification du profil de puissance (écart-type des écarts C/E cohérent avec la constatation expérimentale). / The aim of this doctoral thesis work is to contribute to the experimental validation of a neutron physic code, called NARVAL, devoted to the analysis of slab cores reactors. The primary objective is to develop some innovative methods in order to validate the computed power map starting from the original experimental data, provided by the HIPPOCAMPE campaign. The particular position of the instrumentation (fission chambers located between the assemblies) and the strong heterogeneities, characterising this specific core design (slab geometry, burnable and control neutron absorbers in solid state) represent the main challenge of this work. Two different approaches are investigated : the first one consists in “combining and extrapolating” the observed calculated/experimental results in order to evaluate the uncertainty of power coefficients. Among different solutions, the “P/A” method is chosen : it is usually employed to perform conventional PWR plant analysis and has never been applied before to slab cores. The latter aims to reconstruct a power map that could be used as a direct reference for code validation : in this case the geostatistical techniques are selected. These methods provide satisfactory results as estimated errors are in good agreement with the experimental uncertainty target. Nevertheless, in this work a new hybrid method, applying the geostatistical technics to the P/A scheme, is investigated and developed. The good agreement between the experimental and the estimated validations of the computed power map attests the noteworthy performance of this new method.
59

Reconstruction de données. Application à la dosimétrie des radiotéléphones

Brishoual, Morgan 09 October 2001 (has links) (PDF)
Dans le cadre de la vérification de la conformité aux normes des personnes exposées aux champs électromagnétiques des radiotéléphones, une méthodologie a été développée permettant d'évaluer les champs électriques qui ne sont pas accessibles par la mesure. <br /><br />Des études ont montré qu'une large partie de la puissance absorbée est concentrée dans les tissus proches de l'antenne du radiotéléphone. Ces tissus englobant la région de l'oreille sont les plus exposés aux champs électromagnétiques. A l'interface peau - mobile, les valeurs de champs électriques sont donc importantes et décroissent rapidement à mesure que l'on s'éloigne de l'antenne du radiotéléphone et que l'on se rapproche du centre de la tête. Etant donné que dans la certification des radiotéléphones, on s'intéresse à la puissance maximale absorbée, la région proche de l'antenne est donc primordiale à caractériser.<br /><br />De par la sonde de mesure du champ électrique utilisée, le point de mesure est placé à quelques millimètres du bout de la sonde et ce décalage ainsi que la fragilité de la sonde ne permettent pas d'effectuer des mesures proches des bords du fantôme utilisé pour modéliser soit une tête d'un utilisateur, soit un rat. Ainsi un schéma d'extrapolation doit être défini. De plus pour accélérer le processus d'acquisition des mesures, ces dernières sont effectuées suivant un échantillonnage grossier et un schéma d'interpolation doit être également défini pour obtenir ces mesures suivant un échantillonnage plus fin.<br /> <br />Cette thèse présente les ondelettes, dans le but de les utiliser dans les schémas d'extrapolation et d'interpolation. Ainsi une méthode à base d'ondelettes, habituellement utilisée en traitement d'image, a été développée dans le cas de la reconstruction de signaux unidimensionnels et étendue à des données tridimensionnelles. Une extension de cette méthode à des fonctions de base interpolatrices et non-interpolatrices a également été réalisée. Il s'est avéré qu'une meilleure précision de reconstruction est obtenue lorsque la fonction de base est une fonction de base interpolatrice de type triangle. Dans chacun des cas, cette méthode a été comparée à d'autres techniques de reconstruction de données échantillonnées, telles que polynomiales, splines, fonctions radiales, réseaux de neurones et krigeage.<br /> <br />Pour la reconstruction des données issues de la dosimétrie des radiotéléphones, les volumes à reconstruire sont volumineux et les techniques nommées précédemment ont un temps de calcul et/ou un coût mémoire non négligeable(s). Si bien qu'une nouvelle méthode pour interpoler et extrapoler les mesures dans un volume a été développée. Cette nouvelle méthode de reconstruction, nommée technique 2D_1D_2D, qui peut être utilisée pour de nombreuses autres applications, est très rapide et peu coûteuse en stockage mémoire. Elle sert de référence dans la norme CENELEC (Comité Européen de Normalisation ELECtrotechnique) ENV50361. Une partie des travaux de cette thèse ont donné naissance à un logiciel sous Matlab.
60

Développement de méthodes de traitement d'images pour la détermination de paramètres variographiques locaux

Felder, Jean 02 December 2011 (has links) (PDF)
La géostatistique fournit de nombreux outils pour caractériser et traiter des données réparties dans l'espace. La plupart de ces outils sont basés sur l'analyse et la modélisation d'une fonction appelée variogramme qui permet de construire différents opérateurs spatiaux : le krigeage et les simulations. Les modèles variographiques sont relativement intuitifs : certains paramètres variographiques peuvent être directement interprétés en termes de caractéristiques structurales. Ces approches sont cependant limitées car elles ne permettent pas de prendre correctement en compte la structuration locale des données. Plusieurs types de modèles géostatistiques non-stationnaires existent. Ils requièrent généralement un paramétrage compliqué, peu intuitif, et ils n'apportent pas de réponse satisfaisante quant à certains de types de non-stationnarité. C'est pour répondre au besoin d'une prise en compte efficace et opérationnelle de la non-stationnarité dans un jeu de données que, dans le cadre de cette thèse, nous prenons le parti de déterminer des paramètres variographiques locaux, appelés M-Paramètres par des méthodes de traitement d'images. Notre démarche se fonde principalement sur la détermination des paramètres morphologiques de dimensions et d'orientations de structures. Il résulte de la détermination de M-Paramètres une meilleure adéquation entre modèles variographiques et caractéristiques structurales des données. Les méthodes de détermination de M-Paramètres développées ont été appliquées sur des données bathymétriques, sur des jeux de données laissant apparaître des corps géologiques complexes ou encore sur des jeux de données environnementaux, liés au domaine de la pollution en zone urbaine par exemple. Ces exemples illustrent les améliorations de résultats de traitement géostatistique obtenus avec M-Paramètres. Enfin, partant du constat que certains phénomènes ne respectent pas une propagation euclidienne, nous avons étudié l'influence du choix de la distance sur les résultats de krigeage et de simulation. En utilisant des distances géodésiques, nous avons pu obtenir des résultats d'estimation impossible à reproduire avec des distances euclidiennes.

Page generated in 0.069 seconds