• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • 1
  • 1
  • Tagged with
  • 12
  • 12
  • 6
  • 6
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Méthode stochastique de délimitation des zones de protection autour des captages deau - Conditionnement par des mesures de conductivité hydraulique K, de hauteur piézométrique h et de résistivité électrique ρ

Rentier, Céline 14 March 2003 (has links)
Dans les milieux géologiques hétérogènes, la délimitation des zones de protection autour de puits de captage repose sur la fiabilité des modèles hydrogéologiques utilisés. Celle-ci dépend essentiellement de notre capacité à décrire les propriétés du système aquifère. En raison des mécanismes géologiques complexes impliqués dans la formation des dépôts sédimentaires, les propriétés aquifères et en particulier la conductivité hydraulique (K) montrent une variabilité spatiale importante, qui gouverne l'étalement de soluté. Le manque de données empêche une caractérisation parfaite du champ de K et introduit dès lors une incertitude dans la délimitation des zones de protection. Divers types d'informations liées à cette propriété peuvent être récoltés sur le terrain mais sont, en pratique, peu utilisés en raison de la difficulté de les intégrer dans les modèles hydrogéologiques. Dans ce travail de recherche, l'accent a été mis sur la quantification et la réduction de l'incertitude associée à la localisation des zones de protection en proposant une méthode stochastique permettant de conditionner les champs de K par des mesures directes (données hard) et indirectes (données soft) de cette propriété et plus particulièrement des données de résistivité électrique (ρ) et de hauteur piézométrique (h). L'approche stochastique spatiale qui a été adoptée considère la propriété K comme une fonction spatiale aléatoire et permet, par l'utilisation de méthodes géostatistiques, de caractériser sa variabilité spatiale. Cette approche stochastique génère un ensemble de champs de K, tous statistiquement équiprobables et, par analyse de Monte Carlo, prend explicitement en compte l'incertitude sur les valeurs de K dans la réponse du système, contrairement aux approches déterministes classiques qui considèrent le champ de K calibré comme la meilleure représentation de la réalité et mènent à la définition d'une zone de protection unique dont l'incertitude n'est pas quantifiable. Afin d'évaluer la qualité des résultats obtenus, cette méthode a été appliquée à un cas d'étude virtuel (synthétique) représentant une situation de référence, aussi proche que possible des conditions réelles rencontrées dans les aquifères alluviaux, et dont les propriétés hydrogéologiques sont connues en tout point du domaine modélisé. Elle a également été appliquée au cas d'étude réel d'un aquifère alluvial ayant déjà fait l'objet d'une étude déterministe et dont le nombre de mesures de K est extrêmement faible, nécessitant l'intégration de données de ρ et de h. L'ensemble des résultats montre à quel point l'introduction des données soft, et surtout celle des données de ρ, est un atout qui améliore grandement la caractérisation des champs de K et permet donc non seulement de réduire l'incertitude sur la localisation des zones de protection, mais également d'approcher la forme du tracé des zones de protection réelles. ABSTRACT In heterogeneous geological media, delineation of time-related well capture zone is based on the reliability of the hydrogeological models. It depends strongly on our ability to describe the system aquifer properties. Due to the complex geological processes leading to the formation of natural sediments, aquifer properties and in particular hydraulic conductivity (K) exhibits a large degree of heterogeneity, which governs solute spreading. The lack of K data hampers the complete determination of the K field and introduces uncertainty in capture zone delineation. Several kinds of informations related to this parameter can be collected in the field but are most often not used in practice because of the difficulty to introduce them in hydrogeological models. In this research work, emphasis is given to quantification and reduction of the well capture zone uncertainty by developing a stochastic method integrating direct (hard data) and indirect (soft data) measures of K and particularly electrical resistivity (ρ) and piezometric heads (h). The spatial stochastic approach adopted here considers the property K as a spatial random function and describes its spatial variability by use of geostatistical methods. This approach generates a range of statistically equally likely K fields and takes explicitly into account the K values uncertainty in the system response by performing Monte Carlo analysis, unlike classical deterministic approaches that consider a calibrated K field as the best representation of reality and lead to the definition of a unique capture zone for which uncertainty is unquantified. In order to assess the reliability of the results, this method was applied to a virtual (synthetic) study representing a reference case, very similar to actual alluvial aquifer conditions and for which hydrogeological properties are perfectly known. The method was also applied to a real case of an alluvial aquifer that had already been studied in a determinist framework and for which the number of K measures is very scarce, requiring a conditioning by ρ and h data. The results show how introduction of soft data and especially ρ data greatly improves K field description and therefore allows both to reduce well capture zone uncertainty and to approach the shapes of actual protection zones.
2

Analyse de mélanges à partir de signaux de chromatographie gazeuse / Analysis of gaseous mixture from gas chromatography signal.

Bertholon, Francois 23 September 2016 (has links)
Les dispositifs dédiés à l’analyse de gaz ont de nombreuses applications, notamment le contrôle de la qualité de l’air et des gaz naturels ou industriels, ou l’étude des gaz respiratoires. Le LETI travaille en collaboration avec la société APIX sur une nouvelle génération de dispositifs microsystèmes combinant des étapes de préparation des échantillons, de séparation des composants gazeux par des dispositifs de microchromatographie intégrés sur silicium, et de transduction par des détecteurs NEMS (Nano Electro Mechanical Systems) à base de nanocantilevers utilisés comme des détecteurs dits gravimétriques. Ces capteurs NEMS sont constitués de nano poutres vibrantes dont la fréquence de résonance dépend de la masse de matière déposée sur la poutre. Ces poutres sont fonctionnalisées avec un matériau capable d’adsorber puis de désorber certains composants ciblés. Lors du passage d’une impulsion de matière dans la colonne chromatographique au niveau d’un NEMS, le signal, défini par sa fréquence de résonance instantanée en fonction du temps, varie. Le pic observé sur ce signal traduira le pic de matière dans la colonne et permettra d’estimer la concentration du composant. Partant de l’ensemble des signaux mesurés sur l’ensemble des capteurs, l’objectif du traitement du signal est de fournir le profil moléculaire, c’est-à-dire la concentration de chaque composant, et d’estimer le pouvoir calorifique supérieur (PCS) associé. Le défi est d’associer une haute sensibilité pour détecter de très petites quantités de composants, et des capacités de séparation efficaces pour s’affranchir de la complexité du mélange et identifier la signature des molécules ciblées. L’objectif de cette thèse en traitement du signal est de travailler sur la formalisation des problèmes d’analyse des signaux abordés et d’étendre notre méthodologie d’analyse reposant sur l’approche problème inverse associée à un modèle hiérarchique de la chaîne d’analyse, aux dispositifs de microchromatographie gazeuse intégrant des capteurs NEMS multiples. La première application visée est le suivi du pouvoir calorifique d’un gaz naturel. Les ruptures concernent notamment la décomposition de signaux NEMS, la fusion multi-capteurs, l’autocalibrage et le suivi dynamique temporel. Le travail comportera des phases d’expérimentation réalisées notamment sur le banc d’analyse de gaz du laboratoire commun APIX-LETI. / The chromatography is a chemical technique to separate entities from a mixture. In this thesis, we will focused on the gaseous mixture, and particularly on the signal processing of gas chromatography. To acquire those signal we use different sensors. However whatever the sensor used, we obtain a peaks succession, where each peak corresponds to an entity present in the mixture. Our aim is then to analyze gaseous mixtures from acquired signals, by characterizing each peaks. After a bibliographic survey of the chromatography, we chose the Giddings and Eyring distribution to describe a peak shape. This distribution define the probability that a molecule walking randomly through the chromatographic column go out at a given time. Then we propose analytical model of the chromatographic signal which corresponds to a peak shape mixture model. Also in first approximation, this model is considered as Gaussian mixture model. To process those signals, we studied two broad groups of methods, executed upon real data and simulated data. The first family of algorithms consists in a Bayesian estimation of unknown parameters of our model. The order of mixture model can be include in the unknown parameters. It corresponds also to the number of entity in the gaseous mixture. To estimate those parameters, we use a Gibbs sampler, and Markov Chain Monte Carlo sampling, or a variational approach. The second methods consists in a sparse representation of the signal upon a dictionary. This dictionary includes a large set of peak shapes. The sparsity is then characterized by the number of components of the dictionary needed to describe the signal. At last we propose a sparse Bayesian method.
3

Modelisation et Simulation en Photo-acoustique

Jugnon, Vincent 09 December 2010 (has links) (PDF)
Cette these traite du probleme de l'imagerie photo-acoustique. Dans ce systeme d'imagerie, on chauffe un milieu avec une onde electromagnetique. Le milieu se dilate et emet une onde ultrasonique qu'on mesure. Le but est de reconstruire les caracteristiques internes du milieu a partir des mesures de l'onde acoustique sur son bord. C'est un probleme inverse sur la condition initiale pour l'equation des ondes. Dans un cadre idealise, la procedure de reconstruction est connue et a ete etudiee en profondeur. Le but premier de cette these est de s'eloigner du cadre standard en considerant des hypotheses moins restrictives. Pour chaque hypothese (conditions de bord, vue partielle, attenuation, vitesse non-homogene ) la these propose une correction basee sur des outils mathematiques adaptes (analyse asymptotique, approche duale, correlation...). La reconstruction de la condition initiale de l'equation des ondes n'est cependant pas suffisante. Elle depend de l'illumination electromagnetique. Un second probleme inverse doit etre resolu sur la propagation de l'onde electromagnetique pour avoir acces aux coefficients physiques d'interet. La these presente des resultats algorithmiques dans le cadre de l'equation de de diffusion et des estimations theoriques dans le cadre de l'equation de transfert radiatif. La these presente aussi un resultat d'amelioration d'une approche d'imagerie par derivee topologique.
4

Étude d'une méthode d'inversion basée sur la simulation pour la caractérisation de fissures détectées par ultrasons dans un composant revêtu

Haïat, Guillaume 19 March 2004 (has links) (PDF)
Le travail effectué au cours de cette thèse porte sur l'inversion de données ultrasonores. Le contexte industriel en est le contrôle non destructif des cuves de réacteurs à eau pressurisée. Ces contrôles visent à détecter et caractériser des fissures. Les données ultrasonores se présentent sous la forme d'échographies obtenues à l'aide d'un capteur fonctionnant en émission-réception. Les fissures sont détectées par diffraction de leurs arêtes. L'analyse des données obtenues est rendue difficile du fait de l'existence d'un revêtement dont la surface est irrégulière et dont le matériau diffère du matériau constitutif de la cuve. Une méthode est ici proposée pour localiser avec précision les arêtes diffractantes et donc permettre un dimensionnement des fissures à partir des échographies ultrasonores obtenues. Cette méthode s'appuie sur l'application d'outils de modélisation de la propagation et de la diffraction des ultrasons prenant en compte à la fois le caractère irrégulier de la surface et la nature hétérogène du composant. La méthode développée a fait l'objet d'une implémentation informatique et a pu être testée sur un ensemble de cas représentatifs. En particulier, ses performances ont été évaluées à partir de l'analyse de résultats expérimentaux. La précision obtenue en laboratoire sur les cas expérimentaux traités est conforme à la demande industrielle qui a motivé cette étude.
5

Identification en imagerie Doppler : liens avec la transformée de radon généralisée

Mennessier, Catherine 17 October 1997 (has links) (PDF)
Le champ magnétique des étoiles joue un rôle essentiel dans leur évolution interne et dans l'interaction qu'elles entretiennent avec leur environnement. Il se manifeste, entre autre, par l'existence de structures inhomogènes à leur surface. Hélas à de rares exceptions la résolution des télescopes reste insuffisante pour les résoudre spatialement. Ceci oblige donc à se tourner vers des méthodes indirectes. Telle est le but de l'imagerie Doppler. Après un exposé détaillé du principe de l'imagerie Doppler et quelques rappels sur la tomographie - transformée de Radon classique - nous montrons que cette technique astrophysique peut être traduite en termes de transformée de Radon généralisée. Cette réécriture du problème inverse d'imagerie Doppler permet d'étudier l'identifiabilité. Nous en déduisons, en particulier, l'existence de fonctions radiales du noyau. Des codes numériques performants utilisés classiquement en tomographie sont ensuite adaptés à notre type de mesure. Ils permettront de mieux caractériser les fonctions du noyau déduites de l'étude précédente. Nous nous intéressons ensuite à la géométrie d'échantillonnage des mesures en imagerie Doppler. Pour cela, nous étendons les résultats de schémas d'échantillonnage de la transformée de Radon classique à la transformée de Radon généralisée invariante par rotation avec fonction poids polynomiales. Ce résultat peut être appliqué à deux cas singuliers en imagerie Doppler. Par ailleurs, nous présentons les enjeux astrophysiques de l'imagerie Doppler : dans un premier temps sont résumées diverses manifestations du champ magnétique dans l'activité des étoiles, en particulier des étoiles jeunes T Tauri ainsi que le rôle de ce champ dans certains modèles d'évolution. Dans un deuxième temps sont données diverses techniques permettant d'estimer l'activité magnétique, parmi lesquelles l'imagerie Doppler dont la spécificité est soulignée. Enfin, cette technique est appliquée sur des données réelles issues d'observations que nous avons menées à l'Observatoire de Haute Provence. Des structures en surface sont déduites et les résultats sont discutés.
6

Equations aux dérivées partielles en finance : problèmes inverses et calibration de modèle.

Rouis, Moeiz 20 September 2007 (has links) (PDF)
Dans la premiere partie de cette these, on a etudie l'impact sur les prix d'options des erreurs d'estimation de volatilite. Dans les modeles de diffusion utilises ennance, un coefficient de diffusion fonctinnelle (:; :) modelise la volatilite d'un actif financier. Ce coefficient est estime a partir d'observations donc entache d'erreurs statistiques. L'objectif est de voir l'impact de ces erreurs sur le calcul de prix d'options, qui sont solutions d'EDP paraboliques dont l'estimateur (:; :) est le coefficient de diffusion. Cela debouche sur un probleme de passage a la limite (homogeneisation) dans des equations paraboliques a coefficients aleatoires. Dans ce travail on a obtenu des estimations de la vitesse de convergence locale sur la solution d'une EDP parabolique a coefficients aleatoire, lorsque le coefficient de diffusion est un champ aleatoire convergeant vers une fonction limite. Ce resultat permet d'etudier l'im- pact sur les prix d'options des erreurs d'estimation de volatilite dans differents cas degures. Cette methode est appliquee pour evaluer l'incertitude sur les options a barrieres dans un modele de diffusion lorsqu'on reconstitue la volatilite par la formule de Dupire a partir des donnees discretes sur les prix d'options. La deuxieme partie de cette these concerne l'etude de problemes inverses pour certaine classe d'equations d'evolution integro-differentielles survenant dans l'etude des modeles d'evaluation bases sur les processus de Levy. On a etudie une approche de ces problemes inverses par regularisation de Tikhonov. Cette approche permet de reconstruire de facon stable les parametres d'un modele markovien avec sauts a partir de l'observation d'un nombre ni d'options. Le chapitre 4 pose les bases theoriques de cette approche et propose une parametrisation des mesures de Levy par la racine carree de la densite, ce qui permet de ramener le probleme dans un cadre hilbertien. La regularisation de Tikhonov proposee consiste a minimiser l'ecart quadratique par rapport aux prix observ es plus une norme hilbertienne des parametres. Des resultats d'existence, de stabilite et de convergence de la solution du probleme regularise sont alors obtenus sous de hypotheses assez generales ; des hypotheses supplementaires (conditions de source) permettent d'obtenir une estimation de la vitesse de convergence. Le choix du parametre de regularisation, sujet delicat, fait l'objet d'une discussion detaillee. Le chapitre 5 propose un algorithme numerique pour le calcul de la solution du probleme regularise et l'etude du performance de cet algorithme dans differents modeles avec sauts. L'algorithme est base sur l'emploi d'un algorithme de gradient pour la minimisation de la fonctionnelle regularisee : le gradient est calcule en resolvant une equation integrodifferentielle avec terme source (equation adjointe). Ce travail generalise ceux de Lagnado&Osher, Crepey et Egger & Engl au cas des equations integrodifferentielles. Les tests numeriques montrent que cet algorithme permet de construire de facon stable un processus de Levy calibre a un ensemble de
7

Géométrie des surfaces de faille et dépliage 3D : méthodes et applications

Thibaut, Muriel 13 December 1994 (has links) (PDF)
Tester la compatibilité cinématique de la géométrie d'une surface de faille (1) et la géométrie d'une écaille qui glisse le long de celte surface de faille (2) est un problème compliqué que nous avons partiellement résolu. Nous avons considéré le problème (1) dans le contexte de blocs rigides et le problème (2) pour une écaille plissée. Nous proposons un critère de moindres carrés permettant de contraindre ia forme des failles de façon compatible avec l'approximation blocs rigides, i.e., les deux" blocs restent en contact et glissent l'un sur l'autre sans déformation. Si celle condition est satisfaite, la surface de faille est un filetage, i.e., une surface qui est partout tangente à un champ de vecteurs (torseur) non nul. Nous contraignons la surface à être le plus près possible des points de données (données de puits ou données sismiques), et régulière (minimisation des courbures principales). Le critère de filetage donne des résultats plus plausibles que la minimisation d'un critère basé seulement sur des dérivées secondes ou sur la matrice de courbure. Il donne aussi une direction de stries. Nous avons testé l'effet de ce critère sur différents exemples naturels (les failles de la Cléry et de San Cayetano). La restauration d'une structure géologique à une époque antérieu!e est un bon moyen de critiquer et d'améliorer l'interprétation de la structure actuelle. Nous nous sommes intéressés au glissement banc sur banc avec conservation des longueurs et du volume. Nous avons déplié un feuilletage par optimisation de différents critères de moindres carrés : horizontalité des isochrones, conservation des longueurs et du volume. Nous avons introduit des contraintes d'égalilé pour traduire la conservation de la reliure (pin-surface). La reliure représente une surface transverse à l'ensemble des feuilles de la structure conservée après dépliage. Nous avons testé notre formulation sur des exemples synthétiques et expérimentaux.
8

Calcul du rayonnement acoustique de structures à partir de données vibratoires par une méthode de sphère équivalente

Bouchet, Laurent 18 December 1996 (has links) (PDF)
La prévision du bruit rayonné par une structure vibrante à partir de données vibratoires calculées ou mesurées intéresse de nombreux industriels qui, dés le stade de la conception, peuvent prévoir, analyser et éventuellement corriger les nuisances sonores engendrées par une machine. Grâce aux récents développements des moyens de calcul numériques, les travaux de recherche théoriques et expérimentaux dans le domaine de la vibro-acoustique ont fortement progressé. Ils ont conduit à des logiciels de calcul basés sur des méthodes d'éléments finis ou d'éléments finis de frontière qui nécessitent cependant des investissements importants : calculateurs puissants et utilisateurs avertis. Afin de réduire les temps de calcul, on applique le principe des sources équivalentes en remplaçant la structure par une sphère qui va générer le même rayonnement acoustique que la structure. Le champ de vitesse vibratoire à la surface de la structure étant supposé connu, il est utilisé pour déterminer le champ vibratoire à la surface de la sphère équivalente par minimisation (méthode de la sphère équivalente proprement dite) ou par projection (approche géométrique). Les deux méthodes sont validées sur des exemples numériques et expérimentaux lorsque la structure admet une géométrie simple et compacte. Différents paramètres qui permettent de caractériser le modèle (rayon et position de la sphère par exemple) ainsi que la précision et la stabilité des résultats en fonction du maillage vibratoire et des erreurs de mesure sont discutés.
9

Mesure d’un champ de masse volumique par Background Oriented Schlieren 3D. Étude d’un dispositif expérimental et des méthodes de traitement pour la résolution du problème inverse / Density field maasurements using bos 3D : study od an experimental setup and inverse problem resolution

Todoroff, Violaine 09 December 2013 (has links)
Ces travaux consistent à mettre en place un dispositif expérimental BOS3D permettant la reconstruction du champ de masse volumique instantané d'un écoulement ainsi qu'à développer un algorithme de reconstruction permettant une mise à disposition rapide des résultats ainsi qu'une robustesse liée à un nombre faible de points de vue. La démarche a consisté dans un premier temps à développer un algorithme de reconstruction BOS3D applicable à toutes les configurations expérimentales. Pour cela, le problème direct a été reformulé sous forme algébrique et un critère a été défini. Cette formulation ainsi que les équations issues des méthodes d'optimisation nécessaires à la minimisation du critère ont été parallélisés pour permettre une implémentation sur GPU. Cet algorithme a ensuite été testé sur des cas de références issus de calcul numérique afin de vérifier si le champ reconstruit par l'algorithme était en accord avec celui fourni. Dans ce cadre, nous avons développé un outil permettant de simuler numériquement une BOS3D afin d'obtenir les champs de déviation associées aux écoulements numériques. Ces champs de déviation ont ensuite été fournis comme entrée au code et nous ont permis d'étudier la sensibilité de notre algorithme à de nombreux paramètres tels que le bruit sur les données, les erreurs de calibration, la discrétisation du maillage... Ensuite, afin de tester notre code sur des données réelles nous avons mis en place un banc expérimental BOS3D pour la reconstruction du champ de masse volumique instantané. Cela a nécessité l'étude d'un nouveau moyen de mesure, faisant appel à des techniques de calibrage multi-caméras et de nouvelles stratégies d'illumination su fond. Finalement les données issues de l'expérimentation ont été utilisées comme entrée de notre algorithme afin de valider son comportement sur données réelles. / This thesis consists in implementing a scientific experimental apparatus BOS3D (Background Oriented Schlieren 3D) at ONERA for the reconstruction of the density field of instantaneous flow and to develop a robust reconstruction algorithm allowing rapid provision of results considering a small number of views . First, we have developed a reconstruction algorithm BOS3D applicable to all experimental configurations . To do so, the direct problem, that is to say, the equation of the light deflection through a medium of inhomogeneous optical index was reformulated in algebraic form. experiment is then defined. This formulation and the equations resulting from optimization methods necessary for the minimization of the criterion have been parallelized to allow implementation on GPU. This algorithm was then tested with reference cases from numerical calculation to check whether the reconstructed field was consistent with the one provided. In this context, we developed a tool for simulating a virtual BOS3D to obtain the deflection fields associated with numerical flows. These deflection fields were then provided as input to the code of reconstruction and allowed us to study the sensitivity of our algorithm to many parameters such as noise on the data, mesh discretization, the type of regularization and positioning of the cameras. In parallel with the study of the reconstruction method by simulation, we have gained experience in the effective implementation of the BOS technique in experimental facilities, participating in several test campaigns . This has enabled us to contribute to the design and implementation of experimental apparatus dedicated to the BOS technique. The main result of this work is the realization of the experimental apparatus BOS3D in DMAE, which is designed to reconstruct instantaneous density fields. These experimental developments ultimately allow us to obtain 3D reconstructions of instantaneous and mean density fields from experimental data. In addition , analysis of the behavior of the BOS3D numerical method is proposed according to the nature of the observed flows and the acquisition configuration
10

Vers une imagerie fonctionnelle de l'electrophysiologie corticale modelisation markovienne pour l'estimation des sources de la magneto/electroencephalographie et evaluations experimentales .

Baillet, Sylvain 08 July 1998 (has links) (PDF)
La magnetoencephalographie (meg) et l'electroencephalographie (eeg) possèdent une resolution temporelle exceptionnelle qui les destine naturellement a l'observation et au suivi des processus electrophysiologiques sous-jacents. Cependant, il n'existe pas a ce jour de méthode d'exploitation des signaux meg et eeg qui puisse les faire prétendre au statut de veritables méthodes d'imageries. En effet, la modélisation de la production des champs magnétiques et des différences de potentiels électriques recueillis sur le champ necessite a priori la prise en compte de la géométrie complexe de la tete et des proprietes de conductivite des tissus. Enfin, l'estimation des générateurs est un probleme qui fondamentalement ne possede pas de solution unique. La motivation initiale de notre travail a concerne le developpement d'approches permettant d'obtenir une tomographie corticale de l'electrophysiologie. Nous avons alors mis en uvre une modelisation markovienne du champ d'intensite des sources en proposant des modeles spatio-temporels adaptes a la meeg, et notamment aux variations morphologiques locales des structures anatomiques corticales. De plus, nous avons exploite cette notion d'ajustement local afin de proposer une nouvelle méthode de fusion de données meg et eeg au sein d'un seul et unique problème inverse. Nous avons également accorde une importance particulière a l'évaluation des méthodes proposées. Ainsi, et pour aller au-dela des simulations numériques souvent trop limitatives, nous avons mis au point un fantôme physique adapte a la meg et a l'eeg qui nous a permis d'etudier les performances des estimateurs en association avec des modeles de tete a divers degres de realisme. Enfin, nous proposons une première application a ces méthodes dans le cadre de l'identification de réseaux épileptiques chez les patients souffrant d'épilepsie partielle.

Page generated in 0.0222 seconds