• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 64
  • 29
  • 9
  • Tagged with
  • 99
  • 36
  • 34
  • 31
  • 27
  • 26
  • 24
  • 23
  • 19
  • 18
  • 17
  • 16
  • 15
  • 15
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Approche bayésienne pour la localisation de sources en imagerie acoustique / Bayesian approach in acoustic source localization and imaging

Chu, Ning 22 November 2013 (has links)
L’imagerie acoustique est une technique performante pour la localisation et la reconstruction de puissance des sources acoustiques en utilisant des mesures limitées au réseau des microphones. Elle est largement utilisée pour évaluer l’influence acoustique dans l’industrie automobile et aéronautique. Les méthodes d’imagerie acoustique impliquent souvent un modèle direct de propagation acoustique et l’inversion de ce modèle direct. Cependant, cette inversion provoque généralement un problème inverse mal-posé. Par conséquent, les méthodes classiques ne permettent d’obtenir de manière satisfaisante ni une haute résolution spatiale, ni une dynamique large de la puissance acoustique. Dans cette thèse, nous avons tout d’abord nous avons créé un modèle direct discret de la puissance acoustique qui devient alors à la fois linéaire et déterminé pour les puissances acoustiques. Et nous ajoutons les erreurs de mesures que nous décomposons en trois parties : le bruit de fond du réseau de capteurs, l’incertitude du modèle causée par les propagations à multi-trajets et les erreurs d’approximation de la modélisation. Pour la résolution du problème inverse, nous avons tout d’abord proposé une approche d’hyper-résolution en utilisant une contrainte de parcimonie, de sorte que nous pouvons obtenir une plus haute résolution spatiale robuste à aux erreurs de mesures à condition que le paramètre de parcimonie soit estimé attentivement. Ensuite, afin d’obtenir une dynamique large et une plus forte robustesse aux bruits, nous avons proposé une approche basée sur une inférence bayésienne avec un a priori parcimonieux. Toutes les variables et paramètres inconnus peuvent être estimées par l’estimation du maximum a posteriori conjoint (JMAP). Toutefois, le JMAP souffrant d’une optimisation non-quadratique d’importants coûts de calcul, nous avons cherché des solutions d’accélération algorithmique: une approximation du modèle direct en utilisant une convolution 2D avec un noyau invariant. Grâce à ce modèle, nos approches peuvent être parallélisées sur des Graphics Processing Unit (GPU) . Par ailleurs, nous avons affiné notre modèle statistique sur 2 aspects : prise en compte de la non stationarité spatiale des erreurs de mesures et la définition d’une loi a priori pour les puissances renforçant la parcimonie en loi de Students-t. Enfin, nous ont poussé à mettre en place une Approximation Variationnelle Bayésienne (VBA). Cette approche permet non seulement d’obtenir toutes les estimations des inconnues, mais aussi de fournir des intervalles de confiance grâce aux paramètres cachés utilisés par les lois de Students-t. Pour conclure, nos approches ont été comparées avec des méthodes de l’état-de-l’art sur des données simulées, réelles (provenant d’essais en soufflerie chez Renault S2A) et hybrides. / Acoustic imaging is an advanced technique for acoustic source localization and power reconstruction using limited measurements at microphone sensor array. This technique can provide meaningful insights into performances, properties and mechanisms of acoustic sources. It has been widely used for evaluating the acoustic influence in automobile and aircraft industries. Acoustic imaging methods often involve in two aspects: a forward model of acoustic signal (power) propagation, and its inverse solution. However, the inversion usually causes a very ill-posed inverse problem, whose solution is not unique and is quite sensitive to measurement errors. Therefore, classical methods cannot easily obtain high spatial resolutions between two close sources, nor achieve wide dynamic range of acoustic source powers. In this thesis, we firstly build up a discrete forward model of acoustic signal propagation. This signal model is a linear but under-determined system of equations linking the measured data and unknown source signals. Based on this signal model, we set up a discrete forward model of acoustic power propagation. This power model is both linear and determined for source powers. In the forward models, we consider the measurement errors to be mainly composed of background noises at sensor array, model uncertainty caused by multi-path propagation, as well as model approximating errors. For the inverse problem of the acoustic power model, we firstly propose a robust super-resolution approach with the sparsity constraint, so that we can obtain very high spatial resolution in strong measurement errors. But the sparsity parameter should be carefully estimated for effective performance. Then for the acoustic imaging with large dynamic range and robustness, we propose a robust Bayesian inference approach with a sparsity enforcing prior: the double exponential law. This sparse prior can better embody the sparsity characteristic of source distribution than the sparsity constraint. All the unknown variables and parameters can be alternatively estimated by the Joint Maximum A Posterior (JMAP) estimation. However, this JMAP suffers a non-quadratic optimization and causes huge computational cost. So that we improve two following aspects: In order to accelerate the JMAP estimation, we investigate an invariant 2D convolution operator to approximate acoustic power propagation model. Owing to this invariant convolution model, our approaches can be parallelly implemented by the Graphics Processing Unit (GPU). Furthermore, we consider that measurement errors are spatially variant (non-stationary) at different sensors. In this more practical case, the distribution of measurement errors can be more accurately modeled by Students-t law which can express the variant variances by hidden parameters. Moreover, the sparsity enforcing distribution can be more conveniently described by the Student's-t law which can be decomposed into multivariate Gaussian and Gamma laws. However, the JMAP estimation risks to obtain so many unknown variables and hidden parameters. Therefore, we apply the Variational Bayesian Approximation (VBA) to overcome the JMAP drawbacks. One of the fabulous advantages of VBA is that it can not only achieve the parameter estimations, but also offer the confidential interval of interested parameters thanks to hidden parameters used in Students-t priors. To conclude, proposed approaches are validated by simulations, real data from wind tunnel experiments of Renault S2A, as well as the hybrid data. Compared with some typical state-of-the-art methods, the main advantages of proposed approaches are robust to measurement errors, super spatial resolutions, wide dynamic range and no need for source number nor Signal to Noise Ration (SNR) beforehand.
62

Étude des performances d'un système d'imageur proton dans le cadre de l'approche faisceau à faisceau / Performance study of a spot beam approach to proton imaging

Karakaya, Yusuf 11 July 2018 (has links)
L'étalonnage de l’image tomodensitométrique X en pouvoirs d’arrêt relatif est source d'incertitudes pour la planification du traitement en protontherapie. L’imagerie proton permettrait d’obtenir directement les pouvoirs d’arrêt ou les épaisseurs équivalent-eau tout en maîtrisant les incertitudes sur la planification du traitement. Ce travail vise à caractériser et optimiser les performances du système de tomographie proton proposé dans le cadre d’une nouvelle approche faisceau à faisceau, composé d’un trajectographe et d’un range meter. La position et la largeur du faisceau obtenues avec le trajectographe ainsi que la modélisation matricielle de la réponse du range meter par simulation Monte Carlo combinée à la déconvolution de la courbe de Bragg résiduelle ont permis de reconstruire l’épaisseur équivalent-eau traversée pour chaque faisceau. L’évaluation de la qualité des images a permis de montrer que la méthode de déconvolution permettait d’obtenir des images dépourvues d’artefacts et d’estimer le parcours du proton avec une précision de l’ordre de 0,7%. Le travail présenté dans cette thèse démontre la faisabilité d’un tel système d’imagerie. / Calibration of computed tomography image in relative stopping power is a source of uncertainties for the proton therapy treatment planning. Proton imaging could directly obtain stopping powers or equivalent water thicknesses and control uncertainties in the treatment planning. In the context of a new pencil beam approach, this work aims to characterize and optimize the performances of a proton tomography system consisting of a tracker and a range meter. Beam position and width obtained with the tracker and the range meter response matrix modelling by Monte Carlo simulation combined with the unfolding method of the residual Bragg curve enable to reconstruct the water equivalent thickness for each beam. The evaluation of the reconstructed images quality shows that images are artefact free and the proton range is estimated with 0.7% of accurancy by using the unfolding method. This thesis demonstrates the feasibility of such an imaging system.
63

Moments method for random matrices with applications to wireless communication. / La méthode des moments pour les matrices aléatoires avec application à la communication sans fil

Masucci, Antonia Maria 29 November 2011 (has links)
Dans cette thèse, on étudie l'application de la méthode des moments pour les télécommunications. On analyse cette méthode et on montre son importance pour l'étude des matrices aléatoires. On utilise le cadre de probabilités libres pour analyser cette méthode. La notion de produit de convolution/déconvolution libre peut être utilisée pour prédire le spectre asymptotique de matrices aléatoires qui sont asymptotiquement libres. On montre que la méthode de moments est un outil puissant même pour calculer les moments/moments asymptotiques de matrices qui n'ont pas la propriété de liberté asymptotique. En particulier, on considère des matrices aléatoires gaussiennes de taille finie et des matrices de Vandermonde al ?eatoires. On développe en série entiére la distribution des valeurs propres de differents modèles, par exemple les distributions de Wishart non-centrale et aussi les distributions de Wishart avec des entrées corrélées de moyenne nulle. Le cadre d'inference pour les matrices des dimensions finies est suffisamment souple pour permettre des combinaisons de matrices aléatoires. Les résultats que nous présentons sont implémentés en code Matlab en générant des sous-ensembles, des permutations et des relations d'équivalence. On applique ce cadre à l'étude des réseaux cognitifs et des réseaux à forte mobilité. On analyse les moments de matrices de Vandermonde aléatoires avec des entrées sur le cercle unitaire. On utilise ces moments et les détecteurs à expansion polynomiale pour décrire des détecteurs à faible complexité du signal transmis par des utilisateurs mobiles à une station de base (ou avec deux stations de base) représentée par des réseaux linéaires uniformes. / In this thesis, we focus on the analysis of the moments method, showing its importance in the application of random matrices to wireless communication. This study is conducted in the free probability framework. The concept of free convolution/deconvolution can be used to predict the spectrum of sums or products of random matrices which are asymptotically free. In this framework, we show that the moments method is very appealing and powerful in order to derive the moments/asymptotic moments for cases when the property of asymptotic freeness does not hold. In particular, we focus on Gaussian random matrices with finite dimensions and structured matrices as Vandermonde matrices. We derive the explicit series expansion of the eigenvalue distribution of various models, as noncentral Wishart distributions, as well as correlated zero mean Wishart distributions. We describe an inference framework so flexible that it is possible to apply it for repeated combinations of random ma- trices. The results that we present are implemented generating subsets, permutations, and equivalence relations. We developped a Matlab routine code in order to perform convolution or deconvolution numerically in terms of a set of input moments. We apply this inference framework to the study of cognitive networks, as well as to the study of wireless networks with high mobility. We analyze the asymptotic moments of random Vandermonde matrices with entries on the unit circle. We use them and polynomial expansion detectors in order to design a low complexity linear MMSE decoder to recover the signal transmitted by mobile users to a base station or two base stations, represented by uniform linear arrays.
64

Etude de l’influence de l’entrée artérielle tumorale par modélisation numérique et in vitro en imagerie de contraste ultrasonore. : application clinique pour l’évaluation des thérapies ciblées en cancérologie / In vitro assessment of the arterial input function influence on dynamic contrast-enhanced ultrasonography microvascularization parameter measurements using numerical modeling. : clinical impact on treatment evaluations in oncology

Gauthier, Marianne 05 December 2011 (has links)
L’échographie dynamique de contraste (DCE-US) est actuellement proposée comme technique d’imagerie fonctionnelle permettant d’évaluer les nouvelles thérapies anti-angiogéniques. Dans ce contexte, L'UPRES EA 4040, Université Paris-Sud 11, et le service d'Echographie de l'Institut Gustave Roussy ont développé une méthodologie permettant de calculer automatiquement, à partir de la courbe de prise de contraste moyenne obtenue dans la tumeur après injection en bolus d’un agent de contraste, un ensemble de paramètres semi-quantitatifs. Actuellement, l’état hémodynamique du patient ou encore les conditions d’injection du produit de contraste ne sont pas pris en compte dans le calcul de ces paramètres à l’inverse d’autres modalités (imagerie par résonance magnétique dynamique de contraste ou scanner de perfusion). L’objectif de cette thèse était donc d’étendre la méthode de déconvolution utilisée en routine dans les autres modalités d’imagerie à l’échographie de contraste. Celle-ci permet de s’affranchir des conditions citées précédemment en déconvoluant la courbe de prise de contraste issue de la tumeur par la fonction d’entrée artérielle, donnant ainsi accès aux paramètres quantitatifs flux sanguin, volume sanguin et temps de transit moyen. Mon travail de recherche s’est alors articulé autour de trois axes. Le premier visait à développer la méthode de quantification par déconvolution dédiée à l’échographie de contraste, avec l’élaboration d’un outil méthodologique suivie de l’évaluation de son apport sur la variabilité des paramètres de la microvascularisation. Des évaluations comparatives de variabilité intra-opérateur ont alors mis en évidence une diminution drastique des coefficients de variation des paramètres de la microvascularisation de 30% à 13% avec la méthode de déconvolution. Le deuxième axe était centré sur l’étude des sources de variabilité influençant les paramètres de la microvascularisation portant à la fois sur les conditions expérimentales et sur les conditions physiologiques de la tumeur. Enfin, le dernier axe a reposé sur une étude rétrospective menée sur 12 patients pour lesquels nous avons évalué l’intérêt de la déconvolution en comparant l’évolution des paramètres quantitatifs et semi-quantitatifs de la microvascularisation en fonction des réponses des tumeurs obtenues par les critères RECIST à partir d’un scan effectué à 2 mois. Cette méthodologie est prometteuse et peut permettre à terme une évaluation plus robuste et précoce des thérapies anti-angiogéniques que les méthodologies actuellement utilisées en routine dans le cadre des examens DCE-US. / Dynamic contrast-enhanced ultrasonography (DCE-US) is currently used as a functional imaging technique for evaluating anti-angiogenic therapies. A mathematical model has been developed by the UPRES EA 4040, Paris-Sud university and the Gustave Roussy Institute to evaluate semi-quantitative microvascularization parameters directly from time-intensity curves. But DCE-US evaluation of such parameters does not yet take into account physiological variations of the patient or even the way the contrast agent is injected as opposed to other functional modalities (dynamic magnetic resonance imaging or perfusion scintigraphy). The aim of my PhD was to develop a deconvolution process dedicated to the DCE-US imaging, which is currently used as a routine method in other imaging modalities. Such a process would allow access to quantitatively-defined microvascularization parameters since it would provide absolute evaluation of the tumor blood flow, the tumor blood volume and the mean transit time. This PhD has been led according to three main goals. First, we developed a deconvolution method involving the creation of a quantification tool and validation through studies of the microvascularization parameter variability. Evaluation and comparison of intra-operator variabilities demonstrated a decrease in the coefficients of variation from 30% to 13% when microvascularization parameters were extracted using the deconvolution process. Secondly, we evaluated sources of variation that influence microvascularization parameters concerning both the experimental conditions and the physiological conditions of the tumor. Finally, we performed a retrospective study involving 12 patients for whom we evaluated the benefit of the deconvolution process: we compared the evolution of the quantitative and semi-quantitative microvascularization parameters based on tumor responses evaluated by the RECIST criteria obtained through a scan performed after 2 months. Deconvolution is a promising process that may allow an earlier, more robust evaluation of anti-angiogenic treatments than the DCE-US method in current clinical use.
65

Simulation aux Grandes Echelles et chimie complexe pour la modélisation de la structure chimique des flammes turbulentes / Large Eddy Simulations and complex chemistry for modeling the chemical structure of turbulent flames

Mehl, Cédric 12 June 2018 (has links)
La Simulation aux Grandes Echelles (SGE) est appliquée à des brûleurs industriels pour prédire de nombreux phénomènes physiques complexes, tel que l’allumage ou la formation de polluants. La prise en compte de réactions chimiques détaillées est alors indispensable pour obtenir des résultats précis. L’amélioration des moyens de calculs permet de réaliser des simulations de brûleurs avec une chimie de plus en plus détaillée. La principale problématique est le couplage entre les réactions chimiques et l’écoulement turbulent. Bien que la dynamique de flamme soit souvent bien reproduite avec les modèles actuels, la prédiction de phénomènes complexes comme la formation de polluants reste une tâche difficile. En particulier, des études ont montré que l’influence du plissement de sous-maille sur la structure chimique des flammes n’était pas prise en compte de manière précise. Deux modèles basés sur le filtrage explicite des fronts de flammes sont étudiés dans cette thèse afin d’améliorer la prédiction de polluants en combustion turbulente prémélangée : (i) le premier modèle met en jeu une méthode de déconvolution des variables filtrées ; (ii) le second modèle implique l’optimisation de la chimie pour obtenir des flammes turbulentes filtrées. L’objectif de la thèse est d’obtenir une prédiction précise des polluants à coût de calcul réduit. / Large Eddy Simulation (LES) is applied to industrial burners to predict a wide range of complex physical phenomena, such as flame ignition and pollutants formation. The prediction accuracy is tightly linked to the ability to describe in detail the chemical reactions and thus the flame chemical structure. With the improvement of computational clusters, the simulation of industrial burners with detailed chemistry becomes possible. A major issue is then to couple detailed chemical mechanisms to turbulent flows. While the flame dynamics is often correctly simulated with stateof- the-art models, the prediction of complex phenomena such as pollutants formation remains a difficult task. Several investigations show that, in many models, the impact of flame subgrid scale wrinkling on the chemical flame structure is not accurately taken into account. Two models based on explicit flame front filtering are explored in this thesis to improve pollutants formation in turbulent premixed combustion: (i) a model based on deconvolution of filtered scalars; (ii) a model involving the optimization of chemistry to reproduce filtered turbulent flames. The objective of the work is to achieve high accuracy in pollutants formation prediction at low computational costs.
66

Développement d'une méthode de caractérisation spectrale des faisceaux de photons d'énergies inférieures à 150 keV utilisés en dosimétrie / Development of a new method to characterize low-to-medium energy X-ray beams (E<150 keV) used in dosimetry

Deloule, Sybelle 15 October 2014 (has links)
En dosimétrie, la distribution énergétique des photons émis par une source constitue un paramètre incontournable. Dans la gamme des basses et moyennes énergies (i.e. E<150 keV ici), le LNHB possède 5 tubes à rayons X ainsi que des grains de curiethérapie à l’iode 125, présentant des hauts débits de fluence. La détermination du spectre émis par calcul (déterministe ou Monte-Carlo) est limitée, dans la gamme d’énergie considérée, par les incertitudes élevées sur les bases de données ainsi que par les approximations du modèle. La mesure directe avec un détecteur au germanium ultra-pur a donc été retenue, bien que nécessitant de lourds moyens. De plus, le spectre mesuré est le produit de convolution du spectre émis recherché par la réponse du système. Une fois la réponse du détecteur modélisée, il est possible de « déconvoluer» la mesure, i.e. de remonter au spectre réellement émis en corrigeant (par stripping, model-fitting, inférence bayésienne…) les déformations spectrales induites par le processus de détection. Pour la curiethérapie, le modèle de grain-source a ainsi pu être ajusté. Pour les tubes à rayons X, les résultats obtenus avec différents codes Monte-Carlo et 4 logiciels déterministes ont été comparés à un spectre dit de référence obtenu par mesure et déconvolué. Ainsi l’impact sur certaines grandeurs dosimétriques de la méthode utilisée a pu être quantifié. / In the field of dosimetry, the knowledge of the whole photon fluence spectrum is an essential parameter. In the low-to-medium energy range (i.e. E<150 keV), the LNHB possess 5 X-ray tubes and iodine-125 brachytherapy seeds, both emitting high fluence rates. The performance of calculation (either Monte Carlo codes or deterministic software) is flawed by increasing uncertainties on fundamental parameters at low energies, and modelling issues. Therefore, direct measurement using a high purity germanium is preferred, even though it requires a time-consuming set-up and mathematical methods to infer impinging spectrum from measured ones (such as stripping, model-fitting or Bayesian inference…). Concerning brachytherapy, the knowledge of the seed’s parameters has been improved. Moreover, various calculated X-ray tube fluence spectra have been compared to measured ones, after unfolding. The results of all these methods have then be assessed, as well as their impact on dosimetric parameters.
67

Estimations et tests non paramétriques en tomographie quantique homodyne

Méziani, Katia 09 December 2008 (has links) (PDF)
En optique quantique, la reconstruction de l'état quantique (fonction de Wigner ou matrice de densité infini-dimensionnelle) d'un faisceau de lumière correspond en statistique à un problème inverse trés mal posé. Premièrement, nous proposons des estimateurs de la matrice de densité basés sur les fonctions \textit{pattern} et des estimateurs à noyau de la fonction de Wigner. Nous faisons l'hypothèse que la matrice de densité inconnue appartient à une classe non paramétrique définie en accord avec les exemples étudiés par les physiciens. Nous en déduisons pour la fonction de Wigner associée à cette matrice des propriétés de décroissance rapide et de régularité. Deuxièmement, nous estimons une fonctionnelle quadratique de la fonction de Wigner par une U-statistique d'ordre deux sur une classe plus large. Cette fonctionnelle peut être vue comme une indication sur la pureté de l'état quantique considéré. Nous en déduisons un estimateur adaptatif aux paramètres de régularité de la fonction de Wigner. La dernière partie de ce manuscrit est consacrée au problème de test d'adéquation à la matrice de densité. Cette procédure est construite à partir d'un estimateur de type projection sur les fonctions \textit{pattern}. Nous étudions les bornes supérieures de type minimax de toutes ces procédures. Les procédures d'estimation de la matrice de densité et de test d'adéquation à une matrice de densité sont implémentées et leurs performances numériques sont étudiées.
68

Développement de méthodes de traitement de signaux spectroscopiques : estimation de la ligne de base et du spectre de raies

Mazet, Vincent 01 December 2005 (has links) (PDF)
Cette thèse s'inscrit dans le cadre d'une collaboration entre le CRAN (UMR 7039) et le LCPME (UMR 7564) dont l'objectif est de développer des méthodes d'analyse de signaux spectroscopiques.<br /><br />Dans un premier temps est proposée une méthode déterministe qui permet d'estimer la ligne de base des spectres par le polynôme qui minimise une fonction-coût non quadratique (fonction de Huber ou parabole tronquée). En particulier, les versions asymétriques sont particulièrement bien adaptées pour les spectres dont les raies sont positives. Pour la minimisation, on utilise l'algorithme de minimisation semi-quadratique LEGEND.<br /><br />Dans un deuxième temps, on souhaite estimer le spectre de raies : l'approche bayésienne couplée aux techniques MCMC fournit un cadre d'étude très efficace. Une première approche formalise le problème en tant que déconvolution impulsionnelle myope non supervisée. En particulier, le signal impulsionnel est modélisé par un processus Bernoulli-gaussien à support positif ; un algorithme d'acceptation-rejet mixte permet la simulation de lois normales tronquées. Une alternative intéressante à cette approche est de considérer le problème comme une décomposition en motifs élémentaires. Un modèle original est alors introduit ; il a l'intérêt de conserver l'ordre du système fixe. Le problème de permutation d'indices est également étudié et un algorithme de ré-indexage est proposé.<br /><br />Les algorithmes sont validés sur des spectres simulés puis sur des spectres infrarouge et Raman réels.
69

Estimation dans des modèles à variables cachées

Matias, Catherine 21 December 2001 (has links) (PDF)
Cette thèse porte sur des problèmes d'estimation dans des modèles à variables cachées. Le Chapitre 1 est consacré à l'étude d'un modèle de Markov caché où la chaîne de Markov, non-nécessairement stationnaire, est supposée à valeurs dans un espace d'états compact et les observations dans un espace métrique séparable complet. La loi de la chaîne cachée ainsi que la loi conditionnelle dépendent d'un paramètre. Nous prouvons que l'estimateur du maximum de vraisemblance du paramètre est consistant, asymptotiquement normal et efficace. Le Chapitre 2 porte sur l'étude du modèle de convolution. Les observations sont issues d'un signal composé de variables aléatoires i.i.d. de densité inconnue g et d'un bruit blanc Gaussien centré de variance inconnue \sigma. Nous montrons que la non-connaissance de \sigma dégrade nettement la vitesse d'estimation de g : dans la plupart des cas ``réguliers'' cette vitesse est toujours plus lente que (log n)^(-1/2). Nous proposons alors un estimateur de \sigma qui est presque minimax lorsque g possède un support inclus dans un compact fixé. Nous construisons également un estimateur consistant universel de \sigma (i.e. sans contrainte sur g autre que celle d'identifiabilité du modèle). Dans le Chapitre 3, nous considérons ce même modèle de convolution mais lorsque le bruit possède une variance connue (fixée égale à 1) et nous nous intéressons aux propriétés d'estimation de fonctionnelles linéaires intégrales de de la forme \int f(x)\Phi_1(y-x) g(x)dx où \Phi_1 désigne la densité du bruit et f est une fonction connue. Nous étendons les résultats de Taupin dans le cas où la fonction f est soit une fonction polynomiale, soit un polynôme trigonométrique, en établissant des minorations du risque quadratique ponctuel et du risque par rapport à la norme infinie, ainsi que des majorations et minorations du risque par rapport à la norme p (1 \geq p <\infty). Nous montrons que l'estimateur proposé par Taupin atteint les vitesses optimales dans le cas où f est un polynôme et est presque minimax dans le cas où f est un polynôme trigonométrique, avec une perte pour le risque quadratique et pour le risque en norme infinie.
70

Imagerie sismique du Vésuve

Auger, Emmanuel 20 November 2000 (has links) (PDF)
La migration quantitative par Rais+Born interprète la forme d'onde des phases réfléchies pour imager et quantifier les contrastes sismiques qui en sont à l'origine. Mais la non linéarité des phénomènes de réflexion dans les conditions expérimentales atypiques de la tomographie du Vésuve battent en breche la modélisation par points diffractants. Nous proposons donc une inversion basée sur le concept de surface réfléchissante, qui tolère les grands angles d'incidence, les forts contrastes de vitesse, et tient compte implicitement du signal source inconnu. Le principe est d'extraire des données les variations relatives du coefficient de réflexion avec l'angle d'incidence, puis de les interpréter en termes de contraste de vitesse. Appliquer cette technique à un réflecteur à moyenne profondeur sous le Vésuve implique d'en déterminer d'abord la géométrie 2D, par migration cinématique des données à disposition (campagne de sismique active Mareves) : il apparait horizontal, à 8 Km de profondeur, s'étend sur plus de 35 Km, et génère de fortes phases converties PS, dont la nature est confirmée par des tests synthétiques. Leur migration s'avère peu influencée par les imperfections du modèle de vitesse, et échantillone densément une zone très restreinte de l'interface. Aussi, l'analyse quantitative est-elle basée sur ces phases: La comparaison de leur amplitude à celle de la première arrivée permet, en ne modélisant ni le signal source, ni les effets de propagation locaux aux récepteurs, de contraindre les propriétés du milieu sous-jacent: Les vitesses sismiques y semblent très basses (Vs < 1 Km/s).

Page generated in 0.0165 seconds