• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 64
  • 29
  • 9
  • Tagged with
  • 99
  • 36
  • 34
  • 31
  • 27
  • 26
  • 24
  • 23
  • 19
  • 18
  • 17
  • 16
  • 15
  • 15
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Algorithmes numériques en temps réel appliqués à l'identification de cristaux et à la mesure de l'estampe du temps scanner TEP/TDM tout-numérique à base de photodiodes à avalanche

Semmaoui, Hichman January 2009 (has links)
La tomographie d'émission par positrons (TEP) est devenue un outil important dans les diagnostics de la médecine nucléaire. Avec le développement et l'utilisation de différents radiotraceurs qui permettent de visualiser les processus métaboliques et les structures organiques par des procédés non invasifs, les caméras TEP cliniques sont largement utilisées et fournissent une résolution spatiale et temporelle suffisante pour les diagnostics humains. De plus, la recherche en pharmacologie et en médecine sont d'autres champs d'applications en développement. En effet, par l'utilisation de la TEP dans les expérimentations avec des petits animaux, l'efficacité de nouveaux médicaments peut être facilement vérifiée. Cependant, le problème avec les tomographes TEP pour petits animaux est la nécessité d'une résolution spatiale et temporelle beaucoup plus grande que celle pour les examens cliniques sur les humains. Ceci requiert de nouveaux concepts de détecteurs et de traitement de signal dans le développement des systèmes TEP dédiés pour les petits animaux. En outre, ces concepts sont complémentés, pour résoudre ce problème, par la fusion d'une image morphologique (tomodensitométrie-TDM) à une image métabolique (TEP). Le LabPET[exposant TM], un scanner TEP dont l'aspect bimodal TEP/TDM est en développement. Ce scanner, dédié aux petits animaux, est développé à l'Université de Sherbrooke. Il utilise des photodiodes à avalanche (PDA) connectées individuellement à des scintillateurs et combinés à de nouveaux algorithmes numériques. Ce scanner vise à répondre aux besoins relatifs à la résolution spatiale et temporelle de l'imagerie TEP pour petits animaux. Dans cette thèse, de nouveaux algorithmes sont développés et testés afin d'augmenter la résolution spatiale et temporelle du LabPET. L'augmentation de la résolution spatiale est basée sur des algorithmes d'identification de cristaux, excités, au sein d'un détecteur multicristaux. Tandis que, l'augmentation de la résolution temporelle est basée sur un concept de déconvolution utilisant le résultat de l'identification de cristaux.
32

Prédiction de la conformité des matériaux d'emballage par intégration de méthodes de déformulation et de modélisation du coefficient de partage / Prediction of the compliance of packaging materials using deformulation methods and partition coefficients modelling

Gillet, Guillaume 14 November 2008 (has links)
Les matériaux plastiques contiennent des additifs, qui ne sont pas fixés dans la matrice polymère et risquent migrer dans les aliments. La directive européenne 2002/72 a introduit la possibilité de démontrer l’aptitude au contact alimentaire de ces matériaux à partir d’approches prédictives, dont l’application est limitée par la disponibilité de données de formulation et de physico-chimie. Ces travaux visent à adapter et développer des approches analytiques rapides pour identifier et quantifier les substances majoritaires contenues dans les plastiques et à développer une approche générique de prédiction des coefficients de partage entre des polymères et les simulants de l’aliment. Des méthodes conventionnelles d’extraction par solvant et de quantification en CLHP-UV-DEDL et CPG-DIF ont été comparées pour quatre formulations modèles de PEHD et PS. Une méthode rapide de déconvolution de spectres infrarouge d’extraits de PEHD a été développée pour identifier et quantifier les additifs. Un modèle prédictif des coefficients d’activité dans les PE et les simulants est proposé. Les contributions enthalpique et entropique non configurationnelle sont évaluées à partir d’un échantillonnage des énergies de contact paire à paire. Il est démontré que la contribution entropique configurationnelle est indispensable à la description de l’affinité de molécules de grande taille dans les simulants polaires ou non constitués de petites molécules. Des arbres de décision combinant approche expérimentale et modèle sont finalement discutés dans la logique de démonstration de la conformité et de veille sanitaire / Plastic packagings are formulated with additives, which can migrate from materials into foodstuffs. According to European directive 2002/72/EC, the ability of plastic materials to be used in contact with food can be demonstrated using modelling tools. Their use is however limited due to availability of some data, like the formulation of materials and partition coefficients of substances between plastics and food. On the one hand this work aims to develop the ability of laboratories to identify and quantify the main substances in plastic materials, and on the other hand it aims to develop a new method to predict partition coefficients between polymers and food simulants. Four formulations of both HDPE and PS were chosen and used during the work. Standard extraction methods and quantification methods using HPLC-UV-ELSD and GC-FID were compared. A new deconvolution process applied on infrared spectra of extracts was developed to identify and quantify additives contained in HDPE. Activity coefficients in both phases were approximated through a generalized off-lattice Flory-Huggins formulation applied to plastic materials and to liquids simulating food products. Potential contact energies were calculated with an atomistic semi-empirical forcefield. The simulations demonstrated that plastic additives have a significant chemical affinity, related to the significant contribution of the positional entropy, for liquids consisting in small molecules. Finally, decision trees, which combine both experimental and modelling approaches to demonstrate the compliance of plastic materials, were discussed
33

Déconvolution aveugle parcimonieuse en imagerie échographique avec un algorithme CLEAN adaptatif / Sparse blind deconvolution in ultrasound imaging using an adaptative CLEAN algorithm

Chira, Liviu-Teodor 17 October 2013 (has links)
L'imagerie médicale ultrasonore est une modalité en perpétuelle évolution et notamment en post-traitement où il s'agit d'améliorer la résolution et le contraste des images. Ces améliorations devraient alors aider le médecin à mieux distinguer les tissus examinés améliorant ainsi le diagnostic médical. Il existe déjà une large palette de techniques "hardware" et "software". Dans ce travail nous nous sommes focalisés sur la mise en oeuvre de techniques dites de "déconvolution aveugle", ces techniques temporelles utilisant l'enveloppe du signal comme information de base. Elles sont capables de reconstruire des images parcimonieuses, c'est-à-dire des images de diffuseurs dépourvues de bruit spéculaire. Les principales étapes de ce type de méthodes consistent en i) l'estimation aveugle de la fonction d'étalement du point (PSF), ii) l'estimation des diffuseurs en supposant l'environnement exploré parcimonieux et iii) la reconstruction d'images par reconvolution avec une PSF "idéale". La méthode proposée a été comparée avec des techniques faisant référence dans le domaine de l'imagerie médicale en utilisant des signaux synthétiques, des séquences ultrasonores réelles (1D) et images ultrasonores (2D) ayant des statistiques différentes. La méthode, qui offre un temps d'exécution très réduit par rapport aux techniques concurrentes, est adaptée pour les images présentant une quantité réduite ou moyenne des diffuseurs. / The ultrasonic imaging knows a continuous advance in the aspect of increasing the resolution for helping physicians to better observe and distinguish the examined tissues. There is already a large range of techniques to get the best results. It can be found also hardware or signal processing techniques. This work was focused on the post-processing techniques of blind deconvolution in ultrasound imaging and it was implemented an algorithm that works in the time domain and uses the envelope signal as input information for it. It is a blind deconvolution technique that is able to reconstruct reflectors and eliminate the diffusive speckle noise. The main steps are: the estimation of the point spread function (PSF) in a blind way, the estimation of reflectors using the assumption of sparsity for the examined environment and the reconstruction of the image by reconvolving the sparse tissue with an ideal PSF. The proposed method was tested in comparison with some classical techniques in medical imaging reconstruction using synthetic signals, real ultrasound sequences (1D) and ultrasound images (2D) and also using two types of statistically different images. The method is suitable for images that represent tissue with a reduced amount or average scatters. Also, the technique offers a lower execution time than direct competitors.
34

Identification de sources acoustiques au passage d'un véhicule routier par imagerie acoustique parcimonieuse dans le domaine temporel / Identification of acoustic sources in a road vehicle pass-by situation with a sparse time-domain acoustic imaging method

Cousson, Rémi 14 December 2018 (has links)
Le présent travail de recherche s'inscrit dans le cadre de la caractérisation de l'émission de bruit des véhicules routiers. On désire identifier les sources de bruit d'un véhicule en mouvement, lors de son passage sur une voie de circulation en conditions réelles, à partir de mesures acoustiques effectuées à poste fixe en bord de voie. Les méthodes d'imagerie acoustique utilisées actuellement présentent des performances insuffisantes sur véhicules routiers. Un état de l'art a permis d’identifier une méthode existante, MSA-PSF, consistant à effectuer sous certaines hypothèses une déconvolution sur sources mobiles dans le domaine fréquentiel, et originellement utilisée en aéronautique. Cette méthode est ici adaptée au contexte des véhicules routiers. Dans un deuxième temps, une approche originale est introduite pour répondre spécifiquement aux contraintes de ce contexte : CLEANT. Il s’agit d’une méthode itérative, dans le domaine temporel avec une approche large bande, qui prend en compte les effets du déplacement des sources et qui comporte deux paramètres permettant d’affiner les résultats : le facteur de boucle et le critère d’arrêt. Une version filtrée en fréquence est également proposée et montre une amélioration de l’identification de sources secondaires dans certains cas. CLEANT présente l’avantage d’obtenir des signaux-sources temporels reconstruits, ouvrant la voie à d’autres analyses, en particulier l’utilisation de la cohérence avec des signaux issus de mesures embarquées pour la séparation des contributions de sources décorrélées. MSA-PSF et CLEANT sont évaluées sur des simulations numériques à l'aide d'indicateurs mesurant leurs performances sur les aspects localisation et quantification de sources. Elles sont par la suite testées expérimentalement en conditions contrôlées de laboratoire, par l'utilisation d'une source mobile. Cette expérience permet une première application à un cas pratique, impliquant un mouvement linéaire, la présence de deux sources simultanées et des signaux de différentes natures (tonale et large bande). Enfin, elles sont comparées à l’approche classique de formation de voies sur source mobile, dans le cadre d’une expérience avec véhicule en conditions réelles. L'approche originale CLEANT fournit des résultats très encourageants, représentant une amélioration de la formation de voies classique, notamment en basse fréquence sur les cas testés. L'application à un véhicule en conditions réelles illustre certains comportements potentiellement problématiques de CLEANT et les solutions apportées par sa version filtrée en fréquence ou par l'ajustement de ses différents paramètres. Un premier test des approches par référencement avec des signaux issus de mesures embarquées est également présenté pour discriminer l'origine physique des sources, et souligne l'incidence de la brièveté des signaux inhérente au contexte de sources au passage. / The study detailed in this manuscript is part of the effort to characterize the noise emission from road vehicles. We wish to identify the noise sources of a moving vehicle, when driven on a roadway in real-world conditions, with roadside acoustic measurements. The current acoustic imaging methods do not provide sufficient performance on road vehicles. A state of the art led to the selection of an existing method, MSA-PSF, which consists in deconvolving signals from mobile sources in the frequency domain under certain assumptions, and was originally developed for aeroacoustics. This method is adapted here to the context of road vehicles. Then, an original approach is proposed in order to tackle the specific constraints of this context: CLEANT. This is an iterative method, performed in time domain with a wideband approach, which takes into account the effect of sources motion and includes two parameters designed to refine the result: the loop factor and the stopping criterium. A further version of the algorithm, including a frequency filter, is also proposed and shows significant improvement in identifying secondary sources in some particular cases. An interesting point of CLEANT is the availability of the sources reconstructed time signals, which enables other types of analysis, especially the use of the coherence with signals from on-board measurements in order to separate the contributions of uncorrelated sources. MSA-PSF and CLEANT are evaluated with numerical simulations and a set of indicators to measure their source localization and quantification performance. They are then tested in a controlled laboratory conditions experiment, using a moving source. This experiment represents a first application of the methods to a practical case, involving a linear motion, two simultaneous sources and different kinds of signals (tone and wideband). They are finally compared to the classical approach of moving source beamforming, within the frame of an experiment on a road vehicle, in real-world conditions. The original approach CLEANT yields very encouraging results, and is a clear improvement from the conventional beamforming, especially at low frequency for the tested cases. Applying it to a road vehicle in real-world conditions highlights a potentially troublesome behavior of the method, and the solution brought by CLEANT's frequency filtered version, or by adapting its various parameters. The coherence with reference signals to discriminate the physical origins of the sources is also tested and underlines the role of the short duration of the signals related to the sources passing-by context.
35

Contribution to fluorescence microscopy, 3D thick samples deconvolution and depth-variant PSF / Contribution à la microscopie de fluorescence, Deconvolution des échantillons épais avec PSF variables en profondeur

Maalouf, Elie 20 December 2010 (has links)
La reconstruction 3D par coupes sériées en microscopie optique est un moyen efficace pour étudier des spécimens biologiques fluorescents. Dans un tel système, la formation d'une image peut être représentée comme une convolution linéaire d'un objet avec une réponse impulsionnelle optique de l'instrument (PSF). Pour une étude quantitative, une estimation de l'objet doit être calculée en utilisant la déconvolution qui est le phénomène inverse de la convolution. Plusieurs algorithmes de déconvolution ont été développés en se basant sur des modèles statistiques ou par inversion directe, mais ces algorithmes se basent sur la supposition de l'invariance spatiale de la PSF pour simplifier et accélérer le processus. Dans certaines configurations optiques la PSF 3D change significativement en profondeur et ignorer ces changements implique des erreurs quantitatives dans l'estimation. Nous proposons un algorithme (EMMA) qui se base sur une hypothèse où l'erreur minimale sur l'estimation par un algorithme ne tenant pas compte de la non-invariance, se situe aux alentours de la position (profondeur) de la PSF utilisée. EMMA utilise des PSF à différentes positions et fusionne les différentes estimations en utilisant des masques d'interpolation linéaires adaptatifs aux positions des PSF utilisées. Pour obtenir des PSF à différentes profondeurs, un algorithme d'interpolation de PSF a également été développé. La méthode consiste à décomposer les PSF mesurées en utilisant les moments de Zernike pseudo-3D, puis les variations de chaque moment sont approximés par une fonction polynomiale. Ces fonctions polynomiales sont utilisées pour interpoler des PSF aux profondeurs voulues. / The 3-D fluorescence microscope has become the method of choice in biological sciences for living cells study. However, the data acquired with conventional3-D fluorescence microscopy are not quantitatively significant because of distortions induced by the optical acquisition process. Reliable measurements need the correction of theses distortions. Knowing the instrument impulse response, also known as the PSF, one can consider the backward process of convolution induced by the microscope, known as "deconvolution". However, when the system response is not invariant in the observation field, the classical algorithms can introduce large errors in the results. In this thesis we propose a new approach, which can be easily adapted to any classical deconvolution algorithm, direct or iterative, for bypassing the non-invariance PSF problem, without any modification to the later. Based on the hypothesis that the minimal error in a restored image using non-invariance assumption is located near the used PSF position, the EMMA (Evolutive Merging Masks Algorithm) blends multiple deconvolutions in the invariance assumption using a specific merging mask set. In order to obtain sufficient number of measured PSF at various depths for a better restoration using EMMA (or any other depth-variant deconvolution algorithm) we propose a 3D PSF interpolation algorithm based on the image moments theory using Zernike polynomials as decomposition base. The known PSF are decomposed into Zernike moments set and each moment's variation is fitted into a polynomial function, the resulting functions are then used to interpolate the needed PSF's Zernike moments set to reconstruct the interpolated PSF.
36

Développement d’une méthode de déconvolution pharmacophorique pour la découverte accélérée d’antipaludiques chez les Rhodophytes / Development of a pharmacophoric deconvolution method to accelerate the antimalarial discovery from Rhodophyta

Margueritte, Laure 21 September 2018 (has links)
L’apparition de P. falciparum résistants aux CTAs est un problème majeur en Asie du Sud-Est. Il est nécessaire de rechercher des molécules présentant des mécanismes d’actions nouveaux. Une cible d’intérêt est l’apicoplaste, un organite de Plasmodium issu d’une endosymbiose avec une algue rouge. Les algues rouges pourraient présenter une source privilégiée de nouvelles molécules antipaludiques ciblant notamment les voies de biosynthèse apicoplastique. Cette thèse porte sur l’identification de ces métabolites secondaires bioactifs via le développement d’une nouvelle stratégie analytique. Un programme informatique nommé Plasmodesma a été créé et permet l’analyse différentielle de manière automatique de spectres RMN 2D 1H-1H et 1H-13C. Les molécules actives peuvent ensuite être isolées et identifiées par HPLC-SPE-RMN. L’activité antipaludique mise en évidence dans les algues rouges étudiées serait due à la présence de molécules de classes chimiques différentes dont des stérols. / Malaria is responsible for 445 000 deaths in 2016. The emergence and the spread of resistant P. falciparum to artemisinin-based combinations is a major health problem in South-East Asia. Research must continue to find compounds with a novel mechanism of action. The apicoplast is an interesting target. It is a Plasmodium organelle derived from a secondary endosymbiosis with a red alga. Red algae could be a special source of new antiplasmodial compounds targeting the isoprenoid biosynthesis pathway in the apicoplast. This thesis focuses on bioactive secondary metabolites identification via a new analytical strategy. A computer program called Plasmodesma was created and achieves an automatic differential analysis of 1H-1H and 1H-13C 2D NMR spectra. Bioactive compounds are isolated and identified by hyphenated HPLC-SPE-NMR. The presence of different classes of compounds including sterols could explain the antiplasmodial activity in studied the red algae species.
37

Déconvolution multicanale et détection de sources en utilisant des représentations parcimonieuses : application au projet Fermi / Multichannel deconvolution and source detection using sparse representations : application to Fermi project

Schmitt, Jeremy 07 December 2011 (has links)
Ce mémoire de thèse présente de nouvelles méthodologies pour l’analyse de données Poissoniennes sur la sphère, dans le cadre de la mission Fermi. Les objectifs principaux de la mission Fermi, l’étude du fond diffus galactique et l’établissement du catalogue de source, sont com pliqués par la faiblesse du flux de photons et les effets de l’instrument de mesure. Ce mémoire introduit une nouvelle représentation mutli-échelles des données Poissoniennes sur la sphère, la Transformée Stabilisatrice de Variance Multi-Echelle sur la Sphère (MS-VSTS), consistant à combiner une transformée multi-échelles sur la sphère (ondelettes, curvelets), avec une transformée stabilisatrice de variance (VST). Cette méthode est appliquée à la suppression du bruit de Poisson mono et multicanale, à l’interpolation de données manquantes, à l’extraction d’un modèle de fond et à la déconvolution multicanale. Enfin, ce mémoire aborde le problème de la séparation de composantes en utilisant des représentations parcimonieuses (template fitting). / This thesis presents new methods for spherical Poisson data analysis for the Fermi mission. Fermi main scientifical objectives, the study of diffuse galactic background et the building of the source catalog, are complicated by the weakness of photon flux and the point spread function of the instrument. This thesis proposes a new multi-scale representation for Poisson data on the sphere, the Multi-Scale Variance Stabilizing Transform on the Sphere (MS-VSTS), consisting in the combination of a spherical multi-scale transform (wavelets, curvelets) with a variance stabilizing transform (VST). This method is applied to mono- and multichannel Poisson noise removal, missing data interpolation, background extraction and multichannel deconvolution. Finally, this thesis deals with the problem of component separation using sparse representations (template fitting ).
38

Inversion bayésienne myope et non-supervisée pour l'imagerie sur-résolue. Application à l'instrument SPIRE de l'observatoire spatial Herschel.

Orieux, François 16 November 2009 (has links) (PDF)
Les travaux concernent le traitement de données pour l'imagerie sur-résolue avec une application en astronomie. On s'intéresse en particulier aux données issues de l'instrument SPIRE de l'observatoire spatial Herschel de l'ESA, dédié aux infrarouges lointains. Les problèmes soulevés sont principalement : la réponse de l'optique qui atténue les fréquences spatiales, le sous-échantillonnage ainsi que la présence d'une dérive thermique. L'approche proposée est l'inversion de données, c'est à dire la prise en compte du processus d'acquisition en plus d'information a priori, pour estimer le ciel d'intérêt. La première partie des travaux concerne la modélisation du processus d'acquisition des données. Le modèle est composé d'une optique, de filtres en longueur d'onde, du capteur sensible à la température à base de bolomètres ainsi que du protocole de pointage. Le modèle obtenu, linéaire mais non invariant à cause de l'échantillonnage, est étudié. Des propriétés intéressantes, notamment dans une perspective de traitement de données, sont dégagées en particulier en lien avec la sur-résolution. L'analyse du modèle permet également de faire ressortir des propriétés utiles pour un algorithmique de calcul. La deuxième partie des travaux repose sur une démarche d'inférence inscrite dans le formalisme bayésien usuel. Toute l'information ne passant pas à travers l'instrument ou étant dégradée, le problème inverse est mal-conditionné. La méthode employée, en plus de formaliser une information de régularité spatiale sur le ciel permettant de lever le problème de conditionnement, propose l'estimation des paramètres des lois réglant le compromis entre les différentes sources d'information (hyper-paramètres). De plus, l'approche proposée permet l'estimation de paramètres instruments ainsi que l'estimation d'une dérive thermique lente affectant l'ensemble du capteur conjointement aux autres paramètres. L'ensemble de l'information utilisée pour résoudre le problème est formalisé au travers d'une loi a posteriori jointe pour l'ensemble des inconnues. L'estimateur choisi est la moyenne a posteriori calculée par un algorithme MCMC. Une étude expérimentale démontre la capacité de la méthode à restaurer de hautes fréquences spatiales. L'étude montre également le potentiel de l'approche pour l'estimation des hyper-paramètres et des paramètres instruments.
39

Restauration d'images de la rétine corrigées par optique adaptative

Chenegros, Guillaume 06 November 2008 (has links) (PDF)
L'imagerie de la rétine, in vivo et à haute résolution, est rendue difficile à cause des aberrations de l'œil, qui limitent la résolution. La mesure et la correction de ces aberrations sont possibles grâce à l'utilisation de l'optique adaptative (OA). Un banc d'imagerie rétinienne avec OA a été développé par l'Observatoire de Paris et est actuellement utilisé sur un panel de patients à l'Hôpital des XV-XX à Paris. <br />En imagerie plein champ, le caractère tridimensionnel de l'objet d'intérêt (la rétine) rend l'interprétation des images difficile puisque tous les plans qui constituent l'objet contribuent à la formation de chaque plan image. De plus, la correction par OA est toujours partielle. Il est donc nécessaire de déconvoluer les images enregistrées afin d'une part de séparer numériquement les plans de l'objet et d'autre part, d'améliorer la résolution latérale. Une méthode de déconvolution nécessite généralement, pour donner des résultats satisfaisants, d'une part une bonne connaissance de la réponse impulsionnelle (RI) du système complet, et d'autre part un ajustement de paramètres de réglage appelés hyper-paramètres. <br />Nous avons développé deux méthodes de déconvolution 3D. La première méthode suppose la RI du système connu. La deuxième est une extension tridimensionnelle de la méthode de diversité de phase et permet d'estimer la RI du système conjointement à l'objet d'intérêt. <br />Par ailleurs, nous avons développé une technique d'estimation non supervisée (« automatique ») des <br />hyper-paramètres, qui permet d'envisager une utilisation efficace de la déconvolution 3D même par des <br />utilisateurs peu familiers du traitement des images tels que médecins ou biologistes. <br />Ces méthodes ont été validées d'abord sur des données simulées réalistes. Ensuite nous avons déve- <br />loppé à l'ONERA un banc d'imagerie 3D pour effectuer une validation expérimentale. Nous présenterons <br />les résultats préliminaires obtenus sur des images acquises sur ce banc.
40

Traitement Aveugle de Signaux Biomédicaux

Kachenoura, Amar 06 July 2006 (has links) (PDF)
Ce mémoire aborde l'analyse et le traitement de données biomédicales. L'objectif est d'extraire des informations nécessaires au diagnostic de certaines pathologies. Plus précisément, ce rapport de thèse peut être scindé en deux parties. La première concerne l'élaboration d'un système ambulatoire multi-varié qui permette d'explorer les fonctions neurologiques nécessaires au diagnostic de différents troubles du sommeil. Des méthodes de séparation aveugle de sources, développées pour des mélanges instantanés, ont été étudiées et appliquées pour répondre à ce problème. La seconde partie porte sur l'étude du système nerveux autonome. Le but est de caractériser le profile sympathique et parasympathique des patients. Face aux différents problèmes mathématiques rencontrés, nous avons élaboré de nouvelles méthodes d'estimation de phase. Ces dernières ont fait l'objet d'une étude comparative au travers de simulations numériques.

Page generated in 0.0207 seconds