• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 114
  • 77
  • 11
  • 2
  • Tagged with
  • 211
  • 91
  • 46
  • 33
  • 33
  • 33
  • 33
  • 32
  • 32
  • 30
  • 26
  • 25
  • 24
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Essais en économetrie et économie de l'éducation

Tchuente Nguembu, Guy 07 1900 (has links)
No description available.
172

Horseshoe regularization for wavelet-based lensing inversion

Nafisi, Hasti 03 1900 (has links)
Gravitational lensing, a phenomenon in astronomy, occurs when the gravitational field of a massive object, such as a galaxy or a black hole, bends the path of light from a distant object behind it. This bending results in a distortion or magnification of the distant object's image, often seen as arcs or rings surrounding the foreground object. The Starlet wavelet transform offers a robust approach to representing galaxy images sparsely. This technique breaks down an image into wavelet coefficients at various scales and orientations, effectively capturing both large-scale structures and fine details. The Starlet wavelet transform offers a robust approach to representing galaxy images sparsely. This technique breaks down an image into wavelet coefficients at various scales and orientations, effectively capturing both large-scale structures and fine details. The horseshoe prior has emerged as a highly effective Bayesian technique for promoting sparsity and regularization in statistical modeling. It aggressively shrinks negligible values while preserving important features, making it particularly useful in situations where the reconstruction of an original image from limited noisy observations is inherently challenging. The main objective of this thesis is to apply sparse regularization techniques, particularly the horseshoe prior, to reconstruct the background source galaxy from gravitationally lensed images. By demonstrating the effectiveness of the horseshoe prior in this context, this thesis tackles the challenging inverse problem of reconstructing lensed galaxy images. Our proposed methodology involves applying the horseshoe prior to the wavelet coefficients of lensed galaxy images. By exploiting the sparsity of the wavelet representation and the noise-suppressing behavior of the horseshoe prior, we achieve well-regularized reconstructions that reduce noise and artifacts while preserving structural details. Experiments conducted on simulated lensed galaxy images demonstrate lower mean squared error and higher structural similarity with the horseshoe prior compared to alternative methods, validating its efficacy as an efficient sparse modeling technique. / Les lentilles gravitationnelles se produisent lorsque le champ gravitationnel d'un objet massif dévie la trajectoire de la lumière provenant d'un objet lointain, entraînant une distorsion ou une amplification de l'image de l'objet lointain. La transformation Starlet fournit une méthode robuste pour obtenir une représentation éparse des images de galaxies, capturant efficacement leurs caractéristiques essentielles avec un minimum de données. Cette représentation réduit les besoins de stockage et de calcul, et facilite des tâches telles que le débruitage, la compression et l'extraction de caractéristiques. La distribution a priori de fer à cheval est une technique bayésienne efficace pour promouvoir la sparsité et la régularisation dans la modélisation statistique. Elle réduit de manière agressive les valeurs négligeables tout en préservant les caractéristiques importantes, ce qui la rend particulièrement utile dans les situations où la reconstruction d'une image originale à partir d'observations bruitées est difficile. Étant donné la nature mal posée de la reconstruction des images de galaxies à partir de données bruitées, l'utilisation de la distribution a priori devient cruciale pour résoudre les ambiguïtés. Les techniques utilisant une distribution a priori favorisant la sparsité ont été efficaces pour relever des défis similaires dans divers domaines. L'objectif principal de cette thèse est d'appliquer des techniques de régularisation favorisant la sparsité, en particulier la distribution a priori de fer à cheval, pour reconstruire les galaxies d'arrière-plan à partir d'images de lentilles gravitationnelles. Notre méthodologie proposée consiste à appliquer la distribution a priori de fer à cheval aux coefficients d'ondelettes des images de galaxies lentillées. En exploitant la sparsité de la représentation en ondelettes et le comportement de suppression du bruit de la distribution a priori de fer à cheval, nous obtenons des reconstructions bien régularisées qui réduisent le bruit et les artefacts tout en préservant les détails structurels. Des expériences menées sur des images simulées de galaxies lentillées montrent une erreur quadratique moyenne inférieure et une similarité structurelle plus élevée avec la distribution a priori de fer à cheval par rapport à d'autres méthodes, validant son efficacité.
173

Beyond the status quo in deep reinforcement learning

Agarwal, Rishabh 05 1900 (has links)
L’apprentissage par renforcement profond (RL) a connu d’énormes progrès ces dernières années, mais il est encore difficile d’appliquer le RL aux problèmes de prise de décision du monde réel. Cette thèse identifie trois défis clés avec la façon dont nous faisons la recherche RL elle-même qui entravent les progrès de la recherche RL. — Évaluation et comparaison peu fiables des algorithmes RL ; les méthodes d’évaluation actuelles conduisent souvent à des résultats peu fiables. — Manque d’informations préalables dans la recherche RL ; Les algorithmes RL sont souvent formés à partir de zéro, ce qui peut nécessiter de grandes quantités de données ou de ressources informatiques. — Manque de compréhension de la façon dont les réseaux de neurones profonds interagissent avec RL, ce qui rend difficile le développement de méthodes évolutives de RL. Pour relever ces défis susmentionnés, cette thèse apporte les contributions suivantes : — Une méthodologie plus rigoureuse pour évaluer les algorithmes RL. — Un flux de travail de recherche alternatif qui se concentre sur la réutilisation des progrès existants sur une tâche. — Identification d’un phénomène de perte de capacité implicite avec un entraînement RL hors ligne prolongé. Dans l’ensemble, cette thèse remet en question le statu quo dans le RL profond et montre comment cela peut conduire à des algorithmes de RL plus efficaces, fiables et mieux applicables dans le monde réel. / Deep reinforcement learning (RL) has seen tremendous progress in recent years, but it is still difficult to apply RL to real-world decision-making problems. This thesis identifies three key challenges with how we do RL research itself that hinder the progress of RL research. — Unreliable evaluation and comparison of RL algorithms; current evaluation methods often lead to unreliable results. — Lack of prior information in RL research; RL algorithms are often trained from scratch, which can require large amounts of data or computational resources. — Lack of understanding of how deep neural networks interact with RL, making it hard to develop scalable RL methods. To tackle these aforementioned challenges, this thesis makes the following contributions: — A more rigorous methodology for evaluating RL algorithms. — An alternative research workflow that focuses on reusing existing progress on a task. — Identifying an implicit capacity loss phenomenon with prolonged offline RL training. Overall, this thesis challenges the status quo in deep reinforcement learning and shows that doing so can make RL more efficient, reliable and improve its real-world applicability
174

Reconstruction 4D intégrant la modélisation pharmacocinétique du radiotraceur en imagerie fonctionnelle combinée TEP/TDM / 4D reconstruction including radiopharmaceutical modeling in PET/CT imaging

Merlin, Thibaut 11 December 2013 (has links)
L'imagerie TEP permet de mesurer et visualiser les changements de la distribution biologique des radiopharmaceutiques au sein des organes d'intérêt au court du temps. Ce suivi temporel offre des informations très utiles concernant les processus métaboliques et physiologiques sous-jacents, qui peuvent être extraites grâce à différentes techniques de modélisation cinétique. De plus, un autre avantage de la prise en compte de l'information temporelle dans les acquisitions TEP pour les examens en oncologie thoracique concerne le suivi des mouvements respiratoires. Ces acquisitions permettent de mettre en place des protocoles et des méthodologies visant à corriger leurs effets néfastes à la quantification, et les artefacts associés. L'objectif de ce projet est de développer une méthode de reconstruction permettant de combiner et mettre en oeuvre d'une part les corrections nécessaires à la quantification des données en TEP, et d'autre part la modélisation de la biodistribution du radiotraceur au cours du temps permettant d'obtenir des images paramétriques pour l'oncologie thoracique. Dans un premier temps, une méthodologie de correction des effets de volume partiel intégrant, dans le processus de reconstruction, une déconvolution de Lucy-Richardson associée à un débruitage dans le domaine des ondelettes, a été proposée. Une seconde étude a été consacrée au développement d'une méthodologie combinant une régularisation temporelle des données par l'intermédiaire d'un ensemble de fonctions de base temporelles, avec une méthode de correction des mouvements respiratoires basée sur un modèle élastique. Enfin, dans une troisième étape, le modèle cinétique de Patlak a été intégré dans un algorithme de reconstruction dynamique, et associé à la correction de mouvement afin de permettre la reconstruction directe d'images paramétriques de données thoraciques soumises au mouvement respiratoire. Les paramètres de transformation élastique pour la correction de mouvement ont été calculés à partir des images TEP d'intervalles synchronisés par rapport à l'amplitude de la respiration du patient. Des simulations Monte-Carlo d'un fantôme 4D géométrique avec plusieurs niveaux de statistiques, et du fantôme anthropomorphique NCAT intégrant des courbes d'activités temporelles réalistes pour les différents tissus, ont été réalisées afin de comparer les performances de la méthode de reconstruction paramétrique développée dans ce travail avec une approche 3D standard d'analyse cinétique. L'algorithme proposé a ensuite été testé sur des données cliniques de patients présentant un cancer bronchique non à petites cellules. Enfin, après la validation indépendante de l'algorithme de correction des effets de volume partiel d'une part, et de la reconstruction 4D incorporant la régularisation temporelle d'autre part, sur données simulées et cliniques, ces deux méthodologies ont été associées afin d'optimiser l'estimation de la fonction d'entrée à partir d'une région sanguine des images reconstruites. Les résultats de ce travail démontrent que l'approche de reconstruction paramétrique proposée permet de conserver un niveau de bruit stable dans les régions tumorales lorsque la statistique d'acquisition diminue, contrairement à l'approche d'estimation 3D pour laquelle le niveau de bruit constaté augmente. Ce résultat est intéressant dans l'optique d'une réduction de la durée des intervalles de la reconstruction 4D, permettant ainsi de réduire la durée totale de l'acquisition 4D. De plus, l'utilisation des fonctions d'entrée estimées avec les méthodes de régularisation temporelle proposées ont conduit à améliorer l'estimation des paramètres de Patlak. Enfin, la correction élastique du mouvement amène à une diminution du biais d'estimation des deux paramètres de Patlak, en particulier sur les tumeurs de petites dimensions situées dans des régions sensibles au mouvement respiratoire. / Positron emission tomography (PET) is now considered as the gold standard and the main tool for the diagnosis and therapeutic monitoring of oncology patients, especially due to its quantitative aspects. With the advent of multimodal imaging in combined PET and X-ray CT systems, many methodological developments have been proposed in both pre-processing and data acquisition, image reconstruction, as well as post-processing in order to improve the quantification in PET imaging. Another important aspect of PET imaging is its high temporal resolution and ability to perform dynamic acquisitions, benefiting from the high sensitivity achieved with current systems. PET imaging allows measuring and visualizing changes in the biological distribution of radiopharmaceuticals within the organ of interest over time. This time tracking provides valuable information to physicians on underlying metabolic and physiological processes, which can be extracted using pharmacokinetic modeling. The objective of this project is, by taking advantage of dynamic data in PET/CT imaging, to develop a reconstruction method combining in a single process all the correction methodology required to accurately quantify PET data and, at the same time, include a pharmacokinetic model within the reconstruction in order to create parametric images for applications in oncology. In a first step, a partial volume effect correction methodology integrating, within the reconstruction process, the Lucy-Richardson deconvolution algorithm associated with a wavelet-based denoising method has been introduced. A second study focused on the development of a 4D reconstruction methodology performing temporal regularization of the dataset through a set of temporal basis functions, associated with a respiratory motion correction method based on an elastic deformation model. Finally, in a third step, the Patlak kinetic model has been integrated in a dynamic image reconstruction algorithm and associated with the respiratory motion correction methodology in order to allow the direct reconstruction of parametric images from dynamic thoracic datasets affected by the respiratory motion. The elastic transformation parameters derived for the motion correction have been estimated from respiratory-gated PET images according to the amplitude of the patient respiratory cycle. Monte-carlo simulations of two phantoms, a 4D geometrical phantom, and the anthropomorphic NCAT phantom integrating realistic time activity curves for the different tissues, have been performed in order to compare the performances of the proposed 4D parametric reconstruction algorithm with a standard 3D kinetic analysis approach. The proposed algorithm has then been assessed on clinical datasets of several patients with non small cell lung carcinoma. Finally, following the prior validation of the partial volume effect correction algorithm on one hand, and the 4D reconstruction incorporating the temporal regularization on the other hand, on simulated and clinical datasets, these two methodologies have been associated within the 4D reconstruction algorithm in order to optimize the estimation of image derived input functions. The results of this work show that the proposed direct parametric approach allows to maintain a similar noise level in the tumor regions when the statistic decreases, contrary to the 3D estimation approach for which the observed noise level increases. This result suggests interesting perspectives for the reduction of frame duration reduction of 4D reconstruction, allowing a reduction of the total 4D acquisition duration. In addition, the use of input function estimated with the developed temporal regularization methods led to the improvement of the Patlak parameters estimation. Finally, the elastic respiratory motion correction led to a diminution of the estimation bias of both Patlak parameters, in particular for small lesions located in regions affected by the respiratory motion.
175

Méthodes modernes d'analyse de données en biophysique analytique : résolution des problèmes inverses en RMN DOSY et SM / New methods of data analysis in analytical biophysics : solving the inverse ill-posed problems in DOSY NMR and MS

Cherni, Afef 20 September 2018 (has links)
Cette thèse s’intéresse à la création de nouvelles approches algorithmiques pour la résolution du problème inverse en biophysiques. Dans un premier temps, on vise l’application RMN de type DOSY: une nouvelle approche de régularisation hybride a été proposée avec un nouvel algorithme PALMA (http://palma.labo.igbmc.fr/). Cet algorithme permet d’analyser des données réelles DOSY avec une précision importante quelque soit leur type. Dans un deuxième temps, notre intérêt s’est tourné vers l’application de spectrométrie de masse. Nous avons proposé une nouvelle approche par dictionnaire dédiée à l’analyse protéomique en utilisant le modèle averagine et une stratégie de minimisation sous contraintes d'une pénalité de parcimonie. Afin d’améliorer la précision de l’information obtenue, nous avons proposé une nouvelle méthode SPOQ, basée sur une nouvelle fonction de pénalisation, résolue par un nouvel algorithme Forward-Backward à métrique variable localement ajustée. Tous nos algorithmes bénéficient de garanties théoriques de convergence, et ont été validés expérimentalement sur des spectres synthétisés et des données réelles / This thesis aims at proposing new approaches to solve the inverse problem in biophysics. Firstly, we study the DOSY NMR experiment: a new hybrid regularization approach has been proposed with a novel PALMA algorithm (http://palma.labo.igbmc.fr/). This algorithm ensures the efficient analysis of real DOSY data with a high precision for all different type. In a second time, we study the mass spectrometry application. We have proposed a new dictionary based approach dedicated to proteomic analysis using the averagine model and the constrained minimization approach associated with a sparsity inducing penalty. In order to improve the accuracy of the information, we proposed a new SPOQ method based on a new penalization, solved with a new Forward-Backward algorithm with a variable metric locally adjusted. All our algorithms benefit from sounded convergence guarantees, and have been validated experimentally on synthetics and real data.
176

Méthodes itératives de reconstruction tomographique pour la réduction des artefacts métalliques et de la dose en imagerie dentaire / Iterative reconstruction methods for the reduction of metal artifact and dose in dental CT

Chen, Long 05 February 2015 (has links)
Cette thèse est constituée de deux principaux axes de recherche portant sur l'imagerie dentaire par la tomographie à rayons X : le développement de nouvelles méthodes itératives de reconstruction tomographique afin de réduire les artefacts métalliques et la réduction de la dose délivrée au patient. Afin de réduire les artefacts métalliques, nous prendrons en compte le durcissement du spectre des faisceaux de rayons X et le rayonnement diffusé. La réduction de la dose est abordée dans cette thèse en diminuant le nombre des projections traitées. La tomographie par rayons X a pour objectif de reconstruire la cartographie des coefficients d'atténuations d'un objet inconnu de façon non destructive. Les bases mathématiques de la tomographie repose sur la transformée de Radon et son inversion. Néanmoins des artefacts métalliques apparaissent dans les images reconstruites en inversant la transformée de Radon (la méthode de rétro-projection filtrée), un certain nombre d'hypothèse faites dans cette approche ne sont pas vérifiées. En effet, la présence de métaux exacerbe les phénomènes de durcissement de spectre et l'absence de prise en compte du rayonnement diffusé. Nous nous intéressons dans cette thèse aux méthodes itératives issues d'une méthodologie Bayésienne. Afin d'obtenir des résultats de traitement compatible avec une application clinique de nos nouvelles approches, nous avons choisi un modèle direct relativement simple et classique (linéaire) associé à des approches de corrections de données. De plus, nous avons pris en compte l'incertitude liée à la correction des données en utilisant la minimisation d'un critère de moindres carrés pondérés. Nous proposons donc une nouvelle méthode de correction du durcissement du métal sans connaissances du spectre de la source et des coefficients d'atténuation des matériaux. Nous proposons également une nouvelle méthode de correction du diffusé associée sur les mesures sous certaines conditions notamment de faible dose. En imagerie médicale par tomographie à rayons X, la surexposition ou exposition non nécessaire irradiante augmente le risque de cancer radio-induit lors d'un examen du patient. Notre deuxième axe de recherche porte donc sur la réduction de la dose en diminuant le nombre de projections. Nous avons donc introduit un nouveau mode d'acquisition possédant un échantillonnage angulaire adaptatif. On utilise pour définir cette acquisition notre connaissance a priori de l'objet. Ce mode d'acquisition associé à un algorithme de reconstruction dédié, nous permet de réduire le nombre de projections tout en obtenant une qualité de reconstruction comparable au mode d'acquisition classique. Enfin, dans certains modes d’acquisition des scanners dentaires, nous avons un détecteur qui n'arrive pas à couvrir l'ensemble de l'objet. Pour s'affranchir aux problèmes liés à la tomographie locale qui se pose alors, nous utilisons des acquisitions multiples suivant des trajectoires circulaires. Nous avons adaptés les résultats développés par l’approche « super short scan » [Noo et al 2003] à cette trajectoire très particulière et au fait que le détecteur mesure uniquement des projections tronquées. Nous avons évalué nos méthodes de réduction des artefacts métalliques et de réduction de la dose en diminuant le nombre des projections sur les données réelles. Grâce à nos méthodes de réduction des artefacts métalliques, l'amélioration de qualité des images est indéniable et il n'y a pas d'introduction de nouveaux artefacts en comparant avec la méthode de l'état de l'art NMAR [Meyer et al 2010]. Par ailleurs, nous avons réussi à réduire le nombre des projections avec notre nouveau mode d'acquisition basé sur un « super short scan » appliqué à des trajectoires multiples. La qualité obtenue est comparable aux reconstructions obtenues avec les modes d'acquisition classiques ou short-scan mais avec une réduction d’au moins 20% de la dose radioactive. / This thesis contains two main themes: development of new iterative approaches for metal artifact reduction (MAR) and dose reduction in dental CT (Computed Tomography). The metal artifacts are mainly due to the beam-hardening, scatter and photon starvation in case of metal in contrast background like metallic dental implants in teeth. The first issue concerns about data correction on account of these effects. The second one involves the radiation dose reduction delivered to a patient by decreasing the number of projections. At first, the polychromatic spectra of X-ray beam and scatter can be modeled by a non-linear direct modeling in the statistical methods for the purpose of the metal artifacts reduction. However, the reconstruction by statistical methods is too much time consuming. Consequently, we proposed an iterative algorithm with a linear direct modeling based on data correction (beam-hardening and scatter). We introduced a new beam-hardening correction without knowledge of the spectra of X-ray source and the linear attenuation coefficients of the materials and a new scatter estimation method based on the measurements as well. Later, we continued to study the iterative approaches of dose reduction since the over-exposition or unnecessary exposition of irradiation during a CT scan has been increasing the patient's risk of radio-induced cancer. In practice, it may be useful that one can reconstruct an object larger than the field of view of scanner. We proposed an iterative algorithm on super-short-scans on multiple scans in this case, which contain a minimal set of the projections for an optimal dose. Furthermore, we introduced a new scanning mode of variant angular sampling to reduce the number of projections on a single scan. This was adapted to the properties and predefined interesting regions of the scanned object. It needed fewer projections than the standard scanning mode of uniform angular sampling to reconstruct the objet. All of our approaches for MAR and dose reduction have been evaluated on real data. Thanks to our MAR methods, the quality of reconstructed images was improved noticeably. Besides, it did not introduce some new artifacts compared to the MAR method of state of art NMAR [Meyer et al 2010]. We could reduce obviously the number of projections with the proposed new scanning mode and schema of super-short-scans on multiple scans in particular case.
177

Diagnostic non invasif de piles à combustible par mesure du champ magnétique proche / Non-invasive fuel cell diagnosis from near magnetic field measurements

Le Ny, Mathieu 10 December 2012 (has links)
Cette thèse propose une technique innovante de diagnostic non invasive pour les systèmes piles à combustible. Cette technique s’appuie sur la mesure de la signature magnétique générée par ces systèmes. A l'aide de ces champs magnétiques externes, il est possible d'obtenir une cartographie de la densité de courant interne par résolution d'un problème inverse. Ce problème est néanmoins mal posé : la solution est non unique et est extrêmement sensible au bruit. Des techniques de régularisation ont ainsi été mises en place pour filtrer les erreurs de mesures et obtenir une solution physiquement acceptable. Afin d'augmenter la qualité de reconstruction des courants, nous avons conçu notre outil de diagnostic de manière à ce qu'il soit uniquement sensible aux défaillances de la pile (capteur de défauts). De plus, cette reconstruction se base sur un nombre extrêmement faible de mesures. Une telle approche facilite l'instrumentation du système et augmente la précision et la rapidité de celui-ci. La sensibilité de notre outil à certaines défaillances (assèchements, appauvrissement en réactifs, dégradations) est démontrée. / This thesis proposes a new non invasive technique for fuel cell diagnosis. This technique relies on the measurements of the magnetic field signature created by these systems. By solving an inverse problem, it is possible to get an internal current density map. However, the inverse problem is ill-posed: the solution is not unique and it is extremely sensitive to noise. Regularization techniques were used in order to filter out measurement errors and to obtain physical realistic solutions. In order to improve the quality of the current density estimators, a diagnostic tool was built which is only sensitive to faults occurring inside the fuel cell (fault sensor). More over, our approach is based on a very low number of measurements. Such technique simplifies the experimental setup and improves the accuracy and the speed of the diagnostic tool. The sensitivity of our tool to some faults (drying out, oxygen starvation and ageing) is demonstrated.
178

Contribution à la Résolution Numérique de Problèmes Inverses de Diffraction Élasto-acoustique / Contribution to the Numerical Reconstruction in Inverse Elasto-Acoustic Scattering

Azpiroz, Izar 28 February 2018 (has links)
La caractérisation d’objets enfouis à partir de mesures d’ondes diffractées est un problème présent dans de nombreuses applications comme l’exploration géophysique, le contrôle non-destructif, l’imagerie médicale, etc. Elle peut être obtenue numériquement par la résolution d’un problème inverse. Néanmoins, c’est un problème non linéaire et mal posé, ce qui rend la tâche difficile. Une reconstruction précise nécessite un choix judicieux de plusieurs paramètres très différents, dépendant des données de la méthode numérique d’optimisation choisie.La contribution principale de cette thèse est une étude de la reconstruction complète d’obstacles élastiques immergés à partir de mesures du champ lointain diffracté. Les paramètres à reconstruire sont la frontière, les coefficients de Lamé, la densité et la position de l’obstacle. On établit tout d’abord des résultats d’existence et d’unicité pour un problème aux limites généralisé englobant le problème direct d’élasto-acoustique. On analyse la sensibilité du champ diffracté par rapport aux différents paramètres du solide, ce qui nous conduit à caractériser les dérivées partielles de Fréchet comme des solutions du problème direct avec des seconds membres modifiés. Les dérivées sont calculées numériquement grâce à la méthode de Galerkine discontinue avec pénalité intérieure et le code est validé par des comparaisons avec des solutions analytiques. Ensuite, deux méthodologies sont introduites pour résoudre le problème inverse. Toutes deux reposent sur une méthode itérative de type Newton généralisée et la première consiste à retrouver les paramètres de nature différente indépendamment, alors que la seconde reconstruit tous les paramètre en même temps. À cause du comportement différent des paramètres, on réalise des tests de sensibilité pour évaluer l’influence de ces paramètres sur les mesures. On conclut que les paramètres matériels ont une influence plus faible sur les mesures que les paramètres de forme et, ainsi, qu’une stratégie efficace pour retrouver des paramètres de nature distincte doit prendre en compte ces différents niveaux de sensibilité. On a effectué de nombreuses expériences à différents niveaux de bruit, avec des données partielles ou complètes pour retrouver certains paramètres, par exemple les coefficients de Lamé et les paramètres de forme, la densité, les paramètres de forme et la localisation. Cet ensemble de tests contribue à la mise en place d’une stratégie pour la reconstruction complète des conditions plus proches de la réalité. Dans la dernière partie de la thèse, on étend ces résultats à des matériaux plus complexes, en particulier élastiques anisotropes. / The characterization of hidden objects from scattered wave measurements arises in many applications such as geophysical exploration, non destructive testing, medical imaging, etc. It can be achieved numerically by solving an Inverse Problem. However, this is a nonlinear and ill-posed problem, thus a difficult task. A successful reconstruction requires careful selection of very different parameters depending on the data and the chosen optimization numerical method.The main contribution of this thesis is an investigation of the full reconstruction of immersed elastic scatterers from far-field pattern measurements. The sought-after parameters are the boundary, the Lamé coefficients, the density and the location of the obstacle. First, existence and uniqueness results of a generalized Boundary Value Problem including the direct elasto-acoustic problem are established. The sensitivity of the scattered field with respect to the different parametersdescribing the solid is analyzed and we end up with the characterization of the corresponding partial Fréchet derivatives as solutions to the direct problem with modified right-hand sides. These Fréchet derivatives are computed numerically thanks to the Interior Penalty Discontinuous Galerkin method and the code is validated thanks to comparison with analytical solutions. Then, two solution methodologies are introduced for solving the inverse problem. Both are based on an iterative regularized Newton-type methodology and the first one consists in retrieving the parameters of different nature independently, while the second one reconstructs all parameters together. Due to the different behavior of the parameters, sensitivity tests are performed to assess the impact of the parameters on the measurements. We conclude that material parameters have a weaker influence on the measurements than shape parameters, and therefore, a successful strategy to retrieve parameters of distinct nature should take into account these different levels of sensitivity. Various experiments at different noise levels and with full or limited aperture data are carried out to retrieve some of the physical properties, e.g. Lamé coefficients with shape parameters, density with shape parameters a, density, shape and location. This set of tests contributes to a final strategy for the full reconstruction and in more realistic conditions. In the final part of the thesis, we extend the results to more complex material parameters, in particular anisotropic elastic.
179

Restauration d’images avec critères orientés qualité / Images restoration based on quality criteria

Boudjenouia, Fouad 26 October 2017 (has links)
Cette thèse concerne la restauration aveugle d’images (formulée comme un problème inverse mal-posé et mal-conditionné), en considérant particulièrement les systèmes SIMO. Dans un premier temps une technique d’identification aveugle de ce système où l’ordre du canal est inconnu (surestimé) est introduite. Nous introduisons d’abord une version simplifiée à coût réduit SCR de la méthode des relations croisées (CR). Ensuite, une version robuste R-SCR basée sur la recherche d’une solution parcimonieuse minimisant la fonction de coût CR est proposée. La restauration d’image est ensuite assurée par une nouvelle approche inspirée des techniques de décodage des signaux 1D et étendue ici aux cas de la restauration d’images en se basant sur une recherche arborescente efficace (algorithme ‘Stack’). Plusieurs améliorations de la méthode ‘Stack’ ont été introduites afin de réduire sa complexité et d’améliorer la qualité de restauration lorsque les images sont fortement bruitées. Ceci en utilisant une technique de régularisation et une approche d’optimisation all-at-once basée sur la descente du gradient qui permet de raffiner l’image estimée et mieux converger vers la solution optimale. Ensuite, les mesures de la qualité d’images sont utilisées comme fonctions de coûts (intégrées dans le critère global) et ce afin d’étudier leur potentiel pour améliorer les performances de restauration. Dans le contexte où l’image d’intérêt est corrompue par d’autres images interférentes, sa restauration nécessite le recours aux techniques de séparation aveugle de sources. Pour cela, une étude comparative de certaines techniques de séparation basées sur la propriété de décorrélation au second ordre et la parcimonie est réalisée. / This thesis concerns the blind restoration of images (formulated as an ill-posed and illconditioned inverse problem), considering a SIMO system. Thus, a blind system identification technique in which the order of the channel is unknown (overestimated) is introduced. Firstly, a simplified version at reduced cost SCR of the cross relation (CR) method is introduced. Secondly, a robust version R-SCR based on the search for a sparse solution minimizing the CR cost function is proposed. Image restoration is then achieved by a new approach (inspired from 1D signal decoding techniques and extended here to the case of 2D images) based on an efficient tree search (Stack algorithm). Several improvements to the ‘Stack’ method have been introduced in order to reduce its complexity and to improve the restoration quality when the images are noisy. This is done using a regularization technique and an all-at-once optimization approach based on the gradient descent which refines the estimated image and improves the algorithm’s convergence towards the optimal solution. Then, image quality measurements are used as cost functions (integrated in the global criterion), in order to study their potential for improving restoration performance. In the context where the image of interest is corrupted by other interfering images, its restoration requires the use of blind sources separation techniques. In this sense, a comparative study of some separation techniques based on the property of second-order decorrelation and sparsity is performed.
180

Représentation parcimonieuse et procédures de tests multiples : application à la métabolomique / Sparse representation and multiple testing procedures : application to metabolimics

Tardivel, Patrick 24 November 2017 (has links)
Considérons un vecteur gaussien Y de loi N (m,sigma²Idn) et X une matrice de dimension n x p avec Y observé, m inconnu, Sigma et X connus. Dans le cadre du modèle linéaire, m est supposé être une combinaison linéaire des colonnes de X. En petite dimension, lorsque n ≥ p et que ker (X) = 0, il existe alors un unique paramètre Beta* tel que m = X Beta* ; on peut alors réécrire Y sous la forme Y = X Beta* + Epsilon. Dans le cadre du modèle linéaire gaussien en petite dimension, nous construisons une nouvelle procédure de tests multiples contrôlant le FWER pour tester les hypothèses nulles Beta*i = 0 pour i appartient à [[1,p]]. Cette procédure est appliquée en métabolomique au travers du programme ASICS qui est disponible en ligne. ASICS permet d'identifier et de quantifier les métabolites via l'analyse des spectres RMN. En grande dimension, lorsque n < p on a ker (X) ≠ 0, ainsi le paramètre Beta* décrit précédemment n'est pas unique. Dans le cas non bruité lorsque Sigma = 0, impliquant que Y = m, nous montrons que les solutions du système linéaire d'équations Y = X Beta avant un nombre de composantes non nulles minimales s'obtiennent via la minimisation de la "norme" lAlpha avec Alpha suffisamment petit. / Let Y be a Gaussian vector distributed according to N (m,sigma²Idn) and X a matrix of dimension n x p with Y observed, m unknown, sigma and X known. In the linear model, m is assumed to be a linear combination of the columns of X In small dimension, when n ≥ p and ker (X) = 0, there exists a unique parameter Beta* such that m = X Beta*; then we can rewrite Y = Beta* + Epsilon. In the small-dimensional linear Gaussian model framework, we construct a new multiple testing procedure controlling the FWER to test the null hypotheses Beta*i = 0 for i belongs to [[1,p]]. This procedure is applied in metabolomics through the freeware ASICS available online. ASICS allows to identify and to qualify metabolites via the analyse of RMN spectra. In high dimension, when n < p we have ker (X) ≠ 0 consequently the parameter Beta* described above is no longer unique. In the noiseless case when Sigma = 0, implying thus Y = m, we show that the solutions of the linear system of equation Y = X Beta having a minimal number of non-zero components are obtained via the lalpha with alpha small enough.

Page generated in 0.0898 seconds