• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 64
  • 29
  • 9
  • Tagged with
  • 99
  • 36
  • 34
  • 31
  • 27
  • 26
  • 24
  • 23
  • 19
  • 18
  • 17
  • 16
  • 15
  • 15
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Reconstruction of enhanced ultrasound images from compressed measurements / Reconstruction d'images ultrasonores déconvoluées à partir de données compressées

Chen, Zhouye 21 October 2016 (has links)
L'intérêt de l'échantillonnage compressé dans l'imagerie ultrasonore a été récemment évalué largement par plusieurs équipes de recherche. Suite aux différentes configurations d'application, il a été démontré que les données RF peuvent être reconstituées à partir d'un faible nombre de mesures et / ou en utilisant un nombre réduit d'émission d'impulsions ultrasonores. Selon le modèle de l'échantillonnage compressé, la résolution des images ultrasonores reconstruites à partir des mesures compressées dépend principalement de trois aspects: la configuration d'acquisition, c.à.d. l'incohérence de la matrice d'échantillonnage, la régularisation de l'image, c.à.d. l'a priori de parcimonie et la technique d'optimisation. Nous nous sommes concentrés principalement sur les deux derniers aspects dans cette thèse. Néanmoins, la résolution spatiale d'image RF, le contraste et le rapport signal sur bruit dépendent de la bande passante limitée du transducteur d'imagerie et du phénomène physique lié à la propagation des ondes ultrasonores. Pour surmonter ces limitations, plusieurs techniques de traitement d'image en fonction de déconvolution ont été proposées pour améliorer les images ultrasonores. Dans cette thèse, nous proposons d'abord un nouveau cadre de travail pour l'imagerie ultrasonore, nommé déconvolution compressée, pour combiner l'échantillonnage compressé et la déconvolution. Exploitant une formulation unifiée du modèle d'acquisition directe, combinant des projections aléatoires et une convolution 2D avec une réponse impulsionnelle spatialement invariante, l'avantage de ce cadre de travail est la réduction du volume de données et l'amélioration de la qualité de l'image. Une méthode d'optimisation basée sur l'algorithme des directions alternées est ensuite proposée pour inverser le modèle linéaire, en incluant deux termes de régularisation exprimant la parcimonie des images RF dans une base donnée et l'hypothèse statistique gaussienne généralisée sur les fonctions de réflectivité des tissus. Nous améliorons les résultats ensuite par la méthode basée sur l'algorithme des directions simultanées. Les deux algorithmes sont évalués sur des données simulées et des données in vivo. Avec les techniques de régularisation, une nouvelle approche basée sur la minimisation alternée est finalement développée pour estimer conjointement les fonctions de réflectivité des tissus et la réponse impulsionnelle. Une investigation préliminaire est effectuée sur des données simulées. / The interest of compressive sampling in ultrasound imaging has been recently extensively evaluated by several research teams. Following the different application setups, it has been shown that the RF data may be reconstructed from a small number of measurements and/or using a reduced number of ultrasound pulse emissions. According to the model of compressive sampling, the resolution of reconstructed ultrasound images from compressed measurements mainly depends on three aspects: the acquisition setup, i.e. the incoherence of the sampling matrix, the image regularization, i.e. the sparsity prior, and the optimization technique. We mainly focused on the last two aspects in this thesis. Nevertheless, RF image spatial resolution, contrast and signal to noise ratio are affected by the limited bandwidth of the imaging transducer and the physical phenomenon related to Ultrasound wave propagation. To overcome these limitations, several deconvolution-based image processing techniques have been proposed to enhance the ultrasound images. In this thesis, we first propose a novel framework for Ultrasound imaging, named compressive deconvolution, to combine the compressive sampling and deconvolution. Exploiting an unified formulation of the direct acquisition model, combining random projections and 2D convolution with a spatially invariant point spread function, the benefit of this framework is the joint data volume reduction and image quality improvement. An optimization method based on the Alternating Direction Method of Multipliers is then proposed to invert the linear model, including two regularization terms expressing the sparsity of the RF images in a given basis and the generalized Gaussian statistical assumption on tissue reflectivity functions. It is improved afterwards by the method based on the Simultaneous Direction Method of Multipliers. Both algorithms are evaluated on simulated and in vivo data. With regularization techniques, a novel approach based on Alternating Minimization is finally developed to jointly estimate the tissue reflectivity function and the point spread function. A preliminary investigation is made on simulated data.
82

Spatio spectral reconstruction from low resolution multispectral data : application to the Mid-Infrared instrument of the James Webb Space Telescope / Reconstruction spatio-spectrale à partir de données multispectrales basse résolution : application à l'instrument infrarouge moyen du Télescope spatial James Webb

Hadj-Youcef, Mohamed Elamine 27 September 2018 (has links)
Cette thèse traite un problème inverse en astronomie. L’objectif est de reconstruire un objet 2D+λ, ayant une distribution spatiale et spectrale, à partir d’un ensemble de données multispectrales de basse résolution fournies par l’imageur MIRI (Mid-InfraRed Instrument), qui est à bord du prochain télescope spatial James Webb Space Telescope (JWST). Les données multispectrales observées souffrent d’un flou spatial qui dépend de la longueur d’onde. Cet effet est dû à la convolution par la réponse optique (PSF). De plus, les données multi-spectrales souffrent également d’une sévère dégradation spectrale en raison du filtrage spectral et de l’intégration par le détecteur sur de larges bandes. La reconstruction de l’objet original est un problème mal posé en raison du manque important d’informations spectrales dans l’ensemble de données multispectrales. La difficulté se pose alors dans le choix d’une représentation de l’objet permettant la reconstruction de l’information spectrale. Un modèle classique utilisé jusqu’à présent considère une PSF invariante spectralement par bande, ce qui néglige la variation spectrale de la PSF. Cependant, ce modèle simpliste convient que dans le cas d’instrument à une bande spectrale très étroite, ce qui n’est pas le cas pour l’imageur de MIRI. Notre approche consiste à développer une méthode pour l’inversion qui se résume en quatre étapes : (1) concevoir un modèle de l’instrument reproduisant les données multispectrales observées, (2) proposer un modèle adapté pour représenter l’objet à reconstruire, (3) exploiter conjointement l’ensemble des données multispectrales, et enfin (4) développer une méthode de reconstruction basée sur la régularisation en introduisant des priori à la solution. Les résultats de reconstruction d’objets spatio-spectral à partir de neuf images multispectrales simulées de l’imageur de MIRI montrent une augmentation significative des résolutions spatiale et spectrale de l’objet par rapport à des méthodes conventionnelles. L’objet reconstruit montre l’effet de débruitage et de déconvolution des données multispectrales. Nous avons obtenu une erreur relative n’excédant pas 5% à 30 dB et un temps d’exécution de 1 seconde pour l’algorithme de norm-l₂ et 20 secondes avec 50 itérations pour l’algorithme norm-l₂/l₁. C’est 10 fois plus rapide que la solution itérative calculée par l’algorithme de gradient conjugué. / This thesis deals with an inverse problem in astronomy. The objective is to reconstruct a spatio-spectral object, having spatial and spectral distributions, from a set of low-resolution multispectral data taken by the imager MIRI (Mid-InfraRed Instrument), which is on board the next space telescope James Webb Space Telescope (JWST). The observed multispectral data suffers from a spatial blur that varies according to the wavelength due to the spatial convolution with a shift-variant optical response (PSF). In addition the multispectral data also suffers from severe spectral degradations because of the spectral filtering and the integration by the detector over broad bands. The reconstruction of the original object is an ill-posed problem because of the severe lack of spectral information in the multispectral dataset. The difficulty then arises in choosing a representation of the object that allows the reconstruction of this spectral information. A common model used so far considers a spectral shift-invariant PSF per band, which neglects the spectral variation of the PSF. This simplistic model is only suitable for instruments with a narrow spectral band, which is not the case for the imager of MIRI. Our approach consists of developing an inverse problem framework that is summarized in four steps: (1) designing an instrument model that reproduces the observed multispectral data, (2) proposing an adapted model to represent the sought object, (3) exploiting all multispectral dataset jointly, and finally (4) developing a reconstruction method based on regularization methods by enforcing prior information to the solution. The overall reconstruction results obtained on simulated data of the JWST/MIRI imager show a significant increase of spatial and spectral resolutions of the reconstructed object compared to conventional methods. The reconstructed object shows a clear denoising and deconvolution of the multispectral data. We obtained a relative error below 5% at 30 dB, and an execution time of 1 second for the l₂-norm algorithm and 20 seconds (with 50 iterations) for the l₂/l₁-norm algorithm. This is 10 times faster than the iterative solution computed by conjugate gradients.
83

Des données accélérométriques au comportement dynamique des bâtiments existants / From accelerometric records to the dynamic behavior of existing buildings

Fernández Lorenzo, Guillermo Wenceslao 17 October 2016 (has links)
L'objectif de cette thèse est de simuler l'histoire temporelle de la réponse d'un bâtiment de grande hauteur sous sollicitation sismique et de proposer des méthodologies simplifiées qui reproduisent correctement une telle réponse. Initialement, un modèle tridimensionnel par éléments finis est produit afin de valider sa fiabilité pour simuler le comportement réel du bâtiment pendant les mouvements du sol, enregistrés à l'aide d'accéléromètres. Il est proposé d'améliorer la précision du modèle numérique en imposant de multiples excitations, compte-tenu des effets de basculement et de la variabilité spatiale sur la sollicitation d'entrée. L'utilisation de fonctions de Green empiriques est proposée pour simuler la réponse sismique directement à partir d'enregistrements d'événements passés, sans avoir besoin de dessins de construction ni d'étalonnage des paramètres mécaniques. Une méthode de sommation stochastique, déjà utilisée pour prédire les mouvements du sol, est adoptée pour générer des signaux synthétiques à des hauteurs différentes du bâtiment, par extension du chemin de propagation des ondes du sol à la structure. Une représentation simplifiée du bâtiment comme une poutre homogène Timoshenko est proposée pour simuler la réponse sismique directement à partir des enregistrements des vibrations ambiantes. Des paramètres mécaniques équivalents sont identifiés à l'aide de l'interférométrie par déconvolution en termes de dispersion des ondes, de fréquences naturelles et de rapport de vitesse des ondes de cisaillement et de compression dans le milieu / The aim of this thesis is to simulate the time history response of a high rise building under seismic excitation and provide simplified methodologies that properly reproduce such response. Firstly, a detailed three-dimensional finite element model is produced to validate its reliability to simulate the real behavior of the building during ground motions, recorded using accelerometers. It is proposed to improve the accuracy of the numerical model by imposing multiple excitations, considering rocking effect and spatial variability on the input motion. The use of empirical Green's functions is proposed to simulate the seismic response directly from past event records, without the need of construction drawings and mechanical parameters calibration. A stochastic summation scheme, already used to predict ground motions, is adopted to generate synthetic signals at different heights of the building, extending the wave propagation path from the ground to the structure. A simplified representation of the building as a homogeneous Timoshenko beam is proposed to simulate the seismic response directly from ambient vibration records. Equivalent mechanical parameters are identified using deconvolution interferometry in terms of wave dispersion, natural frequencies and shear to compressional wave
84

Avancées récentes dans l'observation et l'application des techniques d'apprentissage automatique aux études des galaxies et des amas de galaxies

Rhea, Carter 07 1900 (has links)
Les galaxies, qui sont des ensembles de milliards d’étoiles, de gaz, de poussière et de matière sombre — un mystère persistant — se répandent à travers l’univers. Il est reconnu que presque toutes les galaxies hébergent un trou noir supermassif capable d’augmenter ou de diminuer le taux de formation stellaire via un mécanisme appelé rétroaction. Les conglomérats massifs de galaxies gravitationnellement liés, nommés amas de galaxies, présentent le même phénomène astronomique, mais à une échelle plus grande. Ces phénomènes laissent des traces dans l’environnement qui sont observables grâce aux instruments contemporains. Cette thèse se concentre sur deux axes principaux : l’application des algorithmes d’apprentissage automatique pour améliorer l’analyse optique des galaxies et des amas de galaxies, ainsi que l’utilisation d’un algorithme spécifique en apprentissage automatique, la machine d’inférence récurrente (MIR), capable de déconvoluer les spectres en rayons X de sources astrophysiques. Dans la première moitié de cette thèse, nous discutons du développement de LUCI, un logiciel conçu pour ajuster les cubes de données de SITELLE à l’aide de l’apprentissage automatique. Ce logiciel vise à accélérer l’algorithme d’ajustement et à obtenir les meilleurs résultats possibles. LUCI a été développé dans le but de fournir un algorithme d’ajustement polyvalent, personnalisable, facile à utiliser et assisté par l’apprentissage automatique. Les deux premiers articles de cette thèse décrivent en détail LUCI et les algorithmes qui le sous-tendent. Après cette présentation, plusieurs projets scientifiques auxquels j’ai contribué sont mis en avant, illustrant l’utilisation de LUCI. Grâce aux innovations apportées par LUCI, nous avons pu étudier plus en détail le gaz ionisé diffus dans des galaxies proches telles que NGC 4449, analyser le gaz ionisé dans une galaxie en chute vers l’amas de Persée, et cartographier en détail le gaz ionisé dans un amas de galaxies à grand décalage vers le rouge (voir section 2.3). Les deux articles suivants, dans les sections 2.4, 2.5, explorent les méthodes d’apprentissage automatique pour effectuer des tâches qui auraient traditionnellement été réalisées par des algorithmes standard : calculer les rapports des lignes d’émission des spectres, démêler les systèmes en fusion et catégoriser les régions d’émission. Dans l’avant-dernier article du chapitre 2, section 2.7, nous développons une nouvelle technique basée sur les algorithmes d’apprentissage automatique qui segmente un cube hyperspectral en régions de source et régions de l’arrière-plan, construit un modèle local de la région à l’arrière-plan, et interpole ce modèle sur les pixels de la source. Dans le troisième chapitre, nous nous concentrons sur les techniques de déconvolution des spectres en rayons X, un objectif qui, jusqu’à présent, reste insaisissable. Cela nous permet, pour la première fois, d’observer le spectre intrinsèque du gaz chaud dans les amas de galaxies. Lorsqu’un spectre en rayons X est observé avec un observatoire en rayons X, le spectre intrinsèque n’est pas directement capturé mais plutôt, il est convolué avec la réponse instrumentale. Dans le cas des observatoires contemporains, cet effet est dramatique car la réponse instrumentale étale les lignes d’émission en une caractéristique simple et elle varie considérablement en fonction du temps et de la position. Les méthodes standard pour extraire les paramètres physiques du spectre utilisent des techniques de pré-ajustement qui augmentent les coûts computationnels et ajoutent des complexités d’ajustement. Par conséquent, une méthodologie de déconvolution des spectres observés peut mener à une modélisation plus précise. C’est avec cela en tête que nous explorons les méthodes de déconvolution des spectres en rayons X, nous donnant ainsi accès aux spectres intrinsèques. Le premier article de ce chapitre, section 3.1, démontre que les techniques traditionnelles de déconvolution ne fonctionnent pas suffisamment pour les spectres complexes, même si elles fonctionnent pour les spectres simples comme les lois de puissance. Dans l’article suivant, nous utilisons un nouvel algorithme d’apprentissage automatique, la MIR, pour effectuer la déconvolution. Dans ce papier, nous montrons le potentiel de cette nouvelle méthode sur des données synthétiques et réelles. Notre MIR entraînée reconstruit le spectre intrinsèque et les réalisations du modèle antérieur avec un niveau de bruit d’un écart-type, démontrant que la MIR est capable, au moins pour les spectres synthétiques, de récupérer les spectres intrinsèques. Dans le dernier article de cette thèse, nous explorons également l’efficacité et les limitations de la MIR dans la déconvolution des spectres en rayons X. La MIR est entraînée sur une base de données synthétique couvrant une gamme plus large de paramètres. Même pour les modèles complexes, la MIR est capable de déconvoluer les spectres synthétiques à un niveau de bruit d’un écart-type. Cependant, lorsqu’elle est appliquée aux données réelles, les reconstructions ne sont pas en accord avec les observations réelles. Cela indique soit que les données synthétiques ne représentent pas fidèlement les observations réelles, soit qu’il y a un problème avec la MIR. Nous concluons cet article en soulignant l’intérêt d’appliquer des modèles de diffusion pour pallier les limitations de la MIR. / Galaxies, combinations of billions of stars, gas, dust, and the ever-mysterious dark matter, permeate the universe. It is understood that nearly all galaxies host a supermassive black hole capable of either enhancing or reducing stellar formation through a mechanism known as active galactic nuclei feedback. Massive conglomerations of gravitationally bound galaxies, known as galaxy clusters, demonstrate the same astrophysical phenomena but on a much larger scale. These phenomena leave traces on their surrounding medium that can be observed through modern instrumentation. This thesis is aligned along two main research axes: the application of machine learning algorithms to enhance the optical analysis of galaxies and galaxy clusters and the application of a particular machine learning algorithm, the recurrent inference machine, to deconvolve X-ray spectra of astrophysical sources. In the first half of the thesis, we discuss the development of LUCI – a software package created to fit SITELLE datacubes using machine learning to speed up the fitting algorithms and increase their performance. LUCI was borne out of a desire to have a general-purpose line fitting algorithm that is highly customizable, easy to use, and enhanced by machine learning algorithms for SITELLE. The first two articles presented in this thesis describe LUCI and the algorithms that drive the package. After presenting the software, we showcase several scientific projects that LUCI has been used in which I contributed. Owing to the innovations in LUCI, we were able to expand our study of diffuse ionized gas in nearby galaxies such as NGC 4449, study the ionized gas in an infalling galaxy in the Perseus cluster, and make detailed maps of a high-redshift galaxy cluster’s ionized gas (see 2.3). The following three papers, sections 2.4, 2.5, and 2.6, explore machine learning methods to accomplish tasks normally reserved for standard algorithms: calculating line ratios from spectra and disentangling multi emission components in merging systems, and categorizing emission line regions. In the second to last paper of chapter 2, section 2.7, we develop a novel technique based off machine learning algorithms to segment an hyperspectral data cube into source and background regions, build a local model of the background region, and interpolate this model over source pixels. In the final paper of this chapter, we use LUCI to analyze multi-filter SITELLE observations of NGC 1275. This analysis reveals homogeneity in the ionization mechanism in the extended filaments. Moreover, they solidify previous findings that the emission nebula is not undergoing star formation except for two small and distinct regions. In chapter 3, we focus on techniques for deconvolving X-ray spectra, a goal that has, until now, remained elusive. By deconvolving X-ray spectra, we will be able to, for the first time, observe the intrinsic X-ray spectrum of the hot gas in galaxy clusters. When an X-ray spectrum is observed with an X-ray observatory, the intrinsic source spectrum is not itself captured but rather the intrinsic spectrum convolved with the instrumental response. In the case of contemporary X-ray observatories, this effect is dramatic since the instrumental response smears emission lines into a single feature and changes considerably as a function of time and the location of the detector. Therefore, having a methodology to deconvolve observed spectra can lead to more accurate modeling of the underlying physical phenomena. It is with this in mind that we explore methods to deconvolve the X-ray spectra and thus have access to the intrinsic spectrum of the astrophyiscal source. The first article presented in this chapter, section 3.1, demonstrates that traditional inverse techniques do not reliably deconvolve complex X-ray spectra from the instrumental response even though they are sufficient for simple spectra such as a powerlaw. In the following article, we employ a new machine learning algorithm, the recurrent inference machine (RIM), to tackle the problem of X-ray spectral deconvolution. In this paper, we show the potential of this new method as applied to synthetic and real data. Our trained RIM reconstructs the intrinsic matrix and forward model realizations below the 1-σ noise-level proving that the RIM is capable, at least for synthetic data, to recover the intrinsic spectra. In the final article of this thesis, we further explore the RIM’s ability and limitations in X-ray spectral deconvolution. The RIM is trained on a larger set of synthetic spectra covering a wider parameter range. The RIM is able to deconvolve the sythetic Xray spectrum at the 1-σ noise level even for complicated physical models. However, when applied to real observations, the RIM reconstructions do not match theoretical predictions. We conclude this paper by motivating the application of state-of-the-art diffusion models to address the limitations of the RIM.
85

Méthodes modernes d'analyse de données en biophysique analytique : résolution des problèmes inverses en RMN DOSY et SM / New methods of data analysis in analytical biophysics : solving the inverse ill-posed problems in DOSY NMR and MS

Cherni, Afef 20 September 2018 (has links)
Cette thèse s’intéresse à la création de nouvelles approches algorithmiques pour la résolution du problème inverse en biophysiques. Dans un premier temps, on vise l’application RMN de type DOSY: une nouvelle approche de régularisation hybride a été proposée avec un nouvel algorithme PALMA (http://palma.labo.igbmc.fr/). Cet algorithme permet d’analyser des données réelles DOSY avec une précision importante quelque soit leur type. Dans un deuxième temps, notre intérêt s’est tourné vers l’application de spectrométrie de masse. Nous avons proposé une nouvelle approche par dictionnaire dédiée à l’analyse protéomique en utilisant le modèle averagine et une stratégie de minimisation sous contraintes d'une pénalité de parcimonie. Afin d’améliorer la précision de l’information obtenue, nous avons proposé une nouvelle méthode SPOQ, basée sur une nouvelle fonction de pénalisation, résolue par un nouvel algorithme Forward-Backward à métrique variable localement ajustée. Tous nos algorithmes bénéficient de garanties théoriques de convergence, et ont été validés expérimentalement sur des spectres synthétisés et des données réelles / This thesis aims at proposing new approaches to solve the inverse problem in biophysics. Firstly, we study the DOSY NMR experiment: a new hybrid regularization approach has been proposed with a novel PALMA algorithm (http://palma.labo.igbmc.fr/). This algorithm ensures the efficient analysis of real DOSY data with a high precision for all different type. In a second time, we study the mass spectrometry application. We have proposed a new dictionary based approach dedicated to proteomic analysis using the averagine model and the constrained minimization approach associated with a sparsity inducing penalty. In order to improve the accuracy of the information, we proposed a new SPOQ method based on a new penalization, solved with a new Forward-Backward algorithm with a variable metric locally adjusted. All our algorithms benefit from sounded convergence guarantees, and have been validated experimentally on synthetics and real data.
86

Measurement of the Standard Model W⁺W⁻ production cross-section using the ATLAS experiment on the LHC / Mesure de la section efficace de production des bosons W⁺W⁻ dans l'experience ATLAS au LHC

Zeman, Martin 02 October 2014 (has links)
Les mesures de sections efficaces de production di-bosons constituent une partie importante du programme de physique au Large Hadron Collider (Grand collisionneur de hadrons) au CERN. Ces analyses de physique offrent la possibilité d'explorer le secteur électrofaible du modèle standard à l'échelle du TeV et peuvent être une indication de l'existence de nouvelles particules au-delà du modèle standard. L'excellente performance du LHC dans les années 2011 et 2012 a permis de faire les mesures très compétitives. La thèse donne un aperçu complet des méthodes expérimentales utilisées dans la mesure de la section efficace de production de W⁺W⁻ dans les collisions proton-proton au √s = 7 TeV et 8 TeV. Le texte décrit l'analyse en détail, en commençant par l'introduction du cadre théorique du modèle standard et se poursuit avec une discussion détaillée des méthodes utilisées dans l'enregistrement et la reconstruction des événements de physique dans une expérience de cette ampleur. Les logiciels associés (online et offline) sont inclus dans la discussion. Les expériences sont décrites en détail avec en particulier une section détaillée sur le détecteur ATLAS. Le dernier chapitre de cette thèse présente une description détaillée de l'analyse de la production de bosons W dans les modes de désintégration leptoniques utilisant les données enregistrées par l'expérience ATLAS pendant les années 2011 et 2012 (Run I). Les analyses utilisent 4,6 fb⁻¹ de données enregistrées à √s = 7 TeV et 20,28 fb⁻¹ enregistré à 8 TeV. La section efficace mesurée expérimentalement pour la production de bosons W dans l'expérience ATLAS est plus grande que celle prédite par le modèle standard à 7 TeV et 8 TeV. La thèse se termine par la présentation des résultats de mesures différentielles de section efficace. / Measurements of di-boson production cross-sections are an important part of the physics programme at the CERN Large Hadron Collider. These physics analyses provide the opportunity to probe the electroweak sector of the Standard Model at the TeV scale and could also indicate the existence of new particles or probe beyond the Standard Model physics. The excellent performance of the LHC through years 2011 and 2012 allowed for very competitive measurements. This thesis provides a comprehensive overview of the experimental considerations and methods used in the measurement of the W⁺W⁻ production cross-section in proton-proton collisions at √s = 7 TeV and 8 TeV. The treatise covers the material in great detail, starting with the introduction of the theoretical framework of the Standard Model and follows with an extensive discussion of the methods implemented in recording and reconstructing physics events in an experiment of this magnitude. The associated online and offline software tools are included in the discussion. The relevant experiments are covered, including a very detailed section about the ATLAS detector. The final chapter of this thesis contains a detailed description of the analysis of the W-pair production in the leptonic decay channels using the datasets recorded by the ATLAS experiment during 2011 and 2012 (Run I). The analyses use 4.60 fb⁻¹ recorded at √s = 7 TeV and 20.28 fb⁻¹ recorded at 8 TeV. The experimentally measured cross section for the production of W bosons at the ATLAS experiment is consistently enhanced compared to the predictions of the Standard Model at centre-of-mass energies of 7 TeV and 8 TeV. The thesis concludes with the presentation of differential cross-section measurement results.
87

Identification Expérimentale de Sources vibratoires par Résolution du problème Inverse modélisé par un opérateur Eléments Finis local

Renzi, Cédric 16 December 2011 (has links) (PDF)
L'objet de cette thèse est l'extension aux structures complexes de la méthode de Résolution Inverse Fenêtrée Filtrée (RIFF). L'idée principale se base sur le modèle Eléments Finis local et libre d'une partie de la structure étudiée. Tout d'abord, la méthode a été développée dans le cas des poutres. Les mesures de vibrations sont alors injectées dans le modèle Eléments Finis de la partie de poutre analysée. Les rotations sont estimées à l'aide de mesures de déplacements supplémentaires et des fonctions de forme sur le support élémentaire. La méthode étant sensible vis-à-vis des incertitudes de mesures, une régularisation a dû être développée. Celle-ci repose sur une double inversion de l'opérateur où une régularisation de type Tikhonov est appliquée dans la seconde inversion. L'optimisation de cette régularisation est réalisée par le principe de la courbe en L. A cause des effets de lissage induits par la régularisation, les moments ne peuvent être reconstruits mais ils apparaissent comme des "doublets" de forces. Ceci nous a conduit à résoudre le problème en supposant que seules des forces agissent sur la poutre. Enfin, une étude des effets de la troncature du domaine a été menée dans le but de s'affranchir des efforts de couplage apparaissant aux limites de la zone étudiée. Le cas des plaques a été considéré ensuite afin d'augmenter progressivement la complexité des modèles utilisés. L'approche Eléments Finis a permis d'intégrer à la méthode des techniques de condensation dynamique et de réduction par la méthode de Craig-Bampton. Le nombre de degrés de liberté est trop élevé pour permettre une estimation des rotations par mesures de déplacements supplémentaires, la condensation dynamique est employée afin de les supprimer dans le modèle théorique. Par ailleurs, la régularisation induisant une perte de résolution spatiale à cause de son effet de lissage, une procédure de déconvolution spatiale basée sur l'algorithme de Richardson- Lucy a été ajoutée en post traitement. Enfin, une application de la méthode à la détection de défauts a été envisagée de même que l'application de la méthode à l'identification des efforts appliqués par une pompe à huile sur un banc d'essais industriel. Le travail s'est donc appuyé sur des développements numériques et la méthode a été validée expérimentalement en laboratoire et en contexte industriel. Les résultats de la thèse fournissent un outil prédictif des efforts injectés par des sources de vibrations raccordées à une structure en s'appuyant sur un modèle Eléments Finis local et des mesures vibratoires, le tout en régime harmonique.
88

Déconvolution aveugle parcimonieuse en imagerie échographique avec un algorithme CLEAN adaptatif

Chira, Liviu Teodor 17 October 2013 (has links) (PDF)
L'imagerie médicale ultrasonore est une modalité en perpétuelle évolution et notamment en post-traitement où il s'agit d'améliorer la résolution et le contraste des images. Ces améliorations devraient alors aider le médecin à mieux distinguer les tissus examinés améliorant ainsi le diagnostic médical. Il existe déjà une large palette de techniques "hardware" et "software". Dans ce travail nous nous sommes focalisés sur la mise en oeuvre de techniques dites de "déconvolution aveugle", ces techniques temporelles utilisant l'enveloppe du signal comme information de base. Elles sont capables de reconstruire des images parcimonieuses, c'est-à-dire des images de diffuseurs dépourvues de bruit spéculaire. Les principales étapes de ce type de méthodes consistent en i) l'estimation aveugle de la fonction d'étalement du point (PSF), ii) l'estimation des diffuseurs en supposant l'environnement exploré parcimonieux et iii) la reconstruction d'images par reconvolution avec une PSF "idéale". La méthode proposée a été comparée avec des techniques faisant référence dans le domaine de l'imagerie médicale en utilisant des signaux synthétiques, des séquences ultrasonores réelles (1D) et images ultrasonores (2D) ayant des statistiques différentes. La méthode, qui offre un temps d'exécution très réduit par rapport aux techniques concurrentes, est adaptée pour les images présentant une quantité réduite ou moyenne des diffuseurs.
89

Modélisation de signaux électromyographiques par des processus de renouvellement - Filtre bayésien pour l'estimation séquentielle de paramètres à destination de la commande d'une prothèse d'avant-bras

Monsifrot, Jonathan 11 December 2013 (has links) (PDF)
Nous traitons des signaux électromyographiques intramusculaires (signaux iEMG) relevés dans les muscles de l'avant-bras. Les signaux iEMG représentent une image de la commande du système nerveux central vers les muscles. Ils se composent d'une superposition de trains d'ondelettes, chaque ondelette code un groupe de fibres musculaires et son taux de mise à feu code l'effort produit par ce groupe. L'objectif est d'extraire de façon séquentielle des informations du signal iEMG. Nous espérons que ces informations se révèleront utiles pour la commande d'une prothèse d'avant-bras. En premier lieu, nous modélisons un train d'impulsions comme une chaîne de Markov et nous discutons des lois pouvant caractériser le temps entre deux impulsions. La loi de Weibull discrète a retenu notre attention. Nous avons mis en place une méthode d'estimation en ligne de ses paramètres. En second lieu, nous modélisons le signal iEMG par un modèle de Markov caché s'appuyant sur le modèle de train d'impulsions ci-dessus. La mise en place d'un filtre bayésien nous permet de propager séquentiellement une estimation bayésienne des paramètres du modèle de Markov caché, en particulier la forme des ondelettes et leur taux de mise à feu. Nous proposons finalement une méthode d'estimation du nombre de trains d'ondelettes, un paramètre discret du modèle. Nous validons les méthodes et algorithmes proposés sur des signaux simulés et des signaux iEMG.
90

Analyse de signaux ultrasonores, Formation d'Images de Cohérence - Application à la Microscopie Acoustique de circuits électroniques

Martin, Elodie 12 September 2007 (has links) (PDF)
La microscopie acoustique à balayage est une technologie largement utilisée dans l'imagerie non destructive de circuits microélectroniques. Les protocoles standards, établis pour des circuits simples, conduisent à des résultats difficilement interprétables lors de l'inspection d'assemblages petits et complexes. La limite de résolution axiale de ces dispositifs étant atteinte, une approche plus rigoureuse est proposée afin de comprendre la propagation des échos ultrasonores dans les circuits "Flip-Chip LFBGA". L'objectif de cette thèse consiste à présenter une analyse critique de signaux et images ultrasonores. La première partie de ce travail est consacrée à l'étude de la propagation des ondes planes dans des milieux feuilletés, modèle dit "direct". Dans la seconde partie, diverses méthodes de résolution du problème inverse, ou déconvolution, de signaux ultrasonores sont testées et comparées. Enfin, la troisième partie propose une nouvelle méthode, la cohérence locale temporelle, basée sur la comparaison de signaux ultrasonores réfléchis sur des circuits complexes.

Page generated in 0.0694 seconds