• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 233
  • 101
  • 28
  • 2
  • 1
  • Tagged with
  • 367
  • 110
  • 85
  • 63
  • 58
  • 51
  • 50
  • 50
  • 44
  • 43
  • 43
  • 40
  • 38
  • 35
  • 35
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Imagerie tomograpbique d'un volcan à l'aide des muons atmosphériques / Tomographic imaging of volcanoes using atmospheric muons

Béné, Samuel 22 December 2016 (has links)
Les muons atmosphériques sont des particules élémentaires créées lors de l’interaction des rayons cosmiques de haute énergie avec les atomes de la haute atmosphère. Leur capacité à traverser de grandes quantités de matière et leur abondance au niveau du sol permet d’utiliser leur flux comme support à la radiographie de grands objets. Cette technique, la muographie, possède notamment comme sujet d’application possible l’étude de volcans. La collaboration Tomuvol, au sein de laquelle cette thèse s’est déroulée, vise à mettre au point un détecteur et les techniques d’analyse permettant la réalisation d’une telle mesure avec comme sujet d’étude un volcan auvergnat : le Puy de Dôme. Ce manuscrit présente les contributions à ce travail du point de vue instrumental tout d’abord, avec la calibration et l’optimisation des performances des chambres GRPC utilisées pour la mesure. Les performances du détecteur lors des diverses campagnes de prise de données qui se sont déroulées au pied du Puy de Dôme sont également résumées. Dans une deuxième partie, l’accent est porté sur l’analyse physique des données obtenues avec, dans un premier temps, la description des travaux de simulation Monte-Carlo mis en œuvre avec le logiciel GEANT4. Puis, une technique d’estimation du flux transmis de muons atmosphériques à l’aide d’une méthode de type noyaux est présentée, et la carte de densité estimée du Puy de Dôme qui en découle est comparée aux résultats issus de techniques géophysiques. / Atmospheric muons are elementary particles originating from the interaction of high energy cosmic rays with atoms in the upper atmosphere. Their ability to travel through a large amount of matter and their abundance at ground level allows for their flux to be used as a probe for the radiography of big objects. This technique, muography, can in particular be of interest for the study of volcanoes. The Tomuvol collaboration, within which this thesis took place, aims at developing a detector and analysis techniques allowing to perform such a measurment, using a volcano from Auvergne as a case study : the Puy de Dôme. This document describes the author’s contributions to this work, focusing on the intrumentation aspect first, with the calibration and optimisation of the GRPC chambers used to perform the measurment. The performances of the detector during the various campaigns of data acquisition at the base of the Puy de Dôme are also sumed up. A second part is dedicated to the physical analysis of the data with, firstly, the description of the Monte-Carlo simulations that were developed using the GEANT4 software. Then, a kernel-like estimation method of the transmitted flux of atmospheric muons is described, and the density map of the Puy de Dôme thus obtained is compared to results coming from geophysical techniques.
182

Diffusion Tensor Imaging of the Human Skeletal Muscle : Contributions and Applications / IRM du tenseur de diffusion du muscle squelettique humain : contributions et applications

Neji, Radhouène 09 March 2010 (has links)
Cette thèse propose des techniques pour le traitement d'images IRM de diffusion. Les méthodes proposées concernent l'estimation et la régularisation, le groupement et la segmentation ainsi que le recalage. Le cadre variationnel proposé dans cette thèse pour l'estimation d'un champ de tenseurs de diffusion à partir d'observations bruitées exploite le fait que les données de diffusion représentent des populations de fibres et que chaque tenseur peut être reconstruit à partir d'une combinaison pondérée de tenseurs dans son voisinage. La méthode de segmentation traite aussi bien les voxels que les fibres. Elle est basée sur l'utilisation de noyaux défini-positifs sur des probabilités gaussiennes de diffusion afin de modéliser la similarité entre tenseurs et les interactions spatiales. Ceci permet de définir des métriques entre fibres qui combinent les informations de localisation spatiale et de tenseurs de diffusion. Plusieurs approches de groupement peuvent être appliquées par la suite pour segmenter des champs de tenseurs et des trajectoires de fibres. Un cadre de groupement supervisé est proposé pour étendre cette technique. L'algorithme de recalage utilise les noyaux sur probabilités pour recaler une image source et une image cible. La régularité de la déformation est évaluée en utilisant la distortion induite sur les distances entre probabilités spatialement voisines. La minimisation de la fonctionnelle de recalage est faite dans un cadre discret. La validation expérimentale est faite sur des images du muscle du mollet pour des sujets sains et pour des patients atteints de myopathies. Les résultats des techniques développées dans cette thèse sont encourageants. / In this thesis, we present several techniques for the processing of diffusion tensor images. They span a wide range of tasks such as estimation and regularization, clustering and segmentation, as well as registration. The variational framework proposed for recovering a tensor field from noisy diffusion weighted images exploits the fact that diffusion data represent populations of fibers and therefore each tensor can be reconstructed using a weighted combination of tensors lying in its neighborhood. The segmentation approach operates both at the voxel and the fiber tract levels. It is based on the use of Mercer kernels over Gaussian diffusion probabilities to model tensor similarity and spatial interactions, allowing the definition of fiber metrics that combine information from spatial localization and diffusion tensors. Several clustering techniques can be subsequently used to segment tensor fields and fiber tractographies. Moreover, we show how to develop supervised extensions of these algorithms. The registration algorithm uses probability kernels in order to match moving and target images. The deformation consistency is assessed using the distortion induced in the distances between neighboring probabilities. Discrete optimization is used to seek an optimum of the defined objective function. The experimental validation is done over a dataset of manually segmented diffusion images of the lower leg muscle for healthy and diseased subjects. The results of the techniques developed throughout this thesis are promising.
183

Étude de la radioactivité deux protons de 54Zn avec une chambre à projection temporelle / Studies on two proton radioactivity of 54Zn with a time projection chamber

Ascher, Pauline 30 November 2011 (has links)
L’étude des noyaux à la drip-line proton est un outil récent et puissant pour sonder la structure nucléaire loin de la vallée de stabilité. En particulier, le phénomène de radioactivité deux protons prédit théoriquement en 1960 a été découvert expérimentalement en 2002. Ce travail de thèse concerne une expérience réalisée au GANIL dans le but d’étudier la radioactivité 2pde 54Zn avec une chambre à projection temporelle, développée pour la détection individuelle de chaque proton et la reconstruction de leur trajectoire en trois dimensions. L’analyse des données a permis de déterminer les corrélations en énergie et en angle entre les deux protons.Celles-ci ont été comparées à un modèle théorique qui prend en compte la dynamique de la décroissance, permettant d’obtenir des informations sur la structure de l’émetteur. La statistique obtenue étant très faible, l’interprétation des résultats reste encore limitée mais ces résultats ouvrent de très belles perspectives sur les études futures des noyaux aux limites d’existence. / The study of nuclei at the proton drip-line is a recent and efficient tool to prove the nuclearstructure far from stability. In particular, the two proton radioactivity phenomenonpredicted in 1960 has been discovered in 2002. This PhD thesis concerns an experiment realisedat GANIL, in order to study the 2p radioactivity of 54Zn with a time projection chamber,developed for the individual detection of each proton and the reconstruction of their tracksin three dimensions. The data analysis allowed to determine the correlations in energy andangle between the two protons. They have been compared to a theoretical model, which takesinto account the dynamics of the emission, giving information about the structure of theemitter. However, due to the very low statistics, the interpretation of the results is limitedbut these results open very interesting prospects for further studies of nuclei at the limits ofthe existence.
184

Change-point detection and kernel methods / Détection de ruptures et méthodes à noyaux

Garreau, Damien 12 October 2017 (has links)
Dans cette thèse, nous nous intéressons à une méthode de détection des ruptures dans une suite d’observations appartenant à un ensemble muni d’un noyau semi-défini positif. Cette procédure est une version « à noyaux » d’une méthode des moindres carrés pénalisés. Notre principale contribution est de montrer que, pour tout noyau satisfaisant des hypothèses raisonnables, cette méthode fournit une segmentation proche de la véritable segmentation avec grande probabilité. Ce résultat est obtenu pour un noyau borné et une pénalité linéaire, ainsi qu’une autre pénalité venant de la sélection de modèles. Les preuves reposent sur un résultat de concentration pour des variables aléatoires bornées à valeurs dans un espace de Hilbert, et nous obtenons une version moins précise de ce résultat lorsque l’on supposeseulement que la variance des observations est finie. Dans un cadre asymptotique, nous retrouvons les taux minimax usuels en détection de ruptures lorsqu’aucune hypothèse n’est faite sur la taille des segments. Ces résultats théoriques sont confirmés par des simulations. Nous étudions également de manière détaillée les liens entre différentes notions de distances entre segmentations. En particulier, nous prouvons que toutes ces notions coïncident pour des segmentations suffisamment proches. D’un point de vue pratique, nous montrons que l’heuristique du « saut de dimension » pour choisir la constante de pénalisation est un choix raisonnable lorsque celle-ci est linéaire. Nous montrons également qu’une quantité clé dépendant du noyau et qui apparaît dans nos résultats théoriques influe sur les performances de cette méthode pour la détection d’une unique rupture. Dans un cadre paramétrique, et lorsque le noyau utilisé est invariant partranslation, il est possible de calculer cette quantité explicitement. Grâce à ces calculs, nouveaux pour plusieurs d’entre eux, nous sommes capable d’étudier précisément le comportement de la constante de pénalité maximale. Pour finir, nous traitons de l’heuristique de la médiane, un moyen courant de choisir la largeur de bande des noyaux à base de fonctions radiales. Dans un cadre asymptotique, nous montrons que l’heuristique de la médiane se comporte à la limite comme la médiane d’une distribution que nous décrivons complètement dans le cadre du test à deux échantillons à noyaux et de la détection de ruptures. Plus précisément, nous montrons que l’heuristique de la médiane est approximativement normale centrée en cette valeur. / In this thesis, we focus on a method for detecting abrupt changes in a sequence of independent observations belonging to an arbitrary set on which a positive semidefinite kernel is defined. That method, kernel changepoint detection, is a kernelized version of a penalized least-squares procedure. Our main contribution is to show that, for any kernel satisfying some reasonably mild hypotheses, this procedure outputs a segmentation close to the true segmentation with high probability. This result is obtained under a bounded assumption on the kernel for a linear penalty and for another penalty function, coming from model selection.The proofs rely on a concentration result for bounded random variables in Hilbert spaces and we prove a less powerful result under relaxed hypotheses—a finite variance assumption. In the asymptotic setting, we show that we recover the minimax rate for the change-point locations without additional hypothesis on the segment sizes. We provide empirical evidence supporting these claims. Another contribution of this thesis is the detailed presentation of the different notions of distances between segmentations. Additionally, we prove a result showing these different notions coincide for sufficiently close segmentations.From a practical point of view, we demonstrate how the so-called dimension jump heuristic can be a reasonable choice of penalty constant when using kernel changepoint detection with a linear penalty. We also show how a key quantity depending on the kernelthat appears in our theoretical results influences the performance of kernel change-point detection in the case of a single change-point. When the kernel is translationinvariant and parametric assumptions are made, it is possible to compute this quantity in closed-form. Thanks to these computations, some of them novel, we are able to study precisely the behavior of the maximal penalty constant. Finally, we study the median heuristic, a popular tool to set the bandwidth of radial basis function kernels. Fora large sample size, we show that it behaves approximately as the median of a distribution that we describe completely in the setting of kernel two-sample test and kernel change-point detection. More precisely, we show that the median heuristic is asymptotically normal around this value.
185

Modèles à noyaux à structure locale

Vincent, Pascal January 2003 (has links)
No description available.
186

Etude du noyau très riche en neutrons 10He par réaction de transfert d'un proton 11Li(d,3He) / Study of the very neutron-rich 10He by one-proton transfer reaction 11Li(d,3He)

Matta, Adrien 27 February 2012 (has links)
La physique à la drip-line offre l'opportunité d'étudier les noyaux à la limite du paysage couvert par la physique nucléaire, où l'addition de nouveaux protons et neutrons ne peut plus être supportée. A l'approche de la drip-line, la structure même des noyaux se trouve modifiée par rapport aux plus stables. Les fermetures de couches classiques disparaissent et de nouveaux phénomènes surgissent, tels que la clusterisation et les halos. Dans ce travail, nous avons revisité la spectroscopie du noyau non-lié 10He par l'intermédiaire d'une réaction de transfert d'un proton 11Li(d,3He) à 50 AMeV étudiée par la méthode de masse manquante. Pour ce faire, nous avons utilisé le détecteur MUST2 sur la ligne RIPS du RIKEN Nishina center. La partie expérimentale de ce travail repose sur un dispositif novateur utilisant des détecteurs de silicium très fins. Pour la première fois, la mise en oeuvre de ces derniers en conjonction avec des détecteurs sensibles en position de haute granularité a été démontrée. L'approche par réaction de transfert conduit à des résultats très clairs sur la position du premier état résonant du 10He, trouvé dans ce travail à 1.4(3) MeV, en accord avec la plupart des précédents travaux expérimentaux. L'obtention pour la première fois d'un facteur spectroscopique permet de nous renseigner sur la nature du recouvrement <10He|11Li>, trouvé égale à 0.13(6). / Physics at the drip-line offer the opportunity to study nuclei at the limits of the nuclear landscape, where additional protons or neutrons can no longer be kept in the nucleus. In the vicinity of the drip-lines, the structural features of the nuclei change with respect to the more stable nuclei, the normal shell closure of particles disappear and new phenomena appear, such as clusterization and halo. In this work we have revisited the spectroscopy of the unbound 10He by means of the 11 Li(d,3 He) reaction at 50 AMeV studied in missing mass method with the MUST2 array at the RIPS beam line of RIKEN. The experimental part of this study rely on new detection set-up using very thin silicon detectors. For the first time, the effective operability of these detectors, in conjunction with high granularity position sensitive detectors, was proved. The transfer reaction approach led to clear results on the 10He first resonant state position, found in this work at 1.4(3) MeV, in agreement with most of the previous experimental works. The extraction of a spectroscopic factor for the first time shed light on the <10He|11Li> overlap, found to be 0.13(6).
187

Apprentissage par noyaux multiples : application à la classification automatique des images biomédicales microscopiques / Multiple kernel learning : contribution to the automatic classification of microscopic medical images

Zribi, Abir 17 March 2016 (has links)
Cette thèse s'inscrit dans le contexte de diagnostic assisté par ordinateur pour la localisation subcellulaire des protéines dans les images microscopiques. L'objectif est la conception et le développement d'un système de classification automatique permettant d'identifier le compartiment cellulaire dans lequel une protéine d'intérêt exerce son activité biologique. Afin de surmonter les difficultés rencontrées pour discerner les compartiments cellulaires présents dans les images microscopiques, les systèmes décrits dans la littérature proposent d'extraire plusieurs descripteurs associés à une combinaison de classifieurs. Dans cette thèse, nous proposons un schéma de classification différent répondant mieux aux besoins de généricité et de flexibilité pour traiter différentes bases d'images.Dans le but de fournir une caractérisation riche des images microscopiques, nous proposons un nouveau système de représentation permettant d'englober de multiples descripteurs visuels identifiés dans les différentes approches d'extraction de caractéristiques : locale, fréquentielle, globale et par région. Nous formulons ensuite le problème de fusion et de sélection des caractéristiques sous forme d'un problème de sélection de noyaux. Basé sur l'apprentissage de noyaux multiples (MKL), les tâches de sélection et de fusion de caractéristiques sont considérées simultanément. Les expériences effectuées montrent que la plateforme de classification proposée est à la fois plus simple, plus générique et souvent plus performante que les autres approches de la littérature. Dans le but d'approfondir notre étude sur l'apprentissage de noyaux multiples, nous définissons un nouveau formalisme d'apprentissage MKL réalisé en deux étapes. Cette contribution consiste à proposer trois termes régularisant liés à la résolution du problème d'apprentissage des poids associés à une combinaison linéaire de noyaux, problème reformulé en un problème de classification à vaste marge dans l'espace des couples. Le premier terme régularisant proposé assure une sélection parcimonieuse des noyaux. Les deux autres termes ont été conçus afin de tenir compte de la similarité entre les noyaux via une métrique basée sur la corrélation. Les différentes expérimentations réalisées montrent que le formalisme proposé permet d'obtenir des résultats de même ordre que les méthodes de référence, mais offrant l'avantage d'utiliser moins de fonctions noyaux. / This thesis arises in the context of computer aided analysis for subcellular protein localization in microscopic images. The aim is the establishment of an automatic classification system allowing to identify the cellular compartment in which a protein of interest exerts its biological activity. In order to overcome the difficulties in attempting to discern the cellular compartments in microscopic images, the existing state-of-art systems use several descriptors to train an ensemble of classifiers. In this thesis, we propose a different classification scheme wich better cope with the requirement of genericity and flexibility to treat various image datasets. Aiming to provide an efficient image characterization of microscopic images, a new feature system combining local, frequency-domain, global, and region-based features is proposed. Then, we formulate the problem of heterogeneous feature fusion as a kernel selection problem. Using multiple kernel learning, the problems of optimal feature sets selection and classifier training are simultaneously resolved. The proposed combination scheme leads to a simple and a generic framework capable of providing a high performance for microscopy image classification. Extensive experiments were carried out using widely-used and best known datasets. When compared with the state-of-the-art systems, our framework is more generic and outperforms other classification systems. To further expand our study on multiple kernel learning, we introduce a new formalism for learning with multiple kernels performed in two steps. This contribution consists in proposing three regularized terms with in the minimization of kernels weights problem, formulated as a classification problem using Separators with Vast Margin on the space of pairs of data. The first term ensures that kernels selection leads to a sparse representation. While the second and the third terms introduce the concept of kernels similarity by using a correlation measure. Experiments on various biomedical image datasets show a promising performance of our method compared to states of art methods.
188

Étude de la structure à basse énergie de ⁷⁹Zn par décroissance β et β-n de ⁷⁹Cu et ⁸⁰Cu / Study of the low energy structure of ⁷⁹Zn through β and β-n decay of ⁷⁹Cu and ⁸⁰Cu

Delattre, Marie-Coralie 05 October 2016 (has links)
Afin de sonder la persistance de la fermeture de couches à N=50 pour les isotopes de nickel, une expérience a été réalisée au RIBF (RIKEN, Japon) pour produire des noyaux autour du ⁷⁸Ni par fission en vol d'un faisceau de ²³⁸U. Les spectromètres BigRIPS et ZeroDegree ont été utilisés pour la purification et la sélection des noyaux d'intérêt. La décroissance de ces noyaux a été observée avec le dispositif EURICA pour la détection des rayonnements gamma, couplé avec le détecteur à particules chargées WAS3aBi.L'analyse des corrélations entre l'implantation des ions ⁷⁹′⁸⁰Cu et leur décroissance, ainsi que les spectres de décroissance gamma en simple et double coïncidence, nous ont permis de proposer un schéma de niveaux excités pour le ⁷⁹Zn, avec assignation de spin et parité pour la plupart des états. Nous avons aussi mis une contrainte entre 3hbar et 5hbar sur la valeur du spin de l'état fondamental du ⁸⁰Cu. La comparaison avec un modèle schématique de couplage cœur-particule nous a permis d’interpréter le schéma de niveau et de proposer des hypothèses sur la nature des états observés. Les énergies des états de particule individuelle extraites du calcul théorique indiquent la persistance du gap N=50 à Z=28. / In order to investigate the persistence of the N=50 gap for the Nickel isotopes, an experiment has been performed at RIBF (RIKEN, Japan) to produce exotic nuclei around ⁷⁸Ni by in-flight fission of a ²³⁸U beam. The BigRIPS and ZeroDegree spectrometers were used to purify and select the nuclei of interest. Their decay was detected with the EURICA detector for γ-ray detection, coupled with the charged particle WAS3aBi detector. The analysis of the correlations between the ion implantation and their decay, as well as the γ decay spectra in simple and double coincidence allowed us to propose a level scheme of the excited states for the ⁷⁹Zn, and we assigned the spin and parity for most of the states. We also constrained the spin value for the fundamental state of the ⁸⁰Cu, between 3hbar and 5hbar. Comparison with a core-particle coupling model allowed us to interpret the level scheme and propose hypothesis about the nature of the observed states. The single particle state energies extracted from the theoretical calculation indicate the persistence of the N=50 gap at Z=28.
189

Performances et méthodes pour l'échantillonnage comprimé : Robustesse à la méconnaissance du dictionnaire et optimisation du noyau d'échantillonnage. / Performance and methods for sparse sampling : robustness to basis mismatch and kernel optimization

Bernhardt, Stéphanie 05 December 2016 (has links)
Dans cette thèse, nous nous intéressons à deux méthodes permettant de reconstruire un signal parcimonieux largement sous-échantillonné : l’échantillonnage de signaux à taux d’innovation fini et l’acquisition comprimée.Il a été montré récemment qu’en utilisant un noyau de pré-filtrage adapté, les signaux impulsionnels peuvent être parfaitement reconstruits bien qu’ils soient à bande non-limitée. En présence de bruit, la reconstruction est réalisée par une procédure d’estimation de tous les paramètres du signal d’intérêt. Dans cette thèse, nous considérons premièrement l’estimation des amplitudes et retards paramétrisant une somme finie d'impulsions de Dirac filtrée par un noyau quelconque et deuxièmement l’estimation d’une somme d’impulsions de forme quelconque filtrée par un noyau en somme de sinus cardinaux (SoS). Le noyau SoS est intéressant car il est paramétrable par un jeu de paramètres à valeurs complexes et vérifie les conditions nécessaires à la reconstruction. En se basant sur l’information de Fisher Bayésienne relative aux paramètres d’amplitudes et de retards et sur des outils d’optimisation convexe, nous proposons un nouveau noyau d’échantillonnage.L’acquisition comprimée permet d’échantillonner un signal en-dessous de la fréquence d’échantillonnage de Shannon, si le vecteur à échantillonner peut être approximé comme une combinaison linéaire d’un nombre réduit de vecteurs extraits d’un dictionnaire sur-complet. Malheureusement, dans des conditions réalistes, le dictionnaire (ou base) n’est souvent pas parfaitement connu, et est donc entaché d’une erreur (DB). L’estimation par dictionnaire, se basant sur les mêmes principes, permet d’estimer des paramètres à valeurs continues en les associant selon une grille partitionnant l’espace des paramètres. Généralement, les paramètres ne se trouvent pas sur la grille, ce qui induit un erreur d’estimation même à haut rapport signal sur bruit (RSB). C’est le problème de l’erreur de grille (EG). Dans cette thèse nous étudions les conséquences des modèles d’erreur DB et EG en terme de performances bayésiennes et montrons qu’un biais est introduit même avec une estimation parfaite du support et à haut RSB. La BCRB est dérivée pour les modèles DB et EG non structurés, qui bien qu’ils soient très proches, ne sont pas équivalents en terme de performances. Nous donnons également la borne de Cramér-Rao moyennée (BCRM) dans le cas d’une petite erreur de grille et étudions l’expression analytique de l’erreur quadratique moyenne bayésienne (BEQM) sur l’estimation de l’erreur de grille à haut RSB. Cette dernière est confirmée en pratique dans le contexte de l’estimation de fréquence pour différents algorithmes de reconstruction parcimonieuse.Nous proposons deux nouveaux estimateurs : le Bias-Correction Estimator (BiCE) et l’Off-Grid Error Correction (OGEC) permettant de corriger l'erreur de modèle induite par les erreurs DB et EG, respectivement. Ces deux estimateurs principalement basés sur une projection oblique des mesures sont conçus comme des post-traitements, destinés à réduire le biais d’estimation suite à une pré-estimation effectuée par n’importe quel algorithme de reconstruction parcimonieuse. Les biais et variances théoriques du BiCE et du OGEC sont dérivés afin de caractériser leurs efficacités statistiques.Nous montrons, dans le contexte difficile de l’échantillonnage des signaux impulsionnels à bande non-limitée que ces deux estimateurs permettent de réduire considérablement l’effet de l'erreur de modèle sur les performances d’estimation. Les estimateurs BiCE et OGEC sont tout deux des schémas (i) génériques, car ils peuvent être associés à tout estimateur parcimonieux de la littérature, (ii) rapides, car leur coût de calcul reste faible comparativement au coût des estimateurs parcimonieux, et (iii) ont de bonnes propriétés statistiques. / In this thesis, we are interested in two different low rate sampling schemes that challenge Shannon’s theory: the sampling of finite rate of innovation signals and compressed sensing.Recently it has been shown that using appropriate sampling kernel, finite rate of innovation signals can be perfectly sampled even though they are non-bandlimited. In the presence of noise, reconstruction is achieved by a model-based estimation procedure. In this thesis, we consider the estimation of the amplitudes and delays of a finite stream of Dirac pulses using an arbitrary kernel and the estimation of a finite stream of arbitrary pulses using the Sum of Sincs (SoS) kernel. In both scenarios, we derive the Bayesian Cramér-Rao Bound (BCRB) for the parameters of interest. The SoS kernel is an interesting kernel since it is totally configurable by a vector of weights. In the first scenario, based on convex optimization tools, we propose a new kernel minimizing the BCRB on the delays, while in the second scenario we propose a family of kernels which maximizes the Bayesian Fisher Information, i.e., the total amount of information about each of the parameter in the measures. The advantage of the proposed family is that it can be user-adjusted to favor either of the estimated parameters.Compressed sensing is a promising emerging domain which outperforms the classical limit of the Shannon sampling theory if the measurement vector can be approximated as the linear combination of few basis vectors extracted from a redundant dictionary matrix. Unfortunately, in realistic scenario, the knowledge of this basis or equivalently of the entire dictionary is often uncertain, i.e. corrupted by a Basis Mismatch (BM) error. The related estimation problem is based on the matching of continuous parameters of interest to a discretized parameter set over a regular grid. Generally, the parameters of interest do not lie in this grid and there exists an estimation error even at high Signal to Noise Ratio (SNR). This is the off-grid (OG) problem. The consequence of the BM and the OG mismatch problems is that the estimation accuracy in terms of Bayesian Mean Square Error (BMSE) of popular sparse-based estimators collapses even if the support is perfectly estimated and in the high Signal to Noise Ratio (SNR) regime. This saturation effect considerably limits the effective viability of these estimation schemes.In this thesis, the BCRB is derived for CS model with unstructured BM and OG. We show that even though both problems share a very close formalism, they lead to different performances. In the biased dictionary based estimation context, we propose and study analytical expressions of the Bayesian Mean Square Error (BMSE) on the estimation of the grid error at high SNR. We also show that this class of estimators is efficient and thus reaches the Bayesian Cramér-Rao Bound (BCRB) at high SNR. The proposed results are illustrated in the context of line spectra analysis for several popular sparse estimator. We also study the Expected Cramér-Rao Bound (ECRB) on the estimation of the amplitude for a small OG error and show that it follows well the behavior of practical estimators in a wide SNR range.In the context of BM and OG errors, we propose two new estimation schemes called Bias-Correction Estimator (BiCE) and Off-Grid Error Correction (OGEC) respectively and study their statistical properties in terms of theoretical bias and variances. Both estimators are essentially based on an oblique projection of the measurement vector and act as a post-processing estimation layer for any sparse-based estimator and mitigate considerably the BM (OG respectively) degradation. The proposed estimators are generic since they can be associated to any sparse-based estimator, fast, and have good statistical properties. To illustrate our results and propositions, they are applied in the challenging context of the compressive sampling of finite rate of innovation signals.
190

Study of the nuclear spin-orientation in incomplete fusion reactions. Measurement of the magnetic moment of the 2⁺ states in ²²Ne and ²⁸Mg / Étude de l’orientation du spin nucléaire dans les réactions de fusion incomplète. Mesure du moment magnétique des états 2⁺ dans les noyaux ²²Ne et ²⁸Mg

Boukhari, Amar 20 December 2018 (has links)
La mesure des moments magnétiques nucléaires est d'une grande importance pour bien comprendre la structure nucléaire. Le moment magnétique est sensible à la nature de la particule indépendante. Le développement des faisceaux radioactifs permet aujourd'hui d'étudier les spins nucléaires et les moments de noyaux exotiques éloignés de la ligne de stabilité. Cependant, la mesure des moments magnétiques des noyaux radioactifs nécessite le développement des nouvelles méthodes fiables. Le développement réussi de telles méthodes ouvrirait la possibilité de découvrir de nouveaux phénomènes de structure nucléaire. L'étude présentée dans cette thèse est formée de deux expériences. La première expérience a été réalisée à ALTO à Orsay, en France. L'une des principales exigences pour mesurer un moment magnétique nucléaire est de produire un ensemble avec des spins orientés. Ce dernier peut être produit par un mécanisme de réaction approprié et une interaction de spin nucléaire avec le milieu environnant. Le degré d'orientation dépend du processus de formation et du mécanisme de réaction. Le but de cette première expérience était d’étudier le niveau d’orientation du spin nucléaire dans un mécanisme de réaction de fusion incomplète. Le résultat de l'expérience démontre la possibilité d'obtenir un alignement du spin dans une réaction de fusion incomplète d'un ordre de 20%. Ce mécanisme de réaction, avec une telle quantité d’alignement de spin, a le potentiel d’étudier la région riche en neutrons avec des faisceaux radioactifs. La deuxième expérience, et l'essentiel de la thèse, a été réalisée à HIE-ISOLDE au CERN. Cette expérience visait à obtenir des informations de haute précision sur le facteur g d’un état de courte durée. Une nouvelle méthode TDRIV (Time-Differential Recoil In Vacuum) a été appliquée pour la première fois avec des faisceaux radioactifs post-accélérés. La mesure du facteur g était réalisée pour le premier état excité dans un noyau de ²⁸Mg (Eₓ = 1474 (1) keV, T₁/₂ = 1,2 (1) ps). / Knowledge of the nuclear magnetic moments is of great importance to get a clear understanding of nuclear structure. The magnetic moment is sensitive to the single-particle nature of the valence nucleons. The development of radioactive beam facilities allows nowadays studying nuclear spins and moments of exotic nuclei which are far from the stability line. However, the measurement of magnetic moments of exotic nuclei produced as radioactive beams requires the development of reliable methods. Successful development of such methods would open up the possibility to discover new nuclear structure phenomena. The study outlined in this thesis is formed by two experiments. The first experiment was performed at ALTO facility in Orsay, France. One of the main requirements in order to measure a nuclear magnetic moment is to produce a spin-oriented ensemble. The latter can be produced by suitable reaction mechanism and nuclear spin interaction with the surrounding environment. The degree of the orientation depends on the formation process and reaction mechanism. The aim of this first experiment was investigating the level of nuclear spin orientation in incomplete fusion reaction mechanism. Two reaction channels were studied, the isomeric states in ⁶⁵mNi (I = 9/2⁺, Eₓ = 1017 keV, T₁/₂ = 26 ns), and ⁶⁶mCu (I = 6⁻, Eₓ = 563 keV, T₁/₂= 600 ns) with Time-Dependent Perturbed Angular Distribution (TDPAD) method. The result of the experiment demonstrates the possibility of obtaining spin alignment in incomplete fusion reaction of an order of 20%. This reaction mechanism, with such an important amount of spin alignment has potential near radioactive beam facilities to study the neutron-rich region with inverse kinematics reactions. The second experiment, and the main part of the thesis was performed at HIE-ISOLDE at CERN. This experiment aimed to obtain high precision g-factor information on a short-lived picosecond state. A new Time Differential Recoil-In-Vacuum (TDRIV) method was applied for the first time using post-accelerated radioactive beams. The g-factor measurement was performed for the first-excited state in ²⁸Mg nucleus (Eₓ = 1474(1) keV, T₁/₂ = 1.2(1) ps). Since the lifetime of the state is of the order of picoseconds, its g-factor can be measured only via the spin precession of the nucleus in an extremely strong magnetic field (kT). Such fields can only be produced at the nucleus by hyperfine interactions. In order to obtain a high precision on a g-factor measurement, a TDRIV calibration experiment was performed with a stable ²²Ne beam. This run allowed testing the system under the same conditions as with radioactive²⁸Mg beam. In addition, using the known g-factor of the first-excited state in ²²Ne allows to determine the absolute target-to-degrader distance so that to decrease the uncertainty and obtain a high precision g-factor measurement. The obtained calibration parameters from the ²²Ne data will be used in the determination of g-factor of ²⁸Mg.

Page generated in 0.0863 seconds