• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1126
  • 548
  • 420
  • 178
  • 111
  • 49
  • 35
  • 28
  • 22
  • 20
  • 18
  • 18
  • 17
  • 12
  • 12
  • Tagged with
  • 3117
  • 607
  • 414
  • 279
  • 269
  • 256
  • 252
  • 205
  • 205
  • 198
  • 198
  • 183
  • 173
  • 162
  • 161
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
741

On a class of distributed algorithms over networks and graphs

Lee, Sang Hyun, 1977- 01 June 2011 (has links)
Distributed iterative algorithms are of great importance, as they are known to provide low-complexity and approximate solutions to what are otherwise high-dimensional intractable optimization problems. The theory of message-passing based algorithms is fairly well developed in the coding, machine learning and statistical physics literatures. Even though several applications of message-passing algorithms have already been identified, this work aims at establishing that a plethora of other applications exist where it can be of great importance. In particular, the goal of this work is to develop and demonstrate applications of this class of algorithms in network communications and computational biology. In the domain of communications, message-passing based algorithms provide distributed ways of inferring the optimal solution without the aid of a central agent for various optimization problems that happen in the resource allocation of communication networks. Our main framework is Affinity Propagation (AP), originally developed for clustering problems. We reinterpret this framework to unify the development of distributed algorithms for discrete resource allocation problems. Also, we consider a network-coded communication network, where continuous rate allocation is studied. We formulate an optimization problem with a linear cost function, and then utilize a Belief Propagation (BP) approach to determine a decentralized rate allocation strategy. Next, we move to the domain of computational biology, where graphical representations and computational biology play a major role. First, we consider the motif finding problem with several DNA sequences. In effect, this is a sequence matching problem, which can be modeled using various graphical representations and also solved using low-complexity algorithms based on message-passing techniques. In addition, we address the application of message-passing algorithms for a DNA sequencing problem where the one dimensional structure of a single DNA sequence is identified. We reinterpret the problem as being equivalent to the decoding of a nonlinear code. Based on the iterative decoding framework, we develop an appropriate graphical model which enables us to derive a message-passing algorithm to improve the performance of the DNA sequencing problem. Although this work consists of disparate application domains of communications, networks and computational biology, graphical models and distributed message-passing algorithms form a common underlying theme. / text
742

Evaluation of Deformable Image Registration

Bird, Joshua Campbell Cater January 2015 (has links)
Deformable image registration (DIR) is a type of registration that calculates a deformable vector field (DVF) between two image data sets and permits contour and dose propagation. However the calculation of a DVF is considered an ill-posed problem, as there is no exact solution to a deformation problem, therefore all DVFs calculated contain errors. As a result it is important to evaluate and assess the accuracy and limitations of any DIR algorithm intended for clinical use. The influence of image quality on the DIR algorithms performance was also evaluated. The hybrid DIR algorithm in RayStation 4.0.1.4 was assessed using a number of evaluation methods and data. The evaluation methods were point of interest (POI) propagation, contour propagation and dose measurements. The data types used were phantom and patient data. A number of metrics were used for quantitative analysis and visual inspection was used for qualitative analysis. The quantitative and qualitative results indicated that all DVFs calculated by the DIR algorithm contained errors which translated into errors in the propagated contours and propagated dose. The results showed that the errors were largest for small contour volumes (<20cm3) and for large anatomical volume changes between the image sets, which pushes the algorithms ability to deform, a significant decrease in accuracy was observed for anatomical volume changes of greater than 10%. When the propagated contours in the head and neck were used for planning the errors in the DVF were found to cause under dosing to the target tumour by up to 32% and over dosing to the organs at risk (OAR) by up to 12% which is clinically significant. The results also indicated that the image quality does not have a significant effect on the DIR algorithms calculations. Dose measurements indicated errors in the DVF calculations that could potentially be clinically significant. The results indicate that contour propagation and dose propagation must be used with caution if clinical use is intended. For clinical use contour propagation requires evaluation of every propagated contour by an expert user and dose propagation requires thorough evaluation of the DVF.
743

Generalized Survey Propagation

Tu, Ronghui 09 May 2011 (has links)
Survey propagation (SP) has recently been discovered as an efficient algorithm in solving classes of hard constraint-satisfaction problems (CSP). Powerful as it is, SP is still a heuristic algorithm, and further understanding its algorithmic nature, improving its effectiveness and extending its applicability are highly desirable. Prior to the work in this thesis, Maneva et al. introduced a Markov Random Field (MRF) formalism for k-SAT problems, on which SP may be viewed as a special case of the well-known belief propagation (BP) algorithm. This result had sometimes been interpreted to an understanding that “SP is BP” and allows a rigorous extension of SP to a “weighted” version, or a family of algorithms, for k-SAT problems. SP has also been generalized, in a non-weighted fashion, for solving non-binary CSPs. Such generalization is however presented using statistical physics language and somewhat difficult to access by more general audience. This thesis generalizes SP both in terms of its applicability to non-binary problems and in terms of introducing “weights” and extending SP to a family of algorithms. Under a generic formulation of CSPs, we first present an understanding of non-weighted SP for arbitrary CSPs in terms of “probabilistic token passing” (PTP). We then show that this probabilistic interpretation of non-weighted SP makes it naturally generalizable to a weighted version, which we call weighted PTP. Another main contribution of this thesis is a disproof of the folk belief that “SP is BP”. We show that the fact that SP is a special case of BP for k-SAT problems is rather incidental. For more general CSPs, SP and generalized SP do not reduce from BP. We also established the conditions under which generalized SP may reduce as special cases of BP. To explore the benefit of generalizing SP to a wide family and for arbitrary, particularly non-binary, problems, we devised a simple weighted PTP based algorithm for solving 3-COL problems. Experimental results, compared against an existing non-weighted SP based algorithm, reveal the potential performance gain that generalized SP may bring.
744

Analyse des données de l'expérience AMS-02 pour la propagation du rayonnement cosmique dans la cavité solaire et la Galaxie / Data analysis with the AMS-02 experiment for the cosmic ray propagation study

Ghelfi, Alexandre 29 September 2016 (has links)
Le rayonnement cosmique, mis en évidence par Viktor Hess en 1912, est composé de particules chargées, créées et possiblement accélérées dans les restes de supernova, et qui se propagent dans la Galaxie. La mesure des flux du rayonnement cosmique permet de mettre des contraintes sur leurs sources et leur transport, mais aussi de se pencher sur le problème de la matière sombre.C'est pour répondre à ces questions qu'a été construit le détecteur AMS-02, mis en place sur la station spatiale internationale depuis mai 2011. Ce détecteur de haute précision mesure l'ensemble des flux de particules du rayonnement cosmique.Le travail proposé dans cette thèse consiste à estimer le flux de protons avec le détecteur AMS-02. L'accent est mis sur la déconvolution des effets de la réponse en énergie du détecteur sur les flux et sur la caractérisation du flux obtenu à haute énergie (au-dessus de 200 GeV/n) avec la mise en évidence d'une cassure spectrale.D'autre part, le soleil émet un plasma qui interagit avec les particules du rayonnement cosmique, modifiant les flux issus de la propagation dans la Galaxie. Cette modification évolue dans le temps en suivant le cycle d'activité solaire et est appelée modulation solaire. Dans ce cadre, nous avons obtenu une nouvelle détermination robuste des flux interstellaires de protons et d'hélium en nous basant sur les données récentes du rayonnement cosmique (incluant AMS-02). Les niveaux de modulation solaire obtenus sont validés avec une seconde analyse réalisée à partir des données des moniteurs à neutrons, détecteurs au sol, qui permettent d'établir des séries en temps du paramètre de modulation depuis les années 50. / Cosmic rays (CR) were discovered by Viktor Hess in 1912. Charged CR are synthesized and supposedly accelerated in supernova remnants, then propagate through the Galaxy. CR flux measurement set constraints on CR sources and propagation, but may also bring answers to the dark matter problem.AMS-02 is a high precision particle physics detector placed on the international space station since may 2011. It measures the CR fluxes of many species.This thesis deals with the proton flux estimation measured by the AMS-02 instrument. The focus is set on the unfolding of the instrument energy response impacting the flux, and on the caracterisation of the high-energy spectral break.The Sun produces a plasma which interacts with CR particles, modifying the flux obtained from galactic propagation. This modification evolves through time following the solar activity cycle, and is denoted solar modulation. In this framework, decolving from this effect, a robust determination of the proton and helium interstellar fluxes is obtained using recent high precision CR data including AMS-02. The associated solar modulation levels are cross-checked with a second estimation taken from neutron monitors (ground based detectors) data, allowing solar modulation time series reconstruction from the 50s.
745

Recherche indirecte de matière noire à travers les rayons cosmiques d'antimatière / Indirect dark matter searches with antimatter cosmic rays

Boudaud, Mathieu 30 September 2016 (has links)
La matière noire astronomique est une composante essentielle de l'univers. Depuis sa mise en évidence en 1933 par Fritz Zwicky dans l'amas de Coma, sa présence au sein des galaxies et des amas de galaxies a été largement confirmée. Les observations du satellite Planck permettent de fixer le modèle standard cosmologique selon lequel 85% de la matière de l'univers est constituée de matière noire.La nature de cette dernière demeure cependant aujourd'hui inconnue. De nombreux candidats ont été proposés. L'explication la plus plausible fait état de particules massives et interagissant faiblement avec la matière ordinaire. Ces particules de matière noire, dénommées WIMPs pour Weakly Interactive Massive Particles, sont prédites par les extensions du modèle standard des particules, à l'instar des théories supersymétriques ou des théories à dimensions supplémentaires de type Kaluza-Klein.Les particules de matière noire sont traquées activement dans les accélérateurs de particules et dans les détecteurs souterrains. Une stratégie alternative consiste à rechercher les signatures de leur présence dans la Voie Lactée à travers les rayons cosmiques, messagers de l'univers. En effet, on s'attend à ce que les WIMPs présents dans la galaxie s'annihilent en paires particules-antiparticules. Les mécanismes produisant de l'antimatière étant très rares, les antiparticules cosmiques constituent des messagers privilégiés de la présence de matière noire.Ce mémoire de thèse se concentre sur la recherche indirecte de matière noire à travers les flux de positrons et d'antiprotons cosmiques. L'objet de ce travail est de confronter les modèles théoriques de particules de matière noire aux données expérimentales, afin de mettre éventuellement en évidence les hypothétiques WIMPs et d'en déterminer les propriétés.La première partie dresse le bilan des recherches actuelles de matière noire avant de se consacrer aux modes de production et de propagation des rayons cosmiques.La thèse se concentre ensuite sur l'interprétation de la fraction positronique mesurée par la collaboration AMS-02. La possibilité d'expliquer les données par la présence de matière noire dans la galaxie est étudiée. Une explication alternative impliquant des pulsars proches produisant des positrons est examinée. Une méthode permettant de traiter la propagation des positrons cosmiques de basse énergie est ensuite développée, et les premières contraintes sur les propriétés de la matière noire sont alors dérivées à partir des mesures du flux de positrons à basse énergie.Ce travail se poursuit avec l'étude de la propagation des antiprotons cosmiques. L'influence des effets de propagation à basse énergie sur la détermination des propriétés de la matière noire est explorée. De nouvelles contraintes sont dérivées à partir des données expérimentales de la collaboration PAMELA. Les incertitudes théoriques sur la détermination du fond astrophysique sont évaluées. L'interprétation des mesures préliminaires du rapport antiprotons sur protons par la collaboration AMS-02 et les conséquences pour la matière noire sont finalement discutées. / The astronomical dark matter is ubiquitous in the universe. Since it was discovered in 1933 by Fritz Zwicky in the Coma cluster, its presence in galaxies and in galaxy clusters has been largely confirmed. The standard cosmological model predicts that about 85% of the matter in the universe is composed of dark matter.Its nature, however, remains unknown today. The dark matter particles must still have the properties of being massive and interact weakly with ordinary matter. This type of particles, the WIMPs (Weakly Interactive Massive Particles) are predicted by the extensions theories of the Standard Model of particles physics, like supersymmetrie or extra-dimensional Kaluza-Klein type theories.The dark matter particles are actively hunted in particle accelerators and in direct detection experiments. An alternative strategy is to look for signatures of the dark matter in the Milky Way through cosmic rays -- the universe messengers. Indeed, we expect that WIMPs that are present in the Galaxy annihilate into particle-antiparticle pairs. As antimatter is rare, cosmic antiparticles are privileged messengers of the presence of dark matter.This thesis focuses on indirect dark matter searches through the study of both cosmic ray positron and antiproton fluxes. The purpose of this PhD is to compare the theoretical models of dark matter particles with experimental data, which will allow us to determine their properties.The first part of the thesis provides an overview of current searches on dark matter and then focuses on the production and propagation of cosmic rays.The second part is devoted to the interpretation of the positron fraction measured by the AMS-02 collaboration. The possibility to explain the data by the presence of dark matter in the Galaxy is studied. An alternative explanation involving nearby pulsars is examined. A method to deal with low energy positrons is developed, leading to the first constraints on dark matter properties.Finally, this work focuses on the propagation of cosmic antiprotons. The influence of low energy propagation effects on the antiproton flux is explored. New constraints on WIMPs are derived from the data of the PAMELA collaboration. The theoretical uncertainties on the astrophysical background are assessed. The interpretation of the preliminary data of the AMS-02 collaboration on the antiproton to proton ratio and the implications for dark matter properties are finally discussed.
746

Efficient preconditioning method for the CARP-CG iterative solver for the solution of the frequency-domain visco-elastic wave equation / Préconditionnement du solveur itératif CARP-CG pour la solution de l'équation d'onde visco-élastique dans le domaine fréquentiel

Hamitou, Okba 22 December 2016 (has links)
La résolution de l'équation des ondes acoustiques et élastiques en 3D dans le domaine fréquentiel représente un enjeu majeur dans le cadre de l'inversion des formes d'ondes pour l'imagerie haute résolution de cibles crustales (Virieux, 2009). Après discrétisation, ce problème revient à résoudre un système linéaire à valeurs complexes, creux, de grande taille non défini et mal conditionné. Les méthodes d'inversion sismique requièrent la solution de ce problème pour l'évaluation du problème direct pour un grand nombre de sources (plusieurs milliers voir dizaines de milliers). Dans l'approximation acoustique, les méthodes directes sont privilégiées. Cependant, le coût mémoire de ces méthodes les rendent aujourd'hui inutilisables pour résoudre les problèmes élastiques 3D. En raison de leur plus faible coût mémoire, les méthodes itératives pour les équations en fréquence peuvent être considérées pour l'élastodynamique. Cependant, une convergence rapide passe par des préconditionneurs adaptés pour les solveurs itératifs. Par ailleurs, les stratégies pour résoudre des systèmes linéaires avec des seconds membres multiples ne sont pas aussi efficaces que pour les méthodes directes. La modélisation dans le domaine temporelle quant à elle présente une importante complexité en coût de calcul et cette complexité croît linéairement avec le nombre de sources.Dans cette thèse, l'approche utilisant un solveur itératif est considérée. Le solveur itératif CARP-CG introduit par Gordon (2010) est considéré. Cette méthode est basée sur la méthode de Kaczmarz qui transforme un système linéaire mal conditionné en un système hermitien, positif et qui peut être résolu en utilisant les méthodes du type gradient conjugué (CG). Dans des configurations de forts contrastes et hétérogénéités, ce solveur s'est révélé être extrêmement robuste alors que les méthodes itératives standards basées sur les sous-espaces de Krylov telles que GMRES et BiCGSTAB nécessitent l'utilisation d'un préconditionneur pour converger (Li, 2015). Malgré les bonnes propriétés de la méthode CARP-CG, le nombre d'itérations nécessaires pour atteindre une précision suffisante reste néanmoins élevé. Je présente alors une stratégie de préconditionnement adaptée au problème de propagation des ondes et à la méthode CARP-CG. Ce préconditionneur est un inverse creux et approché d'un opérateur de propagation des ondes fortement amorti. Le calcul du préconditionneur est réalisé grâce un algorithme massivement parallèle pour les architectures à mémoire distribuée.La méthode développée est appliquée à des cas d'étude réalistes. Les applications sont faites sur des modèles synthétiques 2D dans l'approximation visco-acoustique pour des fréquences allant jusqu'à 40 Hz puis dans l'approximation élastique pour des fréquences allant jusqu'à 20 Hz. Ces études montrent l'efficacité de la méthode CARP-CG munie de la stratégie de préconditionnement. Le nombre d'itérations est fortement réduit (jusqu'à un facteur 9) permettant d'améliorer considérablement la complexité de la méthode CARP-CG. Des gains en temps de calcul allant jusqu'à un facteur 3.5 sont ainsi obtenus. La méthode est ensuite appliquée à un cas 3D synthétique et réaliste dans l'approximation visco-élastique pour des fréquences allant de 1.25 Hz à 7.5 Hz. Des résultats encourageants sont obtenus. Munie du préconditioneur, la méthode CARP-CG permet de résoudre ces systèmes linéaires deux fois plus rapidement.La stratégie de préconditionnement implique la nécessité de plus grandes ressources en mémoire pour le solveur itératif; cependant, elles ne constituent pas une limitation pour la méthode et restent très négligeables devant celles requises par les solveurs directs. La principale limitation réside dans le temps de calcul qui demeure assez significatif. Cependant, cette méthode constitue un solveur compétitif comparé aux autres solveurs en temps et direct utilisés aujourd'hui dans le cadre de l'inversion des formes d'ondes. / A robust and efficient wave modeling method is the cornerstone of high resolution seismic inversion methods such as the frequency-domain Full Waveform Inversion (Virieux, 2009). After discretization, frequency-domain wave modeling amounts to the solution of large (up to several billion of unknowns for realistic case studies), sparse, indefinite and ill-conditioned linear systems. Furthermore, seismic inversion methods require the solution of this problem for numerous sources (from several thousands up to tens of thousands). In the acoustic approximation, 3D real case studies can be handled efficiently using direct solvers. However because of their tremendous intrinsic memory requirements, they are not yet adapted to the solution of the 3D elastodynamics equations. Iterative solvers provide an alternative to direct solvers. However, they require a preconditioning strategy to ensure convergence for the frequency-domain wave equation. Besides, multiple right-hand sides linear systems are not treated as efficiently as direct solvers do.In this thesis, we are interested in the use of a robust iterative solver adapted to the solution of these systems called CARP-CG (Gordon, 2010). The CARP-CG method has shown robust convergence properties for 2D and 3D elastic problems in highly heterogeneous media compared to standard Krylov methods such as GMRES or Bi-CGSTAB which require the use of a preconditioner to ensure convergence (Li, 2015). Despite the good convergence properties of CARP-CG, the latter still requires a large number of iterations to reach sufficient accuracy. I introduce an efficient preconditioning strategy adapted to the CARP-CG method and the frequency-domain wave problem. This preconditioner is computed as a sparse approximate inverse of a strongly damped wave propagation operator. The computation of the preconditioner is performed in a massively parallel algorithm for distributed memory architectures.The efficiency of the preconditioner is evaluated on several case studies. First, applications are performed on realistic synthetic models in the 2D visco-acoustic approximation (up to $40$ Hz) and the 2D visco-elastic approximation (up to $20$ Hz). These studies show that the CARP-CG method together with the preconditioning strategy is robust and efficient. The number of iterations is significantly reduced (up to a factor $9$) enabling a speedup in the computation time by a factor up to $3.5$. Second, this method is investigated in the 3D elastic approximation on a realistic synthetic case study on the range of frequencies 1.25 to 7.5 Hz. Very encouraging results are obtained with a significant reduction in the number of iterations. A slow increase of the number of iterations with respect to the frequency is noted.This preconditioning strategy adapted to the CARP-CG method implies larger memory requirements. However, this extra memory cost remains one order lower compared to direct solver memory requirement, and should be affordable on standard HPC facilities. The main bottleneck preventing from the possible use of this iterative solver for 3D elastic FWI remains the computation time for the wave equation solves.
747

Refined predictions for cosmic rays and indirect dark matter searches / Raffinement des prédictions théoriques pour la physique du rayonnement cosmique

Genolini, Yoann 10 July 2017 (has links)
Il y a tout juste cent ans que les premières mesures du taux d'ionisation de l'air ont dévoilé que la terre est sans cesse bombardée par une pluie de particules énergétiques provenant du Cosmos. D'un point de vue astrophysique, l'origine de ces particules hautement relativistes, appelés rayons cosmiques (CRs), ainsi que leur mécanisme d'accélération restent très peu connus. Le paradigme actuel suppose une injection sporadique des CRs accélérés par la propagation d'ondes de choc au cours de la mort de certaines étoiles (SNRs).Les mesures récentes des flux de CRs (par les expériences PAMELA et AMS-02 par exemple) inaugurent une nouvelle ère de précision dans la mesure où les incertitudes statistiques sont désormais considérablement réduites. Dans ce mémoire de thèse, nous proposons et approfondissons de nouvelles pistes théoriques de manière à maximiser l'information extraite de ces nouvelles données.Après une introduction générale sur la physique des CRs, nous nous concentrons sur les espèces dites primaires, qui sont produites directement par les SNRs. De la nature discrète des SNRs et de la méconnaissance quasi-complète de leurs positions et de leurs ages résulte une incertitude théorique qui nécessite d'être estimée pour la prédiction des flux observés sur Terre. Jusqu'alors ces prédictions se contentent de calculer la moyenne d'ensemble de ce flux. Dans cette partie nous exposons la théorie statistique que nous avons élaborée, permettant de calculer la probabilité d'une déviation du flux mesuré par rapport à la moyenne d'ensemble. Nous sommes amenés à utiliser une version généralisée du théorème de la limite centrale, avec lequel nous montrons que la loi de probabilité est intimement reliée à la distribution des sources et qu'elle converge vers une loi stable. Cette dernière diffère de la loi gaussienne par sa queue lourde en loi de puissance. Le cadre théorique développé ici peut non seulement être étendu à d'autres observables du rayonnement cosmique, mais aussi enrichi en incluant une description plus complète des corrélations entre les sources. De plus, la méthode que nous avons développée peut être appliquée à d'autres problèmes de physique/astrophysique impliquant des distributions à queue lourde.Deuxièmement nous nous penchons sur les CRs dits secondaires (comme le bore), qui sont produits par les collisions des espèces primaires avec le milieu interstellaire. Plus précisément nous nous concentrons sur le rapport du flux du bore sur celui du carbone qui est traditionnellement utilisé pour comprendre la propagation des CRs. Ainsi, tout porte à croire que les mesures extrêmement précises de ce rapport nous donneraient de fortes contraintes sur les scénarios de propagation. Malheureusement il n'en est rien et nous montrons que le calcul théorique dépend fortement de certaines hypothèses telles que le lieu de production des secondaires et le choix du jeux de sections efficaces d’interaction. Nous estimons à au moins 20 % les incertitudes sur les paramètres de propagation dérivés jusqu'à maintenant. Grâce aux nouvelles données de l'expérience AMS-02, nous présentons les points de départ de notre nouvelle analyse pour laquelle nous utilisons le code semi-analytique USINE.Finalement, dans une troisième partie, nous utilisons ces données de précision pour réactualiser les analyses portant sur la recherche indirecte de matière noire. En effet, les CRs d'antimatière seraient -au même titre que le bore- des particules secondaires. La prédiction de leur fond astrophysique repose sur une connaissance précise de la propagation des CRs et de leurs interactions dans la Galaxy. Nous les traitons ici sous les hypothèses habituelles et réévaluons les flux de positrons et d'antiprotons à la lumière des nouvelles données d'AMS-02. Nous discutons ensuite les conséquences pour la matière noire et les possibles explications astrophysiques d'éventuels excès observés. / A hundred years ago, pioneering observations of air ionization revealed that the Earth is showered with particles coming from the Galaxy and beyond. Because of their high energies, these particles coined cosmic-rays are still a crucial tool in the field of particle physics, complementary to man-made accelerators. From an astrophysical point of view, the origin of cosmic-rays and the mechanisms which accelerate them are still very poorly known. The present paradigm involves sporadic production associated with the expanding shock waves from dying stars (SNRs).Recent experiments (notably PAMELA and, more recently, AMS-02) are ushering us into a new era of measurements of cosmic-ray fluxes with greatly reduced statistical uncertainties. In this dissertation, we propose and investigate new theoretical refinements of our predictions to fully benefit from these advances.After a general introduction on cosmic-ray physics, we first focus on the so-called primary species which are directly produced by SNRs. In this context of precision measurements, the discreteness of the sources in space and time, together with a substantial ignorance of their precise epochs and locations (with the possible exception of the most recent and close ones) may lead to significant uncertainties in the predictions of the fluxes at the Earth. So far, the conventional approach just relied on average trends. Here, we elaborate a statistical theory in order to compute the probability for the actual flux to depart from its ensemble average. Using the generalized version of the central limit theorem, we demonstrate that the probability distribution function of the flux is intimately related to the source distribution and follows a stable law with a heavier tail than the Gaussian distribution. Our theoretical framework can not only be extended to other cosmic-ray observables, such as the lepton flux, but also can be enriched to include a more comprehensive description of the correlations between the sources. Moreover the method which we have developed may be applied to a variety of problems in physics/astrophysics involving heavy tail distributions.Secondly, we concentrate on secondary CRs, like the boron nuclei, which are thought to be produced only by the collisions of cosmic-rays on the interstellar medium. More precisely, the ratio of the boron to carbon fluxes is a traditional tool used to understand and gauge the propagation of cosmic-rays in the Galaxy. Hence a very precise measurement of this ratio should imply stringent constraints on the propagation scenario. However we show that its theoretical derivation strongly depends on where these secondary species are produced as well as on the chosen set of nuclear cross-sections. Hence we assess at the 20% level the theoretical uncertainties on the so far derived propagation parameters. As new data from AMS-02 were freshly released, we present the starting points of a comprehensive new analysis for which we use the semi-analytical code USINE.Finally these high precision measurements offer new opportunities for a number of astroparticle problems, such as indirect dark matter searches which is the main thrust of the third part of the thesis. Antimatter cosmic rays are thought to be secondary species and their relatively low fluxes make them a channel of choice to look for rare processes such as dark matter annihilation. Nonetheless, the predictions of the expected backgrounds rely on a precise modeling of cosmic-ray propagation and interactions in the Galaxy. We treat them under commonly used simplified assumptions and discuss two studies where we re-evaluate the anti-proton and the positron fluxes in the light of the new AMS-02 data. Then we discuss the implications for dark matter and astrophysical explanations.
748

Méthode d'analyse de sensibilité et propagation inverse d'incertitude appliquées sur les modèles mathématiques dans les applications d'ingénierie / Methods for sensitivity analysis and backward propagation of uncertainty applied on mathematical models in engineering applications

Alhossen, Iman 11 December 2017 (has links)
Dans de nombreuses disciplines, les approches permettant d'étudier et de quantifier l'influence de données incertaines sont devenues une nécessité. Bien que la propagation directe d'incertitudes ait été largement étudiée, la propagation inverse d'incertitudes demeure un vaste sujet d'étude, sans méthode standardisée. Dans cette thèse, une nouvelle méthode de propagation inverse d'incertitude est présentée. Le but de cette méthode est de déterminer l'incertitude d'entrée à partir de données de sortie considérées comme incertaines. Parallèlement, les méthodes d'analyse de sensibilité sont également très utilisées pour déterminer l'influence des entrées sur la sortie lors d'un processus de modélisation. Ces approches permettent d'isoler les entrées les plus significatives, c'est à dire les plus influentes, qu'il est nécessaire de tester lors d'une analyse d'incertitudes. Dans ce travail, nous approfondirons tout d'abord la méthode d'analyse de sensibilité de Sobol, qui est l'une des méthodes d'analyse de sensibilité globale les plus efficaces. Cette méthode repose sur le calcul d'indices de sensibilité, appelés indices de Sobol, qui représentent l'effet des données d'entrées (vues comme des variables aléatoires continues) sur la sortie. Nous démontrerons ensuite que la méthode de Sobol donne des résultats fiables même lorsqu'elle est appliquée dans le cas discret. Puis, nous étendrons le cadre d'application de la méthode de Sobol afin de répondre à la problématique de propagation inverse d'incertitudes. Enfin, nous proposerons une nouvelle approche de la méthode de Sobol qui permet d'étudier la variation des indices de sensibilité par rapport à certains facteurs du modèle ou à certaines conditions expérimentales. Nous montrerons que les résultats obtenus lors de ces études permettent d'illustrer les différentes caractéristiques des données d'entrée. Pour conclure, nous exposerons comment ces résultats permettent d'indiquer les meilleures conditions expérimentales pour lesquelles l'estimation des paramètres peut être efficacement réalisée. / Approaches for studying uncertainty are of great necessity in all disciplines. While the forward propagation of uncertainty has been investigated extensively, the backward propagation is still under studied. In this thesis, a new method for backward propagation of uncertainty is presented. The aim of this method is to determine the input uncertainty starting from the given data of the uncertain output. In parallel, sensitivity analysis methods are also of great necessity in revealing the influence of the inputs on the output in any modeling process. This helps in revealing the most significant inputs to be carried in an uncertainty study. In this work, the Sobol sensitivity analysis method, which is one of the most efficient global sensitivity analysis methods, is considered and its application framework is developed. This method relies on the computation of sensitivity indexes, called Sobol indexes. These indexes give the effect of the inputs on the output. Usually inputs in Sobol method are considered to vary as continuous random variables in order to compute the corresponding indexes. In this work, the Sobol method is demonstrated to give reliable results even when applied in the discrete case. In addition, another advancement for the application of the Sobol method is done by studying the variation of these indexes with respect to some factors of the model or some experimental conditions. The consequences and conclusions derived from the study of this variation help in determining different characteristics and information about the inputs. Moreover, these inferences allow the indication of the best experimental conditions at which estimation of the inputs can be done.
749

Effet des défauts d'adhésion sur la résistance mécanique des assemblages collés / Effect of adhesion defects on the mechanical resistance of bonded assemblies

Taleb Ali, Mahfoudh 04 May 2018 (has links)
Le collage structural est une technique d’assemblage de plus en plus demandée aujourd’hui dans beaucoup de domaines comme l’automobile, l’aéronautique, l’aérospatial et dans d’autres domaines comme la construction, le sport et les loisirs. Cette technique très avantageuse, permet l’assemblage de matériaux semblables ou différents à l’aide d’un adhésif, la réduction importante du poids et la répartition uniforme des charges sur l’assemblage. Malgré ses avantages, le collage souffre encore de quelques inconvénients liés à l’existence de défauts dans les joints de colle. Parmi eux, il existe des défauts qui sont situés à l’interface colle/substrat comme un « kissing bond » ou un mauvais état de surface, qui restent indétectables ou difficilement détectables utilisant les techniques de contrôle non destructives. Donc, afin de prendre en compte l’existence des défauts d’adhésion dans les assemblages collés lors de la phase de conception, il est nécessaire de fournir un modèle analytique capable de prédire la propagation de fissure. Dans cette thèse, un modèle analytique qui prédit la propagation de fissure et qui évalue la résistance effective d’un assemblage collé contenant des défauts d’adhésion a été développé. Un défaut a généralement une géométrie complexe, et une étude générique est difficilement réalisable ce qui nous amène à considérer des géométries de défauts idéales. Le modèle a été vérifié par des expériences réalisées sur des éprouvettes DCB. Des simulations numériques utilisant la méthode de zone cohésive ont été réalisées également pour décrire plus complètement le processus de décohésion et simuler les essais expérimentaux. La dernière partie de ce travail a été dédiée à l’étude de la fissuration des éprouvettes en alliage de titane. Profitant de la collaboration avec Safran et Alphanov, les substrats ont subi un traitement de surface laser en laissant des zones non traitées. Le but de cette partie était de vérifier le modèle analytique proposé avec des configurations plus complexes. / Structural adhesive bonding has known an increasing use in many fields like aeronautics, aerospace and automotive and other fields like construction and sports. This very advantageous technique allows the assembly of similar or different materials using an adhesive, the significant reduction in weight and a uniform distribution of loads on the assembly. Despite its advantages, the bonding still suffers from some disadvantages related to the existence of defects in the bonded joints. Among them, there are defects that are located at the interface glue / substrate as "kissing bond" or poor surface due to bad surface treatment, which remain undetectable or hardly detectable using non-destructive control techniques. Therefore, in order to take into account the existence of adhesion defects in bonded assemblies during the design phase, it is necessary to provide an analytical model capable of predicting crack propagation and estimate the criticality of a defect. In this thesis, an analytical model that predicts crack propagation and evaluates the effective strength of a bonded assembly containing adhesion defects has been developed. A defect usually has a complex geometry, and a generic study is difficult to achieve, which leads us to consider ideal defect geometries. The model was verified by experiments performed on DCB specimens. Numerical simulations using the cohesive zone method were also performed to more fully describe the decohesion process and to simulate the experimental tests. The last part of this work was devoted to the study of titanium alloy assembly containing patterns. Taking advantage of the collaboration with Safran and Alphanov, the substrates underwent a laser surface treatment leaving untreated areas. The purpose of this part was to check the proposed analytical model with more complex configurations.
750

Définition de signaux et de techniques de traitement innovants pour les futurs systèmes GNSS / Analysis and improvement of GNSS navigation message demodulation performance in urban environments

Roudier, Marion 16 January 2015 (has links)
Les systèmes de navigation par satellites sont de plus en plus présents dans notre vie quotidienne. De nouveaux besoins émergent, majoritairement en environnement urbain. Dans ce type d'environnement très obstrué, le signal reçu par l'utilisateur a subit des atténuations ainsi que des réfractions/diffractions, ce qui rend difficile la démodulation des données et le calcul de position de l'utilisateur. Les signaux de navigation par satellites étant initialement conçus dans un contexte d'environnement dégagé, leurs performances de démodulation sont donc généralement étudiées dans le modèle de canal de propagation AWGN associé. Or aujourd'hui ils sont utilisés aussi en environnements dégradés. Il est donc indispensable de fournir et d'étudier leurs performances de démodulation dans des modèles de canal de propagation urbain. C'est dans ce contexte que s'inscrit cette thèse, le but final étant d'améliorer les performances de démodulation des signaux GNSS en milieux urbains, en proposant un nouveau signal. Afin de pouvoir fournir et analyser les performances de démodulation des signaux de navigation par satellite en milieux urbains, un outil de simulation a été développé dans le cadre de cette thèse : SiGMeP pour « Simulator for GNSS Message Performance ». Il permet de simuler la chaine entière d'émission/réception d'un signal de navigation par satellites et de calculer ses performances de démodulation en milieu urbain. Les performances de démodulation des signaux existants et modernisés ont donc été calculées avec SiGMeP en environnement urbain. Afin de représenter au mieux ces performances pour qu'elles soient le plus réalistes possibles, une nouvelle méthode adaptée au cas urbain est proposée dans ce manuscrit. Ensuite, pour améliorer ces performances de démodulation, l'axe de recherche s'est essentiellement porté sur le « codage canal ». Pour décoder l'information utile transmise, le récepteur calcule une fonction de détection à l'entrée du décodeur. Or la fonction de détection utilisée dans les récepteurs classiques correspond à un modèle de canal AWGN. Ce manuscrit propose donc une fonction de détection avancée, qui s'adapte au canal de propagation dans lequel l'utilisateur évolue, ce qui améliore considérablement les performances de démodulation, en ne modifiant que la partie récepteur du système. Enfin, dans le but de concevoir un nouveau signal avec de meilleures performances de démodulation en environnement urbain que celles des signaux existants ou futurs, un nouveau codage canal de type LDPC a été optimisé pour une modulation CSK. En effet, la modulation CSK est une modulation prometteuse dans le monde des signaux de type spectre étalé, qui permet de se débarrasser des limitations en termes de débit de données qu'impliquent les modulations actuelles des signaux de navigation par satellites. / Global Navigation Satellite Systems (GNSS) are increasingly present in our everyday life. Further operational needs are emerging, mainly in urban environments. In these obstructed environments, the signal emitted by the satellite is severely degraded due to the many obstacles. Consequently, the data demodulation and the user position calculation are difficult. GNSS signals being initially designed in an open environment context, their demodulation performance is thus generally studied in the associated AWGN propagation channel model. But nowadays, GNSS signals are also used in degraded environments. It is thus essential to provide and study their demodulation performance in urban propagation channel models. It is in this context that this PhD thesis is related, the final goal being to improve GNSS signals demodulation performance in urban areas, proposing a new signal. In order to be able to provide and study GNSS signals demodulation performance in urban environments, a simulation tool has been developed in this PhD thesis context: SiGMeP for ‘Simulator for GNSS Message Performance'. It allows simulating the entire emission/reception GNSS signal chain in urban environment. Existing and modernized signals demodulation performance has thus been computed with SiGMeP in urban environments. In order to represent this demodulation performance faithfully to reality, a new methodology adapted to urban channels is proposed in this dissertation. Then, to improve GNSS signals demodulation performance in urban environments, the research axis of this thesis has focused on the ‘Channel Coding' aspect. In order to decode the transmitted useful information, the receiver computes a detection function at the decoder input. But the detection function used in classic receivers corresponds to an AWGN propagation channel. This dissertation thus proposes an advanced detection function which is adapting to the propagation channel where the user is moving. This advanced detection function computation considerably improves demodulation performance, just in modifying the receiver part of the system. Finally, in order to design a new signal with better demodulation performance in urban environments than one of existing and future signals, a new LDPC channel code has been optimized for a CSK modulation. Indeed, the CSK modulation is a promising modulation in the spread spectrum signals world, which permits to free from limitation sin terms of data rate implied by current GNSS signals modulations.

Page generated in 0.0915 seconds