• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 78
  • 40
  • 6
  • Tagged with
  • 125
  • 63
  • 37
  • 35
  • 24
  • 22
  • 19
  • 17
  • 17
  • 14
  • 14
  • 11
  • 10
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Stochastic approximation and least-squares regression, with applications to machine learning / Approximation stochastique et régression par moindres carrés : applications en apprentissage automatique

Flammarion, Nicolas 24 July 2017 (has links)
De multiples problèmes en apprentissage automatique consistent à minimiser une fonction lisse sur un espace euclidien. Pour l’apprentissage supervisé, cela inclut les régressions par moindres carrés et logistique. Si les problèmes de petite taille sont résolus efficacement avec de nombreux algorithmes d’optimisation, les problèmes de grande échelle nécessitent en revanche des méthodes du premier ordre issues de la descente de gradient. Dans ce manuscrit, nous considérons le cas particulier de la perte quadratique. Dans une première partie, nous nous proposons de la minimiser grâce à un oracle stochastique. Dans une seconde partie, nous considérons deux de ses applications à l’apprentissage automatique : au partitionnement de données et à l’estimation sous contrainte de forme. La première contribution est un cadre unifié pour l’optimisation de fonctions quadratiques non-fortement convexes. Celui-ci comprend la descente de gradient accélérée et la descente de gradient moyennée. Ce nouveau cadre suggère un algorithme alternatif qui combine les aspects positifs du moyennage et de l’accélération. La deuxième contribution est d’obtenir le taux optimal d’erreur de prédiction pour la régression par moindres carrés en fonction de la dépendance au bruit du problème et à l’oubli des conditions initiales. Notre nouvel algorithme est issu de la descente de gradient accélérée et moyennée. La troisième contribution traite de la minimisation de fonctions composites, somme de l’espérance de fonctions quadratiques et d’une régularisation convexe. Nous étendons les résultats existants pour les moindres carrés à toute régularisation et aux différentes géométries induites par une divergence de Bregman. Dans une quatrième contribution, nous considérons le problème du partitionnement discriminatif. Nous proposons sa première analyse théorique, une extension parcimonieuse, son extension au cas multi-labels et un nouvel algorithme ayant une meilleure complexité que les méthodes existantes. La dernière contribution de cette thèse considère le problème de la sériation. Nous adoptons une approche statistique où la matrice est observée avec du bruit et nous étudions les taux d’estimation minimax. Nous proposons aussi un estimateur computationellement efficace. / Many problems in machine learning are naturally cast as the minimization of a smooth function defined on a Euclidean space. For supervised learning, this includes least-squares regression and logistic regression. While small problems are efficiently solved by classical optimization algorithms, large-scale problems are typically solved with first-order techniques based on gradient descent. In this manuscript, we consider the particular case of the quadratic loss. In the first part, we are interestedin its minimization when its gradients are only accessible through a stochastic oracle. In the second part, we consider two applications of the quadratic loss in machine learning: clustering and estimation with shape constraints. In the first main contribution, we provided a unified framework for optimizing non-strongly convex quadratic functions, which encompasses accelerated gradient descent and averaged gradient descent. This new framework suggests an alternative algorithm that exhibits the positive behavior of both averaging and acceleration. The second main contribution aims at obtaining the optimal prediction error rates for least-squares regression, both in terms of dependence on the noise of the problem and of forgetting the initial conditions. Our new algorithm rests upon averaged accelerated gradient descent. The third main contribution deals with minimization of composite objective functions composed of the expectation of quadratic functions and a convex function. Weextend earlier results on least-squares regression to any regularizer and any geometry represented by a Bregman divergence. As a fourth contribution, we consider the the discriminative clustering framework. We propose its first theoretical analysis, a novel sparse extension, a natural extension for the multi-label scenario and an efficient iterative algorithm with better running-time complexity than existing methods. The fifth main contribution deals with the seriation problem. We propose a statistical approach to this problem where the matrix is observed with noise and study the corresponding minimax rate of estimation. We also suggest a computationally efficient estimator whose performance is studied both theoretically and experimentally.
122

Contribution to the development of Aitken Restricted Additive Schwarz preconditioning and application to linear systems arising from automatic differentiation of compressible Navier-Stokes solutions with respect to the simulation’s parameters / Contribution au développement du préconditionnement Aitken Schwarz Additif Restreint et son application aux systèmes linéaires issus de la différentiation automatique des solutions de Navier-Stokes dépendant des paramètres de la simulation

Dufaud, Thomas 25 November 2011 (has links)
Un préconditionneur à deux niveaux, reposant sur la technique d’accélération d’Aitken d’une suite de q vecteurs solutions de l’interface d’un pro- cessus itératif de Schwarz Additif Restreint, est conçu. Cette nouvelle technique, dénomée ARAS(q), utilise une approximation grossière de la solution sur l’interface. Différentes méthodes sont proposées, aboutissant au développement d’une tech- nique d’approximation par Décomposition en Valeures Singulières de la suite de vecteurs. Des implémentations parallèles des méthodes d’Aitken-Schwarz sont pro- posées et l’étude conduit à l’implémentation d’un code totalement algébrique, sur un ou deux niveaux de parallélisation MPI, écrit dans l’environnement de la biblio- thèque PETSc. Cette implémentation pleinement parallèle et algébrique procure un outil flexible pour la résolution de systèmes linéaires tels que ceux issus de la dif- férentiation automatique des solutions de Navier-Stokes dépendant des paramètres de la simulation / A two level preconditioner, based on the Aitken acceleration technique of a sequence of q interface’s solution vectors of the Restricted Additive Schwarz iterative process, is designed. This new technique, called ARAS(q), uses a coarse approximation of the solution on the interface. Different methods are discussed, leading to the development of an approximation technique by Singular Value De- composition of the sequence of vectors. Parallel implementations of Aitken-Schwarz methods are proposed, and the study leads to a fully algebraic one-level and two- level MPI implementation of ARAS(q) written into the PETSc library framework. This fully parallel and algebraic code gives an adaptive tool to solve linear systems such as those arising from automatic differentiation of compressible Navier-Stokes solution with respect to the simulation’s parameters
123

Ordre et temps. Eric Voegelin, Karl Löwith et la temporalité du politique / Order and Time. Eric Voegelin, Karl Löwith and the Politics of Time

Godefroy, Bruno 05 May 2017 (has links)
Dans le chapitre du Contrat social consacré à la mort du corps politique, Rousseau rappelle que cette mort est « la pente naturelle et inévitable des Gouvernements les mieux constitués ». En effet, poursuit-il, « si Sparte et Rome ont péri, quel État peut espérer de durer toujours ? Si nous voulons former un établissement durable, ne songeons donc point à le rendre éternel ». Malgré l’avertissement de Rousseau, la tendance à rendre l’ordre politique éternel semble être un phénomène constant, jusqu’à nos jours. En témoigne l’idée d’une « fin de l’histoire » résultant de l’alliance du capitalisme et de la démocratie libérale, ou d’un modèle occidental se comprenant comme la réalisation du seul but de l’histoire, à laquelle ne s’opposeraient que des puissances « retardatrices ». À travers ces phénomènes se manifeste une « politique du temps », un discours de légitimation de l’ordre politique donnant un sens politique à sa dimension temporelle.Compris de cette manière, le problème que pose la « politique du temps » ne peut être abordé par une critique limitée à ses derniers avatars, telle la thèse de la fin de l’histoire. Il est au contraire nécessaire de remonter à la racine du problème, c’est-à-dire à la place qu’occupe cette question au sein du rapport entre temps et politique. Si la politique du temps s’avère aussi tenace, c’est en effet parce qu’elle s’inscrit dans un questionnement intrinsèquement lié à l’ordre politique, confronté à la nécessité d’assurer son « être-dans-le-temps ». La politique du temps répond à cette nécessité par une politisation du temps et de l’histoire pouvant conduire, dans sa forme extrême, à une éternisation de l’ordre politique, qui prétend alors englober la totalité du temps, du passé au futur.Compte tenu de la persistance de cette conception temporelle de l’ordre politique, de même qu’il ne suffit pas de limiter la critique à ses avatars actuels, de même serait-il impropre de la diriger contre sa seule forme extrême, dans la mesure où ce sont précisément certains discours proclamant la fin des idéologies qui tendent à reproduire aujourd’hui les structures de la politique du temps. Par conséquent, ce n’est qu’en abordant dans son ensemble le problème formé par la atemporalisation du politique et la politisation du temps qu’il est possible d’attaquer à la racine ce type de discours de légitimation, sous toutes ses formes.Pour mener à bien ce projet, deux objectifs complémentaires, correspondant aux deux fils directeurs de l’analyse, sont traités en parallèle. D’une part, nous proposons de systématiser la question du temps politique afin de montrer les grands traits communs aux phénomènes qui s’y rattachent et quelles directions s’ouvrent à la critique. Le second axe de lecture met l’accent sur les œuvres d’Eric Voegelin et de Karl Löwith en tant qu’elles apportent une contribution décisive tant à la systématisation du problème que, surtout, à son dépassement.Notre hypothèse de départ est que Löwith et Voegelin eux-mêmes sont conscients de la relation problématique entre temps et politique et cherchent, par l’intermédiaire de la dimension temporelle, à aborder un problème politique dont l’importance s’explique non seulement par la situation historique à laquelle ils sont directement confrontés, mais aussi par sa valeur systématique intrinsèque, en tant qu’il représente une évolution de la conception du politique. Tous deux sont convaincus de la nécessité de surmonter le nihilisme et l’absence de toute fondation durable en tant que tels, c’est-à-dire de surmonter la temporalisation radicale de l’ordre politique, mais également les tentatives visant à l’éterniser. C’est dans ce cadre que prennent sens leurs projets, qui cherchent à dissocier le politique et le temps et, en repensant leur relation, à éviter que tout point de référence permanent ne soit dissout par le cours du temps sans toutefois produire une éternité artificielle et absolue. / In the chapter of the Social Contract on the death of the body politic, Rousseau emphasizes that its death is “the natural and inevitable propensity even of the best constituted governments”. Indeed, he continues, “if Sparta and Rome have perished, what state can hope to last for ever? If we want the constitution we have established to endure, let us not seek, therefore, to make it eternal”. Despite Rousseau’s warning, the tendency to make the political order eternal seems to be a pervasive phenomenon even in our time, as can be seen in the idea of an “end of history” that results from the combination of capitalism and liberal democracy, or in a Western model conceived as the realisation of the sole aim of history that only “delaying” powers would resist. These are examples of a “politics of time”, a concept that refers to a type of discourse contributing to the legitimization of the political order by giving a political meaning to its temporal dimension. Understood in this way, the problem of the “politics of time” cannot be addressed by focusing only on its recent developments, such as the “end of history” thesis, it is also crucial to understand these developments in the broader context of the relation between time and politics. Consequently, only a fundamental critique can put an end to the “politics of time”. The origin of the persistence of the “politics of time” has to be traced back to an essential problem that the political order is facing, namely the necessity to ensure its existence in time. The “politics of time” answers this problem by politicizing time and history, which can lead, in its most extreme form, to an eternisation of the political order that pretends to last for all time.Considering that this temporal conception of the political order is still widely present in many contemporary discourses, it would be insufficient to limit the critique to contemporary phenomena or to the extreme forms of the politics of time in modern ideologies, since precisely some proclamations of the end of ideologies tend to repeat the structure of the politics of time. It is therefore necessary to tackle the problem of the temporalisation of politics and politicisation of time as a whole. This is the only way to question the different occurrences of this kind of legitimising discourse.To achieve this, this study has two parallel aims. First, I begin by reconstructing a systematic account of the question of political time in order to highlight the main characteristics of the phenomena that are related to it. My second aim is to analyse Eric Voegelin’s and Karl Löwith’s works regarding their contribution to the systematisation of the problem, but first and foremost insofar as they offer an answer to it.Central to this work is the claim that Löwith and Voegelin not only develop a theory of the problematic relation between time and politics, but also defend a solution to tackle this problem. This problem, as they see it, is not restricted to their particular historical situation but remains of interest as an evolution of the concept of the political itself. Both Löwith and Voegelin are convinced that nihilism and the lack of any durable foundation must be overcome as such or, in other words, that it is necessary to overcome not only the temporalisation of the political order but also the attempts to “eternalise” it. The meaning and significance of Löwith’s and Voegelin’s projects appear clearly in this framework, as they can be seen as two attempts to dissociate the political from the temporal and, by reworking this relation, to prevent the relativisation of any durable foundation in the flow of time without, however, creating an artificial and absolute eternity.
124

Wind-induced vibrations in tall timber buildings : Design standards, experimental and numerical modal analyses

Landel, Pierre January 2022 (has links)
Climate change and densification of cities are two major global challenges. Inthe building and construction industry, there are great expectations that tall timberbuildings will constitute one of the most sustainable solutions. First, verticalurban growth is energy and resource-efficient. Second, forest-based productsstore carbon and have one of the highest mechanical strength to density ratios.If the structural substitution of concrete and steel with wood in high-rise buildingsawakens fears of fire safety issues, engineers and researchers are particularlyworried about the dynamic response of the trendy tall timber buildings.Indeed, due to the low density of wood, they are lighter, and for the same height,they might be more sensitive to wind-induced vibrations than traditional buildings.To satisfy people’s comfort on the top floors, the serviceability design oftall timber buildings must consider wind-induced vibrations carefully. Architectsand structural engineers need accurate and verified calculation methods,useful numerical models and good knowledge of the dynamical properties oftall timber buildings. Firstly, the research work presented hereby attempts to increase the understandingof the dynamical phenomena of wind-induced vibration in tall buildings andevaluate the accuracy of the semi-empirical models available to estimate alongwindaccelerations in buildings. Secondly, it aims at, experimentally and numerically,studying the impact of structural parameters – masses, stiffnesses anddamping – on the dynamics of timber structures. Finally, it suggests how talltimber buildings can be modeled to correctly predict modal properties and windinducedresponses. This research thesis confirms the concerns that timber buildings above 15-20stories are more sensitive to wind excitation than traditional buildings with concreteand steel structures, and solutions are proposed to mitigate this vibrationissue. Regarding the comparison of models from different standards to estimatewind-induced accelerations, the spread of the results is found to be very large.From vibration tests on a large glulam truss, the connection stiffnesses are foundto be valuable for predicting modal properties, and numerical reductions withsimple spring models yield fair results. Concerning the structural models of conceptualand real tall timber buildings, numerical case studies emphasize the importanceof accurately distributed masses and stiffnesses of structural elements,connections and non-structural building parts, and the need for accurate dampingvalues. / Klimatförändringar och förtätning av städer är två stora globala utmaningar. Inom bygg- och anläggningsbranschen finns det stora förväntningar på att höga trähus ska utgöra en av de mest hållbara lösningarna. Dels är vertikal förtätning i städer energi- och resurseffektiv, dels lagrar skogsbaserade produkter kol och har dessutom ett av de högsta förhållanden mellan mekanisk styrka och densitet. Om den strukturella ersättningen av stål och betong med trä i höghus väcker farhågor ur brandsäkerhetssynpunkt, är ingenjörer och forskare särskilt oroliga för den dynamiska responsen i de trendiga högre trähusen. På grund av träets låga densitet blir de lättare, och för samma höjd kan de vara känsligare för vindinducerade vibrationer än traditionella byggnader. För att tillfredsställa människors komfort på de översta våningarna måste projektören av höga trähus noga överväga vindinducerade vibrationer i bruksgränstillstånd. Arkitekter och byggnadsingenjörer behöver noggranna och verifierade beräkningsmetoder, användbara numeriska modeller och goda kunskaper om höga träbyggnaders dynamiska egenskaper. För det första avser detta forskningsarbete att öka förståelsen för den dynamiska effekten av vindinducerade vibrationer i höga byggnader och utvärdera noggrannheten hos de semi-empiriska modeller som finns tillgängliga för att uppskatta byggnadens accelerationer i vindriktningen. För det andra syftar det till att, experimentellt och numeriskt, studera effekterna av strukturella parametrar – massor, styvheter och dämpning – på träkonstruktioners dynamik. Slutligen undersöks hur höga träbyggnader kan modelleras för att korrekt förutsäga modala egenskaper och vindinducerade respons. Denna forskningsuppsats bekräftar farhågorna om att träbyggnader över 15-20 våningar är mer känsliga för vindexcitation än vanliga byggnader med betong- och stålstomme. Några lösningar föreslås för att mildra detta vibrationsproblem. När det gäller jämförelsen av modeller från olika standarder för att beräkna vindinducerade accelerationer visar sig spridningen av resultaten vara mycket stor. Från tester på ett stort limträfackverk visar sig förbandsstyvheterna vara viktiga för att förutsäga modala egenskaper och numeriska reduktioner med enkla fjädermodeller ger rättvisande resultat. När det gäller de strukturella modellerna av konceptuella och verkliga höga träbyggnader, betonar numeriska fallstudier vikten av exakt fördelade massor och styvheter hos byggnadselement, förband och icke-strukturella byggnadsdelar, samt behovet av exakta dämpningsvärden. / Le changement climatique et la densification des villes sont deux défis mondiaux majeurs. Dans le domaine de la construction, les bâtiments en bois de grande hauteur sont perçus comme l'une des solutions les plus durables. D'une part la croissance urbaine verticale est économe en énergie et en ressources, d'autre part les produits forestiers stockent le carbone et ont l'un des rapports résistance mécanique/densité les plus élevés. Si la substitution structurelle du bois au béton ou à l’acier dans les immeubles de grande hauteur suscite des craintes pour les problèmes de sécurité incendie, les ingénieurs et les chercheurs s'inquiètent particulièrement de la réponse dynamique des immeubles en bois de grande hauteur à la mode. En effet, du fait de la faible densité du bois, ils sont plus légers, et à hauteur égale, ils pourraient être plus sensibles aux vibrations induites par le vent que les immeubles traditionnels. Pour satisfaire le confort des personnes aux étages supérieurs, la conception des bâtiments en bois de grande hauteur doit tenir compte judicieusement des vibrations induites par le vent. Les architectes et les ingénieurs en structure ont besoin de méthodes de calcul précises et vérifiées, de modèles numériques utiles et d'une bonne connaissance des propriétés dynamiques des bâtiments en bois de grande hauteur. Premièrement, les travaux de recherche présentés ici tentent d’approfondir la compréhension des phénomènes dynamiques des vibrations induites par le vent dans les immeubles de grande hauteur et d'évaluer la précision des modèles semi-empiriques disponibles pour calculer les accélérations dans la direction du vent. Deuxièmement, ils visent à étudier expérimentalement et numériquement les impacts des paramètres structuraux – masses, rigidités et amortissements – sur la dynamique des structures bois. Finalement, ils suggèrent comment modéliser les bâtiments en bois de grande hauteur pour prédire correctement les propriétés modales et les réponses induites par le vent. Cette thèse de recherche confirme les inquiétudes selon lesquelles les bâtiments en bois de plus de 15-20 étages sont plus sensibles à l'excitation du vent que les bâtiments traditionnels en béton armé ou en acier, et des solutions sont proposés pour atténuer ce problème vibratoire. Concernant la comparaison de différentes méthodes normalisées pour estimer les accélérations induites par le vent, la grande dispersion des résultats n'est pas négligeable. À partir d'essais expérimentaux sur un grand poteau-treillis en lamellé-collé, les rigidités de connexion s’avèrent importantes pour prédire les propriétés modales et les réductions numériques avec de simples modèles à ressort donnent des résultats acceptables. Concernant la précision des modèles structuraux de bâtiments en bois de grande hauteur conceptuels ou réels, des études de cas numériques soulignent l'importance des répartitions exactes des masses et des rigidités des éléments structuraux, des connexions et des éléments de construction non structuraux, ainsi que la nécessité de valeurs d'amortissement précises.
125

Dark Matter Indirect Detection with charged cosmic rays / Parcellisation de la surface corticale basée sur la connectivité : vers une exploration multimodale

Giesen, Gaelle 25 September 2015 (has links)
Les preuves pour l'existence de la matière noire (MN), sous forme d'une particule inconnue qui rempli les halos galactiques, sont issues d'observations astrophysiques et cosmologiques: son effet gravitationnel est visible dans les rotations des galaxies, des amas de galaxies et dans la formation des grandes structures de l'univers. Une manifestation non-gravitationnelle de sa présence n'a pas encore été découverte. L'une des techniques les plus prometteuse est la détection indirecte de la MN, consistant à identifier des excès dans les flux de rayons cosmiques pouvant provenir de l'annihilation ou la désintégration de la MN dans le halo de la Voie Lactée. Les efforts expérimentaux actuels se focalisent principalement sur une gamme d'énergie de l'ordre du GeV au TeV, où un signal de WIMP (Weakly Interacting Massive Particles) est attendu. L'analyse des mesures récentes et inédites des rayons cosmiques chargés (antiprotons, électrons et positrons) et leurs émissions secondaires et les améliorations des modèles astrophysiques sont présentées.Les données de PAMELA sur les antiprotons contraignent l'annihilation et la désintégration de la MN de manière similaire (et même légèrement meilleurs) que les contraintes les plus fortes venant des rayons gamma, même dans le cas où les énergies cinétiques inférieures à 10 GeV sont écartées. En choisissant des paramètres astrophysiques différents (modèles de propagation et profils de MN), les contraintes peuvent changer d'un à deux ordres de grandeur. Pour exploiter la totalité de la capacité des antiprotons à contraindre la MN, des effets précédemment négligés sont incorporés et se révèlent être importants dans l'analyse des données inédites de AMS-02 : ajouter les pertes d'énergie, la diffusion dans l'espace des moments et la modulation solaire peut modifier les contraintes, même à de hautes masses. Une mauvaise interprétation des données peut survenir si ces effets ne sont pas pris en compte. Avec les flux de protons et d'hélium exposé par AMS-02, le fond astrophysique et ces incertitudes du ratio antiprotons sur protons sont réévalués et comparés aux données inédites de AMS-02. Aucune indication pour un excès n'est trouvé. Une préférence pour un halo confinant plus large et une dépendance en énergie du coefficient de diffusion plus plate apparaissent. De nouvelles contraintes sur l'annihilation et la désintégration de la MN sont ainsi dérivés.Les émissions secondaires des électrons et des positrons peuvent aussi contraindre l'annihilation et la désintégration de la MN dans le halo galactique : le signal radio dû à la radiation synchrotron des électrons et positrons dans le champs magnétique galactique, les rayons gamma des processus de bremsstrahlung avec le gas galactique et de Compton Inverse avec le champs radiatif interstellaire sont considérés. Différentes configurations de champs magnétique galactique et de modèles de propagation et des cartes de gas et de champs radiatif interstellaire améliorés sont utilisées pour obtenir des outils permettant le calculs des émissions synchrotrons et bremsstrahlung venant de MN de type WIMP. Tous les résultats numériques sont incorporés dans la dernière version du Poor Particle Physicist Coookbook for DM Indirect Detection (PPPC4DMID).Une interprétation d'un possible excès dans les données de rayons gamma de Fermi-LAT au centre galactique comme étant dû à l'annihilation de MN en canaux hadronique et leptonique est analysée. Dans une approche de messagers multiples, le calcul des émissions secondaires est amélioré et se révèle être important pour la détermination du spectre pour le canal leptonique. Ensuite, les limites provenant des antiprotons sur l'annihilation en canal hadronique contraignent sévèrement l'interprétation de cet excès comme étant dû à la MN, dans le cas de paramètres de propagation et de modulation solaire standards. Avec un choix plus conservatif de ces paramètres elles s'assouplissent considérablement. / Overwhelming evidence for the existence of Dark Matter (DM), in the form of an unknownparticle filling the galactic halos, originates from many observations in astrophysics and cosmology: its gravitational effects are apparent on galactic rotations, in galaxy clusters and in shaping the large scale structure of the Universe. On the other hand, a non-gravitational manifestation of its presence is yet to be unveiled. One of the most promising techniques is the one of indirect detection, aimed at identifying excesses in cosmic ray fluxes which could possibly be produced by DM annihilations or decays in the Milky Way halo. The current experimental efforts mainly focus in the GeV to TeV energy range, which is also where signals from WIMPs (Weakly Interacting Massive Particles) are expected. Focussing on charged cosmic rays, in particular antiprotons, electrons and positrons, as well as their secondary emissions, an analysis of current and forseen cosmic ray measurements and improvements on astrophysical models are presented. Antiproton data from PAMELA imposes contraints on annihilating and decaying DM which are similar to (or even slightly stronger than) the most stringent bounds from gamma ray experiments, even when kinetic energies below 10 GeV are discarded. However, choosing different sets of astrophysical parameters, in the form of propagation models and halo profiles, allows the contraints to span over one or two orders of magnitude. In order to exploit fully the power of antiprotons to constrain or discover DM, effects which were previously perceived as subleading turn out to be relevant especially for the analysis of the newly released AMS-02 data. In fact, including energy losses, diffusive reaccelleration and solar modulation can somewhat modify the current bounds, even at large DM masses. A wrong interpretation of the data may arise if they are not taken into account. Finally, using the updated proton and helium fluxes just released by the AMS-02 experiment, the astrophysical antiproton to proton ratio and its uncertainties are reevaluated and compared to the preliminarly reported AMS-02 measurements. No unambiguous evidence for a significant excess with respect to expectations is found. Yet, some preference for thicker halos and a flatter energy dependence of the diffusion coefficient starts to emerge. New stringed constraints on DM annihilation and decay are derived. Secondary emissions from electrons and positrons can also be used to constrain DM annihilation or decay in the galactic halo. The radio signal due to synchrotron radiation of electrons and positrons on the galactic magnetic field, gamma rays from bremsstrahlung processes on the galactic gas densities and from Inverse Compton scattering processes on the interstellar radiation field are considered. With several magnetic field configurations, propagation scenarios and improved gas density maps and interstellar radiation field, state-of-art tools allowing the computaion of synchrotron and bremssttrahlung radiation for any WIMP DM model are provided. All numerical results for DM are incorporated in the release of the Poor Particle Physicist Coookbook for DM Indirect Detection (PPPC4DMID). Finally, the possible GeV gamma-ray excess identified in the Fermi-LAT data from the Galactic Center in terms of DM annihilation, either in hadronic or leptonic channels is studied. In order to test this tantalizing interprestation, a multi-messenger approach is used: first, the computation of secondary emisison from DM with respect to previous works confirms it to be relevant for determining the DM spectrum in leptonic channels. Second, limits from antiprotons severely constrain the DM interpretation of the excess in the hadronic channel, for standard assumptions on the Galactic propagation parameters and solar modulation. However, they considerably relax if more conservative choices are adopted.

Page generated in 0.106 seconds