Spelling suggestions: "subject:"large scale structure"" "subject:"marge scale structure""
81 |
Etude statistique des corrélations dans la distribution des galaxies - application aux oscillations baryoniques acoustiques / Statistical study of the correlation in the galaxy distribution – application to the baryonic acoustic oscillationsLabatie, Antoine 13 December 2012 (has links)
Les Oscillations Baryoniques Acoustiques (BAOs) correspondent au phénomène d'ondes acoustiques dans le plasma baryon-photon avant la recombinaison. Ces oscillations impriment une échelle standard, correspondant à l'horizon sonique, qui peut être observée dans les grandes structures de l'Univers. De par cette propriété d'étalon standard, les BAOs permettent d'étudier la relation distance-redshift dans les catalogues de galaxies et fournissent un outil très prometteur pour étudier les propriétés de l'énergie sombre. Les BAOs peuvent être étudiés à partir des statistiques du second ordre (la fonction de corrélation ou le spectre de puissance) dans la distribution des galaxies. Dans cette thèse, on se restreint au cas de la fonction de corrélation. Les BAOs apparaissent dans la fonction de corrélation comme un faible pic à l'échelle de l'horizon sonique. Il y a deux applications principales des BAOs: la détection des BAOs et la contraintes des paramètres cosmologiques grâce à la propriété d'étalon standard. La détection du pic BAO à une échelle proche de l'échelle attendue permet de confirmer le modèle cosmologique actuel. Quant à la contrainte des paramètres cosmologiques, permettant d'étudier l'énergie sombre, il s'agit d'un objectif majeur de la cosmologie moderne. Dans cette thèse, on s'intéresse à différents problèmes statistiques concernant l'étude de la fonction de corrélation dans la distribution des galaxies, avec un accent particulier sur l'étude des BAOs. Dans la première partie, on fait une étude à la fois théorique et pratique du biais dû à la contrainte intégrale dans les estimateurs de la fonction de corrélation. On montre que ce biais est très faible pour les relevés de galaxies actuels. Dans la seconde partie, on s'intéresse à la détection des BAOs. On montre les limitations de la méthode de détection classique, et on propose une nouvelle méthode plus rigoureuse. Notre méthode permet notamment de prendre en compte la dépendance de la matrice de la covariance de l'estimateur en fonction du modèle. Enfin dans la troisième partie, on étudie à nouveau la question la dépendance de la matrice de la covariance, cette fois pour la contrainte des paramètres cosmologiques. On estime une matrice de covariance dépendant du modèle et l'on compare nos contraintes avec les contraintes obtenues en faisant l'approximation habituelle d'une matrice de covariance constante. On montre que l'effet de cette approximation est relativement faible et diminue lorsque les relevés de galaxies grandissent. / Baryon Acoustic Oscillations (BAOs) correspond to the acoustic phenomenon in the baryon-photon plasma before recombination. BAOs imprint a particular scale, corresponding to the sound horizon, that can be observed in large-scale structures of the Universe. Using this standard ruler property, BAOs can be used to probe the distance-redshift relation in galaxy catalogues, thus providing a very promising tool to study dark energy properties. BAOs can be studied from the second order statistics (the correlation function or the power spectrum) in the distribution of galaxies. In this thesis we restrict to the case of the correlation function. BAOs appear in the correlation function as a small localized bump at the scale of the sound horizon in comoving coordinates. There are two major applications of BAO study: BAO detection and cosmological parameter constraints using the standard ruler property. The detection of BAOs at the expected scale enables to confirm the current cosmological model. As for cosmological parameter constraints, enabling the study of dark energy, it is a major goal of modern cosmology. In this thesis we tackle different statistical problems concerning the correlation function analysis in the galaxy distribution, with a focus on the study of BAOs. In the first part, we make both a theoretical and practical study of the bias due to the integral constraints in correlation function estimators. We show that this bias is very small for current galaxy surveys. In the second part we study the BAO detection. We show the limitations of the classical detection method and propose a new method, which is more rigorous. In particular our method enables to take into account the model-dependence of the covariance matrix of the estimators. In the third part, we focus again on the model-dependence of the covariance matrix, but this time for parameter constraints. We estimate a model-dependent covariance matrix and compare our constraints with constraints obtained by making the usual approximation of a constant covariance matrix. We show that the effect of this approximation is quite small for current galaxy surveys and decreases with the survey size.
|
82 |
Cosmological probes of light relicsWallisch, Benjamin January 2018 (has links)
One of the primary targets of current and especially future cosmological observations are light thermal relics of the hot big bang. Within the Standard Model of particle physics, an important thermal relic are cosmic neutrinos, while many interesting extensions of the Standard Model predict new light particles which are even more weakly coupled to ordinary matter and therefore hard to detect in terrestrial experiments. On the other hand, these elusive particles may be produced efficiently in the early universe and their gravitational influence could be detectable in cosmological observables. In this thesis, we describe how measurements of the cosmic microwave background (CMB) and the large-scale structure (LSS) of the universe can shed new light on the properties of neutrinos and on the possible existence of other light relics. These cosmological observations are remarkably sensitive to the amount of radiation in the early universe, partly because free-streaming species such as neutrinos imprint a small phase shift in the baryon acoustic oscillations (BAO) which we study in detail in the CMB and LSS power spectra. Building on this analytic understanding, we provide further evidence for the cosmic neutrino background by independently confirming its free-streaming nature in different, currently available datasets. In particular, we propose and establish a new analysis of the BAO spectrum beyond its use as a standard ruler, resulting in the first measurement of this imprint of neutrinos in the clustering of galaxies. Future cosmological surveys, such as the next generation of CMB experiments (CMB-S4), have the potential to measure the energy density of relativistic species at the sub-percent level and will therefore be capable of probing physics beyond the Standard Model. We demonstrate how this improvement in sensitivity can indeed be achieved and present an observational target which would allow the detection of any extra light particle that has ever been in thermal equilibrium. Interestingly, even the absence of a detection would result in new insights by providing constraints on the couplings to the Standard Model. As an example, we show that existing bounds on additional scalar particles, such as axions, may be surpassed by orders of magnitude.
|
83 |
Cosmologie inhomogène relativiste : modèles non perturbatifs et moyennes spatiales des équations d’Einstein / Inhomogeneous Relativistic Cosmology : nonperturbative models and spatial averaging of the Einstein equationsMourier, Pierre 29 August 2019 (has links)
Dans le modèle standard de la cosmologie, la dynamique globale de l'Univers est modélisée par l'intermédiaire d'un espace-temps de référence (ou de fond) fortement symétrique, admettant des sections spatiales homogènes et isotropes. Le couplage entre les sources fluides, homogènes, et l'expansion globale, y est déterminé par les équations d'Einstein de la Relativité Générale. La formation de structures inhomogènes de matière peut également être décrite dans ce modèle. Selon l'époque et l'échelle considérées, cette description est effectuée soit à l'aide d'un schéma perturbatif relativiste supposant une faible déviation de chaque grandeur par rapport au fond homogène imposé, soit au moyen d'une approche newtonienne au sein du même fond en expansion. L'interprétation des observations dans ce modèle suggère cependant une accélération inattendue de l'expansion, qui requiert une nouvelle composante énergétique mal comprise, l' «Énergie Noire», en plus de la Matière Noire. La cosmologie inhomogène a pour but de lever les restrictions imposées par ces modèles sur la géométrie et sur les sources sans sortir du cadre de la Relativité Générale. Cela peut notamment permettre d'améliorer le modèle de formation des structures pour prendre en compte de fortes déviations par rapport à l'homogénéité dans la distribution de matière et dans la géométrie. Cela permet également d'étudier les conséquences dynamiques, appelées effets de rétroaction («backreaction»), du développement local de telles inhomogénéités sur l'expansion à de plus grandes échelles. De telles rétroactions peuvent alors reproduire, au moins partiellement, les comportements attribués à l'Énergie Noire ou à la Matière Noire. Au cours de mon travail de thèse sous la direction de Thomas Buchert, j'ai étudié plusieurs aspects analytiques de la cosmologie inhomogène en Relativité Générale. Je présente ci-dessous les résultats de travaux au sein de collaborations, auxquels j'ai apporté des contributions majeures dans le cadre de la thèse. Je me suis tout d'abord concentré sur l'écriture d'un schéma d'approximation relativiste lagrangien, pour décrire la dynamique locale des structures jusqu'à un régime non-linéaire, dans des fluides parfaits barotropes irrotationnels. Je me suis ensuite intéressé à la description effective de fluides inhomogènes admettant un tenseur d'énergie-impulsion général ainsi que de la vorticité, au moyen de deux schémas possibles de moyenne spatiale. Ces schémas s'appliquent à un choix quelconque des hypersurfaces spatiales sur lesquelles moyenner, et fournissent pour chacun de ces choix un système d'équations d'évolution effectives, présentant plusieurs termes de rétroaction, pour un domaine d'intégration suivant la propagation des sources. Cela permet une discussion qualitative de la dépendance au choix du feuilletage des équations moyennes et des rétroactions. J'ai également étudié la réécriture de ces schémas de moyennes et équations d'évolution, et d'autres obtenus de façon similaire, sous une forme unifiée et manifestement 4-covariante. Ce dernier résultat permettra une étude plus explicite de la dépendance au feuilletage / In the standard model of cosmology, the global dynamics of the Universe is modelled via a highly symmetric background spacetime with homogeneous and isotropic spatial sections. The coupling of the homogeneous fluid sources to the overall expansion is then determined by the Einstein equations of General Relativity. In addition, the formation of inhomogeneous matter structures is described either via a relativistic perturbation scheme assuming small deviations of all fields to the prescribed homogeneous background, or using Newtonian dynamics within the same expanding background, depending on the scale and epoch. However, the interpretation of observations within this model calls for an unexpectedly accelerated expansion requiring a poorly-understood `Dark Energy' component, in addition to Dark Matter. Inhomogeneous cosmology aims at relaxing the restrictions of these models on the geometry and sources while staying within the framework of General Relativity. It can allow, in particular, for an improved modelling of the formation of structures accounting for strong deviations from homogeneity in the matter distribution and the geometry. It can also study the dynamical consequences, or backreaction effects, of the development of such inhomogeneities on the expansion of larger scales. Such a backreaction may then reproduce, at least partially, the behaviours attributed to Dark Energy or Dark Matter. During my PhD under the direction of Thomas Buchert, I have been working on several analytical aspects of general-relativistic inhomogeneous cosmology. I present below the results of collaborations in which I played a major role in the context of the PhD. I first focussed on the expression of a relativistic Lagrangian approximation scheme for the description of the local dynamics of structures up to a nonlinear regime in irrotational perfect barotropic fluids. I then considered the effective description of inhomogeneous fluids with vorticity and a general energy-momentum tensor in terms of two possible schemes of spatial averaging. These schemes are applicable to any choice of spatial hypersurfaces of averaging, providing for each choice a set of effective evolution equations, featuring several backreaction terms, for an averaging region comoving with the sources. This allows for a qualitative discussion of the dependence of the average equations and backreactions on the foliation choice. I also studied the rewriting of such averaging schemes and evolution equations under a unified and manifestly 4-covariant form. This latter result will allow for a more explicit investigation of foliation dependence
|
84 |
Quinze années de recherche sur la Cosmologie des NeutrinosLesgourgues, Julien 14 March 2014 (has links) (PDF)
This work presents several works related to the impact of neutrinos in cosmology. We study the impact on the Cosmic Microwave Background of several neutrino-related parameters (mass, abundance, neutrino-antineutrino asymmetry, non-thermal distorsions, non-standard couplings with other species, mass and abundance of additional sterile neutrinos). We present new numerical methods for computing these effects efficiently. We use current data to derive several new bounds on these parameters, and finally, we study the sensitivity of future cosmological experiments to these quantities.
|
85 |
Ανάπτυξη μεθοδολογιών για τη μη-γραμμική ανάλυση κατασκευών μεγάλης κλίμακαςΜπέλεσης, Στέφανος 19 May 2011 (has links)
O σχεδιασμός και η ανάπτυξη οικονομικών προϊόντων, με ταυτόχρονη ικανοποίηση των αναγκών για υψηλές επιδόσεις και ασφάλεια αποτελεί μια από τις μεγαλύτερες προκλήσεις για τους ερευνητές μηχανικούς και τη βιομηχανία. Ειδικότερα στους τομείς της κατασκευαστικής βιομηχανίας (αεροναυπηγική, ναυπηγική, αυτοκινητοβιομηχανία, διαστημική) των οποίων τα προϊόντα παράγονται σύμφωνα με τις τεχνολογίες αιχμής, επιζητείται από το μηχανικό να σχεδιάζει νέα προϊόντα με υψηλότερες επιδόσεις, χωρίς να αγνοεί την απαίτηση για μείωση του κόστους και του χρόνου ανάπτυξης αυτών. Η τάση αυτή βρίσκει εφαρμογή κατά κύριο λόγο στην αεροναυπηγική, όπου η μείωση του αξιοσημείωτου κόστους ανάπτυξης νέων αεροσκαφών, χωρίς υποβάθμιση της ασφαλούς και υψηλής ποιότητας τους, αποτελεί βασικό και μόνιμο στόχο.
Ο κυριότερος παράγοντας που επιβαρύνει σημαντικά την ανάπτυξη νέων αεροσκαφών, τόσο από πλευράς κόστους, όσο και χρονικά, είναι οι πειραματικές δοκιμές πλήρους κλίμακας η μεγάλης κλίμακας σε συνθήκες λειτουργίας, οι οποίες επηρεάζουν σημαντικά το κόστος και το χρόνο ανάπτυξης. Οι συγκεκριμένες δοκιμές συμπεριλαμβάνονται στη διαδικασία του σχεδιασμού, με σκοπό να επαληθεύσουν τα αποτελέσματα των αντίστοιχων δομικών αναλύσεων. Η σημασία των πειραματικών δοκιμών και συγκεκριμένα εκείνων της πλήρους κλίμακας ενισχύεται από το γεγονός ότι επιβάλλονται κατά την πιστοποίηση από τις αρχές Αδειοδότησης, με δεδομένο ότι οι δομικές αναλύσεις της αντίστοιχης κλίμακας (πολύ μεγάλης η πλήρους) δεν παρέχουν ικανοποιητική αξιοπιστία.
Η παραπάνω αδυναμία να εξαχθούν ικανοποιητικά αποτελέσματα από τις δομικές αναλύσεις οφείλεται σε δύο βασικά χαρακτηριστικά της ανάλυσης των κατασκευών μεγάλης κλίμακας. Η πρόβλεψη της αστοχίας στις αεροναυπηγικές και άλλες κατασκευές απαιτεί μη-γραμμική ανάλυση, λόγω αιτιών που σχετίζονται με τη συμπεριφορά υλικού (μη-γραμμική συμπεριφορά λόγω ελαστοπλαστικής συμπεριφοράς μεταλλικών υλικών η λόγω αστοχίας συνθέτων υλικών) ή με τη συμπεριφορά της δομής (γεωμετρική μη-γραμμικότητα, προβλήματα επαφής, κλπ/). Επιπρόσθετα, στις κατασκευές αυτές υπάρχει μεγάλη διαφορά κλίμακας μεταξύ των διαστάσεων της περιοχής έναρξης και αρχικής διάδοσης της τοπικής βλάβης με τις συνολικές διαστάσεις της δομής, οι οποίες σχετίζονται με την τελική αστοχία της κατασκευής. Η προσομοίωση με αριθμητικές μεθόδους, με έμφαση στη μέθοδο των Πεπερασμένων Στοιχείων, της δομικής συμπεριφοράς μεγάλης κλίμακας κατασκευών με τα παραπάνω χαρακτηριστικά, οδηγεί σε αριθμητικά πρότυπα εκατομμυρίων βαθμών ελευθερίας, τα οποία απαιτείται να επιλυθούν με μη-γραμμικές μεθόδους. Ο συνδυασμός του μεγέθους των προτύπων αυτών με το μη-γραμμικό χαρακτήρα τους, καθιστά το πρόβλημα δυσεπίλυτο έως σήμερα με χρήση συμβατικών μεθόδων και ουσιαστικά αποτελεί την αιτία μη-αξιοποίησης των εικονικών δοκιμών (αριθμητικών αναλύσεων), στην ελαχιστοποίηση ή και την ολοκληρωτική αποφυγή των εκτενών και δαπανηρών πειραματικών δοκιμών.
Βάσει των ανωτέρω, σκοπός της παρούσας διατριβής είναι η ανάπτυξη νέων, αξιόπιστων και ολοκληρωμένων μεθοδολογιών για τη μη-γραμμική ανάλυση κατασκευών μεγάλης κλίμακας, με κύριο στόχο την ικανοποιητική πρόβλεψη τοπικών φαινομένων που συνδέονται με την έναρξη της βλάβης, αλλά και την ικανότητα να εκτείνονται έως την κατάλληλη κλίμακα (ίσως και την πλήρη), ώστε να καθίσταται δυνατός ο υπολογισμός της δομικής συμπεριφοράς της κατασκευής μέχρι την τελική αστοχία.
Στη βάση αυτή, γίνεται ανάπτυξη νέων μεθοδολογιών δομικής μη-γραμμικής ανάλυσης και προτείνονται κατάλληλες τροποποιήσεις σε ήδη καθιερωμένες μεθόδους, με σκοπό την εφαρμογή τους σε κατασκευές μεγάλης κλίμακας. Λόγω των πλεονεκτημάτων που παρέχονται από την ταχεία και συνεχόμενη εξέλιξη των ηλεκτρονικών υπολογιστών (ταχύτητα, μνήμη, λογισμικό) και την ευρεία χρήση εμπορικών πακέτων που βασίζονται στη θεωρία των πινάκων (Πεπερασμένα Στοιχεία, Συνοριακά Στοιχεία, κλπ.), οι παραπάνω μεθοδολογίες χρησιμοποιούνται ευρέως στην πρόβλεψη της δομικής συμπεριφοράς των κατασκευών στη βάση της φιλοσοφίας της ‘εικονικής δοκιμής’. Με δεδομένο ότι οι αριθμητικές μέθοδοι επίλυσης μη-γραμμικών προβλημάτων σε κατασκευές μεγάλης κλίμακας δεν παρέχουν ικανοποιητικά αποτελέσματα, όπως προαναφέρθηκε, στην παρούσα εργασία αναζητήθηκαν εναλλακτικές μεθοδολογίες και τεχνικές, για την προσέγγιση του τεχνολογικού προβλήματος από τη σκοπιά του μηχανικού και προτάθηκαν αξιόπιστες λύσεις με δυνατότητα εφαρμογής σε βιομηχανικό περιβάλλον.
Η διαδικασία που ακολουθήθηκε αποτελείται από τέσσερις βασικούς άξονες, την γραμμική αριθμητική ανάλυση των τάσεων ολόκληρης της δομής μεγάλης κλίμακας, τον έλεγχο για πιθανή εμφάνιση τοπικής μη-γραμμικής συμπεριφοράς, την τοπική ανάλυση αστοχίας (μη-γραμμική ανάλυση) και μια σειρά κατάλληλων τεχνικών για τον προσδιορισμό της συνεισφοράς των περιοχών με τοπική μη-γραμμικότητα στη δομική συμπεριφορά ολόκληρης της δομής. Όλα τα βήματα της διαδικασίας πραγματοποιήθηκαν στη βάση της μεθόδου των Πεπερασμένων Στοιχείων. Η γραμμική αριθμητική ανάλυση τάσεων της κατασκευής έγινε με χρήση αριθμητικών προτύπων που προσομοιώνουν ολόκληρη την κατασκευή, χωρισμένων σε τμήματα, ανάλογα με την γεωμετρική επαναληψιμότητα που πιθανώς εμφανίζει η γεωμετρία. Οι τάσεις που υπολογίστηκαν χρησιμοποιήθηκαν στην πρόβλεψη τα εμφάνισης τοπικής μη-γραμμικότητας με τη βοήθεια κατάλληλα ανεπτυγμένων κριτηρίων, ανάλογα με το είδος της μη-γραμμικότητας που μπορεί να εμφανιστεί. Οι περιοχές μη-γραμμικότητας που ανιχνεύονται, ταξινομούνται σε σειρά κρισιμότητας και ανάλογα με το κρίσιμο επίπεδο φορτίου καθεμιάς από αυτές, επεξεργάζονται τοπικά με μη-γραμμικές αναλύσεις για την προσομοίωση της έναρξης και εξέλιξης της τοπικής μη-γραμμικότητας. Για τον υπολογισμό της συνεισφοράς των μη-γραμμικών υποπεριοχών στη δομική συμπεριφορά ολόκληρης της κατασκευής, αναπτύχθηκαν κατάλληλες τεχνικές περιγραφής της τοπικής μη-γραμμικότητας και εισαγωγής τους στα δομικά χαρακτηριστικά του αριθμητικού προτύπου της ολικής κατασκευής. Για την προσομοίωση της εξέλιξης της τοπικής μη-γραμμικότητας, από την πρώτη ανίχνευση μέχρι την τελική εξέλιξη, η διαδικασία εκτελείται βηματικά και επαναληπτικά. Αποδεικνύεται ότι κάτω από συγκεκριμένες παραδοχές, οι μεθοδολογίες για τη δομική μη-γραμμική ανάλυση κατασκευών μεγάλης κλίμακας είναι εφικτό να παρέχουν αξιόπιστα αποτελέσματα αντίστοιχα με εκείνα των πειραματικών δοκιμών πλήρους κλίμακας. Ταυτόχρονα είναι και αποτελεσματικές, δεδομένου ότι έχουν αναπτυχθεί κατάλληλα, ώστε να εστιάζουν τους διαθέσιμους υπολογιστικούς πόρους μόνο στις κρίσιμες περιοχές, μέσω της κατά απαίτησης εφαρμογής τοπικών μη-γραμμικών αναλύσεων. / The design and development of low-cost products, with simultaneous fulfilment of the requirements for higher performance and safety, is one of the biggest challenges for the research engineers and the industry. Especially in the sectors of the structural industry (aeronautics, shipbuilding, automotive, space industry) where the products are being produced according to the latest achievements of the technology, the engineer is obliged to design new products with higher proficiency, without neglecting the need for lower cost and development time. This trend has great application mainly in the aeronautical industry, where the reduction of the remarkable cost for the development of a new aircraft, without downgrading the level of safety and the quality of service comprises the main target of the current research effort.
The main factor that weighs down the development of new aircrafts, as far as the cost and the time is concerned, is the required experimental tests of the full / large scale under service loads, which affect significantly the development cost and the time to market. These tests are included in the design process, in order to verify the results of the corresponding structural analyses. The importance of the experimental tests and specifically these of the full scale level is amplified by the fact that they are being imposed during the certification process by the Airworthiness Authorities, since the structural analyses of the corresponding scale (full scale) do not provide adequate results.
The above mentioned inability of the structural analyses of providing adequate results is based on two main characteristics of the large scale structures. Firstly, the failure prediction in aeronautical (among others) structures requires non-linear analysis, for reasons related to the material behaviour (non-linear behaviour due to composite material damage, elastoplastic behaviour of metallic materials) and the structural behaviour (geometrical non-linearity, contact problems). Secondly, in these structures there is great difference between the dimensions of the local damage initiation region and the dimensions of the whole structure, with the latter being related with the total collapse. The simulation with numerical methods, especially with the use of Finite Elements, of the structural behaviour of large scale structures with the above characteristics, leads to million DOFs (Degrees Of Freedom), whose solution requires non-linear numerical methods. The combination of the size of these models with their non-linear nature renders the problem non-solvable using conventional methodologies and is in fact the reason for the, up to now, not thoroughly utilization of virtual testing (numerical simulations), that would lead to the minimization of the number or even to the complete avoidance of the extensive and costly experimental tests.
Based on the above, main objective of this Thesis is the development of new, reliable and integrated methodologies for the non-linear analysis of large scale structures, targeting mainly in the satisfactory prediction of phenomena related to the initiation of local damage, but also being able to evolute up to the appropriate scale (maybe full scale), in order to account the structural behaviour of the whole structure up to the total collapse.
On this basis, innovative methodologies are being developed for the structural non-linear analysis and appropriate modifications are proposed for already well-established techniques, in order to be applied on large scale structures. Due to the advantages offered from the rapid and constant progress of computers (speed, memory, software) and the wide usage of commercial tools that are based on the matrix theory (Finite Elements, Boundary Elements), the above mentioned methodologies were developed based on the philosophy of ‘virtual testing’. Due to the fact that the numerical solution methods for non-linear problems in large scale structures are not able to provide adequate results, as mentioned previously, in the present work alternative methodologies and techniques were investigated, approaching the technological problem from the engineer’s view and reliable solutions applicable to an industrial environment were proposed.
The procedure that was followed consists of four basic keystones: the linear numerical stress analysis of the whole structure, the check for possible local non-linear behaviour, the local damage analysis (non-linear analysis) and a series of appropriately configured sub-routines, able to redefine the contribution of the regions exhibiting local damage in the structural behaviour of the whole structure. All the routines of the proposed methodologies were accomplished using the commercial Finite Element code ANSYS. The linear numerical stress analysis of the structure was carried out with the use of numerical models simulating the whole structure, divided into suitable parts, based on the geometrical repeatability. The calculated stresses were utilized for the prediction of the local damage, using properly developed damage criteria, depending on the type of non-linearity. The corresponding regions detected, were classified according to the criticality level (critical load) and were elaborated with local analyses of non-linear nature for the simulation of local damage initiation. For the accumulation of the contribution of the local damage in the structural behaviour of the whole structure, appropriate techniques were developed for the description of the local damage and its incorporation in the structural features of the numerical model of the structure. For the determination of the damage evolution, from the first detection up to the final failure, the procedure was performed in an incremental and iterative way. It was proved, that under specific assumptions, the proposed methodologies simulating the non-linear phenomena of large scale structures are capable of providing accurate results, in accordance with those of the experimental tests of full scale level. Simultaneously, the proposed methodologies become also efficient, providing that they have been developed appropriately, in order to focus the available computer resources on the non-linearly behaving regions by the ‘on demand’ application of the non-linear analyses.
|
86 |
Caving mechanisms for a non-daylighting orebodyBanda, Sraj Umar January 2017 (has links)
The sublevel caving mining method is a mass production method with potentially very low operational costs. The success of this method is dependent on, among other factors, the cavability of the orebody and the overlying rock mass. However, caving of the surrounding rock mass also results in deformations in the cap rock as well as on the ground surface above the orebody being mined. From this follows that any existing infrastructure on the ground surface must be relocated as not to be affected by the mining-induced deformations.This thesis work was undertaken to bring about a better understanding of the rock mass behavior in the cap rock of non-daylighting orebodies, with particular application to the Printzsköld orebody as part of the LKAB Malmberget Mine. Rock testing, field observations and underground mapping was conducted to characterize the rock mass in the caving environment. A methodology for identifying the caving front based on seismic monitoring data was derived by studying the Fabian orebody (which has caved to surface), and using laser scanning data for validation. The methodology was then applied to the Printzsköld orebody to identify the caving front.Numerical modeling was performed for various scenarios of the rock mass as mining proceeded. Modeling included (i) stress analysis to understand stress changes and their effects on the rock mass behavior, (ii) discontinuum numerical modeling to quantify the influence of large-scale geological structures on the cave progression, and (iii) discontinuum cave modeling to simulate possible cave mechanisms in the cap rock more explicitly. Laser scanning together with seismic event data were used to calibrate the numerical models.The numerical simulation results showed that as mining progresses, the cap rock and hangingwall were exposed to stress changes that resulted in yielding. Two failure mechanisms were predominantly at play (i) shear failure (dominant in the cap rock) and (ii) tensile failure (dominant in the hangingwall). The presence of the large-scale structures affected thenearfield stresses through slip along the cave boundaries. The effect of the structures on the far field stresses were less significant.Discontinuum modeling to explicitly simulate failure and caving involved simulating the rock mass as a jointed medium using Voronoi tessellations in 2D, and bonded block modeling (BBM) in 3D. Both the 2D and the 3D modeling results showed fair agreement when comparing the inferred boundary of the seismogenic zone, with that identified from seismic monitoring data. Predictive numerical modeling was conducted for future planned mining to assess future cave development in the cap rock. The results from 3D modeling indicated that cave breakthrough for the Printzsköld orebody is expected when mining the 1023 m level, corresponding to approximately year 2022, as per current mining plans. The 2D model was non-conservative with cave breakthrough predicted to occur when mining the 1109 m level, corresponding to the year 2028.The estimated boundary between the seismogenic and yielded zones, as defined in the Duplancic and Brady conceptual model of caving, was coinciding with, or was close to, the cave boundary in the Printzsköld orebody. This may imply that in some areas the yielded zone was not present and that the Duplancic and Brady model may not be universally applicable. Additional work is required to verify this indication, as well as to fine-tune the modeling methodology.
|
87 |
Formation & Evolution des galaxies par l'approche semi-analytique / Galaxy formation & evolution in the semi-analytical frameworkCousin, Morgane 24 September 2013 (has links)
Les modèles semi-analytiques (SAMs) constituent aujourd'hui le meilleur outils d'analyse et d'étude pour la formation et l'évolution des galaxies individuels mais également des regroupements de galaxies appelés amas. Alors qu'ils reproduisent avec succès les fonctions de masse stellaire, de corrélation à deux points, de luminosité des galaxies locales (z=0), ils échouent dans les prédictions des propriétés des galaxies plus jeunes, à plus haut décalage vers le rouge. Et ce d'autant plus que la masse stellaire est faible. Ces inconsistances entre les modèles et les observations démontrent que l'histoire de l'assemblage des ces galaxies, en relation avec l'accrétion de gaz, la formation stellaire et leurs halos de matière noire n'est pas bien comprise. Dans cette thèse, nous introduisons une nouvelle version du modèle semi-analytique GalICS et nous l'utilisons pour explorer l'impact, sur la formation stellaire des galaxies à faible masse, de la rétroaction des supernovae et des trous noirs supermassifs ainsi que des processus de photo-ionisation. Ces deux mécanismes sont communément utilisés pour réduire la formation de nouvelles étoiles dans les galaxies peu massives. Nous montrons que, même appliqué avec de très fortes efficacités, ces deux processus ne peuvent pas expliquer simultanément les fonctions de masse, de luminosité et la relation entre masse stellaire et masse des halos de matière noire pour les galaxies évoluant à grand décalage spectral. Suite à ce constat, nous introduisons deux recettes ad-hoc pour la formation stellaire. Dans un premier temps nous appliquons une forte modification de l'efficacité de formation stellaire en relation directe avec la masse de matière noire de leur halo hôte. Cette première approche conduit à de bons résultats, en particulier dans le régime des faibles masses stellaires mais il présente, par construction un profond désaccord avec la loi de formation stellaire observées par Kennicutt. Pour cela, nous introduisons une seconde modification, plus profonde, basée sur l'existence d'une composante de gaz, évoluant en périphérie des premiers disques galactiques, mais ne pouvant pas, pour des raisons encore mal comprises, former de nouvelles générations d'étoiles. Progressivement, ce gaz impropre à la formation stellaire est convertit, il alimente alors la formation d'étoile. L'introduction de ce nouveau réservoir, introduit un délai entre le moment ou le gaz s'effondre au centre du halo et le moment ou ce gaz. Ce nouveau modèle donne de très bons résultats mais il pose la question de l'origine de ce gaz impropre à la formation stellaire. Nous abordons dans cette thèse quelques piste de recherche dans le cadre de la formation des grandes structures peuplant notre Univers. / Semi-analytical models (SAMs) are currently the best way to understand the formation of galaxies and clusters within the cosmic web dark-matter structures. While they fairly well reproduce the local stellar mass function, correlation function and luminosity function, they fail to match observations at high redshift (z>3) in most cases, particularly in the low-mass range. The inconsistency between models and observations indicates that the history of gas accretion in galaxies, within their host dark-matter halo, and the transformation of gas into stars, is not well followed. In this thesis, we introduce a new version of the GalICS model and we use it to explore the impact, on the star formation and in the low-mass range, of supernovae feedback and photo-ionization. These two mechanisms are commonly used to limit the amount of gas available to form stars.We will show that, even with a strong efficiency, these two process cannot explain the observed stellar mass function, luminosity functions, and the stellar mass versus dark matter halo mass relation. We will thus introduce two ad-hoc modifications of the standard paradigm. We propose first a strong modification of the star formation efficiency as a function of the dark matter halo mass. This model produces good results, especially on the faint end of the stellar mass function, but is, by construction, in disagreement with the well known Kennicutt star formation law. We will thus introduce a deeper change, based on a no star-forming gas component, and a new gas distribution in the galaxy discs. The reservoir in which stays the no star-forming gas generates a delay between the gas accretion and star formation. This model is in very good agreement with a large set of observations. However, it poses the question of the origin of the no star-forming gas. We will discuss its origin in the framework of the large scale disturbed dynamic of high-redshift structures.
|
88 |
Large-scale structures and noise generation in high-speed jetsHileman, James Isaac 10 March 2004 (has links)
No description available.
|
89 |
Non-Gaussianity and extragalactic foregrounds to the Cosmic Microwave BackgroundLacasa, Fabien 23 September 2013 (has links) (PDF)
This PhD thesis, written in english, studies the non-Gaussianity (NG) of extragalactic foregrounds to the Cosmic Microwave Background (CMB), the latter being one of the golden observables of today's cosmology. In the last decade has emerged research for deviations of the CMB to the Gaussian law, as they would discriminate the models for the generation of primordial perturbations. However the CMB measurements, e.g. by the Planck satellite, are contaminated by several foregrounds. I studied in particular the extragalactic foregrounds which trace the large scale structure of the universe : radio and infrared point-sources and the thermal Sunyaev-Zel'dovich effect (tSZ). I hence describe the statistical tools to characterise a random field : the correlation functions, and their harmonic counterpart : the polyspectra. In particular the bispectrum is the lowest order indicator of NG, with the highest potential signal to noise ratio (SNR). I describe how it can be estimated on data, accounting for a potential mask (e.g. galactic), and propose a method to visualise the bispectrum, which is more adapted than the already existing ones. I then describe the covariance of a polyspectrum measurement, a method to generate non-Gaussian simulations, and how the statistic of a 3D field projects onto the sphere when integrating along the line-of-sight. I then describe the generation of density perturbations by the standard inflation model and their possible NG, how they yield the CMB anisotropies and grow to form the large scale structure of today's universe. To describe this large scale structure, I present the halo model and propose a diagrammatic method to compute the polyspectra of the galaxy density field and to have a simple and powerful representation of the involved terms. I then describe the foregrounds to the CMB, galactic as well as extragalactic. I briefly describe the physics of the thermal Sunyaev-Zel'dovich effect and how to describe its spatial distribution with the halo model. I then describe the extragalactic point-sources and present a prescription for the NG of clustered sources. For the Cosmic Infrared Background (CIB) I introduce a physical modeling with the halo model and the diagrammatic method. I compute numerically the 3D galaxy bispectrum and produce the first theoretical prediction of the CIB angular bispectrum. I show the contributions of the different terms and the temporal evolution of the galaxy bispectrum. For the CIB angular bispectrum, I show its different terms, its scale and configuration dependence, and how it varies with model parameters. By Fisher analysis, I show it allows very good constraints on these parameters, complementary to or better than those coming from the power spectrum. Finally, I describe my work on measuring NG. I first introduce an estimator for the amplitude of the CIB bispectrum, and show how to combine it with similar ones for radio sources and the CMB, for a joint constraint of the different sources of NG. I quantify the contamination of extragalactic point-sources to the estimation of primordial NG ; for Planck it is negligible for the central CMB frequencies. I then describe my measurement of the CIB bispectrum on Planck data ; it is very significantly detected at 217, 353 and 545 GHz with SNR ranging from 5.8 to 28.7. Its shape is consistent between frequencies, as well as the intrinsic amplitude of NG. Ultimately, I describe my measurement of the tSZ bispectrum, on simulations and on Compton parameter maps estimated by Planck, validating the robustness of the estimation thanks to realist foreground simulations. The tSZ bispectrum is very significantly detected with SNR~200. Its amplitude and its scale and configuration dependence are consistent with the projected map of detected clusters and tSZ simulations. Finally, this measurement allows to put a constraint on the cosmological parameters : sigma_8*(Omega_b/0.049)^0.35 = 0.74+/-0.04 in agreement with other tSZ statistics.
|
90 |
Non-Gaussianity and extragalactic foregrounds to the Cosmic Microwave Background / Non-Gaussianité et avant-plans extragalactiques au fond de rayonnement fossileLacasa, Fabien 23 September 2013 (has links)
Cette thèse, écrite en anglais, étudie la non-Gaussianité (NG) des avant-plans extragalactiques au fond de rayonnement fossile (FDC), celui-ci étant une des observables de choix de la cosmologie actuelle. Ces dernières années a émergé la recherche de déviations du FDC à la loi Gaussienne, car elles permettraient de discriminer les modèles de génération des perturbations primordiales. Cependant les mesures du FDC, e.g. par le satellite Planck, sont contaminées par différents avant-plans. J'ai étudié en particulier les avant-plans extragalactiques traçant la structure à grande échelle de l'univers: les sources ponctuelles radio et infrarouges et l'effet Sunyaev-Zel'dovich thermique (tSZ). Je décris donc les outils statistiques caractérisant un champ aléatoire : les fonctions de corrélations, et leur analogue harmonique : les polyspectres. En particulier le bispectre est l'indicateur de plus bas ordre de NG avec le plus fort rapport signal sur bruit (SNR) potentiel. Je décris comment il peut être estimé sur des données en tenant compte d'un masque (e.g. galactique), et propose une méthode de visualisation du bispectre plus adaptée que les préexistantes. Je décris ensuite la covariance d'une mesure de polyspectre, une méthode pour générer des simulations non-Gaussiennes, et comment la statistique d'un champ 3D se projette sur la sphère lors de l'intégration sur la ligne de visée. Je décris ensuite la genèse des perturbations de densité par l'inflation standard et leur possible NG, comment elles génèrent les anisotropies du FDC et croissent pour former la structure à grande échelle de l'univers actuel. Pour décrire cette dite structure, j'expose le modèle de halo et propose une méthode diagrammatique pour calculer les polyspectres du champ de densité des galaxies et avoir une représentation simple et puissante des termes impliqués. Puis je décris les avant-plans au FDC, tant galactiques que extragalactiques. J'expose la physique de l'effet tSZ et comment décrire sa distribution spatiale avec le modèle de halo. Puis je décris les sources extragalactiques et présente une prescription pour la NG de sources corrélées. Pour le fond diffus infrarouge (FDI) j'introduis une modélisation physique par le modèle de halo et la méthode diagrammatique. Je calcule numériquement le bispectre 3D des galaxies et obtiens la première prédiction du bispectre angulaire FDI. Je montre les différentes contributions et l'évolution temporelle du bispectre des galaxies. Pour le bispectre du FDI, je montre ses différents termes, sa dépendence en échelle et en configuration, et comment il varie avec les paramètres du modèle. Par analyse de Fisher, je montre qu'il apporte de fortes contraintes sur ces paramètres, complémentaires ou supérieures à celles venant du spectre. Enfin, je décris mon travail de mesure de la NG. J'introduis d'abord un estimateur pour l'amplitude du bispectre FDI, et montre comment le combiner avec de similaires pour les sources radio et le FDC, pour une contrainte jointe des différentes sources de NG. Je quantifie la contamination des sources ponctuelles à l'estimation de NG primordiale ; pour Planck elle est négligeable aux fréquences centrales du FDC. Je décris ensuite ma mesure du bispectre FDI sur les données Planck ; il est détecté très significativement à 217, 353 et 545 GHz, avec des SNR allant de 5.8 à 28.7. Sa forme est cohérente entre les différentes fréquences, de même que l'amplitude intrinsèque de NG. Enfin, je décris ma mesure du bispectre tSZ, sur des simulations et sur les cartes tSZ estimées par Planck, validant la robustesse de l'estimation via des simulations d'avant-plans. Le bispectre tSZ est détecté avec un SNR~200. Son amplitude et sa dépendence en échelle et en configuration sont cohérentes avec la carte des amas détectés et avec les simulations. Enfin, cette mesure place une contrainte sur les paramètres cosmologiques : sigma_8 (Omega_b/0.049)^0.35 = 0.74+/-0.04 en accord avec les autres statistiques tSZ. / This PhD thesis, written in english, studies the non-Gaussianity (NG) of extragalactic foregrounds to the Cosmic Microwave Background (CMB), the latter being one of the golden observables of today's cosmology. In the last decade has emerged research for deviations of the CMB to the Gaussian law, as they would discriminate the models for the generation of primordial perturbations. However the CMB measurements, e.g. by the Planck satellite, are contaminated by several foregrounds. I studied in particular the extragalactic foregrounds which trace the large scale structure of the universe : radio and infrared point-sources and the thermal Sunyaev-Zel'dovich effect (tSZ). I hence describe the statistical tools to characterise a random field : the correlation functions, and their harmonic counterpart : the polyspectra. In particular the bispectrum is the lowest order indicator of NG, with the highest potential signal to noise ratio (SNR). I describe how it can be estimated on data, accounting for a potential mask (e.g. galactic), and propose a method to visualise the bispectrum, which is more adapted than the already existing ones. I then describe the covariance of a polyspectrum measurement, a method to generate non-Gaussian simulations, and how the statistic of a 3D field projects onto the sphere when integrating along the line-of-sight. I then describe the generation of density perturbations by the standard inflation model and their possible NG, how they yield the CMB anisotropies and grow to form the large scale structure of today's universe. To describe this large scale structure, I present the halo model and propose a diagrammatic method to compute the polyspectra of the galaxy density field and to have a simple and powerful representation of the involved terms. I then describe the foregrounds to the CMB, galactic as well as extragalactic. I briefly describe the physics of the thermal Sunyaev-Zel'dovich effect and how to describe its spatial distribution with the halo model. I then describe the extragalactic point-sources and present a prescription for the NG of clustered sources. For the Cosmic Infrared Background (CIB) I introduce a physical modeling with the halo model and the diagrammatic method. I compute numerically the 3D galaxy bispectrum and produce the first theoretical prediction of the CIB angular bispectrum. I show the contributions of the different terms and the temporal evolution of the galaxy bispectrum. For the CIB angular bispectrum, I show its different terms, its scale and configuration dependence, and how it varies with model parameters. By Fisher analysis, I show it allows very good constraints on these parameters, complementary to or better than those coming from the power spectrum. Finally, I describe my work on measuring NG. I first introduce an estimator for the amplitude of the CIB bispectrum, and show how to combine it with similar ones for radio sources and the CMB, for a joint constraint of the different sources of NG. I quantify the contamination of extragalactic point-sources to the estimation of primordial NG ; for Planck it is negligible for the central CMB frequencies. I then describe my measurement of the CIB bispectrum on Planck data ; it is very significantly detected at 217, 353 and 545 GHz with SNR ranging from 5.8 to 28.7. Its shape is consistent between frequencies, as well as the intrinsic amplitude of NG. Ultimately, I describe my measurement of the tSZ bispectrum, on simulations and on Compton parameter maps estimated by Planck, validating the robustness of the estimation thanks to realist foreground simulations. The tSZ bispectrum is very significantly detected with SNR~200. Its amplitude and its scale and configuration dependence are consistent with the projected map of detected clusters and tSZ simulations. Finally, this measurement allows to put a constraint on the cosmological parameters : sigma_8*(Omega_b/0.049)^0.35 = 0.74+/-0.04 in agreement with other tSZ statistics.
|
Page generated in 0.0692 seconds