• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 116
  • 110
  • 84
  • 2
  • 1
  • 1
  • Tagged with
  • 310
  • 211
  • 147
  • 147
  • 146
  • 145
  • 144
  • 134
  • 71
  • 71
  • 71
  • 71
  • 71
  • 51
  • 46
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Study of the Gamma Ray Horizon with MAGIC as a new method to perform cosmological measurements

Blanch Bigas, Oscar 05 November 2004 (has links)
Les mesures precises de la disminució extrínseca de l'espectre, que és a causa de l'absorció de raigs de gamma en el fons extragalàctic difús, de Nuclis Galàctics Actius distribuïts en una rang de redshift gran porten a una tècnica nova per realitzar mesures de les densitats cosmològiques. Aquesta tècnica nova per a la determinació dels paràmetres cosmològics té els següents trets característics:- És independent i es comporta diferentment d'altres tècniques actualment utilitzades.- No depèn de l'existència d'una candela estàndard independent del temps com en el cas de mesures realitzades amb Supernovae 1 A, encara que depèn de l'existència d'un fons de llum extragalàctica cosmològica des del ultra violeta fins al infraroig del qual, en la primera aproximació, se suposa que és uniforme i isòtrop en escales cosmològiques.- Utilitza Nuclis Galàctics Actius com fonts, i per això pot permetre l'estudi de l'expansió del nostre univers fins als redshifts observables més alts.Un cas realista, que utilitza fonts ja conegudes així com les característiques del Telescopi MAGIC obtingudes amb simulacions de Monte Carlo, permet obtenir, en el nivell estadístic, una determinació de la densitat de matèria en contra de la densitat d'energia fosca que està al nivell del millor resultat obtingut fins ara amb observacions combinades de Supernovae 1 A. El flux per als emissors de TeV extragalàctics ben establerts i per als millors candidats d'EGRET per emetre al rang d'energia que MAGIC cobrirà ha estat extrapolat. Això permet calcular la precisió sobre la determinació d'Horitzó de Raig Gamma, que estarà al nivell del 3-5 per cent amb un temps d'observació d'aproximadament 50 hores. Les fonts considerades cobreixen rang de redshift gran (0.031 a 1.8), proporcionant per això un bon mapa de l'horitzó de raig gamma com a funció del redshift. Per mesurar els paràmetres cosmològics s'ha realitzat un ajust multi paràmetres dels paràmetres cosmològics a l'horitzó de raig gamma com a funció del redshift. Els resultats podrien millorar dràsticament a causa de la descoberta esperada d'una abundància de fonts noves.També s'ha presentat una primera opinió de les incerteses sistemàtiques principals d'origen experimental i teòric. S'ha cregut que la principal incertesa experimental sistemàtica és l'escala d'energia global dels Telescopis Cerenkov, que té un efecte molt modest sobre els ajusts dels paràmetres cosmològics. La principal sistemàtic teòric ve de la suposició del fons de llum extragalàctic ultra violeta i infraroig i la seva evolució amb el redshift, que està limitant la capacitat per mesurar paràmetres cosmològics. El coneixement actual de la llum de fons extragalàctica fan que aquestes incerteses sistemàtiques siguin les dominants i per això s'han de tractar prudentment. / Precise measurements of the extrinsic cutoff, which is due to the absorption of gamma-rays in the diffuse extragalactic background, of Active Galactic Nuclei distributed in a large redshift range lead to a new technique to perform measurements of the cosmological densities. This new technique for the determination of the cosmological parameters has the following features:- It is independent and behaves differently from other techniques currently used.- It does not rely on the existence of a time-independent standard-candle as do the Supernovae 1A measurements, although it relies on the existence of a cosmological ultra-violet to infrared extragalactic background light which, in first approximation, is assumed to be uniform and isotropic at cosmological scales.- It uses Active Galactic Nuclei as sources, and therefore may allow the study of the expansion of our universe up to the highest observable redshifts.A realistic case using already known sources as well as the characteristics of the MAGIC Telescope from Monte Carlo simulations has been shown to provide, at the statistical level, a determination of the mass density against the dark energy density that is at the level of the best present results from the combined Supernovae 1A observations. The flux for the well established extragalactic TeV emitters and the best EGRET candidates to emit at the energy range MAGIC will cover has been extrapolated. This allows estimating the precision on the Gamma Ray Horizon determination, which will be at the percent level with observation times of about 50 hours. The considered sources cover a large redshift range (0.031 to 1.8), providing therefore a good mapping of the gamma ray horizon as a function of the redshift. To measure the cosmological parameters a multi-parameter fit of the cosmological parameters to the gamma ray horizon as a function of the redshift has been performed. The results could drastically improve due to the expected discovery of a plethora of new sources.A first estimation of the main systematic uncertainties of experimental and theoretical origin has also been presented. The main experimental systematic has been estimated to be the global energy scale of the Cerenkov Telescopes, which has a very modest effect on the cosmological parameter fits. The main theoretical systematic comes from the assumption of the ultra-violet to infrared Extragalactic Background Light and its redshift evolution, which is limiting the capability to measure cosmological parameters. The current knowledge of the Extragalactic Background Light leads these systematics to dominate and therefore they have to be carefully treated.
72

Conocer y ser a través de la práctica del yoga: una propuesta feminsita de investigación performativa

Araiza Díaz, Alejandra 06 November 2009 (has links)
La presente tesis aborda el tema del conocimiento y, en menor medida, el del ser. Originalmente, tomó un punto de partida más teórico-filosófico desde una perspectiva feminista. Es así que en una primera parte trabaja cuatro capítulos, el primero de ellos desde las sospechas, desde los cuestionamientos acerca de la manera imperante de conocer en Occidente o lo que Rosi Braidotti llama falogocentrismo. El segundo emprende un acercamiento más profundo a las epistemes, a los discursos de conocimiento. El tercero se centra en la epistemología feminista. Y el cuarto advierte la necesidad de pensar el ser a partir del conocer, por tanto, es un capítulo más inscrito en la metafísica, el sujeto y el sujeto cognoscente. Para finalizar esta parte que denominé metateórica, es decir, de la teoría que habla sobre sí misma, presento un corolario en el que decido mudarme a otro campo-tema, siguiendo el concepto de Peter Spink. Mi idea era incorporar las apuestas epistemológicas feministas y así estudiar algo que me apasionara, algo que formara parte de mi propia vida cotidiana, a través de lo cual pudiese conocer poniendo en práctica el vínculo, el amor y el respeto, temas de los que habla Donna Haraway al estudiar a sus especies compañeras.De esta forma, me traslado en la segunda parte al universo del yoga, primero desde el punto de vista de la filosofía hindú (y sus obras más destacadas), así como de cuatro figuras propuestas por Vicente Merlo: el silencio de la meditación, la relación maestro-discípulo, experiencia-realización e identidad transpersonal. Posteriormente, abordo el yoga a lo largo de un capítulo histórico y teórico, en el que discuto el concepto, sus variaciones en el tiempo y las diferencias según el linaje del que provienen los maestros más destacados del siglo XX. Para finalizar, me pareció necesario construir un puente, una posibilidad de diálogo entre la primera y la segunda partes, donde se pudieran entablar ciertas conversaciones posibles a la luz de las figuras de Merlo y las principales huellas teóricas que quedaban de la primera parte. Finaliza también esta segunda parte con un corolario que defiende la idea de epistemología de la fusión.Por último y no menos importante, viene un tercer momento en el que intento poner en práctica mis principales postulados teóricos. Por una parte, la poiesis y la investigación preformativa a través de lo que denomino un experimento etnográfico, una creación personal a partir del material recogido tras un año de trabajo de campo con notas de mi curso de formación como profesora de yoga, las entrevistas a mis maestras y las notas sobre mi autopráctica o mis primeras experiencias enseñando. Y, por otra, las teorizaciones epistemológicas feministas. Comienza, entonces por un aterrizaje de la práctica del yoga a través de cuatro biografías entrelazadas. Me sitúo de esta forma al interior de una comunidad desde la que intento seguir pensando -en los dos últimos capítulos- sobre el conocimiento y el ser, los fieles compañeros de esta aventura. Hacia el final, en el último corolario, reconozco que esta empresa de conocimiento no siguió los parámetros clásicos y que, por tanto, no fue evidente en todo memento una pregunta o indagatoria en torno a la cual pensar un determinado tema. Es así que me atrevo a proponer mi idea de la investigación del caminar preguntando.Posteriormente y dada la diversidad de temáticas abordadas a lo largo de esta tesis, en lugar de presentar unas conclusiones generales, desarrollo un conjunto de líneas concluyentes que intenten cerrar cada una de las principales líneas que toca el trabajo. / This thesis addresses the issue of knowledge and to a lesser extent, of being. Originally, it took a more theoretical-philosophical point from a feminist perspective. Thus, in the first part it works four chapters, the first of them goes from suspicions, from the questions about the prevailing form of knowing in the West or what Rosi Braidotti calls phallogocentrism. The second begins a deeper approach to the epistemes, the discourses of knowledge. The third focuses on feminist epistemology. And the fourth one feels the need to think the being in relation with knowing, therefore, is a chapter that addresses the metaphysics, the subject and the knower. To end this first part called metatheoretical, that is the theory that speaks about itself, I present a corollary in which I decide to move to another field-topic, following the concept of Peter Spink. My idea was to incorporate feminist and epistemological bets and study something I'm passionate about, something that was part of my everyday life, through which I could know by implementing the link, love and respect (all these are topics that Donna Haraway studies through her companion species).Thus, I move in the second part to the world of yoga, first from the standpoint of Hindu philosophy (and its most prominent writings) as well as four figures proposed by Vicente Merlo: the silence of meditation, master-disciple relationship, experience- accomplishment and transpersonal identity. Later, I raise the yoga issue over a historical and theoretical chapter, which discusses the concept, its variations through time and differences among the lineage from which come the most significant yoga masters of the twentieth century. Finally, I found necessary to build a bridge, a possibility of dialogue between the first and second parts, where they could engage in certain possible conversations through the figures of Merlo and major theoretical traces coming from the first part. This second part also ends with a corollary that defends the idea of an epistemology of fusion.Last but not least, comes a third moment when I try to put into practice my main theoretical postulates. On the one hand, the poiesis and performative research through what I call an ethnographic experiment, a personal creation from the material collected after one year of field work with notes on my yoga teacher training course, interviews of my yoga teachers and notes on my self-practice or even reflections upon my first teaching experiences. On the other hand, I considered again the feminist epistemological theories. The chapter begins, then landing yoga practice through four interwoven biographies. I stood in this way within a community from which I tried to keep thinking, in the last two chapters-on knowledge and being, the faithful companions for this adventure. Towards the end, the last corollary recognizes that this research did not pursue classical parameters of knowledge and, therefore, a question or inquiry was not evident at every moment. Thus I ventured to propose my idea of the research of asking while walking.Subsequently, and given the diversity of issues addressed throughout this thesis, instead of presenting general conclusions, I developed a compelling set of lines to try to close each of the main ideas that the work raised.
73

Localization and Object Recognition for Mobile Robots

Ramisa Ayats, Arnau 29 June 2009 (has links)
Tot i que apareixen noves tècniques que equipen els robots amb capacitats cognitives avançades, encara s'ha dedicat poca feina a una qüestió essencial per aquestes tècniques: mètodes ràpids i robustos per a la percepció d'elements semànticament rellevants en entorns no estructurats. De fet, per un robot, ser capaç d'identificar la ubicació en que es troba i quins objectes té al voltant constitueix els fonaments sobre els quals s'aguanten la resta de processos de raonament d'alt nivell que ha de dur a terme. Amb l'objectiu de reduir una mica aquest problema, aquesta tesi se centra en els problemes de localització i reconeixement d'objectes per mitjà de tècniques de visió per computador. La primera contribució que presentem és una nova tècnica per construir signatures de llocs a partir de caracter ́ıstiques detectades en imatges panoràmiques per a ser usades com a nodes d'un mapa topològic, i un mètode de "homing" per viatjar entre els nodes del mapa. Ambdós mètodes han estat provats en diversos conjunts de proves amb resultats satisfactoris. El reconeixement d'objectes genèrics per robots mòbils és un tema d'importància cabdal de cara a afegir contingut a les representacions de l'entorn que els robots usaran en els seus processos de raonament. En conseqüència, les següents contribucions d'aquesta tesi es dirigeixen a aquest problema. Després de revisar detingudament literatura recent del camp de visió per computador, han estat seleccionats dos mètodes: el mètode de reconeixement d'objectes "SIFT" i el "Vocabulary Tree". Un cop avaluats els dos mètodes en conjunts de dades de test dif ́ıcils, centrades en els aspectes rellevants per als robots mòbils, es va concloure que, tot i que el mètode SIFT era més adeqüat per aquests, ambdós mètodes tenien propietats complementàries. Per aprofitar aquesta complementarietat, la contribució final d'aquesta tesi és un mètode d'aprenentatge per reforç per seleccionar, durant l'aplicació del procés de reconeixment d'objectes, quin dels dos mètodes és el més adequat basant-se únicament en caracter ́ıstiques de la imatge simples de calcular. Aquest mètode ha estat validat en un complex conjunt de proves de reconeixement d'objectes, fins i tot ha superat els resultats d'un expert humà en alguns casos. / Although new approaches to enable robots with advanced cognitive capabilities are being developed, still few work is being devoted to a difficult problem in which all this techniques rely: fast and robust perception methods to detect semantically relevant elements in unstructured environments. Indeed, being able to identify the robot's location and what objects lie around constitute the foundations on which almost all high-level reasoning processes conducted by a robot will build up. In order to help reduce this gap, this work addresses the problems of vision-based global localization and object recognition. The first contributions presented are a new technique to construct signatures of places to be used as nodes of a topological map from constellations of features detected in panoramic images, and a homing method to travel between such nodes that does not rely in artificial landmarks. Both methods were tested with several datasets showing very good results. General object recognition in mobile robots is of primary importance in order to enhance the representation of the environment that robots will use for their reasoning processes. Therefore, the next contributions of the thesis address this problem. After carefully reviewing recent Computer Vision literature on this topic, two state of the art object recognition methods were selected: The SIFT object Recognition method and the Vocabulary Tree method. After evaluating both methods in challenging datasets, focusing on issues relevant to mobile robotics, it was found that, although the SIFT method was more suited for mobile robotics, both had complementary properties.To take advantage of this complementarity, the final contribution of this thesis is a Reinforcement Learning method to select online which object recognition method is best for an input image based on simple to compute image features. This method has been validated in a challenging object recognition experiment, even improving the performance of a human expert in some cases.Keywords: Mobile Robotics; Vision-based localization; Object recognition; Visual Feature Detectors; Visual Feature Descriptors; Reinforcement Learning; Visual Homing
74

Implementing the Gaia Astrometric Solution

O'Mullane, William 23 March 2012 (has links)
As is the way with books in general this document is presented in the form of chapters (seven in number) devoted to individual topics relating to the overall topic of Gaia astrometric data processing. We progress logically from the satellite to the equations for the astrometry to the implementation of a software system to process Gaia observations. After this we look at a few key astrophysical issues for Gaia and explain tests which have been carried out, using the implementation, concerning these effects. A few appendices provide additional information. Here an overview paragraph is provided for each of the chapters: This introductory chapter Section 1 provides an overview of the work as well as an overview of the satellite hardware for the reader unfamiliar with Gaia. In Section 2 the equations underpinning the astrometric solution are explained and developed toward the algorithms actually coded in the system. Section 3 provides details of the Java software framework which hosts the equations previously described. The framework itself has been tuned to effectively process Gaia observations and is the main original content of the thesis. This system is known as the Astrometric Global Iterative Solution or AGIS. Having looked at the implementation, a few of the astrophysical effects and design decisions which influence the solution are described in Section 4. Although no data has yet been received from Gaia, extensive simulations have been performed in the Gaia community. Some of the AGIS tests relating to the astrophysical phenomena described in Section 4 are reported in Section 5. In this manner a demonstration of the effectiveness of AGIS is presented. A discussion and overview of the development approach adopted for A GIS is presented in Section 6. The eXtreme programming approach is particularly suited to science development and worked well for this project in the form presented. Brief conclusions are drawn in Section 7. Appendix A provides a primer on Quaternions which are used for attitude modelling. A complete list of the mind boggling acronyms used in this document appears in Appendix B. Finally some published papers are included in Appendix C. / Esta tesis presenta el marco numérico y computacional para la solución astrométrica Gaia. También cubre las consideraciones astrofísicas relativas a la solución y los aspectos relacionados con la gestión de la implementación de un sistema tan complejo.
75

New techniques for the analysis of the large scale structure of the Universe

Gil Marín, Héctor 03 May 2012 (has links)
The goal of this thesis is to study the large scale structure of the Universe from a theoretical point of view. In particular, the different chapters of this thesis focus on developing statistic tools to improve the understanding the contents of the Universe. In Chapter 1 a brief introduction of the basics of cosmology and large scale structure of the Universe is presented. This is the starting point for the thesis and provides a vital background material for all the following works developed in the other Chapters. Chapter 2 is concerned to the development of an extension of the Halo Model. We study the possibility of modifying the standard halo model dark matter haloes properties to depend not only on the halo mass but also on the halo environment. Both theoretical and observational studies indicate that properties of dark matter haloes, and specially the way they host galaxies, namely the Halo Occupation Distribution (HOD), depend not only on the mass of the halo host but also on its formation history. This formation history dependence may be related to the halo-surrounding dark matter field. In this work we present a theoretical model that allows to incorporate in a simple way this extra dependence on the environment. In this model the whole population of dark matter haloes is split in two depending on whether the haloes live in high-density environments or in low-density ones. We explore how the dark matter and the galaxy correlation function is affected by this dependence on the environment though the dark matter halo profile or the HOD respectively. In Chapter 3 we explore the possibility of improving the measurement of the growth factor using dark matter tracers. We compare the accuracy in the measurement of the growth factor using a single and two different biased dark matter tracers separately. We make use of realistic bias models, which include non-linear and stochastic parameters, and we calibrate them using dark matter simulations and using haloes of a certain binmass as tracers. We expect that using this method the sample variance could be reduced and the accuracy of the measurements improved as previous works have shown. Chapter 4 is concerned to exploring how possible deviations of General Relativity can be detected using the bispectrum technique. We work with a suit of cosmological simulations of modified gravitational action f (R) models, where cosmic acceleration is induced by a scalar field that acts as a fifth force on all forms of matter. The goal is to see how the bispectrum of the dark matter field on mildly non-linear scales is modified by the extra scalar field. In particular we are interested in see which is the effect on the bispectrum, when different gravity models present the same power spectrum at late times. In Chapter 5 we propose a new simple formula to compute the dark matter bispectrum in the moderate non-linear regime (k < 0.4 h/Mpc) and for redshifts z ≤ 1.5. Our method is inspired by the approach presented by Scoccimarro and Couchman (2001), but includes a modification of the original formulae and a prescription to better de- scribe the BAO oscillations. Using ΛCDM simulations we fit the free parameters of our model. We end up with a simple analytic formula that is able to predict accurately the bispectrum for a ΛCDM Universe including the effects of Baryon Acoustic Oscillations. The major conclusions of the works presented in the thesis are summarised and discussed in Chapter 6. Also the possible future projects are discussed. / La cosmologia és la disciplina que estudia l’Univers com a conjunt. L’objectiu és indagar i entendre l’origen, l’evolució, l’estructura i el destí final del cosmos, així com les lleis que el regeixen. Actualment la cosmologia es fonamenta en la teoria del Big Bang, que engloba l’astronomia observacional i la física de partícules. A cosmologia, el terme d’estructura a gran escala es refereix a la caracterització de la distribució de matèria i radiació a escales típicament superiors a 10Mpc (desenes de milions d’anys llum). Les missions científiques de mapeig i cartografiat del cel han proporcionat informació essencial sobre el contingut i les propietats d’aquesta estructura. S’ha determinat que l’organització de l’Univers a aquestes escales segueix un model jeràrquic amb una organització superior de supercúmuls i filaments. A escales superiors no s’ha trobat evidència de cap estructura continuada. A aquest fenomen se’l coneix com el Final de la Grandesa. L’objectiu d’aquesta tesi és l’estudi de l’estructura a gran escala de l’Univers des d’un punt de vista teòric. En particular els diferents capítols d’aquesta tesi se centren en desenvolupar eines estadístiques per millorar l’enteniment de la natura dels constituents de l’Univers. En el Capítol 1 es presenta una introducció als conceptes bàsics de la cosmologia actual amb èmfasi en l’estructura a gran escala de l’Univers. En el Capítol 2 es presenta una extensió al models d’halos clàssic on s’inclou una dependència dels halos amb l’entorn. Amb aquest tipus de models s’espera poder explicar millor com les galàxies es distribueixen al cosmos d’acord amb les seves propietats físiques. En el Capítol 3 es presenta un mètode per determinar paràmetres cosmològics tals com el factor de creixement. L’avantatge de la tècnica presentada aquí és que permet reduir l’efecte de la variància còsmica que domina quan estudiem les escales pròximes a la grandària de l’Univers observat. En el Capítol 4 s’utilitza la tècnica del bispectre per determinar com de diferent és la Relativitat General de les teories de gravetat modificada al nivell de la funció de correlació de tres punts. En el Capítol 5 presentem una fórmula analítica pel càlcul del bispectre de matèria fosca calibrada a partir de simulacions de N-cossos. Finalment en el Capítol 6 presentem les conclusions d’aquesta tesi i les perspectives futures. Esperem que els treballs i esforços realitzats, així com els resultats obtinguts en aquesta tesi sigui útils per futurs projectes científics. En particular, esperem que les tècniques que aquí es presenten combinades amb dades de missions científiques de cartografiat i mapeig de galàxies puguin ser útils per extreure informació rellevant sobre l’evolució i estructura del cosmos i que així puguin ajudar a desentrellar la natura i les propietats de la matèria i energia fosca.
76

Optimization and control of feb-batch fermentation processes by using artificial neural systems

Valencia Peroni, Catalina 16 December 2002 (has links)
This work focuses on the application of neural networks in the areas of modelling, identification, control and optimization of biothechnology processes, mainly fed-batch bioreactors. The basic ideas and techniques of artificial neural networks are presented with the notation familiar to control engineers. The applications of a variety of neural network architectures in control and control schemes are first surveyed. Some especific fed-batch bioreactor processes are mentioned to illustrate particular control cases to be examimined in detail and solved. Especifically, a non-linear multivariable bioreactor control problem is used as a case study for model based control techniques. An implementation of direct and inverse process control models based on neural networks that considers biological, thermal and pH effects for this multivariable fed-batch bioreactor is performed and tested. Multilayer perceptrons and radial basis functions neural networks are considered to model this type of non-linear multi-input multi-output (MIMO) dynamic process. The direct models are successfully tested under steady state, dynamic process operation and when a acid disturbance in the process causes a plant/model mismatch. The inverse process model is also successfully tested at the set-point input with a random series of perturbations around the plant operation state. The RBF architecture with goal 3.0 is the best architecture for the direct model of this multivariable process while the best inverse model is based on a MLP 19-11-7-1 trained including past information of the steady states of the process. On the other hand, optimal control techniques that employ neural networks are studied to optimize the production of invertase in a fed-batch bioreactor. The controlled addition of substrates is used in this bioreactor process to increase productivity when end-product inhibition or catabolite repression are present. Cloned invertase production in Saccharomyces cerevisiae yeast is carried out in fed-batch mode of operation because the enzyme expression is repressed at high glucose concentrations. An optimal glucose feed rate profile is needed to achieve the highest fermentation profit. The controller has to find at each time step an optimal control action that increments the fed-batch bioreactor profitability, even when a disturbance or a set-point change arise. This optimal control action increases the productivity and, within the same optimization process, finds the optimal fermentation ending time. This double optimization is a novelty not met by previous optimization schemes published in the literature. A neuro dynamic programming (NDP) approach coupled with MLP neural networks or fuzzy ARTMAP systems is employed to accomplish these optimization objectives. Fuzzy ARTMAP creates multidimensional category maps by incremental supervised learning. The optimization method utilizes suboptimal control policies as a starting guess. The neural networks are used to build a cost surface in the state space visited by the process. Bellman's iteration is used to improve the cost approximation. The cost surface obtained is implemented into a control system. The controller is tested for different fermentation processes started with different initial fermentation volumes. NDP outperforms other optimization methods employed to find an optimal feeding profile. Besides, it can be used to optimize any fermentation process (starting at different initial conditions) because the future costs (profits) are characterized as a function of system states. The optimal control trajectories found by the controller are similar to the best suboptimal policy for each initial volume. MLP-NDP controllers yield the highest profits, but the manipulated variable trajectories are not smooth. Fuzzy ARTMAP-NDP overcomes this limitation. The best fuzzy ARTMAP-NDP based control system is also tested when an abrupt death of yeast cells occurs. In this case, the controller performance is better than the performance of the fermentation using the best suboptimal policy for the given initial volume.The integration of control science with neural networks in a unified presentation and identification key areas is a path to follow in future research. Artificial neural networks techniques can be succesfully applied to control fed-batch bioreactors. / Optimización y Control de Procesos de Fermentación Fed-batch a través de Sistemas Neuronales ArtificialesLos procesos de fermentación son ampliamente utilizados en la industria química, farmacéutica y alimentaria. La producción de comida para animales, yogures, quesos, cerveza, colorantes para comida, fertilizantes, medicinas terapéuticas y penicilina, entre otros, son algunos ejemplos de procesos biotecnológicos. En una búsqueda rápida en Internet, cerca de 113000 sitios fueron encontrados, todos ellos relacionados con productos de procesos de fermentación.El campo de aplicación de la bioingeniería abarca desde los procesos tradicionales de fermentación de vinos hasta la industrialización de no solo la producción de cerveza, queso y leche; sino también de nuevos productos biotecnólogicos como son los antibióticos, enzimas, hormonas, vitaminas, azucares y ácidos orgánicos. Desde tiempos remotos los microorganismos han sido utilizados por el hombre en la producción de alimentos esenciales, como el pan o el queso. El arte de hacer vino ha pasado de padre a hijo desde el antiguo Egipto. Solo hasta finales del siglo XIX, gracias a los estudios del químico y microbiólogo Louis Pasteur, nació la biotecnología como ciencia. La definición actual de biotecnología, según la OCDE, es la aplicación de la ciencia y la tecnología tanto a organismos vivos como a partes, productos y modelos de ellos, con el propósito de modificar tanto materia viva como la no viva con el fin de producir conocimiento, bienes y servicios.Un proceso de fermentación es un proceso químico en el cual se emplean microorganismos para obtener un producto en particular, aprovechando la selectividad de los microorganismos para producir un determinado compuesto. Los procesos de fermentación son llevados a cabo en un bioreactor. Un bioreactor es un recipiente en el cual microorganismos son cultivados de manera controlada y/o materia prima es convertida o transformada debido a reacciones biológicas.En una fermentación, es necesario un control adecuado de todas las variables de proceso, debido a que cualquier cambio inesperado en el valor de alguna de ellas puede afectar el desarrollo de los microorganismos y en consecuencia disminuir la productividad del bioreactor. El principal objetivo de controlar un proceso de fermentación es maximizar la producción de microorganismos u otros compuestos metabólicos. Avances recientes en ingeniería genética han aumentado la importancia del adecuado control de los procesos biotecnólogicos. El uso de células de mamíferos o microorganismos en la producción de moléculas complejas requiere el análisis y control de todas las variables de proceso, tales como temperatura, concentración de oxigeno y pH.El presente trabajo se centra en la aplicación de redes neuronales artificiales en las áreas de modelado, identificación, control y optimización de procesos biotecnológicos, principalmente en bioreactores del tipo fed-batch. Un bioreactor fed-batch se emplea cuando la producción de determinado compuesto de interés, es inhibida debido a la alta concentración de substrato. En un proceso fed-batch, la fermentación empieza con un volumen, concentración de microorganismos y substrato determinados y, a medida que transcurre el proceso de fermentación, el substrato se añade poco a poco, hasta que se consigue llenar el bioreactor.En este trabajo las ideas y técnicas utilizadas por las redes neuronales artificiales son presentadas con la notación familiar para un ingeniero de control. Diferentes estructuras de redes neuronales artificiales y su posible aplicación a diferentes sistemas de control son resumidas. También son presentados algunos procesos de fermentación fed-batch. Dichos procesos son empleados para ilustrar casos específicos de problemas control. Específicamente, un modelo no lineal y multivariable de un bioreactor es empleado para ilustrar las técnicas de control basadas en el modelo del proceso. Un modelo para la producción de invertasa a través de la levadura Saccharomyces cerevisiae es empleado para ilustrar las técnicas de optimización y control.Dentro de las técnicas de control basadas en el modelo del proceso, se implementó un modelo directo y uno inverso de la fermentación multivariable antes mencionada. Ambos modelos, basados en redes neuronales artificiales, consideran efectos biológicos, térmicos y de pH. Multilayer perceptron y Radial Basis Function son las redes neuronales empleadas para la construcción de los dos modelos. Para ilustrar la fiabilidad de estos modelos, diferentes pruebas les fueron realizadas. El modelo directo del proceso de fermentación, basado en redes neuronales, fue probado en operación en estado estacionario, en estado dinámico y cuando una perturbación en el ácido causa que el pH del proceso sea diferente. El modelo inverso del proceso de fermentación fue probado haciendo cambios aleatorios en el punto de referencia. Con la arquitectura Radial Basis Function se obtuvo el mejor modelo directo. Para el modelo inverso del proceso de fermentación, se encontró que la mejor arquitectura es la multilayer perceptron 11-7-1, entrenada con informacion de los estados estacionarios del proceso.Por otro lado, para la optimización de la producción de invertasa es necesario encontrar el perfil de alimentación optimo, de manera que la productividad del bioreactor sea máxima y el tiempo de fermentación sea mínimo. Este doble objetivo de optimización es una novedad y no ha sido antes obtenido por otros esquemas de optimización previamente publicados. El objeto del controlador debe ser hallar a cada instante de tiempo la acción optima de control, es decir, cada vez encontrar cual es el flujo de alimentación adecuado para cumplir el doble objeto de la optimización. En este trabajo se utiliza la programación dinámica neuronal (NDP) con el fin de implementar dicho controlador. Esta técnica emplea redes multilayer perceptron o fuzzy ARTMAP para realizar la optimizacion del proceso. NDP utiliza perfiles de alimentación subóptimas como suposición inicial. A través de esta suposición, una red neuronal es empleada para construir la superficie de costos en el espacio de los estados del proceso. Esta superficie de costos se mejora a través de la iteración de Bellman. Una vez obtenida una buena aproximación a la superficie de costos óptima, esta es implementada en un sistema de control que hace uso también de la ecuación de Bellman. El controlador es probado en diferentes condiciones de operación del proceso de fermentación, específicamente cuando la fermentación comienza con diferentes volúmenes iniciales. Al comparar la metodología empleada se encontró que esta es mejor que otros métodos de optimización utilizados con el mismo fin, debido a que la metodología NDP puede ser usada en diferentes procesos de fermentación sin necesidad de realizar una optimización on-line. Las trayectorias óptimas encontradas por el controlador son similares a la trayectoria seguida por el mejor de los perfiles subóptimos. Con multilayer perceptron- NDP se obtienen los mas altos rendimientos pero la trayectoria de variable manipulada es muy abrupta. Con fuzzy ARTMAP-NDP no se presenta este problema. El controlador que implementa fuzzy ARTMAP-NDP es probado también cuando hay un cambio brusco en la concentración de células. El 50% mueren. En este caso el desempeño del controlador es mejor que el rendimiento de la fermentación cuando la mejor de los perfiles de alimentación subóptimas es utilizado.Por último se puede decir que la integración de la ingeniería de control con las redes neuronales es un fructífero camino a seguir por futuras líneas de investigación ya que las redes neuronales artificiales pudieron ser empleadas con éxito en el control de bioreactores fed-batch.PublicacionesValencia C., Giralt J., Arenas A., Giralt F., Implementation of a non-linear multivariable (MIMO) process control model of a fed-batch bioreactor with neural networks. Poster Session: Topics in systems and process control, AIChE annual meeting Reno 2001.Valencia C., Giralt J., Arenas A., Giralt F., Non-linear multivariable (MIMO) process control model of a fed-batch bioreactor with neural networks. Submitted to Chemical Engineering Science. 2002Valencia C., Lee J.H., Kaisare N.S., Final time and productivity optimization of a fed-batch bioreactor for invertase production. Presented at Control of Pharmaceutical and Biological Processes Session 347, AIChE annual meeting, Indianapolis 2002.Valencia C., Giralt J., Arenas A., Giralt F., Optimization of invertase production in a fed-batch bioreactor using dynamic programming coupled with fuzzy ARTMAP, to be submitted to Biotechnology and Bioengineering 2002 / Optimització i Control dels Processos de Fermentació Fed-batch a través de Sistemes Neuronals ArtificialsEls processos de fermentació són amplament utilitzats en l'indústria química, farmacèutica i alimentaria. La producció de menjar per a animals, iogurts, formatge, cervesa, colorants per aliments, fertilitzants, medicines terapèutiques i penicil·lina entre altres, són alguns exemples de processos biotecnològics. En una recerca ràpida a Internet, cerca de 113000 llocs van ser trobats, tots ells relacionats amb productes de processos de fermentació.El camp d'aplicació de la bioenginyeria avarca des d'els tradicionals processos de fermentació de vi fins a l'industrialització de no solament la producció de cervesa, formatge i llet; sinó també de noves productes biotecnològics com són els antibiòtics, enzims, hormones, vitamines, sucres i àcids orgànics. Des de temps remots els microorganismes van ser utilitzats per l'home en la producció d'aliments bàsics, com el pa o el formatge. L'art de fer vi a passat de pares a fills des d'l antic Egipte. Només fins a finals del segle XIX, gràcies als estudis del químic i microbiòleg Louis Pasteur, va nàixer la biotecnologia com a ciència. La definició moderna de biotecnologia, segons la OCDE, és l'aplicació de la ciència i la tecnologia tant als organismes vius com a les seves parts, productes i models d'ells, amb el propòsit de modificar tant la matèria viva com la no viva amb l'objecte de produir coneixements, bens i serveis.Un procés de fermentació és un procés químic que fa servir microorganismes per a obtenir un producte en particular, aprofitant la selectivitat dels microorganismes per a produir un determinat compost. Els processos de fermentació es realitzen en un bioreactor. Un bioreactor és un vaixell on els microorganismes són cultivats de forma controlada i/o matèria primera és convertida o transformada per reacciones biològiques.En una fermentació, es necessita un adequat control de totes les variables de procés, per tal que qualsevol canvi inesperat en el valor d'alguna de elles pot afectar el desenvolupament de els microorganismes i en conseqüència disminuir la productivitat del bioreactor. El principal objectiu de controlar un procés de fermentació, és maximitzar la producció de microorganismes o altres compostos metabòlics. Recents avanços en enginyeria genètica han augmentat la importància de l'adequat control dels processos biotecnològics. L'ús de cèl·lules de mamífers o microorganismes en la producció de molècules complexes necessita de l'anàlisi i el control de totes las variables de procés, tal com temperatura, concentració d'oxigen i pH.El present treball es centra en l'aplicació de xarxes neuronals artificials en les àrees de modelat, identificació, control i optimització de processos biotecnològics, principalment en bioreactors de tipus fed-batch. Un bioreactor fed-batch es fa servir quan la producció d'un determinat compost d'interès, és inhibida per l'alta concentració de substrat. En un procés fed-batch, la fermentació comença amb un volum, concentració de microorganismes i substrat determinats i a mida que transcorre el procés de fermentació, el substracte s'agrega poc a poc, fins que el bioreactor és ple.En aquell treball les idees i tècniques utilitzades per las xarxes neuronals artificials són presentades amb la notació familiar per a un enginyer de control. Diferents estructures de xarxes neuronals artificials i la seva possible aplicació a diferents sistemes de control van ser resumides. També s'han presentat alguns processos de fermentació fed-batch. Aquests processos es fan servir per il·lustrar casos específics de problemes de control. Específicament, un model no lineal i multivariable d'un bioreactor es fa servir per il·lustrar les tècniques de control basades en el model del procés. Un model per a la producció de invertasa a través del llevat Saccharomyces cerevisiae es fa servir per il·lustrar les tècniques d'optimització i control.Dins les tècniques de control basades en el model del procés, es va a implementar un model directe i un invers de la fermentació multivariable. Els dos models, basats en xarxes neuronals artificials, consideren efectes biològics, tèrmics i de pH. Multilayer perceptron i Radial Basis Function són las xarxes neuronals que es van a fer servir per a la construcció d'ambdós models. Per il·lustrar la fiabilitat d'aquests models, diferent proves van ser realitzades. El model directe del processo de fermentació, basat en xarxes neuronals, va ser provat quan el procés opera en estat estacionari, en estat dinàmic i quan una perturbació en l'àcid causa que el pH del procés sigui un altre. El model invers del procés de fermentació també va ser provat fent canvis aleatoris del punt de consigna. L'arquitectura Radial Basis Function va a ser el millor model directe que es va a trobar. Pel model invers del procés de fermentació, es va a trobar que la millor arquitectura es la Multilayer Perceptron 11-7-1, que va ser entrenada amb informació dels estats estacionaris del procés.Per una altre banda, per a l'optimització de la producció de invertasa es necessita trobar el perfil d'alimentació òptim, de manera que la productivitat del bioreactor sigui màxima i el temps de fermentació sigui mínim. Aquest doble objectiu de optimització constitueix una novetat i no ha estat obtingut per altres mètodes d'optimització prèviament publicats. L'objectiu del controlador és trobar a cada instant de temps l'acció òptima de control, és dir, cada vegada trobar quin és el flux d'alimentació correcte per complir el doble objecte de l'optimització. Aquest treball va fer servir la programació dinàmic neuronal (NDP) amb l'objectiu de implementar aquell controlador. Aquesta tècnica fa servir xarxes multilayer perceptron o fuzzy ARTMAP. Aquest mètode d'optimització utilitza perfils d'alimentació subòptimes com a suposició inicial. A través d'ella, una xarxa neuronal es utilitzada per construir la superfície de costos en l'espai dels estats del procés. Aquesta superfície de costos es millora a través de la iteració de Bellman. Una vegada obtinguda una bona aproximació a la superfície de costos òptima, aquesta es implementada en un sistema de control que fa ús de l'equació de Bellman. Aquest controlador és provat dins diferentes condiciones d'operació del procés de fermentació, específicament quan la fermentació comença amb diferents volums inicials. S'ha trobat que la metodologia emprada és millor que altres mètodes de optimització ja que es pot utilitzar en altres processos de fermentació sense la necessitat de fer una optimització on-line. Les trajectòries òptimes trobades pel controlador son similars a la trajectòria seguida pel millor dels perfils subòptims. Amb Multilayer Perceptron- NDP s'han obtingut els millores rendiments, però la trajectòria de variable manipulada és força abrupta. Amb Fuzzy ARTMAP-NDP no es presenta aquest problema. El controlador que implementa fuzzy ARTMAP-NDP és provat també quan es presenta un canvi brusc en la concentració de cèl·lules. El 50% moren. En aquell cas el desenvolupament del controlador és millor que el rendiment de la fermentació quan el millor dels perfils d'alimentació subòptimes es fan servir.Per últim es pot dir que la integració de l'enginyeria de control amb les xarxes neuronals és un camí a seguir per futures línees d'investigació. Las xarxes neuronals artificials poden, amb èxit, fer-se servir en el control de bioreactors fed-batch.
77

Some observational and theoretical aspects of cosmic-ray diffusion

Cea del Pozo, Elsa de 22 July 2011 (has links)
La Tesis contiene ciertos estudios relacionados con la difusión de rayos cósmicos. Está dividida en dos partes, una describe los modelos sobre la fenomenología de difusión de rayos cósmicos, y otra presenta las observaciones realizadas usando el experimento MAGIC y simulaciones del futuro Array de Telescopios Cherenkov (CTA, por sus siglas en inglés). En la primera parte, se introduce la teoría general más aceptada sobre la difusión de rayos cósmicos. Se cree que los remanentes de supernova (SNR) son uno de los escenarios más probables de aceleración de rayos cósmicos, tanto en procesos leptónicos como hadrónicos. El mecanismo de aceleración de partículas en cada SNR se asume que es aceleración por choque difuso (diffusive shock acceleration). Para obtener confirmación observacional de la aceleración de protones y otros núcleos, y distinguirlos de la emisión leptónica, se deben aislar los efectos de los múltiples mensajeros producidos por partículas secundarias. Partiendo de ahí, se desarrolla un modelo sobre los alrededores del SNR IC443 que explica la fenomenología de alta energía: los rayos cósmicos escapan del remanente, los más energéticos alcanzan antes la nube molecular situada delante de la misma y los menos energéticos aún permanecen confinados a los restos del SNR. Los resultados contrastados con las últimas observaciones obtenidas de la fuente explican su aparente desplazamiento cuando se observa a alta y a muy alta energía. También se presenta un modelo multi-frecuencia y multi-mensajero (fotones de todo el espectro electromagnético y neutrinos) de la emisión difusa de la galaxia con un estallido de formación estelar M82. Las predicciones para rayos gamma se comparan con (y explican satisfactoriamente) las posteriores detecciones en el rango energético comprendido entre los giga- y los tera-electronvoltios de las galaxias M82 y NGC 253, realizadas por el satélite Fermi y los experimentos en tierra H.E.S.S. y VERITAS. En la segunda parte de la Tesis, se describe la técnica de detección de rayos gamma desde tierra a través de la radiación Cherenkov. Esta técnica es explotada, entre otros, por el experimento MAGIC. Algunas de las observaciones realizadas por la estudiante con este telescopio se presentan como parte de esta Tesis. En primer lugar, se muestran los límites superiores (upper limits) al flujo de rayos gamma obtenidos con MAGIC-I sobre dos fuentes detectadas por el experimento Milagro y que se corresponden con dos fuentes brillantes del satélite Fermi en la región del SNR G65.1+0.6. Se cree que puedan tratarse de dos púlsares que inyectan energía y partículas en la nebulosa pulsada que las rodea. También se presentan resultados preliminares de observaciones en estéreo (con los dos telescopios MAGIC) del SNR IC443. El número de horas obtenido resulta insuficiente para completar el estudio morfológico dependiente de la energía para el que se enfocaba la obtención de estos datos, pero nuevas observaciones están previstas para el futuro. Finalmente, se introducen por primera vez algunas simulaciones realizadas con el futuro CTA y ciertos estudios espectrales sobre particulares casos científicos. En concreto, dichos estudios se centraron en los objetos ya discutidos en el resto de la Tesis, como el SNR IC443, las galaxias con estallido de formación estelar M82 y NGC 253, y nubes moleculares iluminadas por rayos cósmicos escapados de SNRs cercanos. El observatorio CTA representa el futuro de las observaciones de rayos gamma desde tierra, y prevé que se unan las colaboraciones de todas las instalaciones de telescopios actuales. El rango de energías se verá ampliado, la sensibilidad aumentará un orden de magnitud y la resolución angular se mejorará respecto a los experimentos existentes hoy en día. Esta Tesis representa, pues, sólo el principio de lo que queda por venir. / This Thesis deals with certain aspects on cosmic-ray diffusion. It is divided in two parts, one describes phenomenological models of cosmic-ray diffusion, and the other presents observations taken with the MAGIC experiments and simulations of the future Cherenkov Telescope Array (CTA). In the first part, the generally accepted theory for cosmic-ray diffusion is introduced. Supernova remnants (SNRs) are believed to be the more likely scenarios of cosmic-ray acceleration, considering both hadronic and leptonic processes. The mechanism for particle acceleration in each SNR is assumed to be diffusive shock acceleration (DSA). To obtain the observational confirmation of proton and nuclei acceleration, and distinguish it from leptonic emission, the effects of multiple messengers produced by secondary particles must be isolated. Following this, a model for the neighborhood of the SNR IC443 is developed, explaining the high energy phenomenology: cosmic rays escape from the remnant, the most energetic ones reach first the molecular cloud located in front of it and the least energetic ones still remain confined on the shell of the SNR. The results are confronted with the latest observations that are obtained from this source. The apparent displacement between high and very high energy detected sources is explained thanks to this model. Moreover, a multi-frequency and multi-messenger model (i.e., photons from the whole electromagnetic spectrum and neutrinos) for the diffuse emission coming from the starburst galaxy M82 is presented. The gamma-ray predictions are compared to the posterior detections in the energy range between the giga- and the tera-electronvolts of the starburst galaxies M82 and NGC 253, observed by the satellite Fermi and the ground-based experiments H.E.S.S. and VERITAS. The model explains rather satisfactorily these detections at high and very high energy. In the second part of the Thesis, the technique for the gamma-ray detection at ground level through Cherenkov radiation is described. This Cherenkov technique is used in the MAGIC experiment, among others. Some of the observations taken by the student with this telescope facility are presented as part of this Thesis. First, the upper limits to the gamma-ray flux coming from two sources in the region of the SNR G65.1+0.6 when observed with MAGIC-I are shown. These two sources were previously detected by the Milagro experiment and are associated with two bright sources in the Fermi catalog. One of the possible explanations is that these sources are two pulsars powering the pulsar wind nebula that surrounds them. Furthermore, preliminar results of the stereo observations (using the two MAGIC telescopes) of the SNR IC443 are presented. The goal for these observations is performing an energy-dependent morphological study. So far, the obtained number of hours is not enough, although new observations are planned for the near future. Finally, some simulations for the future CTA are presented for the first time, together with several spectral studies regarding interesting scientific cases. In particular, those studies are focused on objects that have been already mentioned in this Thesis, like the SNR IC443 and the starburst galaxies M82 and NGC 253, and also on molecular clouds that are illuminated by cosmic rays which escaped from nearby SNRs. The CTA observatory represents the future of the ground-based gamma-ray observations, and it is likely to include every collaboration from the existing telescope facilities nowadays. The energy range will be widened, the sensitivity will be one order of magnitude improved and the angular resolution will be enhanced respect to the existing experiments up to now. Thus, the present Thesis is just the tip of the iceberg of what is yet to come.
78

Search for gamma-ray emission from supernova remnants with the Fermi/LAT and MAGIC telescopes

Reichardt Candel, Ignasi 31 October 2012 (has links)
Vegeu ircresum1de1.pdf
79

(gamma)-ray emission from regions of star formation: Theory and observations with the MAGIC Telescope

Domingo Santamaría, Eva 03 March 2006 (has links)
Es el propósito de esta tesis estudiar la posibilidad de que regiones con importante actividad en formación estelar sean fuentes de rayos gamma para los actuales y futuros detectores, ya sean detectores de rayos gamma con base en satélites como telescopios Cherenkov situados en la superficie terrestre.Tras una evaluación fenomenológica positiva de que la emisión de rayos gamma procedente de galaxias con elevada actividad en formación estelar (como las llamadas starburst o las galaxias ultra luminosas en el infrarrojo) esté cerca de la sensibilidad de los actuales detectores de rayos gamma, se han desarrollado y presentado modelos detallados de la emisión difusa multifrecuencia procedente de los dos mejores candidatos, NGC 253 y Arp 220. Se predice que ambas galaxias serán detectables para GLAST, el próximo satélite de rayos gamma con una sensibilidad sin precedentes, y por HESS y MAGIC, los actuales telescopios Cherenkov con mayor sensibilidad, en caso de que éstos dediquen suficiente tiempo de observación a estas galaxias.En la parte teórica de la tesis se describe también un modelo que propone la emisión de importantes flujos de rayos gamma en regiones de formación estelar dentro de nuestra Galaxia, como serían las asociaciones de estrellas jóvenes del tipo OB. El modelo considera la emisión de rayos gamma a energías cercanas a los TeV mediante interacciones hadrónicas en el sí de vientos estelares de algunas de las estrellas de la asociación, prediciendo a la vez que la emisión a bajas energías está sustancialmente suprimida debido al efecto de modulación que la población de rayos cósmicos primarios sufre al penetrar en el viento estelar. Se discuten brevemente los mejores candidatos entre las asociaciones OB galácticas conocidas.Finalmente, la tesis recoge un primer análisis de los datos tomados por el Telescopio MAGIC durante la observación de dos regiones de formación estelar. Por una parte, la galaxia ultra luminosa en el infrarrojo más cercana, Arp 220. Por otra parte, TeV J2032+4130, que aún hoy en día sigue siendo una fuente no identificada, y cuyo origen se ha relacionado con la poderosa asociación estelar Cygnus OB2 en repetidas ocasiones. Ninguna de las observaciones ha implicado detección, en consecuencia, se han impuesto límites superiores al flujo de rayos gamma procedente de las fuentes observadas. Sin embargo, a pesar de las pocas horas de observación incluidas en el presente análisis, los límites superiores impuestos por el Telescopio MAGIC para la fuente TeV J2032+4130 están prácticamente al nivel del flujo que el experimento HEGRA detectó para dicha fuente, de manera que un análisis extendido al conjunto completo de datos disponibles, así como futuras observaciones de más larga exposición con el Telescopio MAGIC, podrían proveer resultados interesantes. / Was the aim of this thesis to study the possibility that regions with important activity in star formation may appear as sources of gamma-rays for the current and near future gamma-ray detectors, both ground and space-satellite based. After a phenomenological positive evaluation of the fact that the gamma-ray emission from galaxies prone of star formation processes (as starburst or ultra luminous infrared galaxies) may be close to the flux sensitivities of the current gamma-ray telescopes, detailed models of the multiwavelength diffuse emission from the two best candidates, NGC 253 and Arp 220, have been presented. It is predicted that they will be detectable by GLAST, the next largest gamma-ray satellite, and by HESS and MAGIC, the current more sensitive Cherenkov Telescopes, in case enough observation time is devoted. On the other hand, within this thesis it is described a model which proposes the emission of important fluxes of gamma-rays from regions of star formation within our Galaxy, as the stellar association of young OB stars. The model considers the emission of gamma-rays close to TeV energies by hadronic interactions within the stellar winds of some of the stars of the association, predicting at the same time that the emission at lower energies is substantially suppressed due to the modulation effects that the incoming population of primary cosmic rays suffers when penetrating the winds. The best candidates among the galactic OB associations are briefly discussed.Finally, a first analysis of the data taken by the MAGIC Telescope when observing two of these regions of star formation is described. On one hand, the closest ultra luminous infrared galaxy, Arp 220. On the other, TeV J2032+4130, which is still an unidentified source whose origin has been several times related to the powerful stellar OB association Cygnus OB2. Any of both observations has implied detection, and upper limits to the gamma-ray flux have been imposed. However, although the few hours of observation included in the present analysis, the MAGIC upper limits for TeV J2032+4130 are nearly at the level of the flux detected by the HEGRA experiment, so an analysis extended to the complete set of data available as well as deeper observations of this source with the MAGIC Telescope can provide promising results.
80

Galaxy evolution: A new version of the Besançon Galaxy Model constrained with Tycho data

Czekaj, Maria A. 22 October 2012 (has links)
The understanding of the origin and evolution of the Milky Way is one of the primary goals of the Gaia mission (ESA, launch autumn 2013). In order to study and analyse fully the Gaia data it will be useful to have a Galaxy model able to test various hypothesis and scenarios of galaxy formation and evolution. Kinematic and star count data, together with the physical parameters of the stars - ages and metallicities-, will allow to characterize our galaxy's populations and, from that, the overall Galactic gravitational potential. One of the promising procedures to reach such goal is to optimize the present Population Synthesis models (Robin et al. (2003)) by fitting, through robust statistical techniques, the large and small scale structure and kinematics parameters that best will reproduce Gaia data. This PhD thesis was focused on the optimization of the structure parameters of the Milky Way Galactic disc. We improved the Besançon Galaxy Model and then by comparing the simulations to real data studied the process of Galaxy evolution. The Besançon Galaxy Model is a stellar population synthesis model, built over the last two decades in Besançon (Robin and Crézé(1986); Robin et al. (2003)). Until now the star production process in that model was based on the drawing from the so called Hess diagrams. Each Galaxy population had one such a diagram, which was calculated once given a particular Initial Mass Function (IMF), Star Formation Rate (SFR), evolutionary tracks and age-metallicity relation and since then remained fixed in the model. As that feature was not enabling to test any other scenario of Galaxy evolution, because none of the evolutionary parameters could be modified, it was one of the biggest weaknesses of the model. It has served us as a motivation to dedicate this PhD project to the construction of a new version of the model, which would be able to handle variations of the SFR, IMF, evolutionary tracks, atmosphere models among others. When the evolutionary parameters are changed one must repeat the process of accomplishing the dynamical self-consistency of the model as described in Bienayme et al. (1987). For that we have recalculated the Galactic gravitational potential for all new evolutionary scenarios, which have been tested. The second very important improvement of the model, which is delivered in this thesis, is the implementation of the stellar binarity. That is, the new version of Besançon Galaxy Model presented here is not any more a single star generator, but it considers binary systems maintaining constraints on the local mass density. This is an important change since binaries can account for about 50 % of the total stellar content of the Milky Way. Once the tool was developed we tested several possible combinations of IMF and SFR in the Solar Neighborhood and identified those which best reproduce the Local Luminosity Function and Tycho-2 data. We have accomplished an unprecedented task using the new version of the model, namely we have performed the whole sky comparisons for a magnitude limited sample in order to study the bright stars. The Tycho-2 catalogue turned out to be an ideal sample for that task due to its two important advantages, the homogeneity and completeness until VT ~ 11 mag. Different techniques and strategies were designed and applied when comparing the simulated and the real data. We have looked at small and specific Galactic directions and also performed general comparisons with a global sky coverage. In order to increase the efficiency of numerous simulations and comparisons, a processing pipeline based on C, Java and scripting programming languages has been developed and applied. It is a fully automated, portable and robust tool, allowing to split the work across several computational units. / La misión Gaia (ESA, 2013) revolucionará el conocimiento sobre el origen y la evolución de nuestra Galaxia. Una óptima explotación científica de sus datos requiere disponer de modelos que permitan contrastar hipótesis y escenarios sobre estos procesos de formación. En esta tesis hemos optimizado el modelo de síntesis de poblaciones estelares de Besançon, ampliamente utilizado por la comunidad internacional, centrándonos en la componente del disco delgado. Hemos diseñado, desarrollado, implementado y testeado una nueva estructura de generación de las estrellas que permite encontrar la mejor combinación de función inicial de masa (IMF) y ritmo de formación estelar (SFR) que ajusta a las observaciones. El código permite imponer la autoconsistencia dinámica, recalculando el potencial galáctico para cada nuevo escenario de evolución. También, por primera vez, se generan sistemas binarios bajo esta consistencia dinámica, marcada por la función de luminosidad observada en el entorno solar. Esta, junto con el catálogo Tycho, han sido los dos ingredientes observacionales clave para el ajuste entre modelo y observación. También, por primera vez, hemos conseguido un ajuste aceptable a los recuentos estelares de todo el cielo hasta V=11. Se han evaluado con rigor los efectos en los recuentos estelares derivados del uso de los modelos de atmosfera, de evolución estelar y de extinción interestelar así como de parámetros tan críticos como la masa dinámica del sistema galáctico. El ajuste de estos ingredientes usando el catálogo Tycho nos ha permitido confirmar, de una vez por todas, que la SFR en el disco galáctico no ha sido constante sino decreciente desde los inicios de la formación de esta estructura. En conclusión, esta tesis proporciona un nuevo código, optimizado y flexible en el uso de los ingredientes básicos, en el que se ha realizado una rigurosa evaluación y actualización de los ingredientes que lo componen.

Page generated in 0.0374 seconds