• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 95319
  • 44430
  • 27795
  • 17331
  • 7731
  • 5764
  • 4255
  • 2334
  • 2334
  • 2334
  • 2334
  • 2334
  • 2327
  • 1500
  • Tagged with
  • 46190
  • 15614
  • 11706
  • 10958
  • 8674
  • 8061
  • 8055
  • 6131
  • 6128
  • 5305
  • 5256
  • 5177
  • 5114
  • 5032
  • 4739
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

An investigation of the atmospheric wave dynamics in the polar region using ground based instruments

Khanyile, Bhekumuzi Sfundo January 2011 (has links)
Abstract This study presents the characteristics of small-scale gravity waves in the mesosphere region as derived from the imaging riometer data at high altitude (~90 km) over SANAE (72˚S, 3˚W). Wavelet analysis and FFT (Fast Fourier transform) have been applied to extract short period gravity wave parameters for the year 2000. The horizontal wavelength, phase speed and observed period of gravity waves are typically 10-100 km, 5-60 m.s-1 and 3-60 minutes, respectively. The horizontal propagation direction is north-eastward throughout the year. This could probably be due to selective filtering by the zonal wind. Zonal and meridional winds in the region of the MLT (mesosphere and lower thermosphere) have been measured using HF radars at high latitudes in the southern hemisphere. Data from January 2000 to December 2003 have been used with the aim of investigating the characteristics of planetary wave activity at ~90 km. For SANAE and Halley stations, 2-, 5-, 10-, 16- and 20-day planetary waves are dominant in summer and winter. The results show the seasonal variations of the mean winds, which are caused by the internal variability of the quasi stationary planetary waves. Planetary wave coupling processes between UKMO assimilated and mesospheric data have also been investigated. The cross wavelet results show a strong coupling during winter months. The results suggest that planetary waves are generated at lower atmospheric heights and propagate upwards into mesospheric heights. However, not all observed disturbances in mesospheric heights can be explained by the propagation of planetary waves from lower atmospheric heights.
22

On the evaluation of spectral effects on photovoltaic modules performance parameters and hotspots in solar cells

Simon, Michael January 2009 (has links)
The performance of photovoltaic (PV) modules in terms of their ability to convert incident photon to electrical energy (efficiency) depends mostly on the spectral distribution of incident radiation from the sun. The incident spectrum finally perceived by the module depends strongly on the composition of the medium in which it has traveled. The composition of the earth’s atmosphere, which includes, amongst others, water vapour, gases such as carbon dioxide and oxygen, absorbs or scatters some of the sunlight. The incident solar spectrum is also modified by the diffuse aspect of radiation from the sky which strongly depends on aerosol concentration, cloudiness and local reflection of the earth’s surface. Although it is well known that the changes in outdoor spectrum affect device performance, little work has been conducted to support this theory. This is probably due to lack of spectral data or in certain instances where data is available, little knowledge of interpreting that data. The outdoor spectral data that one obtains in the field does not come clearly for just simple interpretation. Different analytical interpretation procedures have been proposed, all trying to explain and quantify the spectral influence on PV devices. In this study an assessment methodology for evaluating the effects of outdoor spectra on device performance parameters during the course of the day, seasons and or cloudy cover has been developed. The methodology consists of developing a device dependant concept, Weighted Useful Fraction (WUF) using the outdoor measured spectral data. For measuring PV module’s performance parameters, a current-voltage (I-V) tester was developed in order to monitor the performance of six different module technologies. The Gaussian distribution was used to interpret the data. For hot-spot analysis, different techniques were used, which include Infrared thermographic technique for identifying the hot-spots in the solar cells, SEM and EDX techniques. The AES technique was also used in order to identify other elements at hot-spots sites that could not be detected by the EDX technique. iii Results obtained indicate that multicrystalline modules performance is affected by the changes in the outdoor spectrum during summer or winter seasons. The modules prefer a spectrum characterized by WUF = 0.809 during summer season. This spectrum corresponds to AM 2.19 which is different from AM 1.5 used for device ratings. In winter, the mc-Si module’s WUF (0.7125) peaks at 13h00 at a value corresponding to AM 1.83. Although these devices have a wider wavelength range, they respond differently in real outdoor environment. Results for mono – Si module showed that the device performs best at WUF = 0.6457 which corresponds to AM 1.83 during summer season, while it operates optimally under a winter spectrum indicated by WUF of 0.5691 (AM2.58). The seasonal changes resulted in the shift in WUF during day time corresponding to the “preferred” spectrum. This shift indicates that these devices should be rated using AM values that correspond to the WUF values under which the device operates optimally. For poly-Si, it was also observed the WUF values are lower than the other two crystalline-Si counterparts. The pc-Si was observed to prefer a lower AM value indicated by WUF = 0.5813 during winter season while for summer it prefers a spectrum characterized by WUF = 0.5541 at AM 3.36. The performance of the single junction a-Si module degraded by 67 percent after an initial outdoor exposure of 16 kWh/m² while the HIT module did not exhibit the initial degradation regardless of their similarities in material composition. It was established that the WUF before degradation peaks at 15h00 at a value of 0.7130 corresponding to AM 4.50 while the WUF after degradation “prefers” the spectrum (WUF = 0.6578) experienced at 15h30 corresponding to AM value of 5.57. Comparing the before and after degradation scenarios of a-Si:H, it was observed that the device spends less time under the red spectrum which implies that the device “prefers” a full spectrum to operate optimally. The degradation of a-Si:H device revealed that the device spectral response was also shifted by a 7.7 percent after degradation. A higher percentage difference (61.8 percent) for spectral range for the HIT module is observed, but with no effects on device parameters. Seasonal changes (summer/winter) resulted in the outdoor spectrum of CuInSe2 to vary by WUF = 1.5 percent, which resulted in the decrease in Isc. This was ascertained by iv analyzing the percentage change in WUF and evaluating the corresponding change in Isc. The analysis showed that there was a large percentage difference of the module’s Isc as the outdoor spectrum changed during the course of the day. This confirmed that the 17 percent decrease in Isc was due to a WUF of 1.5 percent. In mc-Si solar cells used in this study, it was found that elemental composition across the entire solar cell was not homogenously distributed resulting in high concentration of transition metals which were detected at hot spot areas. The presence of transition metals causes hot-spot formation in crystalline solar cells. Although several transition elements exist at hot-spot regions, the presence of oxygen, carbon, iron and platinum was detected in high concentrations. From this study, it is highly recommended that transition elements and oxygen must be minimized so as to increase the life expectancy of these devices and improve overall systems reliability
23

Variability of the peak height of the ionospheric F2 layer over South Africa

Mbambo, Makhangela Casey January 2011 (has links)
Abstract This thesis will present an investigation into the variability of the maximum height of the ionospheric F2 layer, hmF2, with hour, season and latitude over the South African region. The dependence of hmF2 on solar and magnetic activity is also investigated. Data from three South African stations, namely Madimbo (22.4 S, 26.5 E), Grahamstown (33.3 S, 26.5 E) and Louisvale (28.5 S, 21.2 E) were used in this study. Initial results indicate that hmF2 shows a larger variability around midnight than during daytime for all the seasons. Monthly median values for hmF2 were used in all cases to illustrate the variability, and the International Reference Ionosphere (IRI) model has been used to investigate hmF2 predictability over South Africa. This research represents the initial steps towards a predictive model for the hmF2 parameter, with the long term aim of developing a new global hmF2 predictive model for the IRI. It is believed that this work will contribute signi cantly towards this aim through the understanding of the hmF2 parameter over a region that has not previously been investigated.
24

Physics-based compact model of HEMTs for circuit simulation

Yigletu, Fetene Mulugeta 19 September 2014 (has links)
Aquesta tesi adreça el modelatge de dispositius HEMTs. Es presenta un model compacte, de base física, d’ AlGaN/GaN HEMTs per a la simulación de circuits. Es desenvolupa un model complet del corrent de drenador, i de les càrregues i capacitàncies de porta. El model bàsic de corrent de drenador i càrregues de porta s’obté usant un model simple de control de càrrega desenvolupat a partir de les solucions de les equacions de Poisson i Schrödinger per a l’àrea activa d’operació del dispositiu. Es presenta també un model separat del col•lapse del corrent, que és un efecte important en els AlGaN/GaN HEMT. El model de col•lapse del corrent es desenvolupa emprant el model bàsic de model com a marc, la qual cosa resulta en un model robust de gran senyal que pot ser utilitzat amb i sense la presència del col•lapse del corrent. A més, es presenta una anàlisi de no linearitats i modelatge de AlGaAs/GaAs pHEMT utilitzant les sèries de Volterra. / Esta tesis trata el modelado de dispositivos III-V HEMTs. Se presenta un modelo compacto, de base física, de AlGaN/GaN HEMTs para la simulación de circuitos. Se desarrolla un modelo completo de la corriente de drenador, y de cargas y capacitancias de puerta. El modelo básico de corriente de drenador y cargas de puerta se obtiene usando un modelo simple de control de carga desarrollado a partir de las soluciones de la ecuación de Poisson y Schrödinger para el área activa de operación del dispositivo. Se presenta también un modelo separado del colapso de la corriente, que es un efecto importante en AlGaN/GaN HEMT. El modelo de colapso de corriente de desarrolla empleando el modelo básico de corriente como marco, lo cual resulta en un modelo robusto de gran señal que puede ser utilizado con y sin la presencia del colapso de corriente. Además, se presenta un análisis de no linealidades y modelado de AlGaAs/GaAs pHEMT utilizando las series de Volterra. / This thesis targets the modeling of III-V HEMTs devices. A physics-based compact modeling of AlGaN/GaN HEMTs for circuit simulation is presented. A complete modeling of drain current, gate charge and gate capacitances is developed. The core drain current and gate charge models are derived using a simple charge control model developed from the solutions of Poisson's equation and Schrödinger’s equation solved for the active operating area of the device. The models are simple continuous and applicable for the whole operating regime of the device. A separate model is also presented for the current collapse effect, which is a serious issue in AlGaN/GaN HEMT. The current collapse model is developed using the core current model as a framework which resulted in a robust large signal model that can be used with and without the presence of current collapse. In addition, nonlinearity analysis and modeling of commercial AlGaAs/GaAs pHEMTs using the Volterra series is also presented.
25

Mathematical methods in atomic physics = Métodos matemáticos en física atómica

Del Punta, Jessica A. 17 March 2017 (has links)
Los problemas de dispersión de partículas, como son los de dos y tres cuerpos, tienen una relevancia crucial en física atómica, pues permiten describir diversos procesos de colisiones. Hoy en día, los casos de dos cuerpos pueden ser resueltos con el grado de precisión numérica que se desee. Los problemas de dispersión de tres partículas cargadas son notoriamente más difíciles pero aún así algo similar, aunque en menor medida, puede establecerse. El objetivo de este trabajo es contribuir a la comprensión de procesos Coulombianos de dispersión de tres cuerpos desde un punto de vista analítico. Esto no solo es de fundamental interés, sino que también es útil para dominar mejor los enfoques numéricos que se actualmente se desarrollan dentro de la comunidad de colisiones atómicas. Para lograr este objetivo, proponemos aproximar la solución del problema con desarrollos en series de funciones adecuadas y expresables analíticamente. Al hacer esto, desarrollamos una serie de herramientas matemáticas relacionadas con funciones Coulombianas, ecuaciones diferenciales de segundo orden homogéneas y no homogéneas, y funciones hipergeométricas en una y dos variables. En primer lugar, trabajamos con las funciones de onda Coulombianas radiales y revisamos sus principales propiedades. Así, extendemos los resultados conocidos para dar expresiones analíticas de los coeficientes asociados al desarrollo, en serie de funciones de tipo Laguerre, de las funciones Coulombianas irregulares. También establecemos una nueva conexión entre los coeficientes asociados al desarrollo de la función Coulombiana regular y los polinomios de Meixner-Pollaczek. Esta relación nos permite deducir propiedades de ortogonalidad y clausura para estos coeficientes al considerar la carga como variable. Luego, estudiamos las funciones hipergeométricas de dos variables. Para algunas de ellas, como las funciones de Appell o las confluentes de Horn, presentamos expresiones analíticas de sus derivadas respecto de sus parámetros. También estudiamos un conjunto particular de funciones Sturmianas Generalizadas de dos cuerpos construidas considerando como potencial generador el potencial de Hulthén. Contrariamente al caso habitual, en el que las funciones Sturmianas se construyen numéricamente, las funciones Sturmianas de Hulthén poseen forma analítica. Sus propiedades matem´aticas pueden ser analíticamente estudiadas proporcionando una herramienta única para comprender y analizar los problemas de dispersión y sus soluciones. Además, proponemos un nuevo conjunto de funciones a las que llamamos funciones Quasi-Sturmianas. Estas funciones se presentan como una alternativa para expandir la solución buscada en procesos de dispersi´on de dos y tres cuerpos. Se definen como soluciones de una ecuación diferencial de tipo-Schrödinger, no homogénea. Por construcción, incluyen un comportamiento asintótico adecuado para resolver problemas de dispersión. Presentamos diferentes expresiones analíticas y exploramos sus propiedades matemáticas, vinculando y justificando los desarrollos realizados previamente. Para finalizar, utilizamos las funciones estudiadas (Sturmianas de Hulthén y Quasi-Sturmianas) en la resolución de problemas particulares de dos y tres cuerpos. La eficacia de estas funciones se ilustra comparando los resultados obtenidos con datos provenientes de la aplicación de otras metodologías. / Two and three-body scattering problems are of crucial relevance in atomic physics as they allow to describe different atomic collision processes. Nowadays, the two-body cases can be solved with any degree of numerical accuracy. Scattering problem involving three charged particles are notoriously difficult but something similar –though to a lesser extentcan be stated. The aim of this work is to contribute to the understanding of three-body Coulomb scattering problems from an analytical point of view. This is not only of fundamental interest, it is also useful to better master numerical approaches that are being developed within the collision community. To achieve this aim we propose to approximate scattering solutions with expansions on sets of appropriate functions having closed form. In so doing, we develop a number of related mathematical tools involving Coulomb functions, homogeneous and non-homogeneous second order differential equations, and hypergeometric functions in one and two variables. First we deal with the two-body radial Coulomb wave functions, and review their main properties. We extend known results to give in closed form the Laguerre expansions coefficients of the irregular solutions, and establish a new connection between the coefficients corresponding to the regular solution and Meixner-Pollaczek polynomials. This relation allows us to obtain an orthogonality and closure relation for these coefficients considering the charge as a variable. Then we explore two-variable hypergeometric functions. For some of them, such as Appell and confluent Horn functions, we find closed form for the derivatives with respect to their parameters. We also study a particular set of two-body Generalized Sturmian functions constructed with a Hulth´en generating potential. Contrary to the usual case in which Sturmian functions are numerically constructed, the Hulth´en Sturmian functions can be given in closed form. Their mathematical properties can thus be analytically studied providing a unique tool to investigate scattering problems. Next, we introduce a novel set of functions that we name Quasi-Sturmian functions. They constitute an alternative set of functions, given in closed form, to expand the sought after solution of two- and three-body scattering processes. Quasi-Sturmian functions are solutions of a non-homogeneous second order Schr¨odinger-like differential equation and have, by construction, the appropriate asymptotic behavior. We present different analytic expressions and explore their mathematical properties, linking and justifying the developed mathematical tools described above. Finally we use the studied Hulth´en Sturmian and Quasi-Sturmian functions to solve some particular two- and three-body scattering problems. The efficiency of these sets of functions is illustrated by comparing our results with those obtained by other methods
26

Testing new physics in long baseline neutrino oscillation experiments

Díaz Desposorio, Félix Napoleón 10 January 2023 (has links)
In this thesis, we focus on analyzing the different ways in which new physics scenarios, such as Violation of the Equivalence Principle (VEP) and Quantum Decoherence, can manifest themselves in the context of the neutrino oscillation phenomenon. Within the framework of the DUNE experiment, we examine several effects of the VEP, such as the possibility of getting a misconstructed neutrino oscillation parameter region provoked by our ignorance of VEP in nature, as well as the impact on the DUNE sensitivity for CPV and mass hierarchy. Additionally, we set limits for the different textures of the gravitational matrix and the diverse scenarios of energy dependencies associated with the Lorentz Violation. On the other hand, we demonstrate that the quantum decoherence phenomenon applied to the neutrino system leads us to fascinating phenomenological scenarios. One of the scenarios analyzed, within the context of quantum decoherence, is the one that breaks the fundamental CPT symmetry. For the latter, we identify what textures that include certain nondiagonal elements of the decoherence matrix are necessary. In this line, we propose a way to measure the CPT violation in the DUNE experiment using the muon neutrino and antineutrino channels for different energy dependencies. Another intriguing effect of considering the neutrino as an open quantum system is the possibility of discovering the neutrino nature by measuring the Majorana phase at the DUNE experiment achieving a competitive precision. As a consequence of the latter, we find that the crucial measurement of the CP violation phase (δCP), planned to be performed at the DUNE experiment, can be spoiled by the introduction of the decoherence and the Majorana phases in nature. Thus, a signature of a non-null Majorana phase is a sizable distortion in the measurement of the Dirac CP violation phase δCP at DUNE when compared with T2HK measurement. Subsequently, via simulation, we measured the Majorana phase for values of ϕ1/π = ±0.5 and decoherence parameter Γ = 4.5(5.5) × 10−24GeV, reaching a precision of 23 (21) %. This precision is consistent with the corresponding to the Dirac CP phase at T2K experiment. / En la presente tesis, nos enfocamos en analizar las diferentes formas en que los escenarios de física nueva, como la Violación del Principio de Equivalencia (VEP) y la Decoherencia Cuántica, pueden manifestarse en el contexto del fenómeno de oscilación de neutrinos. En el marco del experimento DUNE, examinamos distintos efectos de VEP, como la posibilidad de obtener una región de parámetros de oscilación de neutrinos mal construida debido a no considerar VEP en la naturaleza, el impacto en la sensitividad del experimento DUNE para CPV y la determinación de la jerarquía de masas. Adicionalmente, establecemos límites para las diferentes texturas de la matriz gravitacional y los diversos escenarios con distintas dependencias energéticas asociadas a la Violación de Lorentz. Por otro lado, demostramos que el fenómeno de la decoherencia cuántica aplicado al sistema de neutrinos nos conduce a fascinantes escenarios fenomenológicos. Uno de los escenarios analizados, dentro del contexto de la decoherencia cuántica, es el de la ruptura de la simetría fundamental CPT. Para esto último, identificamos que son necesarias texturas que incluyan ciertos elementos no diagonales de la matriz de decoherencia. En esta línea, proponemos una forma de medir la violación de CPT en el experimento DUNE utilizando los canales de neutrinos y antineutrinos muónicos para diferentes dependencias energéticas. Otro efecto interesante de considerar al neutrino como un sistema cuántico abierto es la posibilidad de descubrir la naturaleza del neutrino midiendo la fase de Majorana en el experimento DUNE con una precisión competitiva. Como consecuencia de lo último, encontramos que la medición de la fase de violación de CP (δCP), planificada para realizarse en el experimento DUNE, puede verse afectada por la introducción de la decoherencia y las fases de Majorana en la naturaleza. Por lo tanto, en el marco de la decoherencia, mostramos que una señal de una fase de Majorana no nula, es la observación de una distorsión considerable en la medición de la fase de violación CP δCP en DUNE en comparación con la medición realizada por T2HK. Posteriormente, mediante simulación, medimos la fase Majorana para valores de ϕ1/π = ±0.5 y el parámetro de decoherencia Γ = 4.5(5.5) × 10−24GeV, alcanzando una precisión de 23 (21) %. Esta precisión es consistente con la medida correspondiente a la fase CP de Dirac en el experimento T2K.
27

Distributed Computing Solutions for High Energy Physics Interactive Data Analysis

Padulano, Vincenzo Eduardo 04 May 2023 (has links)
[ES] La investigación científica en Física de Altas Energías (HEP) se caracteriza por desafíos computacionales complejos, que durante décadas tuvieron que ser abordados mediante la investigación de técnicas informáticas en paralelo a los avances en la comprensión de la física. Uno de los principales actores en el campo, el CERN, alberga tanto el Gran Colisionador de Hadrones (LHC) como miles de investigadores cada año que se dedican a recopilar y procesar las enormes cantidades de datos generados por el acelerador de partículas. Históricamente, esto ha proporcionado un terreno fértil para las técnicas de computación distribuida, conduciendo a la creación de Worldwide LHC Computing Grid (WLCG), una red global de gran potencia informática para todos los experimentos LHC y del campo HEP. Los datos generados por el LHC hasta ahora ya han planteado desafíos para la informática y el almacenamiento. Esto solo aumentará con futuras actualizaciones de hardware del acelerador, un escenario que requerirá grandes cantidades de recursos coordinados para ejecutar los análisis HEP. La estrategia principal para cálculos tan complejos es, hasta el día de hoy, enviar solicitudes a sistemas de colas por lotes conectados a la red. Esto tiene dos grandes desventajas para el usuario: falta de interactividad y tiempos de espera desconocidos. En años más recientes, otros campos de la investigación y la industria han desarrollado nuevas técnicas para abordar la tarea de analizar las cantidades cada vez mayores de datos generados por humanos (una tendencia comúnmente mencionada como "Big Data"). Por lo tanto, han surgido nuevas interfaces y modelos de programación que muestran la interactividad como una característica clave y permiten el uso de grandes recursos informáticos. A la luz del escenario descrito anteriormente, esta tesis tiene como objetivo aprovechar las herramientas y arquitecturas de la industria de vanguardia para acelerar los flujos de trabajo de análisis en HEP, y proporcionar una interfaz de programación que permite la paralelización automática, tanto en una sola máquina como en un conjunto de recursos distribuidos. Se centra en los modelos de programación modernos y en cómo hacer el mejor uso de los recursos de hardware disponibles al tiempo que proporciona una experiencia de usuario perfecta. La tesis también propone una solución informática distribuida moderna para el análisis de datos HEP, haciendo uso del software llamado ROOT y, en particular, de su capa de análisis de datos llamada RDataFrame. Se exploran algunas áreas clave de investigación en torno a esta propuesta. Desde el punto de vista del usuario, esto se detalla en forma de una nueva interfaz que puede ejecutarse en una computadora portátil o en miles de nodos informáticos, sin cambios en la aplicación del usuario. Este desarrollo abre la puerta a la explotación de recursos distribuidos a través de motores de ejecución estándar de la industria que pueden escalar a múltiples nodos en clústeres HPC o HTC, o incluso en ofertas serverless de nubes comerciales. Dado que el análisis de datos en este campo a menudo está limitado por E/S, se necesita comprender cuáles son los posibles mecanismos de almacenamiento en caché. En este sentido, se investigó un sistema de almacenamiento novedoso basado en la tecnología de almacenamiento de objetos como objetivo para el caché. En conclusión, el futuro del análisis de datos en HEP presenta desafíos desde varias perspectivas, desde la explotación de recursos informáticos y de almacenamiento distribuidos hasta el diseño de interfaces de usuario ergonómicas. Los marcos de software deben apuntar a la eficiencia y la facilidad de uso, desvinculando la definición de los cálculos físicos de los detalles de implementación de su ejecución. Esta tesis se enmarca en el esfuerzo colectivo de la comunidad HEP hacia estos objetivos, definiendo problemas y posibles soluciones que pueden ser adoptadas por futuros investigadores. / [CA] La investigació científica a Física d'Altes Energies (HEP) es caracteritza per desafiaments computacionals complexos, que durant dècades van haver de ser abordats mitjançant la investigació de tècniques informàtiques en paral·lel als avenços en la comprensió de la física. Un dels principals actors al camp, el CERN, acull tant el Gran Col·lisionador d'Hadrons (LHC) com milers d'investigadors cada any que es dediquen a recopilar i processar les enormes quantitats de dades generades per l'accelerador de partícules. Històricament, això ha proporcionat un terreny fèrtil per a les tècniques de computació distribuïda, conduint a la creació del Worldwide LHC Computing Grid (WLCG), una xarxa global de gran potència informàtica per a tots els experiments LHC i del camp HEP. Les dades generades per l'LHC fins ara ja han plantejat desafiaments per a la informàtica i l'emmagatzematge. Això només augmentarà amb futures actualitzacions de maquinari de l'accelerador, un escenari que requerirà grans quantitats de recursos coordinats per executar les anàlisis HEP. L'estratègia principal per a càlculs tan complexos és, fins avui, enviar sol·licituds a sistemes de cues per lots connectats a la xarxa. Això té dos grans desavantatges per a l'usuari: manca d'interactivitat i temps de espera desconeguts. En anys més recents, altres camps de la recerca i la indústria han desenvolupat noves tècniques per abordar la tasca d'analitzar les quantitats cada vegada més grans de dades generades per humans (una tendència comunament esmentada com a "Big Data"). Per tant, han sorgit noves interfícies i models de programació que mostren la interactivitat com a característica clau i permeten l'ús de grans recursos informàtics. A la llum de l'escenari descrit anteriorment, aquesta tesi té com a objectiu aprofitar les eines i les arquitectures de la indústria d'avantguarda per accelerar els fluxos de treball d'anàlisi a HEP, i proporcionar una interfície de programació que permet la paral·lelització automàtica, tant en una sola màquina com en un conjunt de recursos distribuïts. Se centra en els models de programació moderns i com fer el millor ús dels recursos de maquinari disponibles alhora que proporciona una experiència d'usuari perfecta. La tesi també proposa una solució informàtica distribuïda moderna per a l'anàlisi de dades HEP, fent ús del programari anomenat ROOT i, en particular, de la seva capa d'anàlisi de dades anomenada RDataFrame. S'exploren algunes àrees clau de recerca sobre aquesta proposta. Des del punt de vista de l'usuari, això es detalla en forma duna nova interfície que es pot executar en un ordinador portàtil o en milers de nodes informàtics, sense canvis en l'aplicació de l'usuari. Aquest desenvolupament obre la porta a l'explotació de recursos distribuïts a través de motors d'execució estàndard de la indústria que poden escalar a múltiples nodes en clústers HPC o HTC, o fins i tot en ofertes serverless de núvols comercials. Atès que sovint l'anàlisi de dades en aquest camp està limitada per E/S, cal comprendre quins són els possibles mecanismes d'emmagatzematge en memòria cau. En aquest sentit, es va investigar un nou sistema d'emmagatzematge basat en la tecnologia d'emmagatzematge d'objectes com a objectiu per a la memòria cau. En conclusió, el futur de l'anàlisi de dades a HEP presenta reptes des de diverses perspectives, des de l'explotació de recursos informàtics i d'emmagatzematge distribuïts fins al disseny d'interfícies d'usuari ergonòmiques. Els marcs de programari han d'apuntar a l'eficiència i la facilitat d'ús, desvinculant la definició dels càlculs físics dels detalls d'implementació de la seva execució. Aquesta tesi s'emmarca en l'esforç col·lectiu de la comunitat HEP cap a aquests objectius, definint problemes i possibles solucions que poden ser adoptades per futurs investigadors. / [EN] The scientific research in High Energy Physics (HEP) is characterised by complex computational challenges, which over the decades had to be addressed by researching computing techniques in parallel to the advances in understanding physics. One of the main actors in the field, CERN, hosts both the Large Hadron Collider (LHC) and thousands of researchers yearly who are devoted to collecting and processing the huge amounts of data generated by the particle accelerator. This has historically provided a fertile ground for distributed computing techniques, which led to the creation of the Worldwide LHC Computing Grid (WLCG), a global network providing large computing power for all the experiments revolving around the LHC and the HEP field. Data generated by the LHC so far has already posed challenges for computing and storage. This is only going to increase with future hardware updates of the accelerator, which will bring a scenario that will require large amounts of coordinated resources to run the workflows of HEP analyses. The main strategy for such complex computations is, still to this day, submitting applications to batch queueing systems connected to the grid and wait for the final result to arrive. This has two great disadvantages from the user's perspective: no interactivity and unknown waiting times. In more recent years, other fields of research and industry have developed new techniques to address the task of analysing the ever increasing large amounts of human-generated data (a trend commonly mentioned as "Big Data"). Thus, new programming interfaces and models have arised that most often showcase interactivity as one key feature while also allowing the usage of large computational resources. In light of the scenario described above, this thesis aims at leveraging cutting-edge industry tools and architectures to speed up analysis workflows in High Energy Physics, while providing a programming interface that enables automatic parallelisation, both on a single machine and on a set of distributed resources. It focuses on modern programming models and on how to make best use of the available hardware resources while providing a seamless user experience. The thesis also proposes a modern distributed computing solution to the HEP data analysis, making use of the established software framework called ROOT and in particular of its data analysis layer implemented with the RDataFrame class. A few key research areas that revolved around this proposal are explored. From the user's point of view, this is detailed in the form of a new interface to data analysis that is able to run on a laptop or on thousands of computing nodes, with no change in the user application. This development opens the door to exploiting distributed resources via industry standard execution engines that can scale to multiple nodes on HPC or HTC clusters, or even on serverless offerings of commercial clouds. Since data analysis in this field is often I/O bound, a good comprehension of what are the possible caching mechanisms is needed. In this regard, a novel storage system based on object store technology was researched as a target for caching. In conclusion, the future of data analysis in High Energy Physics presents challenges from various perspectives, from the exploitation of distributed computing and storage resources to the design of ergonomic user interfaces. Software frameworks should aim at efficiency and ease of use, decoupling as much as possible the definition of the physics computations from the implementation details of their execution. This thesis is framed in the collective effort of the HEP community towards these goals, defining problems and possible solutions that can be adopted by future researchers. / Padulano, VE. (2023). Distributed Computing Solutions for High Energy Physics Interactive Data Analysis [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/193104
28

Surrogate models, physics-informed neural networks and climate change

Secci, Daniele 01 July 2024 (has links)
[ES] Esta investigación contribuye al avance de la modelación sustitutiva como una técnica poderosa en el campo de la simulación computacional que ofrece numerosas ventajas para resolver eficientemente problemas complejos. En particular, este estudio destaca el papel crucial de la modelación sustitutiva en la gestión de aguas subterráneas. El impacto del cambio climático es un enfoque central, y el primer estudio tiene como objetivo construir modelos de datos sustitutivos para evaluar los efectos del cambio climático en los recursos de aguas subterráneas, también en el futuro. El estudio implica la comparación entre métodos estadísticos y diferentes tipos de Redes Neuronales Artificiales (ANN). La eficacia de los modelos sustitutivos se demostró en el norte de la Toscana (Italia), pero puede extenderse fácilmente a cualquier área de interés. El método estadístico adoptado implica analizar datos históricos de precipitación y temperatura junto con niveles de agua registrados en pozos de monitoreo. Inicialmente, el estudio explora posibles correlaciones entre índices meteorológicos e índices de agua subterránea; si se identifica una correlación, se emplea un análisis de regresión lineal. Estas relaciones establecidas se utilizan luego para estimar los futuros niveles de agua subterránea en función de las proyecciones de precipitación y temperatura obtenidas de un conjunto de Modelos Climáticos Regionales, bajo dos Trayectorias de Concentración Representativa: RCP4.5 y RCP8.5. Posteriormente, se implementaron tres modelos distintos de Inteligencia Artificial (AI), AutoRegressive No Lineal con Entradas Exógenas (NARX), Memoria a Largo y Corto Plazo (LSTM) y Red Neuronal Convolucional (CNN) para evaluar el impacto del cambio climático en los recursos de aguas subterráneas para el mismo caso de estudio. Específicamente, estos modelos fueron entrenados utilizando directamente datos históricos de precipitación y temperatura como entrada para proporcionar niveles de agua subterránea como salida. Después de la fase de entrenamiento, los modelos de IA desarrollados se utilizaron para prever los futuros niveles de agua subterránea utilizando las mismas proyecciones de precipitación y temperatura y escenarios climáticos descritos anteriormente. Los resultados resal-taron diferentes salidas entre los modelos utilizados en este trabajo. Sin embargo, la mayoría de ellos predice una disminución en los niveles de agua subterránea como resultado de futuras variaciones en la precipitación y temperatura. Notablemente, el modelo LSTM emerge como el enfoque más prometedor para predecir futuros niveles de agua subterránea. Dentro del mismo campo, se desarrolló una ANN con la capacidad de simular las condiciones de agua subterránea en la cuenca cerrada de Konya, Turquía, uno de los sitios piloto investigados como parte del proyecto InTheMED. Este modelo sirve como herramienta para examinar los impactos potenciales del cambio climático y las políticas agrícolas en los recursos de agua subterránea dentro de la región. El objetivo final de esta aplicación es proporcionar una herramienta fácil de usar, basada en la red neuronal entrenada. La simplicidad inherente del modelo sustitutivo, con una interfaz directa y resultados fáciles de entender, juega un papel crucial en los procesos de toma de decisiones. En cuanto al transporte de contaminantes, se implementó una ANN para resolver diferentes problemas directos e inversos. El problema directo trata sobre la evaluación de concentraciones en pozos de monitoreo, mientras que el probl-ma inverso implica la identificación de fuentes de contaminantes y su historial de liberación. Demostró eficiencia al abordar problemas de transporte tanto directos como inversos, ofreciendo resultados confiables con una carga computacional reducida. El estudio también aborda el desafío de la interpretabilidad de las ANNs y el llamado "problema de generalización" a través de las Redes Neuronales Informadas por la Física (PINNs) / [CA] Aquesta investigació contribueix a l'avanç de la modelació substitutiva com una tècnica potent en el camp de la simulació computacional que ofereix nombroses avantatges per a resoldre eficientment problemes complexos. En particular, aquest estudi destaca el paper crucial de la modelació substitutiva en la gestió d'aigües subterrànies. L'impacte del canvi climàtic és un enfocament central, i el primer estudi té com a objectiu construir models de dades substitutius per avaluar els efectes del canvi climàtic en els recursos d'aigües subterrànies, també en el futur. L'estudi implica la comparació entre mètodes estadístics i diferents tipus de Xarxes Neuronals Artificials (ANN). L'eficàcia dels models substitutius es va demostrar al nord de la Toscana (Itàlia), però pot estendre's fàcilment a qualsevol àrea d'interès. El mètode estadístic adoptat implica analitzar dades històriques de precipitació i temperatura juntament amb nivells d'aigua registrats en pous de monitorització. Inicialment, l'estudi explora possibles correlacions entre índexs meteorològics i índexs d'aigua subterrània; si s'identifica una correlació, s'emplea una anàlisi de regressió lineal. Aquestes relacions establertes s'utilitzen després per estimar els futurs nivells d'aigua subterrània en funció de les projeccions de precipitació i temperatura obtingudes d'un conjunt de Models Climàtics Regionals, sota dues Trajectòries de Concentració Representativa: RCP4.5 i RCP8.5. Posteriorment, es van implementar tres models diferents d'Intel·ligència Artificial (IA), AutoRegressive No Lineal amb Entrades Exògenes (NARX), Memòria a Llarg i Curt Terme (LSTM) i Xarxa Neuronal Convolucional (CNN) per avaluar l'impacte del canvi climàtic en els recursos d'aigües subterrànies per al mateix cas d'estudi. Específicament, aquests models van ser entrenats utilitzant directament dades històriques de precipitació i temperatura com a entrada per proporcionar nivells d'aigua subterrània com a sortida. Després de la fase d'entrenament, els models d'IA desenvolupats es van utilitzar per predir els futurs nivells d'aigua subterrània utilitzant les mateixes projeccions de precipitació i temperatura i escenaris climàtics descrits anteriorment. Els resultats van destacar diferents sortides entre els models utilitzats en aquest treball. No obstant això, la majoria d'ells preveu una disminució en els nivells d'aigua subterrània com a resultat de futures variacions en la precipitació i temperatura. Notablement, el model LSTM emergeix com l'enfocament més prometedor per predir futurs nivells d'aigua subterrània. Dins del mateix camp, es va desenvolupar una ANN amb la capacitat de simular les condicions d'aigua subterrània a la conca tancada de Konya, Turquia, un dels llocs pilot investigats com a part del projecte InTheMED. Aquest model serveix com a eina per examinar els impactes potencials del canvi climàtic i les polítiques agrícoles en els recursos d'aigua subterrània dins de la regió. L'objectiu final d'aquesta aplicació és proporcionar una eina fàcil d'usar, basada en la xarxa neuronal entrenada. La simplicitat inherent del model substitutiu, amb una interfície directa i resultats fàcils d'entendre, juga un paper crucial en els processos de presa de decisions. Pel que fa al transport de contaminants, es va implementar una ANN per resoldre diferents problemes directes i inversos. El problema directe tracta sobre l'avaluació de concentracions en pous de monitorització, mentre que el problema invers implica la identificació de fonts de contaminants i el seu historial de lliberació. Va demostrar eficiència en abordar problemes de transport tant directes com inversos, oferint resultats fiables amb una càrrega computacional reduïda. L'estudi també aborda el repte de la interpretabilitat de les ANNs i el denominat "problema de generalització" a través de les Xarxes Neuronals Informades per la Física (PINNs). / [EN] This research contributes to the advancement of surrogate modelling as a powerful technique in the field of computational simulation that offers numerous advantages for solving complex problems efficiently. In particular, this study emphasizes the pivotal role of surrogate modeling in groundwater management. By integrating key factors like climate change and leveraging machine learning, particularly neural networks, the research facilitates more informed decision-making, significantly reducing the computational cost of complex numerical models. The impact of climate change is a central focus and the first study aims to construct surrogate data-driven models for evaluating climate change effects on groundwater resources, also in the future. The study involves a comparison between statistical methods and different types of artificial neural networks (ANNs). The effectiveness of surrogate models was demonstrated in Northern Tuscany (Italy) but can easily extend to any area of interest. The adopted statistical method involves analyzing historical precipitation and temperature data along with groundwater levels recorded in monitoring wells. Initially, the study explores potential correlations between meteorological and groundwater indices; if a correlation is identified, a linear regression analysis is employed to establish relationships between them. These established relationships are then used to estimate future groundwater levels based on projected precipitation and temperature obtained from an ensemble of Regional Climate Models, under two Representative Concentration Pathways, namely RCP4.5 and RCP8.5. Then, three distinct Artificial Intelligence (AI) models, Nonlinear AutoRegressive with eXogenous inputs (NARX), Long-Short Term Memory (LSTM) and Convolutional Neural Network (CNN) were implemented to evaluate the impact of cli-mate change on groundwater resources for the same case study. Specifically, these models were trained using directly historical precipitation and temperature data as input to provide groundwater levels as output. Following the training phase, the developed AI models were utilized to forecast future groundwater levels using the same precipitation and temperature projections and climate scenarios described above. The results highlighted different outputs among the models used in this work. However, most of them predict a decrease in groundwater levels as a result of future variations in precipitation and temperature. The study also presents the strengths and weaknesses of each model. Notably, the LSTM model emerges as the most promising approach to predict future groundwater levels. Within the same field, an ANN was developed with the capability to simulate groundwater conditions in the Konya closed basin, Turkey, one of the pilot sites investigated as part of the InTheMED project. This model serves as a tool for examining the potential impacts of climate change and agricultural policies on groundwater resources within the region. The final goal of this application, is to provide a user-friendly tool, based on the trained neural network. The inherent simplicity of the surrogate model, with a straightforward interface and results that are simple to understand, plays a crucial role in decision-making processes. Shifting to pollutant transport, an ANN was implemented to solve different direct and inverse problems. The direct problem deals with the evaluation of concentrations in monitoring wells, while the inverse problem involves the identification of contaminant sources and their release history. It demonstrated efficiency in addressing both direct and inverse transport problems, offering reliable results with reduced computational burden. The study also addresses the interpretability challenge of ANNs and the so called "generalization problem" through Physics-Informed Neural Networks (PINNs reducing the gap between data-driven modeling and physics-based interpretations. / Secci, D. (2024). Surrogate models, physics-informed neural networks and climate change [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/205793
29

Využití apletů a physletů ve výuce / Applets and physlets in physics education

Quittnerová, Lucia January 2008 (has links)
No description available.
30

Luttinger-liquid physics in wire and dot geometries / Luttingerflüssigkeitsphysik in Quantendraht- und Quantenpunktgeometrien

Wächter, Hans Peter 16 December 2009 (has links)
No description available.

Page generated in 0.1938 seconds