• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 1
  • Tagged with
  • 4
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

L'emmagatzematge intraovàric d'esperma en Helicolenus dactylopterus (Pisces: Scorpaeniformes)

Vila Espuña, Sílvia 08 April 2010 (has links)
El penegal, Helicolenus dactylopterus dactylopterus (Pisces: Scorpaeniformes), és una espècie que habita profunditats d'entre els 200 i 1000 m i presenta una clara distribució batimètrica en funció de la seva talla. Presenta fecundació interna i a l'interior de l'ovari conté estructures d'emmagatzematge que permeten emmagatzemar l'esperma durant períodes de temps considerablement llargs. Les cèl·lules sexuals masculines es mantenen viables gràcies a diverses substàncies nutritives que obtenen de la bossa citoplasmàtica i de l'epiteli criptal que delimita les estructures d'emmagatzematge. Aquest epiteli és també responsable de la seva protecció. Un cop els ous han assolit la maduresa, els espermatozoides són alliberats al lumen ovàric i es dóna la fertilització. És una espècie zigòpara: allibera òvuls fecundats que han estat retinguts al tracte reproductiu femení durant un curt període de temps i, per tant, els embrions són alliberats en estadis molt primerencs de desenvolupament. Així, el penegal presenta una estratègia reproductiva evidentment eficaç. / The bluemouth, Helicolenus dactylopterus dactylopterus (Pisces: Scorpaeniformes), is a species that inhabits the seabed at depths between 200 and 1000 m and shows a clear size-dependent bathymetric distribution.It has internal fertilization and, inside the ovary, there are storage structures that allow it to store sperm for considerably long periods of time. These male sexual cells remain viable thanks to several nutritious substances they obtain from the cytoplasmic bag and from the cryptal epithelium that delimits the storage structures. This epithelium is also responsible for their protection. Once the eggs have reached maturity, the spermatozoa are freed in the ovarian lumen and fertilization occurs. This species is zygoparous: liberation of fertilized ova, which have been retained in the female reproductive tract during a short period of time and, therefore, the embryos are freed in very early stages of development. Thus, the bluemouth exhibits an obviously effective reproductive strategy.
2

Tecnologia postcollita de l'avellana. Assecatge i frigoconservació de l'avellana, Corylus avellana L.

Piqué Ferré, Maria Teresa 19 September 1995 (has links)
L'assecatge i emmagatzematge de l'avellana són processos molt importants en latecnologia postcollita de l'avellana que poden influir en la seva qualitat i idoneïtat per alconsum. Aquesta Tesi estudia la cinètica d'assecatge i la influència de les condicionsd'assecatge i frigoconservació sobre la qualitat de l'avellana; prèviament, però, es fa un estudidel comportament higroscopio de l'avellana.Per a l'estudi del comportament higroscòpic de l'avellana s'han determinat les corbesde rehidratació i les isotermes d'humitat d'equilibri a diferents temperatures. L'equació dePeleg dóna un bon ajust a les corbes de rehidratació; mentre que dels diferents modelsmatemàtics als que s'han ajustat les dades experimentals d'humitat d'equilibri, l'equació deG.A.B. és la que prediu millor les isotermes d'humitat d'equilibri de l'avellana.L'estudi de la influència de les condicions de frigoconservació sobre la qualitat del'avellana en gra s'ha fet emmagatzemant, durant un any, mostres d'avellana de les varietatsNegret, Pauetet i Tonda Romana a temperatures entre 0°C i 10°C i a humitats relatives de40% i 60%. Per avaluar la qualitat de l'avellana emmagatzemada s'ha determinat l'índexd'acidesa, els coeficients d'extinció K232 i K270, el període d'inducció, l'activitat dels enzimslipasa, peroxidasa i polifenoloxidasa, l'evolució del color i l'acceptació organoléptica del'avellana. Els resultats obtinguts posen de manifest que la conservació de l'avellana enaquestes condicions de frigoconservació és bona.Per a l'estudi de la influència de les condicions d'assecatge sobre la qualitat del'avellana s'han realitzat experiències d'assecat amb avellana de la varietat Negt'et en gra i enclosca i amb avellana de la varietat Pauetet en gra, a temperatures entre 30°C i 80°C, i s'hadeterminat el grau d'alteració de la fracció lipídica i l'evolució del color de l'avellana. Elsresultats obtinguts indiquen que les temperatures d'assecat superiors a 50°C afavoreixen eldesenvolupament dels enranciments hidrolític i oxidatiu.En darrer terme, s'ha estudiat la cinètica d'assecat de l'avellana ajustant les corbesd'assecat en capa prima a diferents equacions. També s'ha realitzat la validació de l'algoritmede simulació de l'assecat d'avellana en llit profund que utilitza el model de Nellist i l'equacióde velocitat d'assecat de Page, mitjançant la realització d'experiències d'assecat industriald'avellana.
3

L'Emmagatzematge de cereals en sitges d'època ibèrica al nord-est de Catalunya

Burch, Josep 22 April 1996 (has links)
Una sitja és una cavitat subterrània destinada a emmagatzemar la collita, especialment de cereals. Amb el manteniment d'unes condicions ideal de temperatura i humitat els cereals s'hi poden conservar durant un llarg període de temps, que segons Varró podria arribar als 50 anys. Aquestes excepcionals possibilitats han possibilitat que l'emmagatzematge en sitges fos un dels mètodes de conservació de cereals a llarg termini més utilitzat en les societats pre-industrials de tot el món.La sitja estàndard del nord-est de Catalunya és aquella que era excavada a l'argila, no portava revestiment i tenia la boca en forma de tub, de 0,77 m de diàmetre màxim per 0,42 de profunditat. El perfil era de tipus còncau, amb el diàmetre màxim situat en el terç central de la sitja, i un fons indistintament còncau o pla. La profunditat i el diàmetre màxim es situarien entre 1,75 i 2 m., amb un marge de diferència reduïdíssim entre ambdues mesures. La capacitat resultant d'aquestes dimensions se situaria entre 1 i 3 tones de cereals, que en termes estàndards de producció seria el resultat de la collita d'una extensió d'entre 1,5 i 4 hectàrees de terreny.ASBTRACT:A silo is an underground cavity designed to store the harvest, especially grain. With the maintenance of ideal conditions of temperature and moisture grains can be preserved for a long period of time, according to Varró it could reach 50 years. These exceptional opportunities have enabled the storage silos to be one of the methods of long-term conservation of grain used in most pre-industrial societies around the world.The standard silo from the North-East of Catalonia was excavated in clay,it had no siding and its mouth was tube-shaped, up to 0.77 m of maximum diameter to 0.42 deep. The profile was concave, with maximum diameter located in the central third of the silo, and a background either concave or flat. The depth and maximum diameter are located between 1.75 and 2 m, with a very little margin of difference between the two measures. The capacity resulting from these dimensions would be located between 1 and 3 tons of cereals, which in terms of production standards it would mean a harvest of between 1.5 and 4 hectares of ground.
4

Distributed Computing Solutions for High Energy Physics Interactive Data Analysis

Padulano, Vincenzo Eduardo 04 May 2023 (has links)
[ES] La investigación científica en Física de Altas Energías (HEP) se caracteriza por desafíos computacionales complejos, que durante décadas tuvieron que ser abordados mediante la investigación de técnicas informáticas en paralelo a los avances en la comprensión de la física. Uno de los principales actores en el campo, el CERN, alberga tanto el Gran Colisionador de Hadrones (LHC) como miles de investigadores cada año que se dedican a recopilar y procesar las enormes cantidades de datos generados por el acelerador de partículas. Históricamente, esto ha proporcionado un terreno fértil para las técnicas de computación distribuida, conduciendo a la creación de Worldwide LHC Computing Grid (WLCG), una red global de gran potencia informática para todos los experimentos LHC y del campo HEP. Los datos generados por el LHC hasta ahora ya han planteado desafíos para la informática y el almacenamiento. Esto solo aumentará con futuras actualizaciones de hardware del acelerador, un escenario que requerirá grandes cantidades de recursos coordinados para ejecutar los análisis HEP. La estrategia principal para cálculos tan complejos es, hasta el día de hoy, enviar solicitudes a sistemas de colas por lotes conectados a la red. Esto tiene dos grandes desventajas para el usuario: falta de interactividad y tiempos de espera desconocidos. En años más recientes, otros campos de la investigación y la industria han desarrollado nuevas técnicas para abordar la tarea de analizar las cantidades cada vez mayores de datos generados por humanos (una tendencia comúnmente mencionada como "Big Data"). Por lo tanto, han surgido nuevas interfaces y modelos de programación que muestran la interactividad como una característica clave y permiten el uso de grandes recursos informáticos. A la luz del escenario descrito anteriormente, esta tesis tiene como objetivo aprovechar las herramientas y arquitecturas de la industria de vanguardia para acelerar los flujos de trabajo de análisis en HEP, y proporcionar una interfaz de programación que permite la paralelización automática, tanto en una sola máquina como en un conjunto de recursos distribuidos. Se centra en los modelos de programación modernos y en cómo hacer el mejor uso de los recursos de hardware disponibles al tiempo que proporciona una experiencia de usuario perfecta. La tesis también propone una solución informática distribuida moderna para el análisis de datos HEP, haciendo uso del software llamado ROOT y, en particular, de su capa de análisis de datos llamada RDataFrame. Se exploran algunas áreas clave de investigación en torno a esta propuesta. Desde el punto de vista del usuario, esto se detalla en forma de una nueva interfaz que puede ejecutarse en una computadora portátil o en miles de nodos informáticos, sin cambios en la aplicación del usuario. Este desarrollo abre la puerta a la explotación de recursos distribuidos a través de motores de ejecución estándar de la industria que pueden escalar a múltiples nodos en clústeres HPC o HTC, o incluso en ofertas serverless de nubes comerciales. Dado que el análisis de datos en este campo a menudo está limitado por E/S, se necesita comprender cuáles son los posibles mecanismos de almacenamiento en caché. En este sentido, se investigó un sistema de almacenamiento novedoso basado en la tecnología de almacenamiento de objetos como objetivo para el caché. En conclusión, el futuro del análisis de datos en HEP presenta desafíos desde varias perspectivas, desde la explotación de recursos informáticos y de almacenamiento distribuidos hasta el diseño de interfaces de usuario ergonómicas. Los marcos de software deben apuntar a la eficiencia y la facilidad de uso, desvinculando la definición de los cálculos físicos de los detalles de implementación de su ejecución. Esta tesis se enmarca en el esfuerzo colectivo de la comunidad HEP hacia estos objetivos, definiendo problemas y posibles soluciones que pueden ser adoptadas por futuros investigadores. / [CA] La investigació científica a Física d'Altes Energies (HEP) es caracteritza per desafiaments computacionals complexos, que durant dècades van haver de ser abordats mitjançant la investigació de tècniques informàtiques en paral·lel als avenços en la comprensió de la física. Un dels principals actors al camp, el CERN, acull tant el Gran Col·lisionador d'Hadrons (LHC) com milers d'investigadors cada any que es dediquen a recopilar i processar les enormes quantitats de dades generades per l'accelerador de partícules. Històricament, això ha proporcionat un terreny fèrtil per a les tècniques de computació distribuïda, conduint a la creació del Worldwide LHC Computing Grid (WLCG), una xarxa global de gran potència informàtica per a tots els experiments LHC i del camp HEP. Les dades generades per l'LHC fins ara ja han plantejat desafiaments per a la informàtica i l'emmagatzematge. Això només augmentarà amb futures actualitzacions de maquinari de l'accelerador, un escenari que requerirà grans quantitats de recursos coordinats per executar les anàlisis HEP. L'estratègia principal per a càlculs tan complexos és, fins avui, enviar sol·licituds a sistemes de cues per lots connectats a la xarxa. Això té dos grans desavantatges per a l'usuari: manca d'interactivitat i temps de espera desconeguts. En anys més recents, altres camps de la recerca i la indústria han desenvolupat noves tècniques per abordar la tasca d'analitzar les quantitats cada vegada més grans de dades generades per humans (una tendència comunament esmentada com a "Big Data"). Per tant, han sorgit noves interfícies i models de programació que mostren la interactivitat com a característica clau i permeten l'ús de grans recursos informàtics. A la llum de l'escenari descrit anteriorment, aquesta tesi té com a objectiu aprofitar les eines i les arquitectures de la indústria d'avantguarda per accelerar els fluxos de treball d'anàlisi a HEP, i proporcionar una interfície de programació que permet la paral·lelització automàtica, tant en una sola màquina com en un conjunt de recursos distribuïts. Se centra en els models de programació moderns i com fer el millor ús dels recursos de maquinari disponibles alhora que proporciona una experiència d'usuari perfecta. La tesi també proposa una solució informàtica distribuïda moderna per a l'anàlisi de dades HEP, fent ús del programari anomenat ROOT i, en particular, de la seva capa d'anàlisi de dades anomenada RDataFrame. S'exploren algunes àrees clau de recerca sobre aquesta proposta. Des del punt de vista de l'usuari, això es detalla en forma duna nova interfície que es pot executar en un ordinador portàtil o en milers de nodes informàtics, sense canvis en l'aplicació de l'usuari. Aquest desenvolupament obre la porta a l'explotació de recursos distribuïts a través de motors d'execució estàndard de la indústria que poden escalar a múltiples nodes en clústers HPC o HTC, o fins i tot en ofertes serverless de núvols comercials. Atès que sovint l'anàlisi de dades en aquest camp està limitada per E/S, cal comprendre quins són els possibles mecanismes d'emmagatzematge en memòria cau. En aquest sentit, es va investigar un nou sistema d'emmagatzematge basat en la tecnologia d'emmagatzematge d'objectes com a objectiu per a la memòria cau. En conclusió, el futur de l'anàlisi de dades a HEP presenta reptes des de diverses perspectives, des de l'explotació de recursos informàtics i d'emmagatzematge distribuïts fins al disseny d'interfícies d'usuari ergonòmiques. Els marcs de programari han d'apuntar a l'eficiència i la facilitat d'ús, desvinculant la definició dels càlculs físics dels detalls d'implementació de la seva execució. Aquesta tesi s'emmarca en l'esforç col·lectiu de la comunitat HEP cap a aquests objectius, definint problemes i possibles solucions que poden ser adoptades per futurs investigadors. / [EN] The scientific research in High Energy Physics (HEP) is characterised by complex computational challenges, which over the decades had to be addressed by researching computing techniques in parallel to the advances in understanding physics. One of the main actors in the field, CERN, hosts both the Large Hadron Collider (LHC) and thousands of researchers yearly who are devoted to collecting and processing the huge amounts of data generated by the particle accelerator. This has historically provided a fertile ground for distributed computing techniques, which led to the creation of the Worldwide LHC Computing Grid (WLCG), a global network providing large computing power for all the experiments revolving around the LHC and the HEP field. Data generated by the LHC so far has already posed challenges for computing and storage. This is only going to increase with future hardware updates of the accelerator, which will bring a scenario that will require large amounts of coordinated resources to run the workflows of HEP analyses. The main strategy for such complex computations is, still to this day, submitting applications to batch queueing systems connected to the grid and wait for the final result to arrive. This has two great disadvantages from the user's perspective: no interactivity and unknown waiting times. In more recent years, other fields of research and industry have developed new techniques to address the task of analysing the ever increasing large amounts of human-generated data (a trend commonly mentioned as "Big Data"). Thus, new programming interfaces and models have arised that most often showcase interactivity as one key feature while also allowing the usage of large computational resources. In light of the scenario described above, this thesis aims at leveraging cutting-edge industry tools and architectures to speed up analysis workflows in High Energy Physics, while providing a programming interface that enables automatic parallelisation, both on a single machine and on a set of distributed resources. It focuses on modern programming models and on how to make best use of the available hardware resources while providing a seamless user experience. The thesis also proposes a modern distributed computing solution to the HEP data analysis, making use of the established software framework called ROOT and in particular of its data analysis layer implemented with the RDataFrame class. A few key research areas that revolved around this proposal are explored. From the user's point of view, this is detailed in the form of a new interface to data analysis that is able to run on a laptop or on thousands of computing nodes, with no change in the user application. This development opens the door to exploiting distributed resources via industry standard execution engines that can scale to multiple nodes on HPC or HTC clusters, or even on serverless offerings of commercial clouds. Since data analysis in this field is often I/O bound, a good comprehension of what are the possible caching mechanisms is needed. In this regard, a novel storage system based on object store technology was researched as a target for caching. In conclusion, the future of data analysis in High Energy Physics presents challenges from various perspectives, from the exploitation of distributed computing and storage resources to the design of ergonomic user interfaces. Software frameworks should aim at efficiency and ease of use, decoupling as much as possible the definition of the physics computations from the implementation details of their execution. This thesis is framed in the collective effort of the HEP community towards these goals, defining problems and possible solutions that can be adopted by future researchers. / Padulano, VE. (2023). Distributed Computing Solutions for High Energy Physics Interactive Data Analysis [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/193104

Page generated in 0.0538 seconds