• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 221
  • 141
  • 97
  • 5
  • 2
  • 1
  • 1
  • Tagged with
  • 466
  • 204
  • 203
  • 178
  • 162
  • 160
  • 133
  • 131
  • 131
  • 131
  • 131
  • 131
  • 128
  • 81
  • 72
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Marcadores de modalidad epistémica: un estudio contrastivo (Francés-Español)

Pérez Canales, José 27 April 2009 (has links)
No description available.
2

Arithmetic properties of non-hyperelliptic genus 3 curves

Lorenzo García, Elisa 10 September 2014 (has links)
This thesis explores the explicit computation of twists of curves. We develope an algorithm for computing the twists of a given curve assuming that its automorphism group is known. And in the particular case in which the curve is non-hyperelliptic we show how to compute equations of the twists. The algorithm is based on a correspondence that we establish beetwen the set of twists and the set of solutions of a certain Galois embedding problem. In general is not known how to compute all the solution of a Galois embedding problem. Throughout the thesis we give some ideas of how to solve these problems. The twists of curves of genus less or equal than 2 are well-known. While the genus 0 and 1 cases go back from long ago, the genus 2 case is due to the work of Cardona and Quer. All the genus 0, 1 or 2 curves are hyperelliptic, however for genus greater than 2 almost all the curves are non-hyperelliptic. As an application to our algorithm we give a classification with equations of the twists of all plane quartic curves, that is, the non-hyperelliptic genus 3 curves, defined over any number field k. The first step for computing such twists is providing a classification of the plane quartic curves defined over a concrete number field k. The starting point for doing this is Henn classification of plane quartic curves with non-trivial automorphism group over the complex numbers. An example of the importance of the study of the set of twists of a curve is that it has been proven to be really useful for a better understanding of the behaviour of the Generalize Sato-Tate conjecture, see the work of Fité, Kedlaya and Sutherland. We show a proof of the Sato-Tate conjecture for the twists of the Fermat and Klein quartics as a corollary of a deep result of Johansson, and we compute the Sato-Tate groups and Sato-Tate distributions of them. Following with the study of the Generalize Sato-Tate conjecture, in the last chapter of this thesis we explore such conjecture for the Fermat hypersurfaces X_{n}^{m}: x_{0}^{m}+...+x_{n+1}^{m} = 0. We explicitly show how to compute the Sato-Tate groups and the Sato-Tate distributions of these Fermat hypersurfaces. We also prove the conjecture over the rational numbers for n=1 and over than the cyclotomic field of mth-roots of the unity if n is greater 1. / En esta tesis estudiamos el cálculo explícito de twists de curvas. Se desarrolla un algoritmo para calcular los twists de una curva dada asumiendo que su grupo de automorfismos en conocido. Además, en el caso particular en que la curva es no hiperelíptica se enseña como calcular ecuaciones de los twists. El algoritmo está basado es una correspondencia que establecemos entre el conjunto de twists de la curva y el conjunto de soluciones a un cierto problema de embeding de Galois. Aunque no existe un método general para resolver este tipo de problemas a lo largo de la tesis se exponen algunas ideas para resolver algunos de estos problemas en concreto. Los twists de curvas de género menor o igual que 2 son bien conocidos. Mientras que los casos de género 0 y 1 se conocen desde hace tiempo, el caso de género 2 es más reciente y se debe al trabajo de Cardona y Quer. Todas las curvas de género, 0,1 y 2 son hiperelípticas, sin embargo, las curvas de género mayor o igual que 3 son en su mayoría no hipèrelípticas. Como aplicación a nuestro algoritmo damos una clasificación con ecuaciones de los twists de todas las cuárticas planas lisas, es decir, de todas las curvas no hiperelípticas de género 3, definidas sobre un cuerpo de números k. El primer paso para calcualr estos twists es obtener una clasificación de las cuárticas planas lisas definidas sobre un cuerpo de números k arbitrario. El punto de partida para obtener esta clasificación es la clasificación de Henn de cuárticas planas definidas sobre los números complejos y con grupo de automorfismos no trivial. Un ejemplo de la importancia del estudio de los twists de curvas es que se ha probado que resulta ser de gran utilidad para el mejor entendimiento del carácter de la conjetura de Sato-Tate generalizada, como puede verse en los trabajos de entre otros: Fité, Kedlaya y Sutherland. En la tesis se prueba la conjetura de Sato-Tate para el caso de los twists de las cuárticas de Fermat y de Klein como corolario de un resultado de Johansson, además se calculan los grupos y las distribuciones de Sato-Tate de estos twists. Siguiendo con el estudio de la conjetura generalizada de Sato-Tate, en el último capítulo de la tesis se estudia la conjetura para el caso de las hipersuperficies de Fermat: X_{n}^{m}: x_{0}^{m}+...+x_{n+1}^{m} = 0. Se muestra esplícitamente como calcular los grupos de Sato-Tate y las correspondientes distribuciones. Además se prueba la conjetura para el caso n=1 sobre el cuerpo de los números racionales y para n mayor que 1 sobre el cuerpo de las raíces m-ésimas de la unidad.
3

Fair Allocation of Network Resources for Internet Users

Banchs Roca, Albert 18 February 2002 (has links)
In a commercial Internet, the traffic behavior is determined by the contracts between the ISPs and the users, where a user can be a dial-up user, or one corporate network or a group of individual customers or networks. Since the user is the entity with whom the contract is signed, it should also be the unit to which network resources are allocated. However, while much research in the past has been directed to fair resource allocations for flows (e.g. maxmin fairness and proportional fairness), much less effort has been invested on fair allocation of resources for users. The work done in this thesis tries to fill this gap: we study how to share fairly the network resources among users, when a user can possibly send several flows through different paths.The first part of the thesis focuses on the definition of a fairness criterion for the above problem: user maxmin fairness. The proposed criterion is based on the concepts of utility and welfare developed in the field of political science and political economics. We subdivide the problem of fairly allocating the network resources among users in two subproblems: 1) achieve fairness with respect to the utility experienced by the different users (inter-user fairness) and 2) achieve fairness with respect to the utility experienced by the different flows of a user (intra-user fairness). User maxmin fairness is the result of combining the two welfare functions that solve these two subproblems.Along with the user maxmin fairness criterion, in this thesis we propose a mechanism to implement it: the User Fair Queuing (UFQ) mechanism. In UFQ, a user is allowed to assign any label values to his packets to indicate their relative priority. At the ingress, an algorithm is used to control these labels assigned by the user. We have shown mathematically that: (a) the proposed label control does not allow the asymptotic throughput of a user to exceed its fair rate, and (b) if users label their packets in order to maximize their level of satisfaction or utility, then the resulting bandwidth allocation is user maxmin fair.In the last part of the thesis, we propose a network architecture for the Internet: the User Fair Differentiation (UFD) architecture. The UFD architecture extends the UFQ mechanism in such a way that its good features for resource sharing are preserved. In addition, UFD provides service differentiation, inter-domain communication, real-time traffic support and extensions for multicast and wireless. The fact that neither admission control nor signaling are required strongly contributes to the simplicity of UFD. The fact that no per-user state is kept at core nodes makes the proposed architecture scalable.The performance of the UFD architecture has been extensively evaluated via simulations and a prototype implementation. Both simulation and experimental results have validated the architecture proposed in this thesis.
4

Analysis and simulation of a synergetic environmental control and life support system for long duration spaceflight

Detrell Domingo, Gisela 11 December 2015 (has links)
Cotutela Universitat Politècnica de Catalunya i Universität Stuttgart, Institut für Raumfahrtsysteme (IRS) / Manned missions carried out in the last decades were either close to Earth or short missions. In contrast, Space Agencies future plans include manned exploration missions to asteroids, the Moon and finally Mars. The expected mission durations rise significantly and the greater distance from Earth makes a resupply or rescue mission almost impossible. These future plans make it necessary to develop a new Environmental Control and Life Support System (ECLSS), which ensures the survival of the astronauts for such missions. These frame conditions will impose a high degree of closure and a high reliability for the ECLSS. In this thesis, firstly, the different ECLSS technology/component options are presented, and its suitability for a long duration human spaceflight is analyzed. From all technologies the most promising, regenerative systems for atmosphere, water and waste management are selected in order to examine them as part of a complete ECLSS. Different approaches to evaluate the reliability of complex systems are analyzed. Since the failure of a component within the system does not necessarily lead a failure of the entire ECLSS, as the system is able to compensate for some failures, the Stochastic Dynamic Discrete Simulation (SDDS) method is selected. To carry out an SDDS, a robust and adaptable ECLSS model simulation is required. A new software is developed, based on the simulation tool Environment for Life-Support Systems Simulation and Analysis (ELISSA) from the Institute of Space Systems - University of Stuttgart. As a result of a stochastic simulation a list of failure times is obtained, which can be treated using the Maximum Likelihood Estimation (for parametric models) or the Kaplan-Meier method (for non-parametric models), to define the reliability of the system. The input data required to apply the SDDS are the reliabilities of each possible component of the ECLSS. The reliability of each component is defined by the failure rate or its parts. It can be seen, that the use of redundancies (spare parts) is essential for long duration missions, as the reliability of the system without them after 60 days is lower than 50%. The analysis of all components, including their spare parts, is carried out with the Multi-Opbjective Optimization Problem to achieve a high reliability with the lowest possible mass. Both methodologies, SDDS and MOOP have been implemented creating the user-friendly new software RELISSA. Finally, as an example, RELISSA is used to analyze a manned Mars mission. With this analysis, technologies currently in use (on board ISS) are compared with new technologies (currently under development), with the potential to reduce the system mass. The results clearly show that the new technologies can significantly reduce the mass of the system, for results of similar reliability. With these results, the need of development efforts of ECLSS technologies for manned missions beyond Low Earth Orbit is corroborated. / Les missions tripulades realitzades en les últimes dècades, van ser missions properes a la Terra o de curta durada. Per contra, els plans futurs de les Agències Espacials inclouen missions d'exploració tripulades a asteroides, la Lluna o Mart. La durada esperada d'aquestes missions s'incrementa significament i la major distància de la Terra fa que una missió d’abastiment o rescat sigui pràcticament impossible. Aquests futurs plans fan necessari el desenvolupament d'un nou Sistema de Control Ambiental i Suport a la Vida (ECLSS - Environmental Control and Life Support System), que asseguri la supervivència dels astronautes per a aquestes missions . Aquestes condicions imposen un alt nivell de tancament del sistema i una alta fiabilitat per al ECLSS. En aquesta tesi, es presenten les diferents opcions tecnològiques, components i s’analitza la seva viabilitat per a missions tripulades de llarga durada. De totes les tecnologies, se seleccionen els sistemes regeneratius més prometedors per a la gestió de l’atmosfera, l'aigua i els residus, per tal d'analitzar-los com a part de l'ECLSS. S'analitzen diferents mètodes per tal d'avaluar la fiabilitat de sistemes complexos . Com que la fallada d'un component del sistema no implica necessàriament una fallada de tot l'ECLSS, ja que el sistema és capaç de compensar algunes fallades, se selecciona el mètode de simulació dinàmica- estocàstica (SDDS - Stochastic Dynamic Discrete Simulation). Per a dur a terme l'SDDS, es necessita un model de simulació ECLSS robust i adaptable. Es desenvolupa un nou software, basat en l'eina de Simulació de l'Institut de Sistemes Espacials - Universitat de Stuttgart, Environm ent for Life-Support Systems Simulation and Analysis (ELISSA). Com a resultat de la simulació estocàstica, s'obté una llista de temps de fallada, a partir de la qual, amb el mètode de Màxima Versemblança (per a models paramètrics ) o de Kaplan-Meier (per a models no paramètrics ) es defineix la fiabilitat del sistema. Les dades d'entrada necessàries per aplicar l'SDDS són les fiabilitats de cada un dels possibles com ponents de l'ECLSS. La fiabilitat de cada component es defineix a partir de la taxa de fallada de les seves parts. Es pot observar que l'ús de redundàncies (peces de recanvi) és essencial per a missions de llarga durada, ja que la fiabilitat del sistema sense recanvis disminueix més del 50% passats 60 dies. L'anàlisi de tots els components, incloent-hi les peces de recanvi, es realitza a partir del problema d'optimització d'objectius múltiples (MOOP - Multi-Opbjective Optimization Problem ), per tal d'obtenir una altra fiabilitat amb la menor massa possible. Les dues metodologies , SDDS i MOOP, s'han implementat creant un nou software, user-friendly, RELISSA. Finalment, com exemple, s'ha utilitzar RELISSA per analitzar una missió tripulada a Mart. Amb aquesta anàlisi es comparen tecnologies actualment en ús (a l'Estació Espacial Internacional) i noves tecnologies (actualment en desenvolupament) amb el potencial de reduir la massa del sistema. Els resultats mostren clarament que les noves tecnologies poden reduir significament la massa dels sistema, per a resultats similars de fiabilitat. Amb aquests resultats, es corrobora la necessitat de dedicar esforços de desenvolupament en tecnologies ECLSS per a missions tripulades més enllà de l'òrbita baixa terrestre (LEO - Low Earth Orbit).
5

Methodology for optimal design of efficient air transport network in a competitive environment

Trapote Barreira, César 16 December 2015 (has links)
This thesis aims to dissert about air transport network design taking into consideration the current needs about efficiency in a very competitive industry. The main focus for this work is the airline's point of view and for this reason is going to be common to talk about profitability. A methodology is proposed to analyse current networks and to introduce modifications. First, an analytical approach is proposed with the aim to understand better the interaction of key parameters in network design at strategical level. Analyitical models demonstrate to be very useful because with a few parameters it is possible to decide if point to point or hub and spoke configuration suits better for an airline, given a set of supply conditions. Furthermore, the performance of networks with stopover configuration is tested, basically because for long routes with low demand this newtorks work well, how it was demonstrated by public transport systems. The differenciation of this research, compared against previous studies, is to include the performance of new entrant airlines in the industry. This aspect is carried out evaluating accurately the impact of fixed costs in the evaluation of cost operators. Despite airlines tend to consider aircraft ownership costs and labor costs as variable ones, they are not. They had an important impact in profit and loss account. A bad utilitzation factor of airplane or crew staff is very undesirable for operator and it can consider do not operate new routes if the resources are not well used. Secondly, analytical models are powerful but it is not possible to evaluate accurately the daily operational aspects for real networks with real flight schedules because these models take into consideration average values of some parameters. For this reason, this thesis develops a Tabu search algorithm to carry out airline network planning, based on linear models of each different planning problem. To do this contribution, these models are developed before for linear programming and they are solved with a combination of complete enumeration algorithm and exhaustive search algorithm. Both algorithms provide exact solution or global optimum for any problem statement. Later, Tabu search algorithm improves performance of searching with lower computational cost. The main conclusion is that Tabu developed is a better tool for airline planning than exact techniques because of lower times of computation. This performs better for large networks that, finally, are real networks. However, exact techniques could be interesting for small airlines that can be start-ups. Third, one of main reasons to develop a quantification of costs for managing airlines is due to the problem of complexity in networks. With the growth of air transportation and congestion at airports, primary or reactionary delays become higher day after day. Reactiveness of network depends of configuration and planning. Airlines manages it with extra reources, one way is allocating buffer times in flight schedule and other is having aircrafts at ground at main bases to enter in service and recover flight plans. Airline network design, planning and efficient algorithms are key assets to provide robustness for airlines. Finally, driving airlines in high competitive environments are difficult. Running low costs is the main decision for managers. However, analysing the problem from theory game point of view, allows finding key reasons to support this argument. First, a Stakelberg model is defined for two competing airlines. This model demonstrates that a war on frequencies or fares damages both competitors. Furthermore, a Cournot model it is shown and it proposes a navigation fee attending to correct utilization of capacity. Both models are a theoretical framework but demonstrate consistency and encourage further investigations. / El diseño de redes de transporte aéreo es un factor clave de eficiencia en una industria altamente competitiva. A pesar de que la rentabilidad es de suma importancia, el sistema considera la experiencia del usuario y los beneficios sociales para obtener un óptimo global. Un enfoque analítico permite derivar principios de diseño de redes de transporte aéreo: la tesis muestra cómo unas pocas variables y sus interacciones explican los factores clave del diseño de la red a nivel estratégico. Los servicios punto-a-punto muestran supremacía en las redes simples y para demandas altas y compensadas, una configuración con escalas es adecuada para rutas lejanas con poca demanda, y las operaciones hub and spoke mejoran las dos estrategias anteriores para redes grandes, cuando la demanda es baja o cuando las frecuencias son altas, pero son más sensibles a la propagación de demoras. El enfoque analítico permite prever el comportamiento de nuevas compañías aéreas entrando en el sector. El modelo incluye costes fijos de propiedad del avión y laborales (al contrario de las hipótesis habituales de la industria, que trabaja con costes variables), puesto que tienen un impacto importante en la cuenta de resultados. Una vez se han derivado guías de diseño, la tesis formula un planteamiento más realista del diseño de redes de transporte aéreo basado en programación matemática lineal, que se resuelve con una combinación del Algoritmo de Enumeración Completa y el Algoritmo de Búsqueda Exhaustiva (ambos proporcionan la solución exacta o un óptimo global para cualquier planteamiento del problema). El modelo incluye asignación de flotas, rutas de aeronaves y programación de tripulaciones. Mientras que los algoritmos exactos son apropiados para aerolíneas pequeñas, los problemas más grandes necesitan Búsqueda Tabú. El crecimiento del transporte aéreo y la congestión en los aeropuertos (a veces propiciada por las operaciones hub&spoke) pueden afectar las demoras con un efecto de bola de nieve o látigo; sin embargo el análisis de la complejidad de la red aérea puede incrementar la resiliencia de las operaciones. Un buen diseño de la red aérea, una buena planificación y unos algoritmos eficientes, son aspectos clave para proporcionar fiabilidad a las aerolíneas y así reducir los recursos inactivos asociados a “colchones de tiempo” (en los horarios de los vuelos) y/o en aviones “de reserva” en la plataforma para recuperar planes de vuelo. El “acolchado” mejora la percepción de la calidad por parte del pasajero, pero con un control activo del horario de vuelos puede conseguirse la misma percepción con costes menores. El entorno competitivo de las aerolíneas se analiza con teoría de juegos: un modelo de Stakelberg para dos aerolíneas competidoras muestra que una guerra de frecuencias o tarifas es perjudicial para ambas aerolíneas. Un modelo Cournot propone una tasa de navegación y de congestión según la correcta utilización de la capacidad. Vuelos (de la misma alianza) a lo largo del mundo con escalas en los hubs principales se proponen como investigación futura
6

Cruise speed reduction for air traffic flow management

Delgado Muñoz, Luis 08 April 2013 (has links)
Avui dia un considerable nombre d’infraestructures del transport aeri tenen problemes de congestió. Aquesta situació es veu empitjorada amb l’increment de trànsit existent i amb la seva densitat deguda al sistema de hub i spoke utilitzat per les companyies aèries. Aquesta congestió es veu agreujada puntualment per disminucions de capacitat per causes com la meteorologia. Per mitigar aquests desequilibris, normalment són implementades mesures de gestió del flux de transit aeri (ATFM), sent el retard a l’aeroport d’origen una de les més utilitzades. Assignant retard previ a l’enlairament, el trànsit d’arribada és repartit durant un interval de temps superior i les arribades es distribueixen. Malgrat això, la predicció de quan aquestes reduccions de capacitat es solucionaran una tasca dificultosa. Això comporta que es defineixin regulacions que són més llargues del necessari i per tant, porta a la realització de retard innecessari i al desaprofitament de capacitat. La definició de trajectòries precises ofereix noves oportunitats per gestionar aquests desequilibris. Una tècnica prometedora és la utilització de variacions de velocitat durant el creuer. Generalment, es considera que volar més lent que la velocitat de màxim abast (MRC) no és eficient. En aquesta tesis es presenta una nova aproximació. Quan les aerolínies planifiquen els seus vols, consideren el cost del temps junt amb el del combustible. Per tant, és habitual seleccionar velocitats més ràpides que MRC. Així és possible volar més lent de la velocitat de MRC tot mantenint el mateix consum inicialment planificat. Aquest retard realitzat a l’aire pot ser considerat a la fase pre-tàctica per dividir el retard assignat a un vol en retard a terra i retard a l’aire durant el creuer. Amb aquesta estratègia, el retard és absorbit de manera gradual durant el vol fent servir el mateix combustible que inicialment planificat. Si la regulació es cancel•la abans del que estava planificat inicialment, els vols que estan a l’aire es troben en una situació més favorable per tal de recuperar part del retard. La present tesis es centra en l’estudi d’aquest concepte. En primer lloc, s’ha realitzat un estudi de la relació entre el combustible utilitzat i el temps de vol quan es modifica la velocitat nominal de creuer. A continuació, s’ha definit i analitzat el retard que pot ser realitzat sense incorre en un consum extra de combustible en l’absència i en la presencia de vent. També s’ha considerat i analitza la influència de triar un nivell de vol diferent del planificat inicialment i la utilització de combustible extra per tal d’obtenir major quantitat de retard. Els resultats mostren que per vols de curt i mitja distància, la quantitat de retard realitzable és d’entorn a 5 minuts, aquesta quantitat augmenta a uns 25 minuts per vols de llarg recorregut. El nivell de vol s’ha identificat com un dels paràmetres principals que afecten a la quantitat de retard que pot ser absorbit a l’aire. A continuació es presenta l’aplicació de la tècnica a regulacions d’ATFM realistes, i particularment a ground delay programs (GDP). Per tal de mostrar resultats que siguin significatius, els GDPs implementats en 2006 en el espai aeri nord-americà han sigut analitzats. Han sigut detalladament estudiats escenaris als aeroports de San Francisco, Newark i Chicago. Aquests tres aeroports van ser els que van declarar més GDPs durant el 2006 i per la seva situació geogràfica presenten trànsits amb diferents característiques. Per tal de considerar el trànsit s’ha utilitzat dades de la Federal Aviation Administration i característiques aerodinàmiques i de consum realistes provinents d’Airbus. Finalment, la tesis presenta l’efecte d’utilitzar radis d’exempció en els programes de regulació de trànsit i l’ ús de polítiques de priorització de vols diferents a la utilitzada actualment (ration-byschedule). Per concloure, s’ha realitzat una breu discussió sobre l’impacte d’aquesta estratègia en la gestió del trànsit aeri. / Nowadays, many air transport infrastructures suffer from congestion. This situation is worsened by a continuous increase in traffic, and, traffic density due to hub and spoke systems. Weather is one of the main causes which leads to punctual capacity reduction. To mitigate these imbalances, air traffic flow management (ATFM) initiatives are usually undertaken, ground delay at the origin airport being one of the main ones used. By assigning delay on ground at the departure airport, the arrival traffic is spread out and the arrivals are metered at the congested infrastructure. However, forecasting when these capacity drops will be solved is usually a difficult task. This leads to unnecessarily long regulations, and therefore to the realisation of unnecessary delay and an underuse of the capacity of the infrastructures.The implementation of precise four dimension trajectories, envisaged in the near future, presents new opportunities for dealing with these capacity demand imbalances. In this context, a promising technique is the use of speed variation during the cruise. Generally, it is considered that flying slower than the maximum range speed (MRC) is neither efficient nor desirable. In this dissertation a new approach is presented. When airlines plan their flights, they consider the cost of time along with the cost of fuel. It is therefore common practice to select speeds that are faster than MRC.Thus, it is possible to fly slower than MRC while maintaining fuel consumption as initially planned. This airborne delay can be considered at a pre-tactical phase to divide the assigned air traffic flow management delay between ground and airborne delay. With this strategy, the delay is absorbed gradually during the flight using the same fuel as initially planned, but with the advantage that, if the regulation is cancelled before planned, the flights which are already airborne are in a better position to recover part of their assigned delay.This dissertation focuses on the study of this concept. Firstly, a study of the trade-off existing between fuel consumption and flight time, when modifying the nominal cruise speed, is presented. Secondly, the airborne delay that can be realised without incurring extra fuel consumption is defined and assessed in the absence and presence of wind. The influence of selecting a different flight level than initially planned, and the use of extra fuel consumption to obtain higher delay, are also considered and analysed. Results show that for short and mid-range flights around 5 minutes of airborne delay can be realised, while for longer flights this value increases up to around 25 minutes. The flight level is identified as one of the main parameters which affect the amount of airborne delay realisable.Then, the application of the suggested cruise speed reduction on realistic ATFM initiatives, and, in particular, on ground delay programs (GDP) in the United States, is presented. In order to obtain significant results, the GDPs implemented in North American airspace during 2006 are analysed. Scenarios for San Francisco International, Newark Liberty International and Chicago O'Hare International are studied in detail, as these airports were the ones where the most GDPs were implemented in 2006. In addition, due to their location, they present different traffic behaviours. In order to consider the traffic, Federal Aviation Administration data and the aerodynamics and fuel consumption characteristic form Airbus are used.Finally, the use of radius of exemption in the GPDs and the use of ration policies different from the operative ration-by-schedule, are also analysed. To conclude, a brief discussion about the impact of this speed reduction strategy on the air traffic management is presented. / Hoy en día un número considerable de infraestructuras del transporte aéreo tienen problemas de congestión. Esta situación se ve empeorada por el incremento de tráfico existente y por su densidad producida por el sistema de hub y spoke utilizado por las compañías aéreas. Esta congestión se ve agravada puntualmente por disminuciones de capacidad debidas a causas como la meteorología. Para mitigar estos desequilibrios, normalmente se implementan medidas de gestión del tráfico aéreo (ATFM), siendo el retraso en el aeropuerto de origen una de las más utilizadas. Asignando retraso en tierra previo al despegue, el tráfico de llegada se distribuye durante un intervalo mayor de tiempo y se controlan las llegadas. Pese a esto, la predicción de cuando estas reducciones de capacidad se solventarán es generalmente una tarea compleja. Por esto, se suelen definir regulaciones durante un periodo de tiempo superior al necesario, comportando la asignación y realización de retraso innecesario y el desaprovechamiento de las infraestructuras. La definición de trayectorias precisas permite nuevas oportunidades para gestionar estos desequilibrios. Una técnica prometedora es el uso de variaciones de velocidad durante el crucero. Suele considerarse que volar más lento que la velocidad de máximo alcance (MRC) no es eficiente. En esta tesis se presenta una nueva aproximación. Cuando las aerolíneas planifican sus vuelos consideran el coste del tiempo junto con el del combustible. Por consiguiente, es una práctica habitual seleccionar velocidades mas rápidas que MRC. Así es posible volar mas lento que la velocidad de MRC manteniendo el mismo consumo que el inicialmente planificado. Este retraso realizable en el aire puede ser considerado en la fase pre-táctica para dividir el retraso asignado entre retraso en tierra y retraso durante el crucero. Con esta estrategia, el retraso es absorbido de manera gradual durante todo el vuelo utilizando el mismo combustible que el planificado inicialmente por la compañía. Esta estrategia presenta la ventaja de que los vuelos que están en el aire se encuentran en una situación mas favorable para recuperar parte del retraso que tenían asignado si la regulación se cancela. En primer lugar se ha realizado un estudio de la relación existente entre el combustible usado y el tiempo de vuelo cuando la velocidad de crucero es modificada. A continuación, se ha definido y analizado el retraso que se puede realizar sin repercutir en el consumo en la ausencia y en la presencia de viento. También se ha considerado la influencia de elegir un nivel de vuelo diferente al planificado y el uso de combustible extra para incrementar el retraso. Los resultados muestran que para vuelos de corto y medio alcance, la cantidad de retraso es de en torno a 5 minutos, esta cantidad aumenta a unos 25 minutos para vuelos de largo recorrido. El nivel de vuelo se ha identificado como uno de los parámetros principales que afectan a la cantidad de retraso que puede ser absorbido. Seguidamente se presenta la aplicación de esta técnica en regulaciones de ATFM realistas, y en particular de ground delay programs (GDP). Con el objetivo de mostrar resultados significativos, los GDPs definidos en 2006 en el espacio aéreo norteamericano han sido analizados. Han sido estudiados en detalle escenarios en los aeropuertos de San Francico, Newark y Chicago. Estos tres aeropuertos fueron los aeropuertos que implementaron m´as GDPs en 2006 y por su situación geográfica presentan tráficos con diferentes características. Para considerar el tráfico se han utilizado datos de la Federal Aviation Administration y características aerodinámicas y de consumo provenientes de Airbus. Finalmente, se presenta el efecto de usar radios de exención en los GDPs y el uso de políticas de priorización de vuelos diferentes a la utilizada actualmente (ration-by-schedule). Para concluir se ha realizado una breve discusión sobre el impacto de esta estrategia en la gestión del tráfico aéreo.
7

Estudio comparativo entre aislados clínicos y no clínicos de S. cerevisiae y su papel como patógeno emergente.

de Llanos Frutos, Rosa 23 March 2007 (has links)
La levadura Saccharomyces cerevisiae es la especie más utilizada desde un punto de vista biotecnológico. En la industria agroalimentaria interviene en la elaboración de pan y bebidas alcohólicas como el vino y la cerveza, además se emplea como suplemento dietético y como agente probiótico bajo el nombre de S. cerevisiae var. boulardii. A pesar de sus propiedades beneficiosas, S. cerevisiae se considera actualmente una levadura patógena oportunista emergente de baja virulencia, capaz de causar infecciones principalmente en hospedadores inmunodeprimidos. Con el fin de conocer el posible papel de esta levadura como patógeno emergente, el presente trabajo aborda un estudio comparativo entre aislados clínicos y no clínicos de S. cerevisiae desde diferentes puntos de vista. En primer lugar, la caracterización mediante técnicas moleculares de un gran número de aislados clínicos y su comparación con aislados no clínicos, ha sido de gran ayuda para esclarecer el origen de colonización en infecciones por S. cerevisiae. Dicha caracterización junto con un estudio filogenético de secuencias del gen COX2, evidenciaron dos posibles casos de colonización exógena por parte de cepas de panadería y la cepa probiótica S. cerevisiae var. boulardii.Por otro lado, los estudios de rasgos fenotípicos asociados con virulencia de esta levadura, mostraron que la capacidad de crecimiento a 42º C, el crecimiento pseudohifal y niveles altos en la actividad fosfolipasa, son rasgos de virulencia que marcan la diferencia entre los aislados clínicos y las cepas industriales. Dicho estudio junto con los ensayos en sistemas murino de infección sistémica, han permitido establecer el potencial patógeno de algunas cepas de S. cerevisiae.Finalmente se han observado diferentes grados de activación de las MAP quinasas Slt2 y Kss1 entre los aislados clínicos y no clínicos incluidos en este estudio, además de detectarse la presencia de dos proteínas Slt2 para un grupo de aislados clínicos. El análisis de la secuencia del gen SLT2 ha revelado que estos aislados tienen más de dos alelos que se diferencian en el tamaño, como consecuencia de la variación en un gran número de repeticiones de los trinucleótidos CAA/que codifican glutaminas. Estos estudios pueden ser de gran interés para las industrias de alimentos que incluyen a S. cerevisiae en sus preparados, así como en el ámbito hospitalario, advirtiendo del peligro que conlleva la administración de productos que contengan dicha levadura, a individuos inmunodeprimidos. / Saccharomyces cerevisiae has traditionally been used in industrial fermentative processes, beer and wine production, baking, and as a nutritional supplement or even as a probiotic. This is the case of the probiotic strain of this species, S. cerevisiae var. boulardii which has been widely used in Europe to treat several types of diarrhoea. Although S. cerevisiae and S. boulardii have commonly been considered as safe microorganism, this concept has changed due to an increased number of human infections. Consequently, S. cerevisiae is now considered an emerging opportunistic pathogen that can cause clinically relevant infections, mainly associated with immunocompromised patients. With the aim of know the possible role of this yeast as an opportunistic pathogen, the present work tackles a comparative study between clinical and no clinical isolates of S. cerevisiae from different point of view. This study could be of great interest for all food industry that include S. cerevisiae inside their preparation, just as in the hospital environment, warning of the risk that entail the administration of products which contain the above mentioned yeast to immunosuppressed person.
8

Desarrollo de métodos rápidos para el control del Bacillus cereus en alimentos.

Martínez Blanch, Juan Fco. 12 September 2008 (has links)
Bacillus cereus es un bacilo Gram positivo esporulado contaminante habitual de alimentos tanto frescos como procesados. La detección y cuantificación de este patógeno de alimentos se realiza habi-tualmente por técnicas culturales. Dichas técnicas consumen mucho tiempo y, en ocasiones, llevan a identificaciones erróneas. Como alternativa, las técnicas moleculares basadas en la PCR tienen como ventaja una mayor rapidez y seguridad en la identificación del microorganismo, e incluso permiten su cuantificación mediante PCR a tiempo real (Q-PCR). En este estudio se han desarrollado diferentes métodos para el control de este microorganismo en alimentos, basados en la técnica de la PCR.A partir de una colección de cepas de referencia y aislados de alimentos, identificados previamente por métodos fenotípicos, (ISO 7932 y API-50CH/B) y genotípicos, (ISR-PCR y RAPD), se determinó la presencia de genes relacionados con factores de virulencia mediante PCR convencional. El gen pc-plc se detectó en un mayor porcentaje en las cepas del "grupo B. cereus", y dado que se encuentra en una única copia por genoma, fue seleccionado como gen diana. Se diseñaron 4 oligonucleótidos para el desarrollo de procedimientos de Q-PCR en modo SYBR Green y Taqman. Se optimizaron los parámetros de la reacción de cuantificación, y se evaluó su especificidad para el "grupo B. cereus", resultando más adecuado el procedimiento de SYBR Green Q-PCR. A continuación se ensayó la capacidad para la detección y cuantificación en alimentos contaminados artificialmente: huevo líquido y leche en polvo infantil. Como resultado el sistema desarrollado ha demostrado su capacidad para la cuantificación de B. cereus entre 105 y 100 ufc/ml a partir de la matriz ensayada, que corresponde al mismo nivel que el método de referencia por recuento en placa. Dado que B. cereus puede estar presente en alimentos tanto en forma vegetativa como esporulada, para su detección por PCR se abordó, asimismo el desarrollo de un protocolo para asegurar la liberación del DNA a partir de esporas. Se partió de suspensiones calibradas de esporas que fueron sometidas a diferentes tratamientos: a) térmicos y b) adición de germinadores en diferentes combinaciones. Tras los tratamientos, se realizó la extracción de DNA con DNeasy Tissue kit (Qiagen), se cuantificó y se evaluó el rendimiento espectrofluorimétricamente (PicoGreen, Invitrogen) y mediante PCR convencional y SYBR Green Q-PCR. El tratamiento de germinación con 0,5 mM L-alanina/inosina resultó el más eficiente en suspensiones concentradas de esporas. Sin embargo, cuando se ensayó en alimentos inoculados (104 - 100 esporas/ml), la extracción con DNeasy Tissue Kit, sin necesidad de tratamientos previos, resultó satisfactorio.Por último, se realizó una aproximación cuantitativa para la detección de formas viables de B. cereus. Para ello se desarrolló un procedimiento de PCR a tiempo real con transcripción inversa (Q-RT-PCR) utilizando como diana el RNA mensajero del gen pc-plc, como indicador del estado de viabilidad celular. El nivel de sensibilidad obtenido por Q-RT-PCR fue de 30 células/reacción a partir de suspensiones celulares, y de 847 células/reacción tras su aplicación en huevo líquido.Los procedimientos de Q-PCR y Q-RT-PCR desarrollados en este estudio han mostrado ser eficientes para detectar la presencia de las especies del "grupo B. cereus" en alimentos, al menos al mismo nivel que el método de referencia, permitiendo además la cuantificación incluso de formas viables. / Bacillus cereus is a rod-shaped, Gram-positive sporeforming bacterium widely recognized as a food poisoning organism. Detection of this pathogen in food is usually carried out by culture techniques that are time consuming and frequently lead to misidentifications. As an alternative, molecular genetic techniques allow rapid, sensitive and accurate detection. In the present work, PCR based systems were applied for a rapid and unequivocal detection of "B. cereus group" which would be very valuable in food safety assessment. The presence of virulence genes was tested by PCR amplification in a collection of reference strains and food isolates that had been phenotypically and genotypically characterized. The pc-plc gene showed the highest prevalence among the tested strains and five oligonucleotides were designed in order to develop SYBR Green and TaqMan real-time PCR (Q-PCR) procedures. The SYBR Green Q-PCR was applied on spiked liquid egg and dried infant formulae showing suitable quantification results in a range of 105 to 100 ufc/ml, and high degrees of correspondence between Q-PCR assays and plate counts. To assess detection of B. cereus spores by PCR procedures, several DNA isolation methods were tested on spore suspensions: i) heat treatment and ii) germination triggered by nutrient germinants followed by DNA isolation (DNeasy tissue kit, Qiagen). Recovery of DNA was evaluated by PCR, Q-PCR, and PicoGreen fluorescence (Invitrogen). Germination with L-alanine 0.5 mM/inosine 0.5 mM rendered the maximum rate of DNA at 108 spores/ml. However, DNA extraction without any modifications rendered similar DNA recovery on 105 to 100 spores/ml range. Spore detection was established in 3-4 spores/reaction using both spore suspensions and spiked food samples. Besides pathogen detection, cell viability is important in food safety. Thus a one-step Q-RT-PCR detection system, was established to investigate the presence of metabolically active cells. By using this approach, 30 cells/reaction and 847 cells/reaction were detected in cell suspensions and spiked liquid egg samples, respectively.The developed Q-PCR and Q-RT-PCR systems proved to be highly sensitive and specific for the rapid and accurate detection and quantification of species of the "B. cereus group" in food, and constitute a promising tool in the detection of B. cereus including spores as well as viable cells.
9

Desarrollo de un nuevo ensayo experimental para la evaluación de la calidad de uniones adhesivas entre componentes estructurales de composite para la indústria aeronáutica

Renart Canalias, Jordi 10 September 2010 (has links)
El uso de los composites en la industria aeronáutica ha experimentado un fuerte crecimiento en los últimos años debido a la utilización de componentes de composite que realizan funciones estructurales. A menudo, para disminuir los costes de producción, las partes esbeltas del fuselaje se unen con elementos rigidizadores mediante uniones adhesivas. Para asegurar que las uniones adhesivas cumplirán la función estructural para la cual se han diseñado se realizan ensayos a nivel de probeta. En el presente trabajo se realiza un análisis de los métodos de ensayo experimental que se llevan a cabo para determinar la calidad de las uniones adhesivas (las cuales dependen principalmente de la calidad de la preparación superficial, las propiedades del adhesivo y la compatibilidad entre el adhesivo y los adherentes). La tesis se enfoca a dos objetivos: la propuesta de mejoras del ensayo de doble viga en voladizo y el desarrollo de un método alternativo de propagación de grieta por avance forzado de una cuña (Wedge Driven Test, WDT). En cuanto al ensayo de doble viga en voladizo, se han diseñado unos utillajes de sujeción mecánica de la probeta a la máquina de ensayo y se ha propuesto una metodología experimental adaptada a la propagación discontinua del frente de grieta. En relación al nuevo método de ensayo, se ha desarrollado un procedimiento dirigido, al igual que el DCB actual, a determinar la tenacidad a la fractura en modo I de la unión adhesiva, mediante la introducción forzada de una cuña. Las ventajas que ofrece el ensayo WDT respecto el DCB es que es más rápido, económico, no se necesita ningún tipo de preparación previa de la probeta y no hace falta realizar mediciones de la longitud de grieta. Para poner a prueba la sensibilidad del ensayo WDT a la calidad de la unión se ha realizado una serie de campañas experimentales, en las cuales se han analizado 4 configuraciones de unión adhesiva distintas (como resultado de la combinación de dos adherentes y dos adhesivos). Así mismo se han ensayado preparaciones intencionadamente defectuosas. De los resultados de las campañas experimentales se ha observado que el ensayo de propagación de grieta por avance forzado de cuña presenta unos resultados equivalentes a los del ensayo DCB y es sensible a la calidad de la preparación superficial. / The use of composite materials in the aircraft industry has been increasing in recent years due to their application in structural parts. To reduce the production costs of these components the join between skins and stiffeners is made by means of an adhesive. In order to guarantee that the bonded joint fulfils the structural requirements, experimental tests on specimens are done from the first development tasks and throughout the production stages. In the present work, an analysis of the experimental test methods to determine the quality of bonded joints has been performed - the quality of bonded joints depends on the quality of the surface preparation, the adhesive properties and the compatibility between the adhesive and the adherents. The work focuses on two objectives: the improvement of the double cantilever beam test, and the development of an alternative method of bonded joint characterization based on driving a wedge into the adhesive layer (Wedge Driven Test, WDT). In the double cantilever beam test, a mechanical fixture tool has been designed and a data reduction method for stick-slip crack propagation has been developed. On the other hand, the alternative test method such as the DCB, focuses on determining the fracture toughness in mode I of the adhesive joint, by means of introducing a wedge inside the specimen at a constant speed rate. To prove the sensitivity of the WDT to the quality of the adhesive joint, a series of testing campaigns has been performed over 4 adhesive joint configurations (combining 2 adhesives and 2 adherents). Moreover, deliberately produced bad surface preparations have been tested. From the test results, it has been observed that the driven wedge test exhibits an equivalent behaviour to the double cantilever beam test and has a similar level of sensitivity to the quality of the bonded joint.
10

Predictive mycology and use of natural antifungals to prevent the mycotoxin food hazard

García, Daiana 19 October 2012 (has links)
Filamentous moulds may cause spoilage in raw materials, foods and feeds. Some of them synthesize mycotoxins which are a risk for human and animal health. For this reason, from the food safety point of view, only mycotoxins, as chemical hazards, are important. Nevertheless, despite the absence of direct correlation between mould growth and mycotoxins production, the prevention of fungal growth in raw materials and foods leads invariably to the prevention of mycotoxins presence. Due to the fact that moulds can contaminate foods from raw materials till end products, different strategies could be used at the different steps in the food chain. Preharvest strategies include the use of resistant varieties, crop rotation, soil preparation, optimal irrigation, fertilizer, herbicides, insecticides and chemical and biological agents application. Post-harvest strategies include improved drying and storage conditions, together with the use of natural and chemical agents. Predictive models may be used as a strategy to predict and prevent mycotoxigenjc fungal growth and mycotoxins accumulation. The present PhD work focused in two main strategies: a) The use of antifungals of natural origin to prevent from mycotoxigenic fungi and mycotoxins Equisetum arvense and Stevia rebaudiana extracts were analized as possible natural agents to inhibit growth and mycotoxin accumulation in in vitro and in vivo experiments. Both extracts were effective against mycotoxigenic moulds and the mycotoxigenic Aspergillus and Fusarium isolates studied were completely inhibited by a 3% of E. arvense. However, the effect decreased in the in vivo test. In the last case, Equisetum was effective against Aspergillus section Flavi and Fusarium section Liseola growth at high water activity levels and with high infection levels, but mycotoxins levels were not significantly affected. b) The assessment of the usefulness of predictive models to manage the mycotoxin problem In an initial experiment, four particular points which deserved in depth study to assess the viability of predictive microbiology in the moulds field were identified: 1) models should be developed for longer time periods; 2) food and raw materials prone to mycotoxin contamination are usually stored under marginal conditions for mould growth, thus performance of models should be checked under such conditions; 3) the impact of the inoculum size in the performance of the models; and 4) the impact of the potential intraspecies variability among isolates in prediction performance. Prediction of time to growth by kinetic models was clearly linked to inoculum size. On the other hand, the performance of predictive models may be compromised under marginal conditions for fungal growth, the higher variability of results under these conditions results in the need for a higher number of replicates required, specifically for kinetic models. For last, a high intraspecific variability on growth and mycotoxin levels has proven to be wider for the both isolates studies: A. carbonarius and P. expansum. For this reason, a greater number of strains should be included to develop models under non optimal condition for both, growth and for mycotoxin production. A matrix was built from which the number of strains and replicates to be planned for new experiments can be assessed for a reliable estimation of growth parameters and we conclude that increasing the number of strains in an experiment increases the explained variability much more than including further replicates. Finally, a first attempt was done to model aflatoxins production as a function of growth parameters and time. Aflatoxins accumulation was shown to be better correlated to colony area than either colony diameter or fungal biomass. Luedeking-Piret model was used for this purpose, and reasonable percentages of variability were explained. To conclude, probability models applied either to mould growth or mycotoxin production might be a valuable tool in food safety management through the food chain.

Page generated in 0.0453 seconds