• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 2
  • 1
  • Tagged with
  • 8
  • 4
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

A new distributed diffusion algorithm for dynamic load-balancing in parallel systems

Cortés Fité, Ana 04 December 2000 (has links)
No description available.
2

Address Prediction and Recovery Mechanisms

Morancho Llena, Enric 11 July 2002 (has links)
Uno de los mayores retos que debe ser afrontado por los diseñadores de micro-procesadores es el de mitigar la gran latencia de las instrucciones de carga de datos en registros. Esta tesis analiza una de las posibles alternativas para atacar dicho problema: predicción de direcciones y ejecución especulativa.Varios autores han comprobado que las direcciones efectivas calculadas por las instrucciones de carga son bastante predecibles. En primer lugar, hemos analizado a qué es debida dicha predictabilidad. Este estudio intenta establecer las estructuras típicas presentes en lenguajes de alto nivel que, al ser compiladas, generas instruciones de carga predecibles. También se analizan los predictores convencionales con el objetivo de determinar qué predictores son más adecuados para las típicas aplicaciones.El estudio continúa con la propuesta de nuevos predictores de direcciones que utilizan sus recursos de almacenamiento de forma más eficiente que los previos predictores. Los predictores alamacenan información respecto al comportamiento de las instrucciones de carga; sin embargo, los requisitos de las instrucciones predecibles son diferentes de los de las instrucciones no predecibles. Consecuentemente, se propone una organización de las tablas de predicción que considere la existencia de ambos tipos de instruciones. También se muestra que existe un cierto grado de redundnacia en las tablas de predicción de los predictores. Este estudio propoen organizar las tablas de predicción de forma que se reduzca dicha redundancia. Todas estas propuestas permiten reducir los requisitos de los predictores referentes a espacio de alamacenamiento, sin causar menoscabo en el rendimiento de los predictores.Posteriormente, se evalúa el impacto de la predicción de direcciones en el rendimiento de los processadores. Las evaluaciones asumen que las predicciones se utilizan para iniciar de forma especulativa accessos a memoria y para ejecutar de forma especulativa sus instrucciones dependientes. En caso de una predicción correcta, todo el trabajo realizado de forma especulativa puede considerarse como correcto; en caso de error de predicción, el tranajo realizado especulativamente debe ser descartado. El estudio se centra en diversos aspectos como la interacción entre predicción de direcciones y predicción de saltos, la implementación de mecanismods de verification, los mecanismos re recuperación en casos de errores de predicción y la influencia de varios parámetreos del procesador (el tamaño de la ventana de emisión de instrucciones, la latencia de la memora cache, y la anchura de emisión de instrucciones) en le impacto de la predicción de direcciones en el rendimiento de los procesadores.Finalmente, se han evaluado mechanismos de recuperación para el caso de errores de predicción de latencia. La predicción de latencia es una técnica de ejecución especulativa utilizada por los planificadores de alguncos procesadores superescalares para tratar las instrucciones de latencia variable (por ejemplo, las instrucciones de carga). Nuestras evaluaciones se centran en un mecanismo convencional de recuperación para errores de predicción de latencia y en una nueva propuesta. También se evalúan los mecanismos propuestos en el ámbito de predicción de direcciones. Se concluye con que éstos mecanismos representan una alternativa rentable a los mecanismos de recuperación convencionales utilizados para tratar los errores de predicción de direcciones. / Mitigating the effect of the large latency of load instructions is one of challenges of micro-processor designers. This thesis analyses one of the alternatives for tackling this problem: address prediction and speculative execution.Several authors have noticed that the effective addresses computed by the load instructions are quite predictable. First of all, we study why this predictability appears; our study tries to detect the high-level language structures that are compiled into predictable load instructions. We also analyse the conventional address predictors in order to determine which address predictors are most appropriate for the typical applications.Our study continues by proposing address predictors that use their storage structures more efficiently. Address predictors track history information of the load instructions; however, the requirements of the predictable instructions are different from the requirements of the unpredictable instructions. We then propose an organization of the prediction tables considering the existence of both kinds of instructions. We also show that there is a certain degree of redundancy in the prediction tables of the address predictors. We propose organizing the prediction tables in order to reduce this redundancy. These proposals allow us to reduce the area cost of the address predictors without impacting their performance.After that, we evaluate the impact of address prediction on processor performance. Our evaluations assume that address prediction is used to start speculatively some memory accesses and to execute speculatively their dependent instructions. On a correct prediction, all the speculative work is considered as correct; on a misprediction, the speculative work must be discarded. Our study is focused on several aspects such as the interaction of address prediction and branch prediction, the implementation of verification mechanisms, the recovery mechanism on address mispredictions, and the influence of several processor parameters (the issue-queue size, the cache latency and the issue width) on the performance impact of address prediction. Finally, we evaluate several recovery mechanisms for latency mispredictions. Latency prediction is a speculative technique used by the schedulers of some superscalar processors to deal with variable-latency instructions (for instance, load instructions). Our evaluations are focused on a conventional recovery mechanism for latency mispredictions and a new proposal. We also evaluate the proposed recovery mechanism in the scope of address prediction; we conclude that it represents a cost-effective alternative to the conventional recovery mechanisms used for address mispredictions.
3

Grip A (H1N1) PDM09: Malaltia moderada i greu en el pacient pediàtric. Utilitat de la càrrega viral com a biomarcador de gravetat

Launes Montaña, Cristian 05 July 2012 (has links)
INTRODUCCIÓ L’abril de 2009 s’identifica un nou virus de la grip, l’A (H1N1) pdm09, en humans. El juny del mateix any, l’Organització Mundial de la Salut declara l’estat de pandèmia a nivell mundial. La malaltia pel nou virus va afectar centenars de nens al nostre medi durant la temporada 2009-2010. OBJECTIUS - Descriure l'espectre de malaltia per grip A (H1N1) pdm09 moderat i greu (aquells casos que requeriren ingrés en un hospital pediàtric de tercer nivell) en la població pediàtrica en el nostre medi. - Descriure la malaltia per grip A (H1N1) pdm09 en pacients pediàtrics en tractament per leucèmia limfàtica aguda, tant els ingressats com els que es va optar per tractar i seguir ambulatòriament. - Descriure els valors de càrrega viral de grip A (H1N1) pdm09 al moment del diagnòstic en relació amb variables epidemiològiques i clíniques en els pacients ingressats amb clínica respiratòria. PACIENTS I MÈTODES - Es dissenyen tres estudis amb recollida prospectiva de dades epidemiològiques, clíniques, analítiques i microbiològiques de nens amb malaltia confirmada amb detecció del material genètic del virus de la grip A (H1N1) pdm09 en aspirat nasofaringi. Els tres estudis es realitzen en un hospital pediàtric de tercer nivell (Hospital Sant Joan de Déu, Universitat de Barcelona) i els resultats es presenten en la memòria d’aquesta tesi. La recollida de dades es porta a terme durant la temporada pandèmica 2009-2010. S'efectuen els procediments estadístics pertinents per al tractament de dades. RESULTATS - El perfil del nen ingressat amb malaltia per grip A (H1N1) pdm09 és el d'un nen prèviament sa preescolar o bé el d'un nen d'edat escolar amb malaltia de base. La dificultat respiratòria i la hipoxèmia són el motiu principal d'ingrés, encara que també s'observen manifestacions extrapulmonars (neurològiques i cardíaques principalment). Les malalties cròniques pulmonars i neurològiques són els grups més importants de pacients que tenen malaltia de base i que requereixen ingrés. D'entre ells, els pacients amb malalties neurològiques suposen el principal grup de malalties cròniques d'entre els que requereixen ingrés a la Unitat de Cures Intensives Pediàtriques (UCIP). En els pacients que requereixen ingrés en UCIP trobem un major temps d'evolució de la malaltia abans d'iniciar el tractament amb oseltamivir i aquest retard en l'inici del tractament antiviral es relaciona amb una major risc d'ingrés en UCIP en el model multivariant. - Els nens amb leucèmia limfàtica aguda en fases de tractament més intensiu presenten una malaltia per grip més greu (broncopneumònia). Els nens en tractament de manteniment no presenten cap complicació amb tractament amb oseltamivir. - Els valors de càrrega viral al diagnòstic es correlacionen negativament amb el temps de durada de la clínica en el moment de fer la recollida de la mostra. Tenir una càrrega viral alta havent passat 5 o més dies des de l'inici de la clínica es relaciona amb un major risc de malaltia greu per grip A (H1N1) pdm09 (necessitat de tractament amb ventilació mecànica invasiva o no invasiva). / “INFLUENZA A(H1N1)PDM09: MODERATE AND SEVERE DISEASE IN THE PEDIATRIC PATIENT. VIRAL LOAD AT DIAGNOSIS AS A BIOMARKER OF SEVERITY.” TEXT: INTRODUCTION A new influenza virus was identified in April 2009 in humans. The influenza A (H1N1) pdm09 disease affected hundreds of children in our country during the pandemic season (2009-2010). OBJECTIVES - To describe the moderate and severe influenza A (H1N1) pdm09 disease (cases requiring for admission in a tertiary pediatric hospital) in children of our setting. - To describe the influenza A (H1N1) pdm09 disease in pediatric patients with acute lymphatic leukemia. - To describe the influenza A (H1N1) pdm09 viral load values at diagnosis in hospitalized children with respiratory symptoms and their relations with epidemiological and clinical variables. PATIENTS AND METHODS - Three different studies were designed and their results are presented. The studies were performed in a tertiary pediatric hospital (Hospital Sant Joan de Déu, University of Barcelona). Data collection was carried out during the pandemic season (2009-2010) in children with confirmed infection with a real-time RT-PCR. RESULTS - A previously healthy infant or a school-aged patient with underlying disease was the profile of the hospitalized child with influenza A (H1N1) pdm09 infection. Respiratory distress and hypoxemia were the main reasons for admission, although extrapulmonary manifestations were also observed (mainly neurological and cardiac). Children with chronic pulmonary diseases or with neurological disorders were the most important groups of patients with an underlying disease of those who required hospitalization. Patients with neurological chronic diseases more often required admission to the Pediatric Intensive Care Unit (PICU). Delays in starting treatment with oseltamivir were associated with an increased risk of admission to PICU in a multivariate model. - Children with acute lymphatic leukemia in intensive treatment phases developed a more severe influenza disease. Children in maintenance treatment phase had not complications. All of them were treated with oseltamivir. - The values of viral load at diagnosis were correlated negatively with the duration of the symptoms at the moment of sampling. To have a high viral load after 5 or more days of the onset of clinical symptoms was associated with an increased risk of severe illness (requiring for mechanical ventilation) due to influenza A (H1N1) pdm09 infection.
4

Modelado y planificación de aplicaciones de Juegos masivos multijugador en red en entornos distribuidos

Barri Vilardell, Ignasi 02 March 2012 (has links)
El sector de los videojuegos ha estado en continuo crecimiento desde su aparición. Una muestra de ello es que, por ejemplo, la economía de los EUA tuvo un crecimiento de su PIB entre los años 2001 y 2004 (última época de crecimiento del PIB desde el año 2000) próximo al 3 %, en cambio, el mercado de los videojuegos creció en el mismo periodo cerca del 20%. A principios de milenio, la industria del videojuego tenía unos volúmenes de ingresos, clientes y trabajadores similares a los de la industria del cine y la música. Actualmente, el mercado del videojuego genera más beneficios que la música y el cine. Se ha llegado a una situación donde el videojuego tiene una hegemonía total sobre el resto de competidores de ocio doméstico; muestra de ello, son los datos sobre beneficios de la industria del videojuego, aportados en el año 2002, comprendidos entre 7 y 9 billones de dólares, sobrepasando así, los beneficios de la industria cinematográfica de Hollywood valorada en 8.1 billones. Este hecho ha sido posible debido a que durante los últimos años los videojuegos han ido expandiendo su ámbito de uso, pasando de la práctica en casa, a un modelo de accesibilidad totalmente ubicuo, donde es posible jugar desde cualquier parte haciendo uso de dispositivos móviles conectados a través de redes de datos (Internet, 3G. . . ). Acorde con su naturaleza, estos juegos se conocen como juegos masivos multijugador en red o con su nombre anglosajón MassivelyMultiplayer Online Games (MMOG). Dada la importancia económica y social de los MMOG, en el presente trabajo de tesis nos hemos centrado en estudiar y modelar este tipo de aplicaciones con el fin de mejorar la eficiencia de su ejecución. En la actualidad, la ejecución de este tipo de aplicaciones se lleva a cabo mayoritariamente mediante arquitecturas basadas en el paradigma Cliente-Servidor. Esto comporta que las infraestructuras de servidores y redes de conexión utilizadas para la ejecución de los MMOG sean frecuentemente actualizadas a costa de desembolsar grandes cantidades de dinero. Sin embargo, la afluencia masiva de nuevos usuarios (o jugadores) de este tipo de aplicaciones sigue comprometiendo día a día la escalabilidad de estas infraestructuras. Es por eso que existe una creciente línea de investigación, basada en solucionar estos problemas de escalabilidad presentes en las infraestructuras que dan servicio a los juegos MMOG. Una de las posibles soluciones, en las que se está centrando la comunidad científica, es en la ejecución paralela de los juegos MMOG, con el fin de distribuir la carga computacional que se genera y mejorar, de este modo, la eficiencia en su ejecución. Sin embargo, aplicar técnicas de computación paralela a las aplicaciones tipo MMOG es una tarea compleja, ya que este tipo de aplicaciones tienen un grado de dinamismo muy elevado, hecho que dificulta la generación de un modelo abstracto donde se identifiquen fácilmente la procedencia u orden de tareas. Por tanto, dividir este tipo de aplicaciones en un conjunto de tareas con el fin de asignarlas (o mapearlas) a distintos nodos de procesamiento resulta ser todo un desafío para la comunidad científica. Dentro de este marco, el presente trabajo de tesis se centra en la necesidad de presentar una solución para la ejecución de este tipo de aplicaciones MMOG en un entorno distribuido, donde el sistema sea capaz de crecer acorde con la demanda de servicios, al mismo tiempo que la calidad de servicio no se vea afectada. En este sentido se ha desarrollado una solución que afronta el problema desde una perspectiva global basada en dos fases. En una primera fase se estudia el comportamiento y las necesidades de recursos de cómputo de las aplicaciones MMOG, y se identifican las características diferenciales de los distintos tipos de juegos que existen. En una segunda fase, y a partir del modelo de comportamiento, se propone una arquitectura híbrida, formada por una parte central y una distribuida, que permite la ejecución paralela de juegos MMOG, aportando escalabilidad y eficiencia. Para ello se desarrollan un conjunto de políticas de asignación de tareas de cómputo, para ser ejecutadas concurrentemente, que explotan el sistema paralelo, contemplando a la vez, las características intrínsecas de los juegos en su modo de ejecución.
5

Estudio del transporte de energía en plasma de fusión termonuclear con medidas experimentales obtenidas del espectrometro de intercambio de carga, realizado mediante técnicas de participación remota.

Fontdecaba Climent, Josep Maria 16 January 2004 (has links)
En la investigació de la fusió termonuclear controlada per confinament magnètic es important conèixer el transport d'energia en els plasmes, doncs aquest transport és el que fa que es refredi més o menys ràpidament amb el que s'obtindran o no les reaccions de fusió. El transport d'energia en els plasmes es majoritàriament turbulent o anòmal, fins la data no hi ha una teoria que expliqui satisfactòriament aquest tipus de transport, por tant per poder realitzar estudis i extrapolacions s'utilitzen models semiempírics en codis de simulació validats. Un d'aquests codis de simulació és PRETOR-Stellarator, utilitzat i millorat durant la realització d'aquesta tesi.Per altra banda un aspecte important dels dispositius de fusió son els diagnòstics, eines imprescindibles per comprendre les propietats del plasma confinat al seu interior. Un dels diagnòstics instal·lats en el stellarator heliac flexible TJ-II del "Laboratorio Nacional de Fusión" de Madrid és l'espectròmetre d'intercanvi de càrrega. Durant aquesta tesi s'ha aprofundit en el seu estudio per després poder analitzar els seus resultats.Amb la següent generació de màquines de fusió és pretén augmentar les prestacions i arribar a demostrar la viabilitat d'aquesta tecnologia per produir electricitat. Per això les màquines han de ser molt més grans i, per tant, més cares i complexes. Por això diversos països han col·laborat en el disseny i, en el futur, construcció del dispositiu. Per a que els científics de tots els països participants puguin beneficiar-se de les dades obtingudes per les noves màquines es fan imprescindibles les eines de participació remota. Un dels punts principals d'aquesta tesi és la utilització d'aquest tipus d'eines pel funcionament de l'espectròmetre d'intercanvi de càrrega.En aquesta tesi s'han realitzat diferents estudis de transport de la calor pels electrons en el plasma. Primer s'ha acabat de validar el codi PRETOR-Stellarator amb dades de descàrreges de TJ-II obtingudes mitjançant la participació remota. Seguidament s'ha introduït una modificació del codi que permet simular amb més exactitud la part central del plasma, amb aquestes modificacions s'ha realitzat un estudi del mode de confinamient millorat de TJ-II.Amb l'espectròmetre d'intercanvi de càrrega s'han realitzat una sèrie de mesures destinades a comprovar les asimetries poloidals de fuga de ions del plasma i després s'ha intentat ver la influència de la inducció de corrent en el plasma en la temperatura dels ions.Finalment amb dades obtingudes de l'espectròmetre d'intercanvi de càrrega s'ha realitzat un estudi del transport del calor pels ions. Primer s'ha realitzat fins un radi efectiu de 0.6 aproximadament i després, gràcies a una millora del diagnòstic, s'ha pogut completar el perfil radial fins fora de l'última superfície de flux tancada. Això és una novetat, ja que fins ara no s'havia fet, a més com a resultat dóna una temperatura dels ions totalment plana al llarg de tot el radi i fins i tot fora d'aquesta última superfície tancada de flux.Amb aquesta tesi s'han provat eines de participació remota comprovant que són aptes per la seva utilització en grans instal·lacions científiques. A més s'ha aprofundit el coneixement dels plasmes de TJ-II. També s'ha acabat de validar el codi PRETOR-Stellarator, amb el que es té una eina útil per la simulació de plasmes de fusió. / En la investigación de la fusión termonuclear controlada por confinamiento magnético es importante conocer el transporte de energía en los plasmas, pues este transporte es el que hace que se enfríe más o menos rápidamente con lo que se obtendrán o no las reacciones de fusión. El transporte de energía en los plasmas es mayoritariamente turbulento o anómalo, hasta la fecha no hay una teoría que explique satisfactoriamente este tipo de transporte, por tanto para poder realizar estudios y extrapolaciones se utilizan modelos semiempíricos en códigos de simulación validados. Uno de estos códigos de simulación está PRETOR-Stellarator, utilizado y mejorado durante la realización de esta tesis.Por otra parte un aspecto importante de los dispositivos de fusión son los diagnósticos, herramientas imprescindibles para comprender la propiedades del plasma confinado en su interior. Uno de los diagnósticos instalados en el stellarator heliac flexible TJ-II del Laboratorio Nacional de Fusión de Madrid es el espectrómetro de intercambio de carga. Durante esta tesis se ha profundizado en su estudio y manejo para después poder analizar sus resultados.Con la siguiente generación de máquinas de fusión se pretende aumentar las prestaciones y llegar a demostrar la viabilidad de esta tecnología para producir electricidad. Para ello la máquinas deben ser mucho mayores y, por tanto, más caras y complejas. Por esto diversos países han colaborado en el diseño y, en el futuro, construcción del dispositivo. Para que los científicos de todos los países participantes puedan beneficiarse de los datos obtenidos por la nuevas máquinas se hacen imprescindibles las herramientas de participación remota. Uno de los puntos principales de esta tesis es la utilización de este tipo de herramientas para el manejo del espectrómetro de intercambio de carga, con lo que es un ejemplo para el futuro.En esta tesis se han realizado diferentes estudios de transporte de calor por los electrones en el plasma. Primero se ha acabado de validar el código PRETOR-Stellarator con datos de descargas de TJ-II obtenidos mediante la participación remota. Seguidamente se ha introducido una modificación del código que permite simular con mayor exactitud la parte central del plasma, con estas modificaciones se ha realizado un estudio del modo de confinamiento mejorado de TJ-II.Con el espectrómetro de intercambio de carga se han realizado una serie de medidas destinadas a comprobar las asimetrías poloidales de fuga de iones del plasma y después se ha intentado ver la influencia de la inducción de corriente en el plasma en la temperatura de los iones.Finalmente con datos obtenidos del espectrómetro de intercambio de carga se ha realizado un estudio del transporte del calor por los iones. Primero se ha realizado hasta un radio efectivo de 0.6 aproximadamente y después, gracias a una mejora del diagnóstico, se ha podido completar el perfil radial hasta fuera de la última superficie de flujo cerrada. Esto último es una novedad, ya que hasta ahora no se había hecho, además da como resultado una temperatura de los iones totalmente plana a lo largo de todo el radio e incluso fuera de esta última superficie cerrada de flujo.Con esta tesis se han probado herramientas de participación remota comprobando que son aptas para su empleo en grandes instalaciones científicas. Además se ha profundizado el conocimiento de los plasmas de TJ-II. También ha acabado de validar el código PRETOR-Stellarator, con lo que se tiene una herramienta útil para la simulación de plasmas de fusión. / In the magnetic confinement cotrolled thermonuclear fusion research it is important to know the energy transport in plasmas, because the transport makes the plasma get cold more or less quickly and so obtain more or less fusion reactions. The energy transport in plasmas is mainly turbulent or anomalous, since now there is not a theory that explains correctly this kind of transport, so in order to make studies and extrapolations it is mandatory to use semiempirical models in validated simulation codes. Among these simulation codes it is PRETOR-Stellarator, used and upgraded during the realization of this thesis.Another important aspect in the fusion devices are the diagnostics, indispensable tools for understanding the plasma properties of the device. One of the diagnostics installed in the stellarator flexible heliac TJ-II from "Laboratorio Nacional de Fusión" (Madrid) is the charge exchange spectrometer. A deep study and operation of it has been done to analize some of its results during the thesis.The next generation of fusion devices will improve its features and demonstrate the viability of this technology to produce electricity. To achieve these goals the machines must be bigger than the present-day ones, and therefore more expensive and complex. To avoid these problems some countries have collaborated in the design and, in the future, will collaborate in the construccion of the device. The scientists participating in the construction of the device would acces to the data collected in the machine by remote participation techniques, no matter where their laboratories were. One of the main points of this thesis is the use of remote participation techniques to operate the charge exchange spectrometer, so this can be a good example for the future.Some electron heat transport studies have been done during this thesis. First of all PRETOR-Stellarator has been validated whit TJ-II shots obtained by remote participation techniques. After, a modification of the code has been done in order to simulate with more precition the central part of the plasma, with these modifications an study of the improved confinement regime of TJ-II has been done.A series of measurements with the charge exchange spectrometer have been done to comprove the asimetric poloidal ion losses in the plasma. Moreover the influence of an induced current in ion temperature has been investigated.Finally, with the charge exchange spectrometer data an ion heat transport study has been done. First and study until an effective radius of 0.6 has been done and, after an upgrade of the diagnostic, it has been completed to the last closed flux surface. This last action is a novelty because never has been done in TJ-II. As a main result of these measurements results an ion temperature profile flat along the whole radius, also out of the last closed flux surface.In this thesis some remote praticipation tools have been tested resulting that they are effective for their use in big scientific instalations. Furthermore the knowledge of TJ-II plasmas has been increased. Also the PRETOR-Stellartor has been validated, resulting an useful tool for the plasma simulations.
6

Estudio de la carga de espacio en polímeros amorfos por espectroscopia dieléctrica

Mudarra López, Miguel 17 January 2000 (has links)
El término carga de espacio describe el estado eléctrico de un material, mal conductor, que mantiene una distribución de cargas eléctricas relativamente inmóviles. El estudio del efecto de la carga de espacio sobre las propiedades de los materiales aislantes está adquiriendo importancia creciente, dada su influencia en los procesos de envejecimiento y ruptura dieléctrica, los cuales suponen una limitación de las prestaciones de aquellos.Para el estudio de la carga de espacio hay que tener en cuenta dos aspectos complementarios. Por un lado, es necesario conocer la distribución espacial de la misma, pues ésta condiciona el valor del campo eléctrico en el interior del material. Por otra parte es necesario determinar los parámetros que rigen los procesos de atrapamiento, transporte y relajación de la carga. En la actualidad se disponen de diversas técnicas para llevar a cabo estos estudios, aunque en general presentan el problema de que, por una parte, requieren acondicionamientos diferentes de las muestras y, por otra, necesitan la disposición de electrodos especiales en algunos casos. Dada la sensibilidad de la carga de espacio a estos factores, resulta difícil correlacionar la información que proporcionan.En nuestro trabajo hemos utilizado tres técnicas que permiten evitar el problema que hemos puesto de manifiesto anteriormente, pues estas técnicas se pueden aplicar sobre muestras que han sido previamente acondicionadas de la misma manera. Estas técnicas son la de las corrientes de despolarización estimulada térmicamente (TSDC), el análisis eléctrico dinámico (DEA) y la técnica del escalón térmico. Las dos primeras son técnicas de espectroscopía dieléctrica mientras que la última permite obtener la distribución de la carga en el material. Los materiales empleados han sido el polimetacrilato de metilo (PMMA) y dos variedades comerciales de polieterimida (PEI) denominadas Ultem 1000 y Ultem 5000. En el análisis de los datos obtenidos mediante TSDC hemos utilizado el modelo de Bucci-Fieschi para las relajaciones de naturaleza dipolar, mientras que las de carga de espacio se han interpretado en base al modelo de cinética de orden general, siempre aplicados sobre muestras polarizadas mediante ventanas (WP). Los parámetros que hemos analizado para las relajaciones dipolares son los tiempos de relajación y energías de activación. En el caso de las relajaciones de carga de espacio hemos estudiado el tiempo de relajación, la energía de activación (que en este modelo corresponde a la profundidad de atrapamiento), la carga atrapada inicial y el orden cinético, parámetro que da información acerca del proceso microscópico más probable en la relajación de la carga de espacio. Los datos de DEA fueron interpretados mediante el modelo de Coelho, utilizando el formalismo del módulo eléctrico, obteniéndose información acerca del grado de bloqueo de los electrodos, la conductividad del material, la concentración de portadores y su movilidad.Entre los resultados obtenidos podemos resaltar que a temperaturas de polarización por encima de 80oC, superiores a la Tpo de la relajación ' del PMMA y a las que el pico  ya es activado, se ha observado un proceso de inyección anódica, que creemos acompañado de un incremento de la movilidad de los portadores positivos que permite explicar el incremento de la conductividad y la disminución de la rigidez dieléctrica observada por otros autores.Para la interpretación de los resultados obtenidos en el estudio mediante TSDC de la relajación de carga de espacio en el PMMA hemos desarrollado un procedimiento que permite extender el método del análisis del mapa de relajación (RMA), habitual en el estudio de las relajaciones dipolares, al caso de la carga de espacio. Según nuestra interpretación, la curva de descarga obtenida procede del proceso de relajación de carga atrapada en una franja de niveles de atrapamiento cuya anchura depende fundamentalmente de la anchura de la ventana de polarización, y cuya profundidad depende de las condiciones de polarización. En el caso de ventanas de polarización de anchura nula, la carga de espacio se halla en una franja estrecha de niveles de atrapamiento, de manera que se puede suponer que el proceso de relajación no es distribuido y aplicar, por lo tanto, un modelo de relajación simple para su estudio, siendo el de cinética de orden general muy conveniente.El procedimiento desarrollado permite explicar, al menos de una forma cualitativa, la función de distribución de niveles de atrapamiento. En el caso del PMMA, el número de trampas parece crecer suavemente hasta alcanzar un máximo a una profundidad de unos 2.35 eV, para, una vez superado éste, decrecer bruscamente a una profundidad de unos 2.5 eV. El orden cinético de la relajación es de 1.14 en el caso del PMMA1 y de 1.25 en el del PMMA2, indicando que, en estos materiales, el proceso de relajación más probable de la carga de espacio es el de la recombinación de portadores.Los valores encontrados para las energías de activación y los factores preexponenciales del tiempo de relajación siguen leyes de compensación. Hemos de resaltar que la existencia de leyes de compensación en el caso de aisladores se había encontrado en procesos de relajación dipolar analizados mediante modelos de cinética de primer orden, mientras que en nuestro caso se ha comprobado en un proceso de relajación de carga de espacio que obedece a una cinética que no es de primer orden.El grado de saturación alcanzado en la formación de la carga de espacio en las muestras de PMMA para un tiempo de polarización dado es tanto mayor cuanto mayores sean el campo aplicado y la temperatura de polarización, observándose que cuanto mayor es el nivel de saturación alcanzada en las polarizaciones, más definida es la temperatura de polarización óptima. La profundidad de atrapamiento de la carga crece con el tiempo de polarización, si bien la temperatura y el campo de polarización influyen en la profundidad de la carga atrapada. En el caso de campos bajos, la profundidad de atrapamiento crece con la temperatura e inicialmente con el campo aplicado. A partir de cierto valor del campo aplicado se observa una disminución de la profundidad de atrapamiento, posiblemente relacionada con un mecanismo de disminución de la barrera de potencial por efecto del campo residual en el material, que parece ser más eficaz en las trampas más profundas.Hemos estudiado la distribución de la carga de espacio en electretes de PMMA, polarizados mediante ventanas de anchura nula a la temperatura de polarización óptima. Los perfiles de distribución de la carga que se han obtenido son más complejos que los observados en relajaciones de naturaleza dipolar y que los obtenidos en electretes polarizados convencionalmente que se han descrito en la bibliografía, y en los que la carga de espacio se había aislado mediante la técnica limpieza de picos. Nuestros resultados indican que a tiempos de polarización cortos se forma fundamentalmente heterocarga y que al incrementarse los tiempos se forman distribuciones más complejas, en las que se observan dos macrodipolos orientados en la dirección del campo. Para campos de polarización altos, el campo residual es mucho mayor en la zona catódica, probablemente fruto de una mayor eficacia de la inyección en el ánodo, lo que produce una compensación de la heterocarga. En el caso de las medidas de DEA sobre PMMA, hemos observado un buen ajuste de los resultados experimentales al modelo de Coelho, lo que supone que a temperaturas por encima de la de transición vítrea los procesos de transporte de carga en este material son la difusión y la conducción óhmica. Los electrodos presentan un bloqueo parcial, observándose un ligero aumento del bloqueo de los mismos con la temperatura. Esta situación de bloqueo parcial puede explicar la existencia de fenómenos de inyección que, como la técnica del escalón térmico ha evidenciado, parecen ser más eficaces en el ánodo.La conductividad en el material a temperaturas por encima de la de transición vítrea es activada térmicamente. Su valor se incrementa en dos órdenes de magnitud en el intervalo de temperaturas estudiado. Este incremento de la conductividad no ha de ser atribuido a un incremento de la concentración de portadores, ya que ésta parece disminuir ligeramente, sino a un incremento de la movilidad de los mismos, que resulta ser activada térmicamente.Los resultados obtenidos en la caracterización mediante corrientes termoestimuladas de las relajaciones presentes en el Ultem 1000 son comparables a los que proporcionan las medidas de DEA. En el material se producen tres procesos de relajación de naturaleza dipolar y uno de carga de espacio. Este último proceso da lugar a un pico sólo en el caso de las corrientes termoestimuladas, debido a la baja frecuencia equivalente de éstas.El gran poder de resolución de la técnica TSDC ha permitido alcanzar el desdoblamiento del pico , que puede resolverse en un doble pico en medidas TSDC convencionales, mientras que, en las medidas de DEA, ambos picos aparecen confundidos en un pico muy ancho. El uso de la polarización por ventanas mejora el poder de resolución de la técnica TSDC, y en el caso de la relajación  se han detectado tres temperaturas de polarización óptima, que ponen de manifiesto la existencia de tres mecanismos de relajación a nivel microscópico.Se han determinado los parámetros que rigen las cinéticas de las diferentes relajaciones y se han comparado con los valores proporcionados por otras técnicas. Las energías de activación para la relajación  se corresponden bien con los valores obtenidos mediante otras técnicas, pero hay diferencias en la  y la . Las diferencias en el caso de la relajación  son atribuibles al hecho de que los tres mecanismos diferenciados que se observan mediante TSDC aparecen superpuestos en solo pico ancho en las medidas DEA y DMTA. Por este motivo, creemos que los valores obtenidos mediante corrientes termoestimuladas son más realistas. Creemos que las diferencias en las energías de activación de la relajación  están relacionadas con las diferencias en los procesos de cálculo.Las corrientes TSDC que resultan de la carga de espacio en este material obedecen a un proceso de relajación cuya cinética es próxima a la unidad, lo que evidencia que la recombinación es el mecanismo más probable durante la relajación. Como en el caso del PMMA, se ha observado una ley de compensación para la relajación de carga de espacio en este material. Hemos comparado los espectros TSDC del Ultem 1000 y el Ultem 5000 a temperaturas por encima de la ambiente. Ambas variedades tienen un espectro TSDC similar, si bien en el caso del Ultem 5000 los picos aparecen desplazados a temperaturas superiores. Las energías de activación de las relajaciones  y  de ambas variedades de polieterimida son comparables. Los órdenes cinéticos de la relajación de carga de espacio también son parecidos en ambos materiales. La principal diferencia entre ellos, es la mayor capacidad de atrapamiento del Ultem 1000, que creemos que puede ser la causa de su menor rigidez dieléctrica.El modelo de Coelho ha resultado satisfactorio para la interpretación del efecto de la relajación de la carga de espacio en las medidas dieléctricas convencionales en ambas variedades de polieterimida. En ambos casos se ha obtenido una conductividad activada térmicamente, siendo en el caso del Ultem 5000 unos dos órdenes de magnitud mayor en el intervalo de temperaturas estudiado. En ambos casos el incremento de la conductividad con la temperatura se ha de atribuir a la movilidad creciente de los portadores, ya que se ha determinado que la concentración de portadores varía poco en dicho intervalo térmico.Por otro lado se han observado diferencias en el comportamiento de los electrodos. En el Ultem 5000 los electrodos se hallan completamente bloqueados, mientras que en el Ultem 1000 el bloqueo en los mismos es parcial. En ambos casos, el valor del factor de transparencia de los electrodos no parece depender de la temperatura, por lo que creemos que en el comportamiento de la unión metal-aislante es más determinante la naturaleza de los materiales que la temperatura.
7

Carrying Capacity In East Sub-Saharan Africa: A multilevel integrated assessment and a sustainable development approach

Xercavins, Josep 17 December 1999 (has links)
0.4.1. ORGANIZATIONIn the context of the global human/earth issues (population, poverty, imbalances, environment problematic, global warming, water scarcity, economical globalization, etc.) with the others the Carrying Capacity issue is emerging. It is a "driver" which is not always simply related with sustainable development concepts. It is therefore enormously important to give adequate answers to the majority of the global dilemmas. The definition of carrying capacity is not easy because it is controversial. So the first chapter of this study is to adopt a clearer position in reference to the meaning, the borders, the key aspects, etc., of our approach to this issue. Basically, our approach is, first, from the sustainable development point of view and, second, a local approach in a global view. Finally and concretely, we indicate what aspects, in which place, how do we study carrying capacity? The answer to these questions will be: the agricultural (land and water) reality in a very specific region of East Sub Saharan Africa.So the next step of the work is to specify and delimit our chosen region and, obviously, to study it in detail. Chapter 2, and some parts of Chapter 8, are the results of this.The kind of methodological approach to global human/earth issues is, clearly, the most characteristic point of our work. We follow a scientific approach developed by Dr. Mihajlo Mesarovic over forty years ago in the mathematical systems analysis field and "finished" in multilevel integrated assessment with reasoning support tools for policy analysis. We study in depth and analyze this methodology in Chapter 3.From a first or high level point of view of a hierarchy of models in our methodology, we study the population and, for the moment in this level, the carrying capacity reality, which is a dynamic system in reality, of our case study region. We have created the corresponding model and then, we have used a reference study from FAO/IIASA/UN [B.3.7] that, according to our bibliography searches and the role that it is continuing to play in the international studies of this issue in developing countries, is a "key reference". We find all of this in chapters 5 (population) and 6 (carrying capacity). In fact one of the goals of this work as a whole is to involve, extend, and indeed test the results of the mentioned report using our methodology.Always from the hierarchical point of view we affront, finally, the second level representation of our issue. It is the most creative part of our study. We decide, after a deep analysis of the background, that we can succeed in developing a new agricultural model involving land and water aspects.Because water is another controversial driving factor of the global human/earth issues, we focus on it in chapter 7. We add some personal special approach according to our methodology and "philosophy".Chapter 8 is the highlight and plays, at the same time, an integrated role of the whole study and, in particular, the second level approach from the point of view of the hierarchy of the models. It allows us to make many final conclusions in several directions. About the methodology itself: extremely powerful with the interrelated combination of the different models levels approach. About the key report cited: only needs to be revised in its high input/output forecasting. The success and new possibilities in order to study the carrying capacity issue, for future policy "vision" analysis, that we now have from the point of view of agricultural reality. Finally, a dramatic foresight and call to the international decision- makers about the situation in our Case Study Region (essentially, the more stressful sub-region of East Sub-Saharan Africa). 0.4.2. OBJECTIVES AND CONTRIBUTIONSAssessment of carrying capacity is essential in the search for the condition of sustainable development. While sustainability has a global dimension focus, for carrying capacity assessment has to be on geographic areas within which the needs of population have to be satisfied consistent with the physiologically determined time constraints. Specifically, food had to be secured for the population on location and in time where the need exists. Large geographic areas cannot be sustained by food imported from distant locations on the globe. In short, some degree of food self-sufficiency is a prerequisite for sustainability. The research reported here started by identifying eastern Sub-Sahara Africa as the most vulnerable geographic region in the sense of carrying capacity. The objective of the research was to approach the question of carrying capacity in a practical integrated manner ("problematique"); i.e., in the context of real constraints imposed by environmental life support resources, rather than to "reduce" the problem to the considerations of the theoretical extreme capacity that have no chance of being achieved in reality.On the first level, a model is developed focusing on the most dominant relationship between population evolution and carrying capacity as a dynamic, time varying system. Broad based data available in international sources are used. Results of FAO research, which is recognized as being the most authoritative, is used to parameterize the model for all countries in the region as well as for the region itself. The concept of an index of carrying capacity potential is developed to assess the results of the simulation using three levels of technology inputs of agricultural production, identified by the FAO.A second level model is developed in which actual physical constraints -land, yields, water and irrigation- are explicitly taken into account. Assessment of carrying capacity supported by actual data is then conducted using the same carrying capacity potential index as the first level. Consistency of the results on the two levels has been demonstrated. This conclusion -not to be expected a priori- has justified the application of the multilevel, from the hierarchical of the models point of view, approach. As such it presents a contribution to the methodology beyond the carrying capacity problem per se. So, in summary, the main contributions of the thesis are threefold:a) Contribution to the complex systems analysis methodology based on the multilevel modeling hierarchy approach, that uses the notions of a dominant relationship rather than more detailed approximation, in order to construct models on different levels of the modeling hierarchy. Consistency of the results on two levels-not expected a priori-open the ways for application of the approach to other problem domains (global warming, water scarcity, etc.).b) Development of an agricultural (land and water) model to study carrying capacity for any country, region, on the globe. The developed models and the reasoning approach in scenario analysis can be applied to other agricultural carrying capacity problems such as, i.e., for Afghanistan, Bangladesh, etc.c) Concrete results about targets and policies for the region in the East Sub-Saharan Africa in order to improve their food self-security.
8

Plasma modification on carbon black surface: From reactor design to final applications

Tricàs Rosell, Núria 01 June 2007 (has links)
El present treball es basa en l'estudi de la modificació de la superfície del negre de carboni (NC) per mitjà de tècniques de plasma. Tot i que aquest tipus de tractament s'utilitza de manera comú sobre superfícies planes, tanmateix encara existeixen problemes a l'hora de treballar en materials en pols degut a la dificultat que suposa la seva manipulació. En aquest treball s'ha modificat NC tant per tècniques de plasma a baixa pressió com per mitjà de tècniques de plasma atmosfèric. Per tal d'assolir aquest objectiu s'han posat a punt tres reactors de plasma capaços de modificar aquest tipus de material; dos reactors treballen a baixa pressió mentre que el tercer es tracta d'un equip a pressió atmosfèrica.Els sistemes de plasma a baixa pressió utilitzats han estat un reactor down-stream i un reactor de llit fluiditzat. Ambdós sistemes utilitzen un generador de radio freqüències a 13,56MHz per tal de general el plasma. Tots dos sistemes han estat optimitzats per la modificació de materials en pols. En el cas del reactor down-stream, s'ha estudiat a posició d'entrada del gas reactiu, la potència del generador i el temps de modificació per a tres tipus de tractament: oxigen, nitrogen i amoníac. En el cas del reactor de llit fluiditzat, els paràmetres que s'han estudiat han estat la distància entre la pols i la zona de generació de plasma, la mida de la partícula i la porositat de la placa suport.Pel que fa a la modificació mitjançant la utilització de plasma atmosfèric, s'ha dissenyat un sistema que permet utilitzar una torxa de plasma atmosfèric comercial (Openair® de Plasmatreat GmbH) per tal de modificar materials en pols. Aquest sistema consisteix en un reactor adaptable a la torxa de plasma atmosfèric on té lloc la modificació, un sistema d'introducció de la pols dins de la zona de reacció així com també un sistema de refredament i col·lecció del material modificat que conjuntament permeten un funcionament quasi-continu del tractament.S'ha utilitzat el reactor down-stream i el reactor a pressió atmosfèrica per tal de modificar tres tipus diferents de negre de carboni (N134, XPB 171 i Vulcan XC-72). D'altra banda, s'ha grafititzat i extret el N134 prèviament a la modificació per tal de realitzar un estudi sobre la influència de l'estructura superficial així com també de la presència d'impureses sobre la superfície del NC. L'oxidació i l'augment de nitrogen en superfície han estat les dues modificacions que s'han estudiat principalment per tal de comparar el resultat obtingut per les tècniques presentades.El NC s'ha caracteritzat mitjançant diverses tècniques analítiques per tal de poder obtenir informació sobre els canvis produïts durant la modificació per plasma. Aquestes tècniques inclouen superfície específica, XRD, WAXS, STM per tal d'estudiar els canvis en la seva morfologia i estructura de la superfície. D'altra banda, per tal d'estudiar els canvis en la composició química s'han emprat mesures de pH, valoracions àcid/base i XPS.Finalment, alguns dels negres de caboni modificats han estat seleccionats per tal de ser avaluats en aplicacions finals tal i com són el reforçament d'elastòmers i la seva activitat vers la reducció d'oxigen utilitzada en les PEMFC per tal d'eliminar els metalls nobles. En el primer cas, s'ha estudiat l'efecte sobre la cinètica i el mecanisme de vulcanització del negre de carboni modificat mitjançant el plasma atmosfèric. Aquest estudi s'ha dut a terme utilitzant dues tècniques complementaries com són les corbes reomètriques i la vulcanització de molècules model (MCV). També s'han realitzat mesures d'adsorció de polímer sobre el NC i Bound Rubber per tal d'estudiar la interacció polímer-càrrega la qual presenta una gran influència en les propietats finals dels materials. D'altra banda, s'ha estudiat també la capacitat del NC modificat vers a la reducció d'oxigen a partir de voltametria cíclica i s'han determinat les propietats del NC que poden influir de manera rellevant en l'activitat cataítica final del NC per a aquesta reacció. Tot i que es necessari fer una preparació posterior al tractament de plasma per a aquesta aplicació, el material final pot contribuir notablement a la eliminació de metalls nobles com a catalitzadors de reducció d'oxigen en les Piles de Combustible. / The present works deals with plasma modification of carbon black (CB). Although this type of treatment is widely used on flat surfaces handling problems should be overcome in order to treat powders as CB. In this study CB has been modified both by means of low-pressure and atmospheric pressure non-equilibrium plasmas. In order to accomplish this objective three different plasma reactors have been set-up; two at low pressure and one at atmospheric pressure working conditions.Low pressure plasma reactors utilised in this work consist in a down-stream and a fluidised bed system working at Radio Frequency generation power (RF 13,56 MHz). Both reactors have been optimized to treat powder materials. For the down-stream reactor, position of the reactive gas inlet, and treatment conditions such as generator power and time have been studied for oxygen, nitrogen and ammonia treatments. For the fluidized bed reactor the distance of the powder sample to the plasma generation zone, particle size and support porosity have been taken into account. Concerning atmospheric plasma, a device has been set up in order to adapt a commercial plasma torch (Openair® from Plasmatreat GmbH), for powder modification. An adaptable reactor, a method to introduce the powder in the plasma zone as well as a collecting system had been developed in order to obtain a quasi-continuous modification treatment.Three types of CBs, N134, XPB 171 and Vulcan XC-72 have been modified in both the down-stream and the atmospheric plasma system. Graphitization and extraction of N134 were also carried out before plasma modification in order to study the effect of both impurities and surface structure of the CB during plasma modification. Surface oxidation and nitrogen enrichment were the two main studied treatments in both systems which allowed comparing their performances.Unmodified and Modified CBs have been characterised from several points of view. Specific surface area, XRD, WAXS and STM have been used in order to study morphological and surface structure changes. On the other hand, pH measurements, acid/base titration and XPS were employed in order to study the surface chemistry composition changes that had taken place during plasma modification. Some of the modified CB grades were selected in order to be tested in final applications such as rubber reinforcement and oxygen reduction non-noble metal catalyst for PEMFC. In the first case, the effect of atmospheric plasma treatment on the vulcanization kinetics and mechanism has been evaluated both by rheometre curves and the model compounding approach. Studies about the polymer-filler interaction have been also carried out by calculating bound rubber and adsorption from polymer solution. Last but not least, plasma modification capacity to enhance the oxygen reduction activity to obtain non-noble metal catalysts for PEMFC has been evaluated after the correspondent preparation. Oxygen reduction activity has been studied by means of cyclic voltammetry. The main CB properties which could play an important role in such applications have been analyzed.

Page generated in 0.0343 seconds