• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 260
  • 73
  • 31
  • 1
  • Tagged with
  • 365
  • 365
  • 365
  • 364
  • 364
  • 63
  • 53
  • 40
  • 40
  • 40
  • 35
  • 20
  • 20
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Contributions to the algorithms and methodologies for virtual infrastructure provisioning

Ferrer Riera, Jordi 20 January 2016 (has links)
Virtualization is defined as the process consisting of building a virtual resource on top of one or several physical resources, depending on the selected paradigm: aggregation or partitioning. From the net- working perspective, over the recent years virtualization became a hot topic in networking research, although the term is not new, neither for networking nor for Information Technology (IT). In virtualization environments, the most significant challenge to be addressed is the virtual infrastructure allocation or embedding one. The problem appears over any networking technology, from wired to wireless domains, including converged physical infrastructures as well as coupled IT and networking infrastructures. This problem has re-gained importance in the last years due to the emergence of novel software- based abstractions, which provide fully-operational interfaces on top of those virtual resources, enabling the emergence of novel business models. The election of the physical resources upon which the virtual infrastructure will be instantiated becomes fundamental for the virtual infrastructure operation in those virtualized environments, i.e. the election of the physical resources over which the virtual ones will be allocated. In fact, the virtual infrastructure allocation system might be seen as a policy-based system, where, based on the physical infrastructure available, and the set of requests, it will create different virtual infrastructures as a function of the policy, which will indicate the metric to optimize when creating those Virtual Infrastructures (VIs). For example, the infrastructure provider, who is responsible for leasing those virtual infrastructures, may want to optimize the economical cost of the different instantiated virtual slices, or even the overall energy consumption of the slices. The problem acquires different dimensions when considering heterogeneous resources (e.g. optical network resources and wireless resources) in order to create cross-domain virtual infrastructures; or when it includes IT resources connected at the edges of the different network domains. The first part of the thesis provides an insight on the problem, and different contributions on the algorithms utilized in order to solve the problem. It considers different optical substrate technologies, wireless and wired resources, and it tries to optimize either the total number of virtual infrastructures to be created or either the energy consumed by the resources. Furthermore, the work proposed in the second part of the dissertation includes a dynamic re-planning approach, which is responsible of dynamically updating already provisioned virtual infrastructures in order to adapt them to the Cloud-based services. Those services are unpredictable; basically, information regarding the volume and type of service requests is not precisely available in advance of the requests to the VI providers. Cloud services can scale up and down on demand. Therefore, that dynamic adaptation of the infrastructure to the elasticity of the Cloud services requires constant changes. Dynamic re-planning becomes fundamental for virtual infrastructures supporting cloud-based services. Virtualization can be indistinctly applied to IT servers, network re- sources, and even network functions. The last part of the work de- fines the additional scheduling problem, specific for Network Function Virtualization (NFV), which is complementary to the allocation or embedding. NFV aims at decoupling the network functions from the actual hardware where they are executed. Thus, most of the network functions will run on standard virtualized servers by means of soft- ware, which is expected to significantly reduce capital expenditures, while at the same time the software automation reduces operational expenditures. The solution for the scheduling aims at minimizing the total execution time for chains of network services running over IT infrastructures. / La virtualización se define como el proceso consistente en la construcción de recursos lógicos o virtuales sobre uno o varios elementos físicos, dependiente del paradigma seleccionado: agregación o partición. Desde la perspectiva de la red, en los últimos años la virtualización se ha convertido en un tema recurrente, aunque el término virtualización no sea algo nuevo en entornos de red y entornos IT. El problema más significativo a resolver, aunque no el único, en entornos donde se considera la virtualización es el problema de asignación de recursos virtuales sobre los físicos, esto es, decidir qué recursos de la capa física se asignan a las distintas peticiones de infraestructuras virtuales. El problema aparece sobre distintas tecnologías de red, desde redes fijas hasta redes de acceso sin cable, incluyendo dominios integrados acceso metro, y recursos de computación y almacenamiento integrados con la red. El problema ha vuelto a actualizarse y ganar más importancia aún en los últimos años con la aparición de nuevas abstracciones basadas en software, las cuáles proveen interfaces completamente operables sobre los recursos virtuales, al mismo tiempo que se habilitan nuevos modelos de negocio.Por lo tanto, la selección de los recursos físicos sobre los que se construirán e instanciarán las infraestructuras virtuales se convierte en un elemento fundamental para la operación efectiva y eficiente en entornos virtualizados. De hecho, el sistema de virtualización se puede entender cómo un sistema basado en políticas, en el cuál, a partir de una descripción de la infraestructura física y un conjunto de peticiones de infraestructuras virtuales, se crearán diferentes infraestructuras virtuales en función de la política, que en esencia indicará la métrica a ser optimizada en el sistema cuándo se crean las distintas infraestructuras virtuales. Además del análisis del estado del arte del problema de la virtualización, centrado en redes ópticas y entornos donde los recursos IT se encuentran integrados con los recursos de red, la primera parte de las actividades de la tesis se centra en distintas contribuciones en el entorno de la virtualización de red. En ellas se analiza desde el impacto de las distintas tecnologías físicas consideradas en el problema, hasta la posibilidad de pre-procesar las diferentes demandas con el fin de mejorar el rendimiento en función de la política considerada para la virtualización. La primera parte considera los problemas de tipo offline, en los cuáles se consideran conocidas todas las demandas desde un principio. Por otro lado, la segunda parte de las actividades se centran en afrontar el problema online, en el cuál las peticiones no son conocidas de antemano. En este sentido, se ha propuesto un sistema de re-planificación dinámica de las infraestructuras virtualizadas, el cuál es responsable directo de actualizar los recursos de las mismas con tal de adaptarlas a los servicios cloud. Estos servicios son impredecibles, tanto en volumen como en tipo de servicio, además de la flexibilidad y elasticidad que les permite escalar constantemente en recursos. Como consecuencia, el sistema de re-planificación se convierte en fundamental para la eficiente creación y operación de las infraestructuras virtuales. Finalmente, la última propuesta de las actividades enmarcadas dentro de la tesis doctoral abren la puerta a la definición de un nuevo problema relacionado con la virtualización: virtualización de funciones específicas de red. Se presenta un sistema de gestión y orquestración que incluye la solución de scheduling para distintas funciones de red virtualizadas, el cuál tiene por objetivo minimizar el tiempo de ejecución total de las distintas cadenas de servicio.
222

Analysis of the high frequency substrate noise effects on LC-VCOs

Molina Garcia, Marc-Manel 29 January 2016 (has links)
La integració de transceptors per comunicacions de radiofreqüència en CMOS pot quedar seriosament limitada per la interacció entre els seus blocs, arribant a desaconsellar la utilització de un únic dau de silici. El soroll d’alta freqüència generat per certs blocs, com l’amplificador de potencia, pot viatjar pel substrat i amenaçar el correcte funcionament de l’oscil·lador local. Trobem tres raons importants que mostren aquest risc d’interacció entre blocs i que justifiquen la necessitat d’un estudi profund per minimitzar-lo. Les característiques del substrat fan que el soroll d’alta freqüència es propagui m’és fàcilment que el de baixa freqüència. Per altra banda, les estructures de protecció perden eficiència a mesura que la freqüència augmenta. Finalment, el soroll d’alta freqüència que arriba a l’oscil·lador degrada al seu correcte comportament. El propòsit d’aquesta tesis és analitzar en profunditat la interacció entre el soroll d’alta freqüència que es propaga pel substrat i l’oscil·lador amb l’objectiu de poder predir, mitjançant un model, l’efecte que aquest soroll pot tenir sobre el correcte funcionament de l’oscil·lador. Es volen proporcionar diverses guies i normes a seguir que permeti als dissenyadors augmentar la robustesa dels oscil·ladors al soroll d’alta freqüència que viatja pel substrat. La investigació de l’efecte del soroll de substrat en oscil·ladors s’ha iniciat des d’un punt de vista empíric, per una banda, analitzant la propagació de senyals a través del substrat i avaluant l’eficiència d’estructures per bloquejar aquesta propagació, i per altra, determinant l’efecte d’un to present en el substrat en un oscil·lador. Aquesta investigació ha mostrat que la injecció d’un to d’alta freqüència en el substrat es pot propagar fins arribar a l’oscil·lador i que, a causa del ’pulling’ de freqüència, pot modular en freqüència la sortida de l’oscil·lador. A partir dels resultats de l’anàlisi empíric s’ha aportat un model matemàtic que permet predir l’efecte del soroll en l’oscil·lador. Aquest model té el principal avantatge en el fet de que està basat en paràmetres físics de l’oscil·lador o del soroll, permetent determinar les mesures que un dissenyador pot prendre per augmentar la robustesa de l’oscil·lador així com les conseqüències que aquestes mesures tenen sobre el seu funcionament global (trade-offs). El model ha estat comparat tant amb simulacions com amb mesures reals demostrant ser molt precís a l’hora de predir l’efecte del soroll de substrat. La utilitat del model com a eina de disseny s’ha demostrat en dos estudis. Primerament, les conclusions del model han estat aplicades en el procés de disseny d’un oscil·lador d’ultra baix consum a 2.5GHz, aconseguint un oscil·lador robust al soroll de substrat d’alta freqüència i amb característiques totalment compatibles amb els principals estàndards de comunicació en aquesta banda. Finalment, el model s’ha utilitzat com a eina d’anàlisi per avaluar la causa de les diferències, en termes de robustesa a soroll de substrat, mesurades en dos oscil·ladors a 60GHz amb dues diferents estratègies d’apantallament de l’inductor del tanc de ressonant, flotant en un cas i connectat a terra en l’altre. El model ha mostrat que les diferències en robustesa són causades per la millora en el factor de qualitat i en l’amplitud d’oscil·lació i no per un augment en l’aïllament entre tanc i substrat. Per altra banda, el model ha demostrat ser vàlid i molt precís inclús en aquest rang de freqüència tan extrem. el principal avantatge en el fet de que està basat en paràmetres físics de l’oscil·lador o del soroll, permetent determinar les mesures que un dissenyador pot prendre per augmentar la robustesa de l’oscil·lador així com les conseqüències que aquestes mesures tenen sobre el seu funcionament global (trade-offs). El model ha estat comparat tant amb simulacions com amb mesures reals demostrant ser molt precís a l’hora de predir l’efecte del soroll de substrat. La utilitat del model com a eina de disseny s’ha demostrat en dos estudis. Primerament, les conclusions del model han estat aplicades en el procés de disseny d’un oscil·lador d’ultra baix consum a 2.5GHz, aconseguint un oscil·lador robust al soroll de substrat d’alta freqüència i amb característiques totalment compatibles amb els principals estàndards de comunicació en aquesta banda. Finalment, el model s’ha utilitzat com a eina d’anàlisi per avaluar la causa de les diferències, en termes de robustesa a soroll de substrat, mesurades en dos oscil·ladors a 60GHz amb dues diferents estratègies d’apantallament de l’inductor del tanc de ressonant, flotant en un cas i connectat a terra en l’altre. El model ha mostrat que les diferències en robustesa són causades per la millora en el factor de qualitat i en l’amplitud d’oscil·lació i no per un augment en l’aïllament entre tanc i substrat. Per altra banda, el model ha demostrat ser vàlid i molt precís inclús en aquest rang de freqüència tan extrem. / The integration of transceivers for RF communication in CMOS can be seriously limited by the interaction between their blocks, even advising against using a single silicon die. The high frequency noise generated by some of the blocks, like the power amplifier, can travel through the substrate, reaching the local oscillator and threatening its correct performance. Three important reasons can be stated that show the risk of the single die integration. Noise propagation is easier the higher the frequency. Moreover, the protection structures lose efficiency as the noise frequency increases. Finally, the high frequency noise that reaches the local oscillator degrades its performance. The purpose of this thesis is to deeply analyze the interaction between the high frequency substrate noise and the oscillator with the objective of being able to predict, thanks to a model, the effect that this noise may have over the correct behavior of the oscillator. We want to provide some guidelines to the designers to allow them to increase the robustness of the oscillator to high frequency substrate noise. The investigation of the effect of the high frequency substrate noise on oscillators has started from an empirical point of view, on one hand, analyzing the noise propagation through the substrate and evaluating the efficiency of some structures to block this propagation, and on the other hand, determining the effect on an oscillator of a high frequency noise tone present in the substrate. This investigation has shown that the injection of a high frequency tone in the substrate can reach the oscillator and, due to a frequency pulling effect, it can modulate in frequency the output of the oscillator. Based on the results obtained during the empirical analysis, a mathematical model to predict the effect of the substrate noise on the oscillator has been provided. The main advantage of this model is the fact that it is based on physical parameters of the oscillator and of the noise, allowing to determine the measures that a designer can take to increase the robustness of the oscillator as well as the consequences (trade-offs) that these measures have over its global performance. This model has been compared against both, simulations and real measurements, showing a very high accuracy to predict the effect of the high frequency substrate noise. The usefulness of the presented model as a design tool has been demonstrated in two case studies. Firstly, the conclusions obtained from the model have been applied in the design of an ultra low power consumption 2.5 GHz oscillator robust to the high frequency substrate noise with characteristics which make it compatible with the main communication standards in this frequency band. Finally, the model has been used as an analysis tool to evaluate the cause of the differences, in terms of performance degradation due to substrate noise, measured in two 60 GHz oscillators with two different tank inductor shielding strategies, floating and grounded. The model has determined that the robustness differences are caused by the improvement in the tank quality factor and in the oscillation amplitude and no by an increased isolation between the tank and the substrate. The model has shown to be valid and very accurate even in these extreme frequency range.
223

Sistema d'anàlisi i planificació de xarxes de distribució d'energia elèctrica de mitjana tensió

Gratacòs Prats, Jaume 18 January 2016 (has links)
The optimal planning of the annual development tasks of a medium voltage power distribution network, to tackle the evolution of the demand with maximum levels of quality and continuity of service and minimum investment, has been under the spotlight of the academic community for the last forty years. The methodologies avalaible today present some withdraws that might complicate its application on real cases. This thesis describes the design of a system of analysis and planning of real distribution networks, which incorporates a new multi-objective and dynamic multi-stage heuristic methodology to generate the optimal and efficient planning strategies. This new heuristic methodology contains strategies to increase its efficiency that have not been found in the specialized literature: the typing of the development tasks and the evaluation of the relative efficiency of the optimal planning strategies during the search. / La planificació òptima dels treballs anuals de desenvolupament d'una xarxa de distribució eléctrica de mitjana tensió, per atendre l'evolució de la demanda amb uns nivells màximes de qualitat i continuïtat del subministrament i amb una inversió mínima, ha estat objecte d'interès de la comunitat acadèmica durant els darrers quaranta anys. Les metodologies formulades fins avui presenten inconvenients que poden dificultar la seva aplicació en casos reals. Aquesta tesi detalla el disseny d'un sistema d'anàlisi i planificació de xarxes de distribució reals, que incorpora una nova metodologia heurística multi-objetiva i dinàmica multi-etapa per l'obtenció de planificacions òptimes i eficients. Aquesta nova metodologia heurística conté estratègies de millora de la seva eficiència que no s'han trobat en la literatura especialitzada: la tipificació d'actuacions de desenvolupament i l'avaluació de l'eficiència relativa de les planificacions òptimes durant el procés de cerca.
224

Evolución temporal de la vegetación en el Sahel mediante el NDVI y su relación con la precipitación en el periodo 1983-2012

Puig i Polo, Càrol 28 April 2015 (has links)
The development and population prosperity in the transition zone between the Sahara desert in the north and the tropical humid savannah in the south, known as Sahel, depends to a great extent on the rainfall regime. The climate is defined by a long and dry season and a short season with rains between the months of June and September. Rainfalls are determined by a strong north to south gradient with small and variable precipitation in the north, which translates into continuous change of vegetation species and life forms that range from sparse thorny shrubs in between grass in the north to a greater amount of vegetal cover and ligneous species in the south. The vegetation growth shows a considerable inter-annual fluctuation that generates a generalized concern in the predominantly rural population, since their way of life is mainly based on dry land agriculture and pasturing. The severe droughts that happened during the 1970¿s, which were extended until the middle of the following decade, have been widely studied because of their serious consequences on the population, and because it is considered as one of the first signs of global climatic changes. Sahel is the region that has shown greater precipitation and vegetation variations in the last three to four decades. Technological advances in remote sensing have allowed constant monitoring of ecosystems, mainly because of the availability of improved spatial, time and spectral data. The present thesis investigates the time and spatial vegetation patterns and the precipitation variability in Sahel through interrelations based on the analysis of temporary series from the normalized vegetation difference index (NDVI) for the period 1983-2012 and rainfall satellite estimations. Whereas the precipitation emerges as a dominant cause from the increase of the vegetation, there is evidence of other anthropogenic factors overlapping the climatologic trend. Measuring rainfall in the semi-arid regions continues to be a pivoting point because of great spatial and weather variability. On top of this, note that the number of available weather stations in Sahel is quite limited. Satellite data, along with meteorological stations measurements, are currently the best source of information with regards to spatial-temporary precipitation in Sahel. Three temporary series of precipitation have been analyzed to cover the period between 1983 and 2012: GPCC, ARC2 and TAMSAT. These series have been compared with more recent ones to provide better quality estimations: RFE2, TRMM 3B42 and GPCP-1dd. The result shows a good correlation between series GPCC, ARC2, RFE2 and TRMM 3B42. The analysis of 30 years of precipitation data shows a recovering of the annual precipitation, although the trends in the annual temporary distribution have changed: nowadays it rains more but during less time. There are NDVI data available coming from the AVHRR sensor since 1981, as well as from its newer GIMMS3g version. Nevertheless, there are aspects in the design and processing of the sensor data that result in noise. There are data sets of the most recent NDVI coming from the sensors VEGETATION and MODIS installed in the SPOT and Terra satellites respectively, which are considered to be an improvement on the AVHRR GIMMS3g data. These sensors provide the possibility of evaluating the accuracy of the tendency analysis of the series of time of the AVHRR GIMMS3g in the period of time in which data overlap, from 2001 to 2012. This evaluation shows that the AVHRR GIMMS3g data set is correct in temporary studies of the vegetation in areas that do not record rainfalls greater than 1,000 mm, whereas the temporary tendencies in more humid zones should be interpreted with reservations. / Al Sahel, la zona de transició entre el desert del Sàhara al nord i la sabana humida tropical al sud, el desenvolupament i la prosperitat de la població depenen en gran mesura del règim de pluges. El clima es caracteritza per una estació seca i llarga i una temporada curta de pluges entre els mesos de juny i setembre. La precipitació està determinada per un fort gradient de nord a sud amb pluges escasses i variables al nord, cosa que es tradueix en una gran diversitat d'espècies de vegetació i formes de vida: des d'arbustos espinosos de cobertura molt escassa intercalats entre pastures al nord a més quantitat de cobertura vegetal i espècies llenyoses al sud. El creixement de la vegetació mostra fluctuacions interanuals considerables, la qual cosa suscita una preocupació generalitzada en la població -predominantment rural-, ja que el seu modus vivendi es basa principalment en l'agricultura de secà i el pasturatge. Les greus sequeres que van tenir lloc durant la dècada de 1970 i que es van allargar fins a mitja dècada de 1980, han estat àmpliament estudiades no només per les greus conseqüències sobre la població, sinó perquè es consideren un dels primers signes de canvi climàtic global. El Sahel és la regió on s'han evidenciat les grans variacions de precipitació i vegetació al llarg de les últimes tres o quatre dècades. Els avenços tecnològics en el camp de la teledetecció han permès la vigilància dels ecosistemes gràcies a la disponibilitat de dades amb resolucions espacials, temporals i espectrals cada vegada més acurades. En aquesta tesi s'investiguen els patrons temporals i espacials de la vegetació i la variabilitat de les precipitacions al Sahel a partir de les interrelacions basades en l'anàlisi de sèries temporals de l'índex de vegetació normalitzat (NDVI) en el període 1983-2012 i de les estimacions de precipitació procedents de satèl·lit. Mentre que la precipitació emergeix com una causa dominant de l'augment de la vegetació, hi ha evidències d'altres factors de caràcter antropogènic superposats a la tendència del clima. Mesurar la precipitació en les regions semiàrides continua sent una feina crítica a causa de la seva gran variabilitat espacial i temporal; d'altra banda, cal afegir que al Sahel el nombre d'estacions meteorològiques disponibles és molt escàs. Les dades de satèl·lit, en combinació amb els mesuraments de les estacions meteorològiques, són actualment el millor mitjà per adquirir informació espaciotemporal de la precipitació a la regió. S'han analitzat tres sèries temporals de precipitació que cobreixen el període comprès entre 1983 i 2012: GPCC, ARC2, TAMSAT. Aquestes sèries s'han comparat amb altres de més recents i que proporcionen estimacions de més qualitat: RFE2, TRMM 3B42 i GPCP-1dd. El resultat mostra una bona correspondència entre les sèries GPCC, ARC2, RFE2 i TRMM 3B42. L'anàlisi de 30 anys de precipitació mostra que la precipitació anual s'ha recuperat, tot i que la tendència en la distribució temporal anual ha canviat: ara plou més però durant menys temps. Des de 1981 es disposa de dades del NDVI procedents del sensor AVHRR en la seva versió GIMMS3g. No obstant això, hi ha aspectes en el disseny i processament de les dades del sensor que hi introdueixen soroll. Hi ha conjunts de dades del NDVI més recents procedents dels sensors VEGETATION i MODIS -embarcats en els satèl·lits SPOT i Terra, respectivament- que es consideren una versió millorada respecte de les dades AVHRR GIMMS3g. A més, aquests productes ofereixen la possibilitat d'avaluar l'exactitud en l'anàlisi de la tendència de les sèries temporals de l'AVHRR GIMMS3g en el període de temps en què les dades se solapen, de 2001 a 2012, i a partir d'això s'observa que el conjunt de dades AVHRR GIMMS3g és adequat en estudis temporals de la vegetació en àrees que no reben més de 1.000 mm de precipitació, mentre que la interpretació de les tendències temporals en les zones més humides s'ha de fer amb certes reserves. / En el Sahel, la zona de transición entre el desierto del Sahara en el norte y la sabana húmeda tropical en el sur, el desarrollo y la prosperidad de la población depende en gran medida del régimen de lluvias. El clima se caracteriza por una estación seca y larga y una corta temporada de lluvias entre los meses de junio y septiembre. La lluvia está determinada por un fuerte gradiente de norte a sur con una precipitación escasa y variable en el norte, que se traduce en un continuo cambio de especies de vegetación y formas de vida que van desde arbustos espinosos de cobertura muy escasa intercalados entre pastos en el norte a una mayor cantidad de cobertura vegetal y especies leñosas en el sur. El crecimiento de la vegetación muestra fluctuaciones interanuales considerables que generan una preocupación generalizada en la población, predominantemente rural, ya que su modo de vida se basa principalmente en la agricultura de secano y el pastoreo. Las graves sequías ocurridas durante la década de 1970, que se alargaron hasta mediados de la década siguiente, han sido ampliamente estudiadas tanto por sus graves consecuencias sobre la población, como porque se considera uno de los primeros signos de cambio climático global. El Sahel es la región donde se han evidenciado las mayores variaciones de precipitación y vegetación en las últimas tres o cuatro décadas. Los avances tecnológicos en el campo de la teledetección han permitido la vigilancia de los ecosistemas gracias a la disponibilidad de datos con resoluciones espaciales, temporales y espectrales cada vez mejores. En esta tesis se investigan los patrones temporales y espaciales de la vegetación y la variabilidad de las precipitaciones en el Sahel a través de las interrelaciones basadas en el análisis de series temporales del índice de vegetación normalizado (NDVI) en el periodo 1983-2012 y las estimaciones de precipitación procedentes de satélite. Mientras que la precipitación emerge como una causa dominante del aumento de la vegetación, hay evidencias de otros factores de carácter antropogénico superpuestos a la tendencia del clima. Medir la precipitación en las regiones semiáridas sigue siendo un punto crítico por la gran variabilidad espacial y temporal de la misma, a esto hay que añadir que el número de estaciones meteorológicas disponibles es muy escaso en el Sahel. Los datos de satélite, en combinación con las mediciones de las estaciones meteorológicas, son actualmente el mejor medio de adquisición de información espacio-temporal de la precipitación en el Sahel. Se han analizado tres series temporales de precipitación que cubren el periodo comprendido entre 1983 y 2012: GPCC, ARC2, TAMSAT. Estas series se han comparado con otras más recientes y que proporcionan estimaciones de mejor calidad: RFE2, TRMM 3B42 y GPCP-1dd. El resultado muestra una buena correspondencia entre las series GPCC, ARC2, RFE2 y TRMM 3B42. El análisis de 30 años de precipitación muestra que la precipitación anual se ha recuperado, aunque la tendencia en la distribución temporal anual ha cambiado: ahora llueve más pero durante menos tiempo. Desde 1981 se dispone de datos del NDVI procedentes del sensor AVHRR y en su versión GIMMS3g. Sin embargo, hay aspectos en el diseño y procesado de los datos del sensor que introducen ruido en los datos. Existen conjuntos de datos del NDVI más recientes procedentes de los sensores VEGETATION y MODIS embarcados en los satélites SPOT y Terra, respectivamente, que se consideran una mejora sobre los datos AVHRR GIMMS3g, y estos productos ofrecen la posibilidad de evaluar la exactitud en el análisis de la tendencia de las series de tiempo del AVHRR GIMMS3g en el periodo de tiempo en el que los datos se solapan, de 2001 a 2012, a partir de lo cual se observa que el conjunto de datos AVHRR GIMMS3g es adecuado en estudios temporales de la vegetación en áreas que no reciben más de 1.000 mm de precipitación, mientras que en la interpretación de las tendencias temporales en las zonas más húmedas debe de hacerse con ciertas reservas.
225

Medida de parámetros de ruido de dispositivos activos basada en fuente adaptada

Maya Sánchez, María del Carmen 15 December 2003 (has links)
En esta Tesis se utiliza una técnica de fuente adaptada para medir los parámetros de ruido de transistores de efecto campo, como MESFET y HEMT. Para ello, se ha implementado un sistema de medida en el margen de frecuencias de 2-75 GHz, de 2-50 GHz para medidas de dispositivos en oblea y de 50-75 GHz en guía de onda. Sin embargo, en este margen de frecuencias las pérdidas de los dispositivos aumentan, el nivel del ENR de la fuente de ruido, utilizada para calibrar el sistema, es menor y la sensibilidad a la precisión en la medida de potencia es mayor.Para disminuir la incertidumbre en la medida de potencia, se ha implementado el uso de un detector externo a un analizador de espectros, utilizado inicialmente como medidor de potencia. La calibración del receptor del sistema de medida de ruido se realiza mediante expresiones aproximadas, las cuales son extendidas a un caso general. Dicha calibración requiere como datos la lectura de potencias de ruido para dos cargas, conectadas a la entrada del receptor, a diferente temperatura y de su correspondiente coeficiente de reflexión, el cual no tiene que ser necesariamente igual entre cargas. Particularmente, para reducir la incertidumbre en el cálculo de la constante de ganancia del receptor y como una alternativa a las fuentes de ruido coaxiales, se proponen dos fuentes de ruido en oblea (del tipo coplanar): un transistor polarizado en frío (cold-FET) y un diodo en avalancha, que generan un nivel de ENR mayor en el plano de las sondas de prueba y que además, siendo coplanares permiten disminuir pérdidas debidas al uso de una transición coaxial-coplanar. Por otra parte, se propone un modelo distribuido para transistores de efecto de campo con la finalidad de predecir mejor el comportamiento en pequeña señal y ruido del dispositivo teniendo en cuenta los efectos distribuido de las líneas (electrodos) de puerta, drenador y fuente.También se utiliza la técnica F50, en conjunto con un modelo en pequeña señal y de ruido clásico para transistores bipolares, para extraer simultáneamente los elementos del circuito equivalente en pequeña señal y los parámetros de ruido de un transistor bipolar de heterounión (HBT). / In this Thesis a matched source technique is used to measure the noise parameters of field effect transistors, such as MESFET and HEMT. A noise measurement system, from 2 to 75 GHz, has been implemented. In the frequency range of 2-50 GHz the system has been implemented to measure on-wafer devices, and in the frequency range of 50-75 GHz it has been implemented to measure waveguide devices. However, at these frequencies the losses of the devices increase, the ENR level of the noise source, which is employed to calibrate the receiver, decrease, and the sensibility to the power uncertainty is bigger.To reduce the measurement uncertainty of the noise power, an external detector to a spectrum analyzer, which at the beginning was employed as power meter, has been implemented. Approximate expressions to calibrate the receiver are used, where these are extended to a general case. To develop the calibration the measure of the noise power of two connected loads to the input receiver, and of its corresponding coefficient reflection, it is required. There is not restriction between the loads reflection coefficients. To reduce the uncertainty in the determination of the receiver's gain constant, and as an alternative to the coaxial noise sources, two on-wafer noise sources, a cold-FET and an avalanche noise diode, have been proposed. The on-wafer noise sources generate a bigger ENR level at the on-wafer reference plane, and furthermore, the due losses to the coaxial-to-on-wafer-transition can be practically eliminated.Otherwise, a FET distributed noise model, which takes into account the propagation effects along the device electrodes, is proposed with the purpose of predicting better the small-signal and noise performance of the device.As an application of F50 method, this is applied, in combination of a small-signal and a classic bipolar noise model, to simultaneously extract the elements of the small-signal equivalent circuit and the noise parameters of a heterounion bipolar transistor (HBT).
226

Design of Clustered Superscalar Microarchitectures

Parcerisa Bundó, Joan Manuel 17 June 2004 (has links)
L'objectiu d'aquesta tesi és proposar noves tècniques per al disseny de microarquitectures clúster superescalars eficients. Les microarquitectures clúster particionen el disseny de diversos components crítics del hardware com a mitjà per mantenir-ne el paral·lelisme i millorar-ne l'escalabilitat. El nucli d'un processador clúster, format per blocs de baixa complexitat o clústers, pot executar cadenes d'instruccions dependents sense pagar el sobrecost d'una llarga emissió, curtcircuïts, o lectura de registres, encara que si dues instruccions dependents s'executen en clústers diferents, es paga la penalització d'una comunicació. Per altra banda, les estructures distribuïdes impliquen generalment menors requisits de potència dinàmica, i simplifiquen la gestió de l'energia per mitjà de tècniques com la desactivació selectiva del rellotge o l'energia, o com la reducció a escalade la tensió.El primer objecte d'aquesta recerca és l'assignació d'instruccions a clústers, ja que aquesta juga un paper clau en el rendiment, amb l'objectiu de mantenir equilibrada la càrrega i reduir la penalització de les comunicacions crítiques. Es proposen dos diferents enfocs: primer, una família de nous esquemes que identifiquen dinàmicament certs grups d'instruccions dependents anomenats "slices", i fan l'assignació de clústers slice per slice. Es diferencien d'altres enfocs previs, ja sigui perquè són dinàmics i/o bé perquè inclouen nous mecanismes explícits de mesura i gestió de l'equilibri de càrrega. Segon, una família de nous esquemes que assignen clústers instrucció per instrucció, basats en les assignacions prèvies dels productors dels registres fonts, en la ubicació dels registres físics, i en la càrrega de treball.La segona contribució proposa la predicció de valors com a mitjà per mitigar les penalitzacions dels retards dels connectors i, en particular, per amagar les comunicacions entre clústers. Es demostra que el benefici obtingut amb l'eliminació de dependències creix amb el nombre de clústers i la latència de les comunicacions i, doncs, és major que per a una arquitectura centralitzada. Es proposa un nou esquema d'assignació de clústers que aprofita la menor densitat del graf de dependències per tal de millorar l'equilibri de càrrega.El tercer aspecte considerat es la xarxa d'interconnexió entre clústers, ja que determina la latència de les comunicacions, amb l'objectiu de trobar el millor compromís entre cost i rendiment. Es proposen diverses xarxes punt-a-punt, tant síncrones com parcialment asíncrones, que assoleixen un IPC pròxim al d'un model ideal amb ample de banda il·limitat, tot i tenir molt baixa complexitat. Llur impacte sobre els curtcircuïts, cues d'emissió o bancs de registres es molt menor que el d'altres enfocs. Es proposen també possibles implementacions dels enrutadors, que il·lustren llur factibilitat amb solucions hardware molt simples i de baixa latència. Es proposa un nou esquema d'assignació de clústers conscient de la topologia, que redueix la latència de les comunicacions.L'última contribució proposa tècniques per distribuir els components principals de les etapes inicials del processador, amb l'objectiu de reduir-ne la complexitat i evitar-ne la replicació. Es proposen tècniques eficaces per a la partició del predictor de salts i la lògica de distribució d'instruccions, a fi de minimitzar la penalització pels retards dels connectors causada per les dependències recursives en dos llaços crítics del hardware: la generació de l'adreça de búsqueda d'instruccions i la lògica d'assignació d'instruccions, respectivament. En el primer cas, es converteixen els retards dels connectors intra-estructurals d'un predictor centralitzat en retards de comunicació entre clústers, els quals se segmenten sense problemes. En el segon cas, el particionat de la lògica d'assignació d'instruccions basada en dependències implica paral·lelitzar aquesta tasca, la qual es inherentment seqüencial. / El objetivo de esta tesis es proponer técnicas para el diseño de microarquitecturas clúster superescalares eficientes. Las microarquitecturas clúster particionan el diseño de diversos componentes críticos del hardware como medio para mantener el paralelismo y mejorar la escalabilidad. El núcleo de un procesador clúster, formado por bloques de baja complejidad o clústers, puede ejectutar cadenas de instrucciones dependientes sin pagar el sobrecoste de una larga emisión, cortocircuitos, o lectura de registros; pero si dos instrucciones dependientes se ejecutan en clústers distintos, se paga la penalización de una comunicación. Por otro lado, las estructuras distribuidas implican generalmente menores requisitos de potencia dinámica, y simplifican la gestión de la energía por medio de técnicas como la desactivación selectiva del reloj o de la alimentación, o la reducción a escala del voltaje.El primer objetivo de esta investigación es la asignación dinámica de instrucciones a clústers, ya que ésta juega un papel clave en el rendimiento, a fin de mantener equilibrada la carga y reducir la penalización de las comunicaciones críticas. Se proponen dos enfoques distintos: primero, una familia de nuevos esquemas que identifican dinámicamente ciertos grupos de instrucciones denominados "slices", y realizan la asignación slice por slice. Éstos se diferencian de otros enfoques previos, ya sea porque son dinámicos y/o porque incluyen nuevos mecanismos explícitos de medida y gestión del equilibrio de carga. Segundo, una familia de nuevos esquemas que asignan clústers instrucción a instrucción, basándose en las asignaciones previas de los productores de sus registros fuente, en la ubicación de los registros físicos, y en la carga de trabajo.La segunda contribución propone la predicción de valores como medio para mitigar las penalizaciones de los retardos de los conectores, y en particular, para esconder las comunicaciones entre clústers. Se demuestra que el beneficio obtenido con la eliminación de dependencias aumenta con el número de clústers y con la latencia de las comunicaciones, y es asimismo mayor que para una arquitectura centralizada. Se propone un nuevo esquema de asignación de clústers que aprovecha la menor densidad del grafo de dependencias con el fin de mejorar el equilibrio de la carga.El tercer aspecto considerado es la red de interconexión entre clústers, pues determina la latencia de las comunicaciones, a fin de hallar el mejor compromiso entre coste y rendimiento. Se proponen diversas redes punto a punto, tanto síncronas como parcialmente asíncronas, que aun teniendo muy baja complejidad consiguen un IPC próximo al de un modelo con ancho de banda ilimitado. Su impacto sobre la complejidad de los cortocircuitos, colas de emisión o bancos de registros es mucho menor que el de otros enfoques. Se proponen también posibles implementaciones de los enrutadores, ilustrando su factibilidad como soluciones simples y de baja latencia. Se propone un esquema de asignación de clústers consciente de la topología, que reduce la latencia de las comunicaciones.La última contribución propone técnicas para distribuir los componentes principales de las etapas iniciales del procesador, con el objetivo de reducir su complejidad y evitar su replicación. Se proponen técnicas eficaces para particionar el predictor de saltos y la lógica de distribución de instrucciones, a fin de minimizar la penalización por retardos de conectores causada por las dependencias recursivas en dos bucles críticos del hardware: la generación de la dirección de búsqueda de instrucciones y la lógica de asignación de clústers. En el primer caso, los retardos de los conectores intra-estructurales de un predictor centralizado se convierten en retardos de comunicación entre clústers, que se pueden segmentar fácilmente. En el segundo caso, el particionado de la lógica de asignación de clústers basada en dependencias implica paralelizar esta tarea, intrínsecamente secuencial. / The objective of this thesis is to propose new techniques to design efficient clustered superscalar microarchitectures. Clustered microarchitectures partition the layout of several critical hardware components as a means to keep most of the parallelism while improving the scalability. A clustered processor core, made up of several low complex blocks or clusters, can efficiently execute chains of dependent instructions without paying the overheads of a long issue, register read or bypass latencies. Of course, when two dependent instructions execute in different clusters, an inter-cluster communication penalty is incurred. Moreover, distributed structures usually imply lower dynamic power requirements, and simplify power management via techniques such a selective clock/power gating and voltage scaling.The first target of this research is the assignment of instructions to clusters, since it plays a major role on performance, with the goals of keeping the workload of clusters balanced and reducing the penalty of critical communications. Two different approaches are proposed: first, a family of new schemes that dynamically identify groups of data-dependent instructions called slices, and make cluster assignments on a per-slice basis. The proposed schemes differ from previous approaches either because they are dynamic and/or because they include new mechanisms to deal explicitly with workload balance information gathered at runtime. Second, it proposes a family of new dynamic schemes that assign instructions to clusters in a per-instruction basis, based on prior assignment of the source register producers, on the cluster location of the source physical registers, and on the workload of clusters.The second contribution proposes value prediction as a means to mitigate the penalties of wire delays and, in particular, to hide inter-cluster communications while also improving workload balance. First, it is proven that the benefit of breaking dependences with value prediction grows with the number of clusters and the communication latency, thus it is higher than for a centralized architecture. Second, it is proposed a cluster assignment scheme that exploits the less dense data dependence graph that results from predicting values to achieve a better workload balance.The third aspect considered is the cluster interconnect, which mainly determines communication latency, seeking for the best trade-off between cost and performance. First, several cost-effective point-to-point interconnects are proposed, both synchronous and partially asynchronous, that approach the IPC of an ideal model with unlimited bandwidth while keeping the complexity low. The proposed interconnects have much lower impact than other approaches on the complexity of bypasses, issue queues and register files. Second, possible router implementations are proposed, which illustrate their feasibility with very simple and low-latency hardware solutions. Third, a new topology-aware improvement to the cluster assignment scheme is proposed to reduce the distance (and latency) of inter-cluster communications.The last contribution proposes techniques for distributing the main components of the processor front-end with the goals of reducing their complexity and avoiding replication. In particular, effective techniques are proposed to cluster the branch predictor and the steering logic, that minimize the wire delay penalties caused by broadcasting recursive dependences in two critical hardware loops: the fetch address generation, and the cluster assignment logic, respectively. In the former case, the proposed technique converts the cross-structure wire delays of a centralized predictor into cross-cluster communication delays, which are smoothly pipelined. In the latter case, the partitioning of the instruction steering logic involves the parallelization of an inherently sequential task such as the dependence based cluster assignment of instructions.
227

Una contribución a la investigación de la espectroscopia Raman en el análisis de pigmentos : resultados teóricos y experimentales

Ferrer Espinilla, Perla 31 October 2014 (has links)
Esta Tesis se ha enmarcado en un proyecto financiado por la CICYT gracias al cual se adquirió un equipo portátil de espectroscopia Raman con fibra óptica. Esto determinó el objetivo inicial de esta investigación, que consistió en conocer las prestaciones y los dispositivos ópticos esenciales del equipo portátil. Esta portabilidad permitió afrontar otro objetivo fundamental: investigar la pigmentación amarilla de objetos cerámicos patrimoniales españoles e italianos de las épocas del Renacimiento y Barroco pertenecientes al Museo de Cerámica de Barcelona gracias a un convenio firmado entre la UPC y este museo. La investigación comenzó con la caracterización química y estructural de unos pigmentos históricos de referencia compuestos por óxidos de plomo, estaño y antimonio con o sin sílice encargados a la Stazione Sperimentale del Vetro (Venecia). Esta etapa se completó con el análisis directo de las piezas cerámicas. En base a los resultados experimentales, se concluye que tanto en España como en Italia durante los siglos XVI y XVII y, excepcionalmente, en un objeto Califal del siglo X procedente del Norte de África, se empleó el mismo pigmento amarillo. Este hallazgo plantea nuevas interpretaciones acerca del origen islámico de estos pigmentos. La interpretación de los espectros de estos pigmentos amarillos artificiales resultó muy complicada debido a su heterogeneidad. El concepto de pigmento heterogéneo en esta Tesis se ha entendido como una mezcla de sustancias de distinta composición química y/o cristalización (entre las cuales, como mínimo, una de estas sustancias es un pigmento) y cuya distribución no es uniforme. Este concepto dio pie a un segundo objetivo que consistió en investigar de forma especial el espectro Raman de una mezcla. Como ejemplo de mezclas naturales se analizaron diferentes conchas marinas (también utilizadas por los artistas como materiales pictóricos históricamente). En este caso, los resultados experimentales demostraron una doble heterogeneidad. Por una parte, se identificó la presencia de dos tipos de compuestos (heterogeneidad composicional): carbonato cálcico y un pigmento orgánico (azul, violeta y marrón) de la familia de los polienos. Por otro lado, el segundo tipo heterogeneidad, en este caso estructural, resultó sorprendente. Se demostró que en la sección transversal de una concha coexisten dos cristalizaciones del carbonato cálcico: la trigonal (calcita) y la ortorrómbica (aragonito), tanto conjunta como aisladamente Continuando la investigación de mezclas, se analizaron diferentes combinaciones de pigmentos comúnmente empleados en arte. Esencialmente, el objetivo fue investigar hasta qué punto el espectro de una mezcla es igual a la suma ponderada de espectros individuales, dado que en una mezcla intervienen fenómenos, entre otros, diferente reflectividad, índice de refracción o el número y tamaño de las partículas de cada componente que no se manifiestan en el espectro de un pigmento aislado. Se partió de la siguiente idea: si a igualdad de radiación incidente cada sustancia química tiene una temperatura concreta, se plantea la cuestión acerca de cuál es la temperatura medida en la mezcla. Dado que el factor de Boltzmann relaciona los espectros Stokes y antiStokes con la temperatura absoluta de un material, se parte de esta relación para deducir una fórmula aproximada que relaciona la temperatura de una mezcla con las temperaturas de sus componentes aislados. Se ha confirmado experimentalmente la validez de esa fórmula y se concluye que el espectro Raman de una mezcla no es la suma ponderada de espectros individuales. Por tanto, deben producirse variaciones en el espectro mezcla tanto en intensidad como en posición frecuencial de bandas / Aquesta tesi s'ha emmarcat en un projecte finançat per la CICYT gràcies al qual es va adquirir un equip portàtil d'espectroscòpia Raman amb fibra òptica. Això va determinar l'objectiu inicial d'aquesta investigació, que va consistir en conèixer les prestacions i els dispositius òptics essencials de l'equip portàtil. Aquesta portabilitat va permetre afrontar un altre objectiu fonamental: investigar la pigmentació groga d'objectes ceràmics patrimonials espanyols i italians de les èpoques del Renaixement i Barroc pertanyents al Museu de Ceràmica de Barcelona gràcies a un conveni signat entre la UPC i aquest museu. La investigació va començar amb la caracterització química i estructural d'uns pigments històrics de referència compostos per òxids de plom, estany i antimoni amb o sense sílice encarregats a la Stazione Sperimentale del Vetro (Venècia). Aquesta etapa es va completar amb l'anàlisi directa de les peces ceràmiques. En base als resultats experimentals, es conclou que tant a Espanya com a Itàlia durant els segles XVI i XVII i, excepcionalment, en un objecte califal del segle X procedent del Nord d'Àfrica, es va emprar el mateix compost groc. Aquesta troballa planteja noves interpretacions sobre l'origen islàmic d'aquests pigments. La interpretació dels espectres d'aquests pigments grocs artificials va resultar molt complicada a causa de la seva heterogeneïtat. El concepte de pigment heterogeni en aquesta tesi s'ha entès com una barreja de substàncies de diferent composició química i / o cristal · lització (entre les quals, com a mínim, una d'aquestes substàncies és un pigment) i la distribució no és uniforme. Aquest concepte va donar peu a un segon objectiu que va consistir en investigar de forma especial l'espectre Raman d'una mescla. Com a exemple de mescles naturals es van analitzar diferents petxines marines (també utilitzades pels artistes com materials pictòrics històricament). En aquest cas, els resultats experimentals van demostrar una doble heterogeneïtat. D'una banda, es va identificar la presència de dos tipus de compostos (heterogeneïtat composicional): carbonat càlcic i un pigment orgànic (blau, violeta i marró) de la família dels poliens. D'altra banda, el segon tipus heterogeneïtat, en aquest cas estructural, va resultar sorprenent. Es va demostrar que a la secció transversal d'una petxina coexisteixen dos cristal · litzacions del carbonat càlcic: la trigonal (calcita) i la ortorrómbica (aragonita), tant conjunta com aïlladament. Continuant la investigació de mescles, es van analitzar diferents combinacions de pigments comunament emprats en art. Essencialment, l'objectiu va ser investigar fins a quin punt l'espectre d'una barreja és igual a la suma ponderada d'espectres individuals, atès que en una barreja intervenen fenòmens, entre d'altres, diferent reflectivitat, índex de refracció o el nombre i mida de les partícules de cada component que no es manifesten en l'espectre d'un pigment aïllat. Es va partir de la següent idea: si a igualtat de radiació incident cada compost químic té una temperatura concreta, es planteja la qüestió sobre quina és la temperatura mesurada en la barreja. Atès que el factor de Boltzmann relaciona els espectres Stokes i antiStokes amb la temperatura absoluta d'un material, es parteix d'aquesta relació per deduir una fórmula aproximada que relaciona la temperatura d'una mescla amb les temperatures dels seus components aïllats. S'ha confirmat experimentalment la validesa d'aquesta fórmula i es conclou que l'espectre Raman d'una barreja no és la suma ponderada d'espectres individuals. Per tant, s'han de produir variacions en l'espectre barreja tant en intensitat com en posició freqüencial de bandes.
228

Light harvesting in fiber array organic solar cells

Mariano Juste, Marina 31 October 2014 (has links)
Considering that the most abundant renewable energy source is the Sun, photovoltaic technology possesses one of the highest potentials to provide environmental benign and sustainable energy worldwide. Currently, most of commercial available modules are fabricated from crystalline silicon because of its high efficiency. To lower fabrication costs and increase the functionality of the solar modules, several thin film technologies are under development. Among them, organic photovoltaics has created large expectations provided it possesses some intrinsic advantages, such as light weight, flexibility or semi-transparency. However, the low charge mobility in the majority of the organic semiconductor materials prevents the use of active layers thicker than a few hundred nanometers. This leads to a limited light harvesting capacity and, consequently, a limited conversion efficiency. Different optical approaches have been considered to enhance the absorption of organic solar cells and increase their efficiency. In this thesis, we propose a novel configuration based on the use of fiber arrays to effectively trap light and efficiently couple it into the active layer to enhance absorption. The thesis work is presented in five chapters. After an introductory chapter, in chapter 2 light absorption of an organic solar cell deposited on the backside of a fiber array is studied theoretically. A strong enhancement in light harvesting is predicted using such configuration. For small diameter fibers the enhancements originated from light coupling to some low quality whispering gallery modes, while for large diameter fibers light seemed to be effectively trapped inside the fiber structure. In chapter 3 and 4, we consider the dip-coating procedure, a fabrication technique that can be applied to deposit from a precursor solution, layers on a substrate irrespective of its shape. Its viability is demonstrated by applying it to different device architectures. The deposition on such non-flat substrates of the rest of the layers forming an organic solar cell is also examined. For instance, several relevant changes that had to be introduced to the ITO sputtering to obtain transparent electrodes with an optimal quality, both, optically and electrically, are discussed. Once the layer deposition is optimized to fulfill the electrical and optical requirements of organic solar cells, in chapter 5, we experimentally demonstrate that an enhanced light absorption can be achieved from such organic solar cells when deposited on fiber arrays. Optical fibers of 80 µm in diameter were used to fabricate the arrays to be used as the cell substrate. Such substrates were coated with an organic solar cell of evaporated small molecules. The implemented fiber array configuration is seen to be an effective light trapping method. Indeed, the photogenerated current from such devices is shown to increase by a 26%, which is a considerable percentage when compared to the majority of the optical approaches that were considered in the past to enhance absorption in organic cells. / Si considerem que la font d'energia renovable més a abundant és el Sol, la tecnologia fotovoltaica posseeix un dels potencials més alts per poder produir l'energia mundial de forma sostenible i benigne amb el medi ambient. Actualment la majoria dels mòduls comercials estan fabricats de silici cristal.lí ja que aquest material té una gran eficiència. Per tal de rebaixar els costos de producció i incrementar la funcionalitat d'aquest panells solars, diverses tecnologies de capa prima s'estan desenvolupant. Entre elles, la tecnologia fotovoltaica amb materials orgànics ha creat grans expectatives gràcies a les seves propietats intrínseques, com per exemple la seva lleugeresa, flexibilitat o bé semi transparència. Per altra banda, la baixa mobilitat de les càrregues en la majoria dels semiconductors orgànics impedeix l'ús de capes actives no molt més gruixudes que uns pocs nanòmetres. Això provoca que tinguin una capacitat de col.lecció lumínica limitada i com a conseqüència, la eficiència de conversió energètica també ho és. S'han considerat diferents estratègies òptiques per tal de millorar l'absorció en les cel.les solars orgàniques i incrementar la seva eficiència. En aquesta tesi proposem una configuració innovadora basada en l'ús d'una matriu de fibres, les quals atrapen i acoblen la llum en la capa activa per millorar l'absorció d'aquesta. La present tesi consta de cinc capítols. Després d'un capítol introductori, en el capítol 2 s'estudia teòricament l'absorció de llum d'una cel·la solar orgànica dipositada en la part posterior de la matriu de fibres. Per diàmetres de fibra petits, les millores són degudes a l'acoblament d'uns modes recirculants de llum de baixa qualitat. Mentre que per diàmetres grans, la llum sembla estar atrapada de forma efectiva dins de l'estructura formada per les fibres. En els capítols 3 i 4 hem considerat el recobriment per immersió, aquesta tècnica de fabricació pot ser aplicada per dipositar capes des d'una solució precursora a un substrat, independentment de la seva forma. La validesa de la tècnica es demostra quan s'aplica a diferents arquitectures de cel·la. El dipòsit en aquestes estructures no planes de la resta de les capes que formen la cel·la solar orgànica també s'ha investigat. Per exemple, es discuteixen varis canvis rellevants, els quals s'han tingut que introduir per la polvorització catòdica del ITO, per tal d'obtenir elèctrodes transparents amb unes qualitats òptiques i elèctriques òptimes.
229

N-type bismuth sulfide coloidal nanocrystals and their application to solution-processed photovoltaic devices

Martínez Montblanch, Luis 31 October 2014 (has links)
Durante las últimas décadas, la energía solar fotovoltaica se ha convertido en una tecnología de creciente importancia para satisfacer las necesidades energéticas actuales sin sacrificar las futuras generaciones. Las células solares tradicionales basadas en silicio llevan asociados altos costes, tanto en materia prima como en su fabricación. Sin embargo, las tecnologías alternativas como las células solares orgánicas ofrecen prometedoras ventajas de bajo coste y fabricación, a expensas de inestabilidad química. Los nanocristales inorgánicos coloidales han atraído una creciente atención, debido a su combinación única de estabilidad química, aprovechamiento pancromático de la energía solar y procesado en disolución. No obstante, los semiconductores nanocristalinos más habituales generan dudas en cuanto a su aplicabilidad, debido a la presencia de metales pesados tóxicos (como el plomo y el cadmio). Además, muchos de estos materiales son tipo p y se usan junto con semiconductores de tipo n de "bandgap" ancho, que no contribuyen a la generación de fotocorriente. El campo de semiconductores nanocristalinos no tóxicos con niveles energéticos apropiados, alta absorción óptica y "bandgap" adecuado para el aprovechamiento de la energía solar aún está por explorar. El objetivo de esta tesis es investigar el potencial de los nanocristales de sulfuro de bismuto para ser empleados como nanomateriales no tóxicos tipo n para un aprovechamiento eficiente de la energía solar. En el Capítulo 2 se presenta un estudio detallado de las propiedades físico-químicas y electro-ópticas de los nanocristales de sulfuro de bismuto. Éstos son semiconductores tipo n y tienen unos niveles energéticos y "bandgap" apropiados para un aprovechamiento eficiente de la energía solar. Por tanto, los nanocristales de sulfuro de bismuto presentan el potencial para ser empleados como aceptores de electrones en células solares basadas en heterouniones con los mejores materiales investigados en la tercera generación fotovoltaica. Los nanocristales de sulfuro de bismuto se emplean en el Capítulo 3 como aceptores de electrones en células solares híbridas. Los materiales usados típicamente como aceptores de electrones así como los polímeros semiconductores no aprovechan la radiación infrarroja. Los nanocristales de sulfuro de bismuto pueden ser usados como materiales aceptores en células solares híbridas y así extender el rango de sensibilidad de las células solares basadas en P3HT a longitudes de onda en el rango del infrarrojo cercano. En el Capítulo 4 se investiga la nanomorfología y el rendimiento fotovoltaico de las células solares híbridas basadas en nanocristales de sulfuro de bismuto y polímeros semiconductores funcionalizados con tioles. Esta nueva clase de polímeros funcionalizados se enlaza a la superficie de los nanocristales de sulfuro de bismuto previniendo su aglomeración, así como presentan niveles de potencial de ionización más profundos y contribuyen a una mejor interacción electrónica entre el nanocompuesto orgánico-inorgánico. En el Capítulo 5, los nanocristales de sulfuro de bismuto se emplean conjuntamente con puntos cuánticos de sulfuro de plomo en dispositivos fotovoltaicos procesados en disolución basados en unión p-n totalmente inorgánicos. Este sistema abre la posibilidad de fabricar heterouniones tipo "bulk", una arquitectura menos limitada por el tiempo de vida de los portadores. De este modo, se puede explorar un rango más amplio de materiales inorgánicos nanocristalinos para dispositvos fotovoltaicos de tercera generación. / Photovoltaics has become a technology of increasing importance during the last decades as a platform to satisfy the energy needs of today without compromising future generations. Traditional silicon-based solar cells suffer from high material and fabrication costs. Alternative technologies such as organic photovoltaics offer promising low-cost material and processing advantages, however at the cost of chemical instability. Inorganic colloidal nanocrystals have attracted significant attention, due to the unique combination of chemical robustness, panchromatic solar harnessing and low-cost solution processability. However, the state-of-the-art nanocrystalline semiconductors raise some concerns regarding their suitability for industrial applications due to the presence of highly toxic heavy metals (such as lead or cadmium). Moreover, most of these materials are p-type, and are usually employed together with large bandgap n-type semiconductors that do not contribute to photocurrent generation. The field on non-toxic, electron-acceptor nanocrystalline semiconductors with appropriate energy levels, high optical absorption and bandgap suited to optimal solar harnessing still remains unexplored. The aim of this thesis is to investigate the potential of bismuth sulfide nanocrystals to be employed as environmental-friendly n-type nanomaterials for efficient solar harnessing. Chapter 2 presents an in-depth physicochemical and optoelectronic characterization of bismuth sulfide colloidal nanocrystals. Bismuth sulfide nanocrystals are n-type semiconductors and have the appropriate bandgap and energy levels for efficient solar harnessing. Therefore, bismuth sulfide nanocrystals have the potential to be employed as the electron accepting material in heterojunction-based solar cells with most high-performing materials investigated for third-generation photovoltaics. Bismuth sulfide nanocrystals are employed in Chapter 3 as electron accepting materials in hybrid organic-inorganic solar cells. Typical electron accepting materials and semiconducting polymers used in organic photovoltaics do not harness infrared radiation, thus limiting their solar harnessing potential. Bismuth sulfide nanocrystals can be used as electron accepting materials in hybrid organic-inorganic solar cells and extend the sensitivity range of P3HT-based solar cells into near-infrared wavelengths. Chapter 4 investigates the nanomorphology and photovoltaic performance of hybrid solar cells based on bismuth sulfide nanocrystals and thiol-functionalized semiconducting polymers. This novel class of functionalized polymers binds to the surface of bismuth sulfide nanocrystals, thus preventing nanocrystal agglomeration, shows deeper ionization potential levels and exhibits improved electronic interaction within the organic-inorganic nanocomposite. In Chapter 5, bismuth sulfide nanocrystals are employed together with lead sulfide quantum dots in p-n junction-based all-inorganic solution-processed photovoltaic devices. This system opens the possibility of fabricating all-inorganic solution-processed bulk heterojunctions, a device architecture where requirements on carrier lifetime are eased. This way, a broader range of inorganic nanocrystalline materials can be explored in the quest for novel non-toxic third-generation photovoltaics
230

Una metodología de selección de iluminantes y diseño de la distribución espectral de fuentes lumínicas para la adecuada exhibición y preservación de obras de arte en museos

Arana S., Fernando F. 17 November 2014 (has links)
In this study a new methodology of evaluation and design of light spectral composition for use in museums is presented. The hypothesis under this doctoral thesis is explained in three parts: a) it is factible to obtain a spectral reflectance curve that is representative of an artwork. b) lighting an artwork with a source which spectral emission curve matches the shape of the artwork's representative spectral reflectance curve (R.S.R.C) reduces the object's damage by lighting, that is a factor of absorbed radiation. c) the resulting visual stymulus ofthe interaction between the source's spectral emission curve (S.E.C.) and the artwork's representative spectral reflectance curve (R.S.R.C) allows for an adequate colour vision in the presentation. General objective of this study is to contribute to the fullfillment ofthe museum's mission in terms of its three aspects: presentation, conservation and efficiency. Specifical objective is to develop a methodology for illuminants selection and for spectral design of light sources composed of the following items: I) Methodology for aquisition of artwork's representative spectral reflectance curves (R.S.R.C.) II) Methodology for Illuminants selection and source spectral design for object conservation. lll) Methodology for illuminants selection and source spectral design for object presentation. A sample of artwork has been spectrally characteized, the amount and placement of spectral meassurements being enough to sufficiently describe the different sectors of the coloured surface of an artwork. Throughout a process of averaging and weighing spectral information from the different sectors of the coloured area, a representative spectral reflectance curve (R.S.R.C.) is obtained for each sample object. Using the sample objecrs representative spectral reflectance curves (R.S.R.C.) a methodology has been developed, for the design of source spectral emissions that are named MATCH and numbered after the reflectance curve from which their design derives. MATCH spectral power emissions have been obtained using the curve shape of a given R.S.R.C. that is endowed with a specific emission power. Designed source spectral power emissions and CIE illuminants have then been analyzed bycomparisson to sample objects'R.S.R.C.s which are to be lighted with them. With the aid of an ad-hoc method, a deteriorant factor has been assigned to each CIE illuminant and each designed emission (MATCH) for a given sample object. The deteriorating factor is based upon the amount of emission power that represents a specific risk of being absorbed by the object, thus producing radiation damage. Throughout this process a classification of designed emiss'ions and CIE illuminant emerges according to a the museum conservation criteria. CIE illuminants and MATCH designed emissions have also gone under an evaluation acording to the presentation aspectofthe museum mission. This results in a new classification of emissions thattakes into accountthe quality of potential colour vision, in terms of the CIE L*a*b* colour differences calculated for the colours present in an artwork sample under the lighting of a CIE illuminant or else a MATCH designed emission, compared to the same colours under the lighting ofthe CIE D65 illuminant,that is taken as reference. Results for all designed spectral emissions (MATCH 1-4) fafl within strict tolerance for CIE acceptability standards of colour differences. For both, conservation and presentation classifications, results have been experimentally validated.

Page generated in 0.1557 seconds