• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 261
  • 77
  • 32
  • 1
  • Tagged with
  • 371
  • 368
  • 367
  • 364
  • 364
  • 65
  • 56
  • 41
  • 40
  • 40
  • 36
  • 21
  • 21
  • 20
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Design of energy efficient network planning schemes for LTE-based cellular networks

Bousia, Alexandra 18 February 2016 (has links)
The rapid expansion of mobile services and the emerging demand for multimedia applications have led to an impressive traffic growth. To this end, Mobile Network Operators (MNOs) seek to extend their infrastructure by installing more Base Stations (BSs), in an effort to increase the network capacity and meet the pressing traffic demands. Furthermore, to fulfill the escalated demands, Heterogeneous Networks (HetNets), which consist of Small Cells (SCs) and the traditional BSs, constitute the new trend of next generation networks. The deployed infrastructure implies a rise in the Capital Expenditures and has a direct impact on the network energy consumption, thus resulting in higher Operational Expenditures. Hence, the investigation of energy efficient solutions will bring down the energy consumption and the network cost. Since the BS is the most power hungry component, the research community has shifted towards the investigation of BS deactivation schemes. These schemes propose that part of the infrastructure can be temporarily switched off, when the traffic is low, while the active BSs extend their coverage to serve the network. Based on a comprehensive review of the state-of-the-art, a set of research opportunities were identified. This thesis provides contributions to the field of BS switching off strategies for wireless macro BSs networks and HetNets of single and multiple MNOs by proposing mechanisms that enhance different aspects of the network performance. The BSs deactivation, the innovative trend of infrastructure sharing and the financially driven collaboration among the involved parties of the current and future networks promise significant improvements in terms of energy and cost savings. The main thesis contributions are divided into three parts, described next. The first part of the thesis introduces innovative BS switching off approaches in single-operator environments, where only macro BSs are deployed. The proposed strategies exploit the inherit characteristics of the traffic load pattern (e.g., distribution of the users, traffic volume, etc.) and the distinctive features of the wireless cellular networks (e.g., BSs position, topology, etc.). Theoretical analysis and computer-based simulations show the performance improvement offered by the switching off strategies with respect to energy efficiency. The second part of the thesis explores a different challenge in network planning. The coexistence of multiple MNOs in the same geographical area has motivated a new business model, known as infrastructure sharing. A roaming-based deactivation scheme is proposed, by taking into account the rationality and the conflicting interests of the MNOs. The proposed game theoretic framework enables the MNOs to take individual switching off decisions, thus bypassing potential complicated agreements. The theoretical and simulation results show that our proposal significantly improves the energy efficiency, guaranteeing at the same time the throughput in realistic scenarios. Moreover, the proposed scheme provides higher cost efficiency and fairness compared to the state-of-the-art algorithms, motivating the MNOs to adopt game theoretic strategies. The third part of the thesis focuses on the exploitation of HetNets and the proposal of energy and cost effective strategies in SC networks with multiple MNOs. We effectively address the cost sharing by proposing accurate cost models for the SCs to share the network cost. Taking into account the impact of the traffic on the cost, we propose novel cost sharing policies that provide a fair outcome. In continuation, innovative auction-based schemes within multiobjective optimization framework are introduced for data offloading from the BSs, owned by the MNOs, to the third-party SC networks. The proposed solution captures the conflicting interests of the MNOs and the third-party companies and the obtained results show that the benefit of proposing switching off approaches for HetNets. / La rápida expansión de los servicios móviles y de la demanda emergente de aplicaciones multimedia han dado lugar a un impresionante crecimiento del tráfico. Operadores de redes móviles (MNOs) tratará de extender su infraestructura mediante la instalación de más estaciones base (BSs), en un esfuerzo por aumentar la capacidad de la red y satisfacer las apremiantes demandas de tráfico. Además, para cumplir con las exigencias escalada, redes heterogéneas (HetNets), constituyen la nueva tendencia de las redes de próxima generación. La infraestructura implica un aumento en los gastos de capital y tiene un impacto directo en el consumo de energía a la red, lo que resulta en un aumento de los gastos operacionales. La investigación de soluciones de eficiencia energética hará bajar el consumo de energía y el coste de la red. La comunidad científica se ha desplazado hacia la investigación de los sistemas de desactivación de BSs. Estos esquemas proponen que parte de la infraestructura se puede cdesectivarse, cuando el tráfico es bajo, mientras que los BSs activas extender su cobertura al servicio de la red. Esta tesis ofrece contribuciones al campo de la BSs desconexión para las redes y HetNets con uno o multiples MNOs, proponiendo mecanismos que mejoran diferentes aspectos del rendimiento de la red. La desactivación de BS,s la tendencia innovadora de compartir infraestructura y la colaboración impulsada financieramente entre las partes implicadas de las redes actuales y futuras prometen mejoras significativas en términos de ahorro energético y económico. Las principales contribuciones de tesis se dividen en tres partes, que se describen a continuación. La primera parte de la tesis introduce innovadora apagar enfoques en entornos de un solo operador, donde se despliegan sólo macro BSs. Las estrategias propuestas explotan las características de tráfico (por ejemplo, la distribución de los usuarios, el volumen de tráfico, etc.) y las características distintivas de las redes (por ejemplo, la posición BS, topología, etc.). Análisis teórico y simulaciones muestran la mejora del rendimiento ofrecido por las estrategias de conmutación con respecto a la eficiencia energética. La segunda parte de la tesis explora un reto diferente en la planificación de la red. La coexistencia de múltiples operadores en la misma zona geográfica ha motivado un nuevo modelo de negocio, conocida como la compartición de infraestructura. Se propone un esquema de desactivación basada en itinerancia, teniendo en cuenta la racionalidad y los intereses en conflicto de los operadores de redes móviles. Los resultados teóricos y de simulación muestran que nuestra propuesta mejora significativamente la eficiencia energética, garantizando al mismo tiempo el rendimiento en escenarios realistas. Por otra parte, el esquema propuesto proporciona una mayor eficiencia de costes y la equidad en comparación con los algoritmos del estado de la técnica, motivar al mnos de adoptar estrategias de teoría de juegos. La tercera parte de la tesis se centra en la explotación de HetNets y la propuesta de estrategias eficaces de energía y costes en las redes con múltiples operadores. Nos dirigimos efectivamente la participación en los costos, proponiendo modelos de costos precisos para para compartir el costo de la red. Teniendo en cuenta el impacto del tráfico en el coste, proponemos políticas costos compartidos novedosas que proporcionan un resultado justo. En la continuación, los esquemas basados en subastas innovadoras dentro de marco de optimización multiobjetivo se introducen los datos que descargan de la BS. La solución propuesta recoge los intereses en conflicto de los operadores de redes móviles y las compañías de terceros y los resultados obtenidos muestran que el beneficio de proponer la desconexión se acerca para HetNets
222

Advanced optical technologies for phytoplankton discrimination : application in adaptive ocean sampling networks

Fernández Aymerich, Ismael 25 January 2016 (has links)
There is a lack on ocean dynamics understanding, and that lead oceanographers to the need of acquiring more reliable data to study ocean characteristics. Oceanographic measurements are difficult and expensive but essential for effective study oceanic and atmospheric systems. Despite rapid advances in ocean sampling capabilities, the number of disciplinary variables that are necessary to solve oceanographic problems are large. In addition, the time scales of important processes span over ten orders of magnitude, and due to technology limitations, there are important spectral gaps in the sampling methods obtained in the last decades. Thus, the main limitation to understand these dynamics is an inaccurate measurement of the process due to undersampling. But fortunately, recent advances in ocean platforms and in situ autonomous sampling systems and satellite sensors are enabling unprecedented rates of data acquisition as well as the expansion of temporal and spatial coverage. Many advances in technologies involving different areas such as computing, nanotechnology, robotics, molecular biology, etc. are being developed. There exist the effort that these advantages could be applied to ocean sciences and will prove to extremely beneficial for oceanographers in the next few decades. Autonomous underwater vehicles, in situ automatic sampling devices, high spectral resolution optical and chemical sensors are some of the new advances that are being utilized by a limited number of oceanographers, and in a few years are expected to be widely used. Thanks to new technologies and, for instance, utilization of data assimilation models coupled with autonomous sampling platforms can increase temporal and spatial sampling capabilities. For instance, studies of phytoplankton dynamics in the water column, or the transportation and aggregation of organisms need a high rate of sampling because of their rapid evolution, that is why new strategies and technologies to increase sampling rate and coverage would be really useful. However, other challenges come up when increasing the variety and quantity of ocean measurements. For instance, number of measurements are limited by costs of instruments and their deployment, as well as data processing and production of useful data products and visualizations. In some studies, there exists the necessity to discriminate and detect different phytoplankton species present in sea water, and even track their evolution. The use of their optical properties is one of the approximations used by some of them. Acquiring optical properties is a non-invasive and non-destructive method to study phytoplankton communities. Phytoplankton species are then organized thanks to presenting similar optical characteristics. Fluorescence spectroscopy has been used and found as a really potential technique for this goal, although passive optical techniques such as the study of the absorption can be also useful, or even their combination can be studied. Specifically speaking about fluorescence, the majority of the studies have centered their effort in discriminating phytoplankton groups using their excitation spectra because the emission spectra contains less information. The inconvenient of using this kind of information, is that the acquisition is not instantaneous and it is necessary to spend some time (over a second) exciting the sample at different wavelengths sequentially. In contrast, the whole emission spectra can be acquired instantaneously. Therefore, the aim of this thesis is to explore new and powerful signal processing techniques able to discriminate between different phytoplankton groups from their emission fluorescence spectra. This document presents important results that demonstrate the capabilities of these methods. / Existe una falta de conocimiento sobre las dinámicas de los océanos, lo que lleva a los oceanógrafos a la necesidad de adquirir datos fiables para estudiar las características de los océanos. Los datos oceanográficos son difíciles y costosos de adquirir, pero esenciales para estudiar de manera efectiva los sistemas oceánicos i atmosféricos. A causa de los rápidos avances para muestrear este medio tan hostil, es necesario que diversas disciplinas trabajen juntas para solucionar el gran número de problemáticas que se pueden encontrar. Además, los procesos que se tienen que estudiar pueden perdurar hasta diez órdenes de magnitud, y por culpa de las limitaciones tecnológicas existen importantes faltas en los métodos que se llevan utilizando en las últimas décadas. Por eso, la principal limitación para entender estas dinámicas es la imposibilidad de medir procesos correctamente como consecuencia de la baja frecuencia de muestreo. Por suerte, los recientes avances en plataformas oceánicas y sistemas de muestreo autónomos, junto con datos de satélite, están mejorando estas frecuencias de adquisición, i en consecuencia aumentando la cobertura temporal y espacial de estos procesos. Actualmente hay disciplinas como la computación, nanotecnología, robótica, biología molecular, etc. que están protagonizando unos avances tecnológicos sin precedentes. La intención es aprovechar este esfuerzo y aplicarlo en oceanografía. Vehículos autónomos bajo el agua, sistemas automáticos de muestreo, sensores ópticos o químicos de alta resolución son algunas de las tecnologías que se empiezan a utilizar, pero que por culpa de su coste todavía no están extendidas y se espera que lo puedan estar en los próximos años. Gracias a algunas de estas tecnologías, como por ejemplo la utilización de modelos de asimilación de datos conjuntamente con plataformas autónomas de muestreo, se puede incrementas la capacidad de muestreo, tanto temporal como espacial. Un ejemplo claro de aplicación es el estudio de las dinámicas del fitoplancton, así como el transporte de organismos dentro de la columna de agua. No obstante, no todos los aspectos son positivos, otros retos surgen al aumentar la variedad y cantidad de datos oceanográficos. El número de datos queda limitado por el coste de los instrumentos y las campañas. Además, es necesario estudiar nuevos sistemas para procesar y extraer información útil de estos datos, puesto que los métodos conocidos hasta el momento quizá no son los más adecuados. La detección y discriminación de diferentes especies de fitoplancton en el mar es muy importante en ciertos estudios científicos. Algunos de estos estudios se basan en extraer información de sus propiedades ópticas, ya que es un método no invasivo ni destructivo. Espectroscopia a partir de la respuesta de fluorescencia del fitoplancton se utiliza en muchos experimentos y se ha demostrado que es una técnica con gran potencial, aunque el estudio de los espectros de absorción u otras técnicas basadas en métodos pasivos también se pueden utilizar. En el caso de la fluorescencia, la mayoría de los estudios se han centrado en discriminar grupos de fitoplancton a partir de los espectros de excitación, porque los espectros de emisión contienen menos información. La desventaja es que el tiempo necesario para adquirir una muestra puede estar entorno al segundo, porque se necesita estimular la muestra a diferentes longitudes de onda secuencialmente. En el caso de los espectros de emisión, con los avances actuales en sensores ópticos, las respuestas espectrales pueden ser adquiridas casi instantáneamente. Por este motivo, el objetivo principal de esta tesis es explorar nuevas tecnologías de procesado capaces de discriminar diferentes grupos de fitoplancton a partir de sus espectros de emisión de fluorescencia. Este documento presenta importantes resultados que demuestran la capacidad de discriminación de este tipo de información en combinación con las técnicas de procesado adecuadas.
223

Contributions to the algorithms and methodologies for virtual infrastructure provisioning

Ferrer Riera, Jordi 20 January 2016 (has links)
Virtualization is defined as the process consisting of building a virtual resource on top of one or several physical resources, depending on the selected paradigm: aggregation or partitioning. From the net- working perspective, over the recent years virtualization became a hot topic in networking research, although the term is not new, neither for networking nor for Information Technology (IT). In virtualization environments, the most significant challenge to be addressed is the virtual infrastructure allocation or embedding one. The problem appears over any networking technology, from wired to wireless domains, including converged physical infrastructures as well as coupled IT and networking infrastructures. This problem has re-gained importance in the last years due to the emergence of novel software- based abstractions, which provide fully-operational interfaces on top of those virtual resources, enabling the emergence of novel business models. The election of the physical resources upon which the virtual infrastructure will be instantiated becomes fundamental for the virtual infrastructure operation in those virtualized environments, i.e. the election of the physical resources over which the virtual ones will be allocated. In fact, the virtual infrastructure allocation system might be seen as a policy-based system, where, based on the physical infrastructure available, and the set of requests, it will create different virtual infrastructures as a function of the policy, which will indicate the metric to optimize when creating those Virtual Infrastructures (VIs). For example, the infrastructure provider, who is responsible for leasing those virtual infrastructures, may want to optimize the economical cost of the different instantiated virtual slices, or even the overall energy consumption of the slices. The problem acquires different dimensions when considering heterogeneous resources (e.g. optical network resources and wireless resources) in order to create cross-domain virtual infrastructures; or when it includes IT resources connected at the edges of the different network domains. The first part of the thesis provides an insight on the problem, and different contributions on the algorithms utilized in order to solve the problem. It considers different optical substrate technologies, wireless and wired resources, and it tries to optimize either the total number of virtual infrastructures to be created or either the energy consumed by the resources. Furthermore, the work proposed in the second part of the dissertation includes a dynamic re-planning approach, which is responsible of dynamically updating already provisioned virtual infrastructures in order to adapt them to the Cloud-based services. Those services are unpredictable; basically, information regarding the volume and type of service requests is not precisely available in advance of the requests to the VI providers. Cloud services can scale up and down on demand. Therefore, that dynamic adaptation of the infrastructure to the elasticity of the Cloud services requires constant changes. Dynamic re-planning becomes fundamental for virtual infrastructures supporting cloud-based services. Virtualization can be indistinctly applied to IT servers, network re- sources, and even network functions. The last part of the work de- fines the additional scheduling problem, specific for Network Function Virtualization (NFV), which is complementary to the allocation or embedding. NFV aims at decoupling the network functions from the actual hardware where they are executed. Thus, most of the network functions will run on standard virtualized servers by means of soft- ware, which is expected to significantly reduce capital expenditures, while at the same time the software automation reduces operational expenditures. The solution for the scheduling aims at minimizing the total execution time for chains of network services running over IT infrastructures. / La virtualización se define como el proceso consistente en la construcción de recursos lógicos o virtuales sobre uno o varios elementos físicos, dependiente del paradigma seleccionado: agregación o partición. Desde la perspectiva de la red, en los últimos años la virtualización se ha convertido en un tema recurrente, aunque el término virtualización no sea algo nuevo en entornos de red y entornos IT. El problema más significativo a resolver, aunque no el único, en entornos donde se considera la virtualización es el problema de asignación de recursos virtuales sobre los físicos, esto es, decidir qué recursos de la capa física se asignan a las distintas peticiones de infraestructuras virtuales. El problema aparece sobre distintas tecnologías de red, desde redes fijas hasta redes de acceso sin cable, incluyendo dominios integrados acceso metro, y recursos de computación y almacenamiento integrados con la red. El problema ha vuelto a actualizarse y ganar más importancia aún en los últimos años con la aparición de nuevas abstracciones basadas en software, las cuáles proveen interfaces completamente operables sobre los recursos virtuales, al mismo tiempo que se habilitan nuevos modelos de negocio.Por lo tanto, la selección de los recursos físicos sobre los que se construirán e instanciarán las infraestructuras virtuales se convierte en un elemento fundamental para la operación efectiva y eficiente en entornos virtualizados. De hecho, el sistema de virtualización se puede entender cómo un sistema basado en políticas, en el cuál, a partir de una descripción de la infraestructura física y un conjunto de peticiones de infraestructuras virtuales, se crearán diferentes infraestructuras virtuales en función de la política, que en esencia indicará la métrica a ser optimizada en el sistema cuándo se crean las distintas infraestructuras virtuales. Además del análisis del estado del arte del problema de la virtualización, centrado en redes ópticas y entornos donde los recursos IT se encuentran integrados con los recursos de red, la primera parte de las actividades de la tesis se centra en distintas contribuciones en el entorno de la virtualización de red. En ellas se analiza desde el impacto de las distintas tecnologías físicas consideradas en el problema, hasta la posibilidad de pre-procesar las diferentes demandas con el fin de mejorar el rendimiento en función de la política considerada para la virtualización. La primera parte considera los problemas de tipo offline, en los cuáles se consideran conocidas todas las demandas desde un principio. Por otro lado, la segunda parte de las actividades se centran en afrontar el problema online, en el cuál las peticiones no son conocidas de antemano. En este sentido, se ha propuesto un sistema de re-planificación dinámica de las infraestructuras virtualizadas, el cuál es responsable directo de actualizar los recursos de las mismas con tal de adaptarlas a los servicios cloud. Estos servicios son impredecibles, tanto en volumen como en tipo de servicio, además de la flexibilidad y elasticidad que les permite escalar constantemente en recursos. Como consecuencia, el sistema de re-planificación se convierte en fundamental para la eficiente creación y operación de las infraestructuras virtuales. Finalmente, la última propuesta de las actividades enmarcadas dentro de la tesis doctoral abren la puerta a la definición de un nuevo problema relacionado con la virtualización: virtualización de funciones específicas de red. Se presenta un sistema de gestión y orquestración que incluye la solución de scheduling para distintas funciones de red virtualizadas, el cuál tiene por objetivo minimizar el tiempo de ejecución total de las distintas cadenas de servicio.
224

Analysis of the high frequency substrate noise effects on LC-VCOs

Molina Garcia, Marc-Manel 29 January 2016 (has links)
La integració de transceptors per comunicacions de radiofreqüència en CMOS pot quedar seriosament limitada per la interacció entre els seus blocs, arribant a desaconsellar la utilització de un únic dau de silici. El soroll d’alta freqüència generat per certs blocs, com l’amplificador de potencia, pot viatjar pel substrat i amenaçar el correcte funcionament de l’oscil·lador local. Trobem tres raons importants que mostren aquest risc d’interacció entre blocs i que justifiquen la necessitat d’un estudi profund per minimitzar-lo. Les característiques del substrat fan que el soroll d’alta freqüència es propagui m’és fàcilment que el de baixa freqüència. Per altra banda, les estructures de protecció perden eficiència a mesura que la freqüència augmenta. Finalment, el soroll d’alta freqüència que arriba a l’oscil·lador degrada al seu correcte comportament. El propòsit d’aquesta tesis és analitzar en profunditat la interacció entre el soroll d’alta freqüència que es propaga pel substrat i l’oscil·lador amb l’objectiu de poder predir, mitjançant un model, l’efecte que aquest soroll pot tenir sobre el correcte funcionament de l’oscil·lador. Es volen proporcionar diverses guies i normes a seguir que permeti als dissenyadors augmentar la robustesa dels oscil·ladors al soroll d’alta freqüència que viatja pel substrat. La investigació de l’efecte del soroll de substrat en oscil·ladors s’ha iniciat des d’un punt de vista empíric, per una banda, analitzant la propagació de senyals a través del substrat i avaluant l’eficiència d’estructures per bloquejar aquesta propagació, i per altra, determinant l’efecte d’un to present en el substrat en un oscil·lador. Aquesta investigació ha mostrat que la injecció d’un to d’alta freqüència en el substrat es pot propagar fins arribar a l’oscil·lador i que, a causa del ’pulling’ de freqüència, pot modular en freqüència la sortida de l’oscil·lador. A partir dels resultats de l’anàlisi empíric s’ha aportat un model matemàtic que permet predir l’efecte del soroll en l’oscil·lador. Aquest model té el principal avantatge en el fet de que està basat en paràmetres físics de l’oscil·lador o del soroll, permetent determinar les mesures que un dissenyador pot prendre per augmentar la robustesa de l’oscil·lador així com les conseqüències que aquestes mesures tenen sobre el seu funcionament global (trade-offs). El model ha estat comparat tant amb simulacions com amb mesures reals demostrant ser molt precís a l’hora de predir l’efecte del soroll de substrat. La utilitat del model com a eina de disseny s’ha demostrat en dos estudis. Primerament, les conclusions del model han estat aplicades en el procés de disseny d’un oscil·lador d’ultra baix consum a 2.5GHz, aconseguint un oscil·lador robust al soroll de substrat d’alta freqüència i amb característiques totalment compatibles amb els principals estàndards de comunicació en aquesta banda. Finalment, el model s’ha utilitzat com a eina d’anàlisi per avaluar la causa de les diferències, en termes de robustesa a soroll de substrat, mesurades en dos oscil·ladors a 60GHz amb dues diferents estratègies d’apantallament de l’inductor del tanc de ressonant, flotant en un cas i connectat a terra en l’altre. El model ha mostrat que les diferències en robustesa són causades per la millora en el factor de qualitat i en l’amplitud d’oscil·lació i no per un augment en l’aïllament entre tanc i substrat. Per altra banda, el model ha demostrat ser vàlid i molt precís inclús en aquest rang de freqüència tan extrem. el principal avantatge en el fet de que està basat en paràmetres físics de l’oscil·lador o del soroll, permetent determinar les mesures que un dissenyador pot prendre per augmentar la robustesa de l’oscil·lador així com les conseqüències que aquestes mesures tenen sobre el seu funcionament global (trade-offs). El model ha estat comparat tant amb simulacions com amb mesures reals demostrant ser molt precís a l’hora de predir l’efecte del soroll de substrat. La utilitat del model com a eina de disseny s’ha demostrat en dos estudis. Primerament, les conclusions del model han estat aplicades en el procés de disseny d’un oscil·lador d’ultra baix consum a 2.5GHz, aconseguint un oscil·lador robust al soroll de substrat d’alta freqüència i amb característiques totalment compatibles amb els principals estàndards de comunicació en aquesta banda. Finalment, el model s’ha utilitzat com a eina d’anàlisi per avaluar la causa de les diferències, en termes de robustesa a soroll de substrat, mesurades en dos oscil·ladors a 60GHz amb dues diferents estratègies d’apantallament de l’inductor del tanc de ressonant, flotant en un cas i connectat a terra en l’altre. El model ha mostrat que les diferències en robustesa són causades per la millora en el factor de qualitat i en l’amplitud d’oscil·lació i no per un augment en l’aïllament entre tanc i substrat. Per altra banda, el model ha demostrat ser vàlid i molt precís inclús en aquest rang de freqüència tan extrem. / The integration of transceivers for RF communication in CMOS can be seriously limited by the interaction between their blocks, even advising against using a single silicon die. The high frequency noise generated by some of the blocks, like the power amplifier, can travel through the substrate, reaching the local oscillator and threatening its correct performance. Three important reasons can be stated that show the risk of the single die integration. Noise propagation is easier the higher the frequency. Moreover, the protection structures lose efficiency as the noise frequency increases. Finally, the high frequency noise that reaches the local oscillator degrades its performance. The purpose of this thesis is to deeply analyze the interaction between the high frequency substrate noise and the oscillator with the objective of being able to predict, thanks to a model, the effect that this noise may have over the correct behavior of the oscillator. We want to provide some guidelines to the designers to allow them to increase the robustness of the oscillator to high frequency substrate noise. The investigation of the effect of the high frequency substrate noise on oscillators has started from an empirical point of view, on one hand, analyzing the noise propagation through the substrate and evaluating the efficiency of some structures to block this propagation, and on the other hand, determining the effect on an oscillator of a high frequency noise tone present in the substrate. This investigation has shown that the injection of a high frequency tone in the substrate can reach the oscillator and, due to a frequency pulling effect, it can modulate in frequency the output of the oscillator. Based on the results obtained during the empirical analysis, a mathematical model to predict the effect of the substrate noise on the oscillator has been provided. The main advantage of this model is the fact that it is based on physical parameters of the oscillator and of the noise, allowing to determine the measures that a designer can take to increase the robustness of the oscillator as well as the consequences (trade-offs) that these measures have over its global performance. This model has been compared against both, simulations and real measurements, showing a very high accuracy to predict the effect of the high frequency substrate noise. The usefulness of the presented model as a design tool has been demonstrated in two case studies. Firstly, the conclusions obtained from the model have been applied in the design of an ultra low power consumption 2.5 GHz oscillator robust to the high frequency substrate noise with characteristics which make it compatible with the main communication standards in this frequency band. Finally, the model has been used as an analysis tool to evaluate the cause of the differences, in terms of performance degradation due to substrate noise, measured in two 60 GHz oscillators with two different tank inductor shielding strategies, floating and grounded. The model has determined that the robustness differences are caused by the improvement in the tank quality factor and in the oscillation amplitude and no by an increased isolation between the tank and the substrate. The model has shown to be valid and very accurate even in these extreme frequency range.
225

Sistema d'anàlisi i planificació de xarxes de distribució d'energia elèctrica de mitjana tensió

Gratacòs Prats, Jaume 18 January 2016 (has links)
The optimal planning of the annual development tasks of a medium voltage power distribution network, to tackle the evolution of the demand with maximum levels of quality and continuity of service and minimum investment, has been under the spotlight of the academic community for the last forty years. The methodologies avalaible today present some withdraws that might complicate its application on real cases. This thesis describes the design of a system of analysis and planning of real distribution networks, which incorporates a new multi-objective and dynamic multi-stage heuristic methodology to generate the optimal and efficient planning strategies. This new heuristic methodology contains strategies to increase its efficiency that have not been found in the specialized literature: the typing of the development tasks and the evaluation of the relative efficiency of the optimal planning strategies during the search. / La planificació òptima dels treballs anuals de desenvolupament d'una xarxa de distribució eléctrica de mitjana tensió, per atendre l'evolució de la demanda amb uns nivells màximes de qualitat i continuïtat del subministrament i amb una inversió mínima, ha estat objecte d'interès de la comunitat acadèmica durant els darrers quaranta anys. Les metodologies formulades fins avui presenten inconvenients que poden dificultar la seva aplicació en casos reals. Aquesta tesi detalla el disseny d'un sistema d'anàlisi i planificació de xarxes de distribució reals, que incorpora una nova metodologia heurística multi-objetiva i dinàmica multi-etapa per l'obtenció de planificacions òptimes i eficients. Aquesta nova metodologia heurística conté estratègies de millora de la seva eficiència que no s'han trobat en la literatura especialitzada: la tipificació d'actuacions de desenvolupament i l'avaluació de l'eficiència relativa de les planificacions òptimes durant el procés de cerca.
226

Evolución temporal de la vegetación en el Sahel mediante el NDVI y su relación con la precipitación en el periodo 1983-2012

Puig i Polo, Càrol 28 April 2015 (has links)
The development and population prosperity in the transition zone between the Sahara desert in the north and the tropical humid savannah in the south, known as Sahel, depends to a great extent on the rainfall regime. The climate is defined by a long and dry season and a short season with rains between the months of June and September. Rainfalls are determined by a strong north to south gradient with small and variable precipitation in the north, which translates into continuous change of vegetation species and life forms that range from sparse thorny shrubs in between grass in the north to a greater amount of vegetal cover and ligneous species in the south. The vegetation growth shows a considerable inter-annual fluctuation that generates a generalized concern in the predominantly rural population, since their way of life is mainly based on dry land agriculture and pasturing. The severe droughts that happened during the 1970¿s, which were extended until the middle of the following decade, have been widely studied because of their serious consequences on the population, and because it is considered as one of the first signs of global climatic changes. Sahel is the region that has shown greater precipitation and vegetation variations in the last three to four decades. Technological advances in remote sensing have allowed constant monitoring of ecosystems, mainly because of the availability of improved spatial, time and spectral data. The present thesis investigates the time and spatial vegetation patterns and the precipitation variability in Sahel through interrelations based on the analysis of temporary series from the normalized vegetation difference index (NDVI) for the period 1983-2012 and rainfall satellite estimations. Whereas the precipitation emerges as a dominant cause from the increase of the vegetation, there is evidence of other anthropogenic factors overlapping the climatologic trend. Measuring rainfall in the semi-arid regions continues to be a pivoting point because of great spatial and weather variability. On top of this, note that the number of available weather stations in Sahel is quite limited. Satellite data, along with meteorological stations measurements, are currently the best source of information with regards to spatial-temporary precipitation in Sahel. Three temporary series of precipitation have been analyzed to cover the period between 1983 and 2012: GPCC, ARC2 and TAMSAT. These series have been compared with more recent ones to provide better quality estimations: RFE2, TRMM 3B42 and GPCP-1dd. The result shows a good correlation between series GPCC, ARC2, RFE2 and TRMM 3B42. The analysis of 30 years of precipitation data shows a recovering of the annual precipitation, although the trends in the annual temporary distribution have changed: nowadays it rains more but during less time. There are NDVI data available coming from the AVHRR sensor since 1981, as well as from its newer GIMMS3g version. Nevertheless, there are aspects in the design and processing of the sensor data that result in noise. There are data sets of the most recent NDVI coming from the sensors VEGETATION and MODIS installed in the SPOT and Terra satellites respectively, which are considered to be an improvement on the AVHRR GIMMS3g data. These sensors provide the possibility of evaluating the accuracy of the tendency analysis of the series of time of the AVHRR GIMMS3g in the period of time in which data overlap, from 2001 to 2012. This evaluation shows that the AVHRR GIMMS3g data set is correct in temporary studies of the vegetation in areas that do not record rainfalls greater than 1,000 mm, whereas the temporary tendencies in more humid zones should be interpreted with reservations. / Al Sahel, la zona de transició entre el desert del Sàhara al nord i la sabana humida tropical al sud, el desenvolupament i la prosperitat de la població depenen en gran mesura del règim de pluges. El clima es caracteritza per una estació seca i llarga i una temporada curta de pluges entre els mesos de juny i setembre. La precipitació està determinada per un fort gradient de nord a sud amb pluges escasses i variables al nord, cosa que es tradueix en una gran diversitat d'espècies de vegetació i formes de vida: des d'arbustos espinosos de cobertura molt escassa intercalats entre pastures al nord a més quantitat de cobertura vegetal i espècies llenyoses al sud. El creixement de la vegetació mostra fluctuacions interanuals considerables, la qual cosa suscita una preocupació generalitzada en la població -predominantment rural-, ja que el seu modus vivendi es basa principalment en l'agricultura de secà i el pasturatge. Les greus sequeres que van tenir lloc durant la dècada de 1970 i que es van allargar fins a mitja dècada de 1980, han estat àmpliament estudiades no només per les greus conseqüències sobre la població, sinó perquè es consideren un dels primers signes de canvi climàtic global. El Sahel és la regió on s'han evidenciat les grans variacions de precipitació i vegetació al llarg de les últimes tres o quatre dècades. Els avenços tecnològics en el camp de la teledetecció han permès la vigilància dels ecosistemes gràcies a la disponibilitat de dades amb resolucions espacials, temporals i espectrals cada vegada més acurades. En aquesta tesi s'investiguen els patrons temporals i espacials de la vegetació i la variabilitat de les precipitacions al Sahel a partir de les interrelacions basades en l'anàlisi de sèries temporals de l'índex de vegetació normalitzat (NDVI) en el període 1983-2012 i de les estimacions de precipitació procedents de satèl·lit. Mentre que la precipitació emergeix com una causa dominant de l'augment de la vegetació, hi ha evidències d'altres factors de caràcter antropogènic superposats a la tendència del clima. Mesurar la precipitació en les regions semiàrides continua sent una feina crítica a causa de la seva gran variabilitat espacial i temporal; d'altra banda, cal afegir que al Sahel el nombre d'estacions meteorològiques disponibles és molt escàs. Les dades de satèl·lit, en combinació amb els mesuraments de les estacions meteorològiques, són actualment el millor mitjà per adquirir informació espaciotemporal de la precipitació a la regió. S'han analitzat tres sèries temporals de precipitació que cobreixen el període comprès entre 1983 i 2012: GPCC, ARC2, TAMSAT. Aquestes sèries s'han comparat amb altres de més recents i que proporcionen estimacions de més qualitat: RFE2, TRMM 3B42 i GPCP-1dd. El resultat mostra una bona correspondència entre les sèries GPCC, ARC2, RFE2 i TRMM 3B42. L'anàlisi de 30 anys de precipitació mostra que la precipitació anual s'ha recuperat, tot i que la tendència en la distribució temporal anual ha canviat: ara plou més però durant menys temps. Des de 1981 es disposa de dades del NDVI procedents del sensor AVHRR en la seva versió GIMMS3g. No obstant això, hi ha aspectes en el disseny i processament de les dades del sensor que hi introdueixen soroll. Hi ha conjunts de dades del NDVI més recents procedents dels sensors VEGETATION i MODIS -embarcats en els satèl·lits SPOT i Terra, respectivament- que es consideren una versió millorada respecte de les dades AVHRR GIMMS3g. A més, aquests productes ofereixen la possibilitat d'avaluar l'exactitud en l'anàlisi de la tendència de les sèries temporals de l'AVHRR GIMMS3g en el període de temps en què les dades se solapen, de 2001 a 2012, i a partir d'això s'observa que el conjunt de dades AVHRR GIMMS3g és adequat en estudis temporals de la vegetació en àrees que no reben més de 1.000 mm de precipitació, mentre que la interpretació de les tendències temporals en les zones més humides s'ha de fer amb certes reserves. / En el Sahel, la zona de transición entre el desierto del Sahara en el norte y la sabana húmeda tropical en el sur, el desarrollo y la prosperidad de la población depende en gran medida del régimen de lluvias. El clima se caracteriza por una estación seca y larga y una corta temporada de lluvias entre los meses de junio y septiembre. La lluvia está determinada por un fuerte gradiente de norte a sur con una precipitación escasa y variable en el norte, que se traduce en un continuo cambio de especies de vegetación y formas de vida que van desde arbustos espinosos de cobertura muy escasa intercalados entre pastos en el norte a una mayor cantidad de cobertura vegetal y especies leñosas en el sur. El crecimiento de la vegetación muestra fluctuaciones interanuales considerables que generan una preocupación generalizada en la población, predominantemente rural, ya que su modo de vida se basa principalmente en la agricultura de secano y el pastoreo. Las graves sequías ocurridas durante la década de 1970, que se alargaron hasta mediados de la década siguiente, han sido ampliamente estudiadas tanto por sus graves consecuencias sobre la población, como porque se considera uno de los primeros signos de cambio climático global. El Sahel es la región donde se han evidenciado las mayores variaciones de precipitación y vegetación en las últimas tres o cuatro décadas. Los avances tecnológicos en el campo de la teledetección han permitido la vigilancia de los ecosistemas gracias a la disponibilidad de datos con resoluciones espaciales, temporales y espectrales cada vez mejores. En esta tesis se investigan los patrones temporales y espaciales de la vegetación y la variabilidad de las precipitaciones en el Sahel a través de las interrelaciones basadas en el análisis de series temporales del índice de vegetación normalizado (NDVI) en el periodo 1983-2012 y las estimaciones de precipitación procedentes de satélite. Mientras que la precipitación emerge como una causa dominante del aumento de la vegetación, hay evidencias de otros factores de carácter antropogénico superpuestos a la tendencia del clima. Medir la precipitación en las regiones semiáridas sigue siendo un punto crítico por la gran variabilidad espacial y temporal de la misma, a esto hay que añadir que el número de estaciones meteorológicas disponibles es muy escaso en el Sahel. Los datos de satélite, en combinación con las mediciones de las estaciones meteorológicas, son actualmente el mejor medio de adquisición de información espacio-temporal de la precipitación en el Sahel. Se han analizado tres series temporales de precipitación que cubren el periodo comprendido entre 1983 y 2012: GPCC, ARC2, TAMSAT. Estas series se han comparado con otras más recientes y que proporcionan estimaciones de mejor calidad: RFE2, TRMM 3B42 y GPCP-1dd. El resultado muestra una buena correspondencia entre las series GPCC, ARC2, RFE2 y TRMM 3B42. El análisis de 30 años de precipitación muestra que la precipitación anual se ha recuperado, aunque la tendencia en la distribución temporal anual ha cambiado: ahora llueve más pero durante menos tiempo. Desde 1981 se dispone de datos del NDVI procedentes del sensor AVHRR y en su versión GIMMS3g. Sin embargo, hay aspectos en el diseño y procesado de los datos del sensor que introducen ruido en los datos. Existen conjuntos de datos del NDVI más recientes procedentes de los sensores VEGETATION y MODIS embarcados en los satélites SPOT y Terra, respectivamente, que se consideran una mejora sobre los datos AVHRR GIMMS3g, y estos productos ofrecen la posibilidad de evaluar la exactitud en el análisis de la tendencia de las series de tiempo del AVHRR GIMMS3g en el periodo de tiempo en el que los datos se solapan, de 2001 a 2012, a partir de lo cual se observa que el conjunto de datos AVHRR GIMMS3g es adecuado en estudios temporales de la vegetación en áreas que no reciben más de 1.000 mm de precipitación, mientras que en la interpretación de las tendencias temporales en las zonas más húmedas debe de hacerse con ciertas reservas.
227

Medida de parámetros de ruido de dispositivos activos basada en fuente adaptada

Maya Sánchez, María del Carmen 15 December 2003 (has links)
En esta Tesis se utiliza una técnica de fuente adaptada para medir los parámetros de ruido de transistores de efecto campo, como MESFET y HEMT. Para ello, se ha implementado un sistema de medida en el margen de frecuencias de 2-75 GHz, de 2-50 GHz para medidas de dispositivos en oblea y de 50-75 GHz en guía de onda. Sin embargo, en este margen de frecuencias las pérdidas de los dispositivos aumentan, el nivel del ENR de la fuente de ruido, utilizada para calibrar el sistema, es menor y la sensibilidad a la precisión en la medida de potencia es mayor.Para disminuir la incertidumbre en la medida de potencia, se ha implementado el uso de un detector externo a un analizador de espectros, utilizado inicialmente como medidor de potencia. La calibración del receptor del sistema de medida de ruido se realiza mediante expresiones aproximadas, las cuales son extendidas a un caso general. Dicha calibración requiere como datos la lectura de potencias de ruido para dos cargas, conectadas a la entrada del receptor, a diferente temperatura y de su correspondiente coeficiente de reflexión, el cual no tiene que ser necesariamente igual entre cargas. Particularmente, para reducir la incertidumbre en el cálculo de la constante de ganancia del receptor y como una alternativa a las fuentes de ruido coaxiales, se proponen dos fuentes de ruido en oblea (del tipo coplanar): un transistor polarizado en frío (cold-FET) y un diodo en avalancha, que generan un nivel de ENR mayor en el plano de las sondas de prueba y que además, siendo coplanares permiten disminuir pérdidas debidas al uso de una transición coaxial-coplanar. Por otra parte, se propone un modelo distribuido para transistores de efecto de campo con la finalidad de predecir mejor el comportamiento en pequeña señal y ruido del dispositivo teniendo en cuenta los efectos distribuido de las líneas (electrodos) de puerta, drenador y fuente.También se utiliza la técnica F50, en conjunto con un modelo en pequeña señal y de ruido clásico para transistores bipolares, para extraer simultáneamente los elementos del circuito equivalente en pequeña señal y los parámetros de ruido de un transistor bipolar de heterounión (HBT). / In this Thesis a matched source technique is used to measure the noise parameters of field effect transistors, such as MESFET and HEMT. A noise measurement system, from 2 to 75 GHz, has been implemented. In the frequency range of 2-50 GHz the system has been implemented to measure on-wafer devices, and in the frequency range of 50-75 GHz it has been implemented to measure waveguide devices. However, at these frequencies the losses of the devices increase, the ENR level of the noise source, which is employed to calibrate the receiver, decrease, and the sensibility to the power uncertainty is bigger.To reduce the measurement uncertainty of the noise power, an external detector to a spectrum analyzer, which at the beginning was employed as power meter, has been implemented. Approximate expressions to calibrate the receiver are used, where these are extended to a general case. To develop the calibration the measure of the noise power of two connected loads to the input receiver, and of its corresponding coefficient reflection, it is required. There is not restriction between the loads reflection coefficients. To reduce the uncertainty in the determination of the receiver's gain constant, and as an alternative to the coaxial noise sources, two on-wafer noise sources, a cold-FET and an avalanche noise diode, have been proposed. The on-wafer noise sources generate a bigger ENR level at the on-wafer reference plane, and furthermore, the due losses to the coaxial-to-on-wafer-transition can be practically eliminated.Otherwise, a FET distributed noise model, which takes into account the propagation effects along the device electrodes, is proposed with the purpose of predicting better the small-signal and noise performance of the device.As an application of F50 method, this is applied, in combination of a small-signal and a classic bipolar noise model, to simultaneously extract the elements of the small-signal equivalent circuit and the noise parameters of a heterounion bipolar transistor (HBT).
228

Design of Clustered Superscalar Microarchitectures

Parcerisa Bundó, Joan Manuel 17 June 2004 (has links)
L'objectiu d'aquesta tesi és proposar noves tècniques per al disseny de microarquitectures clúster superescalars eficients. Les microarquitectures clúster particionen el disseny de diversos components crítics del hardware com a mitjà per mantenir-ne el paral·lelisme i millorar-ne l'escalabilitat. El nucli d'un processador clúster, format per blocs de baixa complexitat o clústers, pot executar cadenes d'instruccions dependents sense pagar el sobrecost d'una llarga emissió, curtcircuïts, o lectura de registres, encara que si dues instruccions dependents s'executen en clústers diferents, es paga la penalització d'una comunicació. Per altra banda, les estructures distribuïdes impliquen generalment menors requisits de potència dinàmica, i simplifiquen la gestió de l'energia per mitjà de tècniques com la desactivació selectiva del rellotge o l'energia, o com la reducció a escalade la tensió.El primer objecte d'aquesta recerca és l'assignació d'instruccions a clústers, ja que aquesta juga un paper clau en el rendiment, amb l'objectiu de mantenir equilibrada la càrrega i reduir la penalització de les comunicacions crítiques. Es proposen dos diferents enfocs: primer, una família de nous esquemes que identifiquen dinàmicament certs grups d'instruccions dependents anomenats "slices", i fan l'assignació de clústers slice per slice. Es diferencien d'altres enfocs previs, ja sigui perquè són dinàmics i/o bé perquè inclouen nous mecanismes explícits de mesura i gestió de l'equilibri de càrrega. Segon, una família de nous esquemes que assignen clústers instrucció per instrucció, basats en les assignacions prèvies dels productors dels registres fonts, en la ubicació dels registres físics, i en la càrrega de treball.La segona contribució proposa la predicció de valors com a mitjà per mitigar les penalitzacions dels retards dels connectors i, en particular, per amagar les comunicacions entre clústers. Es demostra que el benefici obtingut amb l'eliminació de dependències creix amb el nombre de clústers i la latència de les comunicacions i, doncs, és major que per a una arquitectura centralitzada. Es proposa un nou esquema d'assignació de clústers que aprofita la menor densitat del graf de dependències per tal de millorar l'equilibri de càrrega.El tercer aspecte considerat es la xarxa d'interconnexió entre clústers, ja que determina la latència de les comunicacions, amb l'objectiu de trobar el millor compromís entre cost i rendiment. Es proposen diverses xarxes punt-a-punt, tant síncrones com parcialment asíncrones, que assoleixen un IPC pròxim al d'un model ideal amb ample de banda il·limitat, tot i tenir molt baixa complexitat. Llur impacte sobre els curtcircuïts, cues d'emissió o bancs de registres es molt menor que el d'altres enfocs. Es proposen també possibles implementacions dels enrutadors, que il·lustren llur factibilitat amb solucions hardware molt simples i de baixa latència. Es proposa un nou esquema d'assignació de clústers conscient de la topologia, que redueix la latència de les comunicacions.L'última contribució proposa tècniques per distribuir els components principals de les etapes inicials del processador, amb l'objectiu de reduir-ne la complexitat i evitar-ne la replicació. Es proposen tècniques eficaces per a la partició del predictor de salts i la lògica de distribució d'instruccions, a fi de minimitzar la penalització pels retards dels connectors causada per les dependències recursives en dos llaços crítics del hardware: la generació de l'adreça de búsqueda d'instruccions i la lògica d'assignació d'instruccions, respectivament. En el primer cas, es converteixen els retards dels connectors intra-estructurals d'un predictor centralitzat en retards de comunicació entre clústers, els quals se segmenten sense problemes. En el segon cas, el particionat de la lògica d'assignació d'instruccions basada en dependències implica paral·lelitzar aquesta tasca, la qual es inherentment seqüencial. / El objetivo de esta tesis es proponer técnicas para el diseño de microarquitecturas clúster superescalares eficientes. Las microarquitecturas clúster particionan el diseño de diversos componentes críticos del hardware como medio para mantener el paralelismo y mejorar la escalabilidad. El núcleo de un procesador clúster, formado por bloques de baja complejidad o clústers, puede ejectutar cadenas de instrucciones dependientes sin pagar el sobrecoste de una larga emisión, cortocircuitos, o lectura de registros; pero si dos instrucciones dependientes se ejecutan en clústers distintos, se paga la penalización de una comunicación. Por otro lado, las estructuras distribuidas implican generalmente menores requisitos de potencia dinámica, y simplifican la gestión de la energía por medio de técnicas como la desactivación selectiva del reloj o de la alimentación, o la reducción a escala del voltaje.El primer objetivo de esta investigación es la asignación dinámica de instrucciones a clústers, ya que ésta juega un papel clave en el rendimiento, a fin de mantener equilibrada la carga y reducir la penalización de las comunicaciones críticas. Se proponen dos enfoques distintos: primero, una familia de nuevos esquemas que identifican dinámicamente ciertos grupos de instrucciones denominados "slices", y realizan la asignación slice por slice. Éstos se diferencian de otros enfoques previos, ya sea porque son dinámicos y/o porque incluyen nuevos mecanismos explícitos de medida y gestión del equilibrio de carga. Segundo, una familia de nuevos esquemas que asignan clústers instrucción a instrucción, basándose en las asignaciones previas de los productores de sus registros fuente, en la ubicación de los registros físicos, y en la carga de trabajo.La segunda contribución propone la predicción de valores como medio para mitigar las penalizaciones de los retardos de los conectores, y en particular, para esconder las comunicaciones entre clústers. Se demuestra que el beneficio obtenido con la eliminación de dependencias aumenta con el número de clústers y con la latencia de las comunicaciones, y es asimismo mayor que para una arquitectura centralizada. Se propone un nuevo esquema de asignación de clústers que aprovecha la menor densidad del grafo de dependencias con el fin de mejorar el equilibrio de la carga.El tercer aspecto considerado es la red de interconexión entre clústers, pues determina la latencia de las comunicaciones, a fin de hallar el mejor compromiso entre coste y rendimiento. Se proponen diversas redes punto a punto, tanto síncronas como parcialmente asíncronas, que aun teniendo muy baja complejidad consiguen un IPC próximo al de un modelo con ancho de banda ilimitado. Su impacto sobre la complejidad de los cortocircuitos, colas de emisión o bancos de registros es mucho menor que el de otros enfoques. Se proponen también posibles implementaciones de los enrutadores, ilustrando su factibilidad como soluciones simples y de baja latencia. Se propone un esquema de asignación de clústers consciente de la topología, que reduce la latencia de las comunicaciones.La última contribución propone técnicas para distribuir los componentes principales de las etapas iniciales del procesador, con el objetivo de reducir su complejidad y evitar su replicación. Se proponen técnicas eficaces para particionar el predictor de saltos y la lógica de distribución de instrucciones, a fin de minimizar la penalización por retardos de conectores causada por las dependencias recursivas en dos bucles críticos del hardware: la generación de la dirección de búsqueda de instrucciones y la lógica de asignación de clústers. En el primer caso, los retardos de los conectores intra-estructurales de un predictor centralizado se convierten en retardos de comunicación entre clústers, que se pueden segmentar fácilmente. En el segundo caso, el particionado de la lógica de asignación de clústers basada en dependencias implica paralelizar esta tarea, intrínsecamente secuencial. / The objective of this thesis is to propose new techniques to design efficient clustered superscalar microarchitectures. Clustered microarchitectures partition the layout of several critical hardware components as a means to keep most of the parallelism while improving the scalability. A clustered processor core, made up of several low complex blocks or clusters, can efficiently execute chains of dependent instructions without paying the overheads of a long issue, register read or bypass latencies. Of course, when two dependent instructions execute in different clusters, an inter-cluster communication penalty is incurred. Moreover, distributed structures usually imply lower dynamic power requirements, and simplify power management via techniques such a selective clock/power gating and voltage scaling.The first target of this research is the assignment of instructions to clusters, since it plays a major role on performance, with the goals of keeping the workload of clusters balanced and reducing the penalty of critical communications. Two different approaches are proposed: first, a family of new schemes that dynamically identify groups of data-dependent instructions called slices, and make cluster assignments on a per-slice basis. The proposed schemes differ from previous approaches either because they are dynamic and/or because they include new mechanisms to deal explicitly with workload balance information gathered at runtime. Second, it proposes a family of new dynamic schemes that assign instructions to clusters in a per-instruction basis, based on prior assignment of the source register producers, on the cluster location of the source physical registers, and on the workload of clusters.The second contribution proposes value prediction as a means to mitigate the penalties of wire delays and, in particular, to hide inter-cluster communications while also improving workload balance. First, it is proven that the benefit of breaking dependences with value prediction grows with the number of clusters and the communication latency, thus it is higher than for a centralized architecture. Second, it is proposed a cluster assignment scheme that exploits the less dense data dependence graph that results from predicting values to achieve a better workload balance.The third aspect considered is the cluster interconnect, which mainly determines communication latency, seeking for the best trade-off between cost and performance. First, several cost-effective point-to-point interconnects are proposed, both synchronous and partially asynchronous, that approach the IPC of an ideal model with unlimited bandwidth while keeping the complexity low. The proposed interconnects have much lower impact than other approaches on the complexity of bypasses, issue queues and register files. Second, possible router implementations are proposed, which illustrate their feasibility with very simple and low-latency hardware solutions. Third, a new topology-aware improvement to the cluster assignment scheme is proposed to reduce the distance (and latency) of inter-cluster communications.The last contribution proposes techniques for distributing the main components of the processor front-end with the goals of reducing their complexity and avoiding replication. In particular, effective techniques are proposed to cluster the branch predictor and the steering logic, that minimize the wire delay penalties caused by broadcasting recursive dependences in two critical hardware loops: the fetch address generation, and the cluster assignment logic, respectively. In the former case, the proposed technique converts the cross-structure wire delays of a centralized predictor into cross-cluster communication delays, which are smoothly pipelined. In the latter case, the partitioning of the instruction steering logic involves the parallelization of an inherently sequential task such as the dependence based cluster assignment of instructions.
229

Una contribución a la investigación de la espectroscopia Raman en el análisis de pigmentos : resultados teóricos y experimentales

Ferrer Espinilla, Perla 31 October 2014 (has links)
Esta Tesis se ha enmarcado en un proyecto financiado por la CICYT gracias al cual se adquirió un equipo portátil de espectroscopia Raman con fibra óptica. Esto determinó el objetivo inicial de esta investigación, que consistió en conocer las prestaciones y los dispositivos ópticos esenciales del equipo portátil. Esta portabilidad permitió afrontar otro objetivo fundamental: investigar la pigmentación amarilla de objetos cerámicos patrimoniales españoles e italianos de las épocas del Renacimiento y Barroco pertenecientes al Museo de Cerámica de Barcelona gracias a un convenio firmado entre la UPC y este museo. La investigación comenzó con la caracterización química y estructural de unos pigmentos históricos de referencia compuestos por óxidos de plomo, estaño y antimonio con o sin sílice encargados a la Stazione Sperimentale del Vetro (Venecia). Esta etapa se completó con el análisis directo de las piezas cerámicas. En base a los resultados experimentales, se concluye que tanto en España como en Italia durante los siglos XVI y XVII y, excepcionalmente, en un objeto Califal del siglo X procedente del Norte de África, se empleó el mismo pigmento amarillo. Este hallazgo plantea nuevas interpretaciones acerca del origen islámico de estos pigmentos. La interpretación de los espectros de estos pigmentos amarillos artificiales resultó muy complicada debido a su heterogeneidad. El concepto de pigmento heterogéneo en esta Tesis se ha entendido como una mezcla de sustancias de distinta composición química y/o cristalización (entre las cuales, como mínimo, una de estas sustancias es un pigmento) y cuya distribución no es uniforme. Este concepto dio pie a un segundo objetivo que consistió en investigar de forma especial el espectro Raman de una mezcla. Como ejemplo de mezclas naturales se analizaron diferentes conchas marinas (también utilizadas por los artistas como materiales pictóricos históricamente). En este caso, los resultados experimentales demostraron una doble heterogeneidad. Por una parte, se identificó la presencia de dos tipos de compuestos (heterogeneidad composicional): carbonato cálcico y un pigmento orgánico (azul, violeta y marrón) de la familia de los polienos. Por otro lado, el segundo tipo heterogeneidad, en este caso estructural, resultó sorprendente. Se demostró que en la sección transversal de una concha coexisten dos cristalizaciones del carbonato cálcico: la trigonal (calcita) y la ortorrómbica (aragonito), tanto conjunta como aisladamente Continuando la investigación de mezclas, se analizaron diferentes combinaciones de pigmentos comúnmente empleados en arte. Esencialmente, el objetivo fue investigar hasta qué punto el espectro de una mezcla es igual a la suma ponderada de espectros individuales, dado que en una mezcla intervienen fenómenos, entre otros, diferente reflectividad, índice de refracción o el número y tamaño de las partículas de cada componente que no se manifiestan en el espectro de un pigmento aislado. Se partió de la siguiente idea: si a igualdad de radiación incidente cada sustancia química tiene una temperatura concreta, se plantea la cuestión acerca de cuál es la temperatura medida en la mezcla. Dado que el factor de Boltzmann relaciona los espectros Stokes y antiStokes con la temperatura absoluta de un material, se parte de esta relación para deducir una fórmula aproximada que relaciona la temperatura de una mezcla con las temperaturas de sus componentes aislados. Se ha confirmado experimentalmente la validez de esa fórmula y se concluye que el espectro Raman de una mezcla no es la suma ponderada de espectros individuales. Por tanto, deben producirse variaciones en el espectro mezcla tanto en intensidad como en posición frecuencial de bandas / Aquesta tesi s'ha emmarcat en un projecte finançat per la CICYT gràcies al qual es va adquirir un equip portàtil d'espectroscòpia Raman amb fibra òptica. Això va determinar l'objectiu inicial d'aquesta investigació, que va consistir en conèixer les prestacions i els dispositius òptics essencials de l'equip portàtil. Aquesta portabilitat va permetre afrontar un altre objectiu fonamental: investigar la pigmentació groga d'objectes ceràmics patrimonials espanyols i italians de les èpoques del Renaixement i Barroc pertanyents al Museu de Ceràmica de Barcelona gràcies a un conveni signat entre la UPC i aquest museu. La investigació va començar amb la caracterització química i estructural d'uns pigments històrics de referència compostos per òxids de plom, estany i antimoni amb o sense sílice encarregats a la Stazione Sperimentale del Vetro (Venècia). Aquesta etapa es va completar amb l'anàlisi directa de les peces ceràmiques. En base als resultats experimentals, es conclou que tant a Espanya com a Itàlia durant els segles XVI i XVII i, excepcionalment, en un objecte califal del segle X procedent del Nord d'Àfrica, es va emprar el mateix compost groc. Aquesta troballa planteja noves interpretacions sobre l'origen islàmic d'aquests pigments. La interpretació dels espectres d'aquests pigments grocs artificials va resultar molt complicada a causa de la seva heterogeneïtat. El concepte de pigment heterogeni en aquesta tesi s'ha entès com una barreja de substàncies de diferent composició química i / o cristal · lització (entre les quals, com a mínim, una d'aquestes substàncies és un pigment) i la distribució no és uniforme. Aquest concepte va donar peu a un segon objectiu que va consistir en investigar de forma especial l'espectre Raman d'una mescla. Com a exemple de mescles naturals es van analitzar diferents petxines marines (també utilitzades pels artistes com materials pictòrics històricament). En aquest cas, els resultats experimentals van demostrar una doble heterogeneïtat. D'una banda, es va identificar la presència de dos tipus de compostos (heterogeneïtat composicional): carbonat càlcic i un pigment orgànic (blau, violeta i marró) de la família dels poliens. D'altra banda, el segon tipus heterogeneïtat, en aquest cas estructural, va resultar sorprenent. Es va demostrar que a la secció transversal d'una petxina coexisteixen dos cristal · litzacions del carbonat càlcic: la trigonal (calcita) i la ortorrómbica (aragonita), tant conjunta com aïlladament. Continuant la investigació de mescles, es van analitzar diferents combinacions de pigments comunament emprats en art. Essencialment, l'objectiu va ser investigar fins a quin punt l'espectre d'una barreja és igual a la suma ponderada d'espectres individuals, atès que en una barreja intervenen fenòmens, entre d'altres, diferent reflectivitat, índex de refracció o el nombre i mida de les partícules de cada component que no es manifesten en l'espectre d'un pigment aïllat. Es va partir de la següent idea: si a igualtat de radiació incident cada compost químic té una temperatura concreta, es planteja la qüestió sobre quina és la temperatura mesurada en la barreja. Atès que el factor de Boltzmann relaciona els espectres Stokes i antiStokes amb la temperatura absoluta d'un material, es parteix d'aquesta relació per deduir una fórmula aproximada que relaciona la temperatura d'una mescla amb les temperatures dels seus components aïllats. S'ha confirmat experimentalment la validesa d'aquesta fórmula i es conclou que l'espectre Raman d'una barreja no és la suma ponderada d'espectres individuals. Per tant, s'han de produir variacions en l'espectre barreja tant en intensitat com en posició freqüencial de bandes.
230

Light harvesting in fiber array organic solar cells

Mariano Juste, Marina 31 October 2014 (has links)
Considering that the most abundant renewable energy source is the Sun, photovoltaic technology possesses one of the highest potentials to provide environmental benign and sustainable energy worldwide. Currently, most of commercial available modules are fabricated from crystalline silicon because of its high efficiency. To lower fabrication costs and increase the functionality of the solar modules, several thin film technologies are under development. Among them, organic photovoltaics has created large expectations provided it possesses some intrinsic advantages, such as light weight, flexibility or semi-transparency. However, the low charge mobility in the majority of the organic semiconductor materials prevents the use of active layers thicker than a few hundred nanometers. This leads to a limited light harvesting capacity and, consequently, a limited conversion efficiency. Different optical approaches have been considered to enhance the absorption of organic solar cells and increase their efficiency. In this thesis, we propose a novel configuration based on the use of fiber arrays to effectively trap light and efficiently couple it into the active layer to enhance absorption. The thesis work is presented in five chapters. After an introductory chapter, in chapter 2 light absorption of an organic solar cell deposited on the backside of a fiber array is studied theoretically. A strong enhancement in light harvesting is predicted using such configuration. For small diameter fibers the enhancements originated from light coupling to some low quality whispering gallery modes, while for large diameter fibers light seemed to be effectively trapped inside the fiber structure. In chapter 3 and 4, we consider the dip-coating procedure, a fabrication technique that can be applied to deposit from a precursor solution, layers on a substrate irrespective of its shape. Its viability is demonstrated by applying it to different device architectures. The deposition on such non-flat substrates of the rest of the layers forming an organic solar cell is also examined. For instance, several relevant changes that had to be introduced to the ITO sputtering to obtain transparent electrodes with an optimal quality, both, optically and electrically, are discussed. Once the layer deposition is optimized to fulfill the electrical and optical requirements of organic solar cells, in chapter 5, we experimentally demonstrate that an enhanced light absorption can be achieved from such organic solar cells when deposited on fiber arrays. Optical fibers of 80 µm in diameter were used to fabricate the arrays to be used as the cell substrate. Such substrates were coated with an organic solar cell of evaporated small molecules. The implemented fiber array configuration is seen to be an effective light trapping method. Indeed, the photogenerated current from such devices is shown to increase by a 26%, which is a considerable percentage when compared to the majority of the optical approaches that were considered in the past to enhance absorption in organic cells. / Si considerem que la font d'energia renovable més a abundant és el Sol, la tecnologia fotovoltaica posseeix un dels potencials més alts per poder produir l'energia mundial de forma sostenible i benigne amb el medi ambient. Actualment la majoria dels mòduls comercials estan fabricats de silici cristal.lí ja que aquest material té una gran eficiència. Per tal de rebaixar els costos de producció i incrementar la funcionalitat d'aquest panells solars, diverses tecnologies de capa prima s'estan desenvolupant. Entre elles, la tecnologia fotovoltaica amb materials orgànics ha creat grans expectatives gràcies a les seves propietats intrínseques, com per exemple la seva lleugeresa, flexibilitat o bé semi transparència. Per altra banda, la baixa mobilitat de les càrregues en la majoria dels semiconductors orgànics impedeix l'ús de capes actives no molt més gruixudes que uns pocs nanòmetres. Això provoca que tinguin una capacitat de col.lecció lumínica limitada i com a conseqüència, la eficiència de conversió energètica també ho és. S'han considerat diferents estratègies òptiques per tal de millorar l'absorció en les cel.les solars orgàniques i incrementar la seva eficiència. En aquesta tesi proposem una configuració innovadora basada en l'ús d'una matriu de fibres, les quals atrapen i acoblen la llum en la capa activa per millorar l'absorció d'aquesta. La present tesi consta de cinc capítols. Després d'un capítol introductori, en el capítol 2 s'estudia teòricament l'absorció de llum d'una cel·la solar orgànica dipositada en la part posterior de la matriu de fibres. Per diàmetres de fibra petits, les millores són degudes a l'acoblament d'uns modes recirculants de llum de baixa qualitat. Mentre que per diàmetres grans, la llum sembla estar atrapada de forma efectiva dins de l'estructura formada per les fibres. En els capítols 3 i 4 hem considerat el recobriment per immersió, aquesta tècnica de fabricació pot ser aplicada per dipositar capes des d'una solució precursora a un substrat, independentment de la seva forma. La validesa de la tècnica es demostra quan s'aplica a diferents arquitectures de cel·la. El dipòsit en aquestes estructures no planes de la resta de les capes que formen la cel·la solar orgànica també s'ha investigat. Per exemple, es discuteixen varis canvis rellevants, els quals s'han tingut que introduir per la polvorització catòdica del ITO, per tal d'obtenir elèctrodes transparents amb unes qualitats òptiques i elèctriques òptimes.

Page generated in 0.118 seconds