• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 781
  • 423
  • 159
  • 2
  • Tagged with
  • 1364
  • 653
  • 632
  • 454
  • 389
  • 379
  • 367
  • 337
  • 281
  • 266
  • 196
  • 182
  • 181
  • 177
  • 165
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Aportacions a la transferència de tecnologia energètica aeroespacial: cap al vehicle verd construïble a Catalunya

Gallemí Rovira, Oriol 29 September 2012 (has links)
El present treball, culmina un període de recerca que va començar amb l’observació i mesura dels rendiments dels primers vehicles elèctrics del mercat contemporani i de les tècniques d’optimització energètica aeroespacial. Aquesta tesi recull i recopila les conclusions de tesis i projectes de final de carrera dirigides pel Dr. Ricard Bosch, esdevenint un graó més de la cadena cap al vehicle elèctric que ell mateix persegueix des de fa 30 anys.. L’estudi se centra al territori català per limitacions de desplaçaments i de contactes industrials, analitzant les capacitats de formació, les tècniques, les industrials tot i que els mercats potencials són mundials. Durant l’estudi, els experiments realitzats sobre propulsions elèctriques s’han realitzat en plataformes privades pel que se’n manté la confidencialitat del producte final, no necessariament terrestre. Finalment es dibuixen les opcions que donarien continuïtat a la tesi i les oportunitats de negoci més factibles dins del territori català. / This work culminates a period of research which began with the observation and performance measurement of the first modern electric vehicles together with the aerospace energy optimization techniques. The thesis collects and compiles the findings of theses and final projects directed by Dr. Ricard Bosch, becoming one more step in his evolution chain towards the electric vehicle. The study focuses on the Catalan territory, due to travelling expenses and industry contacts, analyzing its skills, training, techniques, industry and the potential global markets. During the study, experiments were performed on electric propulsion platforms for private companies so the confidentiality of the final product is kept, and are not necessarily ground vehicles. Finally, this document outline the options that would give continuity to the thesis and the most feasible business opportunities within the Catalan territory.
182

Feedback of channel state information in multi-antenna systems based on quantization of channel Gram matrices

Sacristán Murga, Daniel Francisco 19 July 2012 (has links)
This dissertation deals with the proper design of efficient feedback strategies for Multiple-Input Multiple-Output (MIMO) communication systems. MIMO systems outperform single antenna systems in terms of achievable throughput and are more resilient to noise and interference, which are becoming the limiting factors in the current and future communications. Apart from the clear performance advantages, MIMO systems introduce an additional complexity factor, since they require knowledge of the propagation channel in order to be able to adapt the transmission to the propagation channel’s characteristics and achieve optimum performance. This channel knowledge, also known as Channel State Information (CSI), is estimated at the receiver and sent to the transmitter through a limited feedback link. In this dissertation, first, the minimum channel information necessary at the transmitter for the optimum precoding design is identified. This minimum information for the optimum design of the system corresponds to the channel Gram matrix. It is essential for the design of optimized systems to avoid the transmission of redundant feedback information. Following this idea, a quantization algorithm that exploits the differential geometry of the set of Gram matrices and the correlation in time present in most propagation channels is developed in order to greatly improve the feedback performance. This scheme is applied first to single-user MIMO communications, then to some particular multiuser scenarios, and finally it is extended to general multiuser broadcast communications. To conclude, the feedback link sizing is studied. An analysis of the tradeoff between size of the forward link and size of the feedback link isformulated and the radio resource allocation problem, in terms of transmission energy, time, and bandwidth of the forward and feedback links is presented. / En un mundo cada vez más interconectado, donde hay una clara tendencia hacia un mayor número de comunicaciones inalámbricas simultáneas (comunicaciones M2M: Machine to Machine, redes de sensores, etc.) y en el que las necesidades de capacidad de transmisión de los enlaces de comunicaciones aumentan de manera vertiginosa (audio, video, contenidos multimedia, alta definición, etc.) el problema de la interferencia se convierte en uno de los factores limitadores de los enlaces junto con los desvanecimientos del nivel de señal y las pérdidas de propagación. Por este motivo los sistemas que emplean múltiples antenas tanto en la transmisión como en la recepción (los llamados sistemas MIMO: Multiple-Input Multiple-Output) se presentan como una de las soluciones más interesantes para satisfacer los crecientes requisitos de capacidad y comportamiento relativo a interferencias. Los sistemas MIMO permiten obtener un mejor rendimiento en términos de tasa de transmisión de información y a su vez son más robustos frente a ruido e interferencias en el canal. Esto significa que pueden usarse para aumentar la capacidad de los enlaces de comunicaciones actuales o para reducir drásticamente el consumo energético manteniendo las mismas prestaciones. Por otro lado, además de estas claras ventajas, los sistemas MIMO introducen un punto de complejidad adicional puesto que para aprovechar al máximo las posibilidades de estos sistemas es necesario tener conocimiento de la información de estado del canal (CSI: Channel State Information) tanto en el transmisor como en el receptor. Esta CSI se obtiene mediante estimación de canal en el receptor y posteriormente se envía al transmisor a través de un canal de realimentación. Esta tesis trata sobre el diseño del canal de realimentación para la transmisión de CSI, que es un elemento fundamental de los sistemas de comunicaciones del presente y del futuro. Las técnicas de transmisión que consideran activamente el efecto de la interferencia y el ruido requieren adaptarse al canal y, para ello, la realimentación de CSI es necesaria. En esta tesis se identifica, en primer lugar, la mínima información sobre el estado del canal necesaria para implementar un diseño óptimo en el transmisor, con el fin de evitar transmitir información redundante y obtener así un sistema más eficiente. Esta información es la matriz de Gram del canal MIMO. Seguidamente, se desarrolla un algoritmo de cuantificación adaptado a la geometría diferencial del conjunto que contiene la información a cuantificar y que además aprovecha la correlación temporal existente en los canales de propagación inalámbricos. Este algoritmo se implementa y evalúa primero en comunicaciones MIMO punto a punto entre dos usuarios, después se implementa para algunos casos particulares con múltiples usuarios, y finalmente se amplía para el caso general de sistemas broadcast multi-usuario. Adicionalmente, esta tesis también estudia y optimiza el dimensionamiento del canal de realimentación en función de la cantidad de recursos radio disponibles, en términos de ancho de banda, tiempo y potencia de transmisión. Para ello presenta el problema de la distribución óptima de dichos recursos radio entre el enlace de transmisión de datos y el enlace de realimentación para transmisión de información sobre estado del canal como un problema de optimización.
183

Beamforming design and power control for spectrum sharing systems

Vázquez Oliver, Miguel Ángel 24 January 2014 (has links)
In order to provide wireless services for the current demand of high data rate mobile applications, more spectrally efficient systems are needed. As a matter of fact, the current wireless systems are limited by a frequency splitting spectrum management which in one hand minimizes the multiuser interference but; on the other hand, it precludes the use of wider bandwidth signals. As a more aggressive frequency reuse is targeted (ideally, all transmitters might eventually share the same frequency band), the use of multiple antennas for interference reliving, jointly with a smart power allocation is compulsory. In addition, novel spectrum management regulatory policies are required for ensuring a peaceful coexistence between adjacent spectrum sharing networks and for promoting their development. The aim of this dissertation is provide a beamforming and power allocation design for these novel spectrum sharing systems which are meant to exponentially increase the spectral efficiency of the systems. A mathematical framework based on multicriteria optimization for analyzing the beamforming design is provided which serves as a fundamental tool for describing the state-of-the-art studies in multiantenna interference networks. Indeed, the achievable rates are described and several ways of computing the Pareto rate region of MISO interference channel (i.e. the communication model that represents the spectrum sharing network when the transmitters use multiple antennas) are studied. Nevertheless, as the system designer aims to work in a single efficient rate point, the sum-rate optimal beamforming design is studied. Curiously, it results that under some realistic assumptions on both the desired and interference power levels, the obtained beamformer is the reciprocal version of a known receiving one and it optimizes a notion of antenna directivity for multiuser communications. Neverthelss, it is important to remark that the higher transmit power is used, the more interference dominated is the medium, not only within the wireless network, but also to eventually adjacent networks that might suffer from inter-network interference. In order to cope with this problem, a spectrum licensing system is revisited, namely time-area-spectrum license. Under this spectrum management mechanism, a license holder is able to radiate signals under a certain portion of time, within a concrete area and in a given band. Moreover, the amount of signal strength within the area is constraint by a certain value. Since controlling the signal power levels in a given area is cumbersome, we propose to restrict the receive power as an estimation of the overall accumulated signal strength. Therefore, the optimal transmit beamformers and power allocations are studied. Concretely, the achievable rates are derived and an operational working point is envisaged. In addition, a suboptimal yet low computationally complex and decentralized beamforming design is presented and it shows a good performance in front of other decentralized designs.
184

Contribution to spatial bias mitigation in interferometric radiometers devoted to Earth observation : application to the SMOS mission

Wu, Lin 30 May 2014 (has links)
This work has been undertaken within the frame of the FPI scholarship BES-2009-028505 of 30/07/2009, by the "Secretario de Estado de Investigación del Ministerio de Ciencia e Innovación", related to the project TEC2008-06764-C02-01 (Universitat Politècnica de Catalunya) titled "Advanced concepts on active and passive microwave remote sensing: technology and applications". In a more general scope, this thesis is related to the Remote Sensing Laboratory (Signal Theory & Communication Department, UPC) on-going activities, within the SMOS (Soil Moisture and Ocean Salinity) mission by the European Space Agency (ESA). These activities have been organized to provide original advances in the following four main topics: 1) SMOS system performance assessment. SMOS commissioning phase finalized in May 2010 providing preliminary performance results. Therefore, as a first step in this work, radiometric sensitivity and spatial bias (systematic spatial errors) have been reviewed and assessed. To achieve this, new techniques have been developed to better compare SMOS images to ground truth targets. SMOS ocean views have been selected as the best option since provide smooth brightness temperature distributions for which accurate models are available. 2) Spatial bias mitigation techniques. Spatial bias was a major issue in SMOS first images since it was larger than expected. In order to identify the dominant sources of spatial bias, each potential source of error, at calibration level,has been simulatedand compared tomeasured SMOS error patterns. 3) Spatial bias in the EAF-FoV. Whereas SMOS performance in the alias free FoV was well within mission requirements, this issue was especially important for the four polarimetric temperatures in the extended regions. This issuehas been addressed in two ways. First a new approach has been developed to systematically analyze spatial bias by splitting SMOS EAF-FoV into different regions of interest. Also, the pixels have been arranged per angle of incidence. Secondly, the impact in each region of calibration errors and different image reconstruction has been addressed. 4) Spatial bias in full-pol measurement.The main objective of this work has been achieved by developing, implementing and validating a SMOS full-pol G-matrix image reconstruction procedure that resulted into significantly improved polarimetric images. This tool allowed a comprehensive assessment of the two error contributions that have been identified as the main sources of residual spatial bias: the so-called floor error and antenna pattern uncertainty. Finally, as a validation of the quality of SMOS Level 1 fully polarimetric data that has been achieved, the last chapter of this work has been devoted to provide operational Faraday rotation retrievals in a per snap-shot basis.
185

Probabilistic analysis to assess the impact of the charge of electric vehicles on distribution grids under normal operation

Valsera Naranjo, Eduardo 07 May 2014 (has links)
The incorporation of high levels of small-scale non-dispatchable distributed generation is leading to the transition from the traditional 'vertical' power system structure to a 'horizontally-operated' power system, where the distribution networks contain both stochastic generation and load (such as electric vehicles recharging). This fact increases the number of stochastic inputs and dependence structures between them need to be considered. The deterministic analysis is not enough to cope with these issues and a new approach is needed. Probabilistic analysis provides a better approach. This PhD thesis describes the grid impact analysis of charging electric vehicles (EV) using charging curves with detailed battery modelling. A probabilistic method using Monte Carlo was applied to a typical Spanish distribution grid, also using mobility patterns of Barcelona. To carry out this analysis, firstly, an IEEE test system was adapted to a typical distribution grid configuration; secondly, the EV and its battery types were modeled taking into account the current vehicle market and the battery characteristics; and, finally, the recharge control strategies were taken in account. Once these main features were established, a statistical probabilistic model for the household electrical demand and for the EV charging parameters was determined. With these probabilistic models, the Monte Carlo analysis was performed within the established scenario in order to study the lines' and the transformers' loading levels. The results show that an accurate model for the battery gives a more precise estimation about the impact on the grid. Additionally, mobility patterns have been proved to be some of the most important key aspects for these type of studies.
186

Dynamic routing and spectrum allocation in elastic optical networks

Sayyad Khodashenas, Pouria 05 June 2014 (has links)
Triggered by emerging services such as high-definition video distribution or social networking, the IP traffic volume has been exponentially increasing to date. Furthermore, the traffic growth rate will not stop here due to the day by day technology advances. For example, new hardware advances such as multicore processing, virtualization and network storage will support new generation e-Science and grid applications, requesting data flows of 10 Gb/s up to terabit level. In response to these large capacity and diverse traffic granularity needs of the future Internet, the Elastic Optical Network (EON) architecture has been proposed. By breaking the fixed-grid spectrum allocation limit of conventional Wavelength Division Multiplexing (WDM) networks, EONs increase the flexibility in the connection provisioning. To do so, depending on the traffic volume, an appropriate-sized optical spectrum is allocated to a connection in EONs. Furthermore, unlike the rigid optical channels of conventional WDM networks, a lightpath can expand or contract elastically to meet different bandwidth demands in EONs. In this way, incoming connection requests can be served in a spectrum-efficient manner. This technological advance poses additional challenges on the networking level, specifically on the efficient connection establishment. The Routing and Spectrum Allocation (RSA) problem in elastic optical networks has grabbed a lot of attention lately, putting more emphasis on dynamic network scenarios. There, connection arrival and departure processes are random and the network has to accommodate incoming traffic in real time. Despite all efforts at studying the dynamic RSA problem from different perspectives, there are still some issues which need to be addressed. This thesis is devoted to the study of three still open issues in the EONs literature, 1) dynamic source aggregation of sub-wavelength connections, 2) correlation between traffic granularity and defragmentation periodicity and 3) using spectrum fragmentation to better allocate time-varying connections. The first issue deals with the possibility of aggregation of same source but different destination sub-wavelength connections in EONs, aiming to obtain both transmitter and spectrum usage savings. A novel algorithm for dynamic source aggregation of connections is proposed. Moreover, a novel node architecture enabling the realization of the proposed source aggregation scheme in a cost-effective way is introduced. A considerable improvement in the network spectrum utilization, as well as a significant reduction in the number of necessary transmitters per node is shown. The spectral fragmentation problem in elastic optical networks is addressed with the second issue. A correlation between the optimal (i.e., minimum) spectrum defragmentation periodicity in the network with the granularity of the supported traffic is investigated. A novel algorithm for efficient spectrum defragmentation is proposed, aiming to consolidate the available fiber spectrum as much as possible, while limiting the number of re-allocated active connections. It is shown that the spectral defragmentation periodicity can be effectively configured by having knowledge of the offered traffic granularity. The last issue is about lightpath adaptation under time variable traffic demands in EONs. Specifically, the possibility of utilizing the spectral fragmentation to increase the spectrum allocation capabilities of EONs is explored. In this context, a heuristic Spectrum Allocation (SA) algorithm, which intentionally increases the spectral fragmentation in the network is proposed and validated. In the proposal, the spectrum assigned to each new connection is in the middle of the largest free spectral void over the route, aiming to provide considerable spectral space between adjacent connections. These free spectral spaces are then used to allocate time-varying connections without requiring any lightpath re-allocation. / Degut a l'augment de serveis emergent com la distribució de vídeo d'alta definició les xarxes socials, el volum de tràfic IP ha crescut de manera exponencial durant els darrers temps. S'espera que aquest creixement no s'aturi sinó que continui de manera imparable degut als constants avenços tecnològics. Alguns exemples d’això poden ser els processadors multi-nucli, la virtualització o el "cloud computing" que donaran suport a una nova generació de e-Science i d'aplicacions Grid per les quals caldran flux de dades des de 10 Gb/s fins al Terabit per segon. La conseqüència esperable és que els operadors de xarxes de telecomunicacions requeriran una nova generació de transport òptic en el futur proper, per donar servei a aquests grans i heterogenis volums de trafic d'una manera econòmicament eficient i escalable. Com a resposta a les creixents necessitats de capacitat i de diferents granularitats de tràfic de la Internet del Futur s'ha proposat l'arquitectura coneguda com "Elastic Optical Network" (EON). Trencant el rígid entramat de les xarxes WDM tradicionals, on s'ha de reservar tot un canal òptic per a cada comunicació, mitjançant les EON s'aconsegueix incrementar la flexibilitat en l'aprovisionament de connexions. per fer-ho, depenent del volum de tràfic s'assigna la quantitat adient de l'espectre òptic a cada connexió. I, anant encara un pas més enllà, per desfer la rigidesa dels canals convencionals de les xarxes amb multiplexació per divisió en longitud d'ona (WDM), les connexions òptiques en les EON poden expandir-se o contraure's de manera elàstica segons els requeriments d'ample de banda en cada moment. D'aquesta manera, les peticions de connexió que arriben poden ésser servides de manera eficient pel que fa a l'espectre que utilitzen. Aquest avenç tecnològic implica però alguns reptes a nivell de xarxa, especialment pel que fa a l'establiment eficient de les connexions. De manera similar a com succeeix en les xarxes WDM, una connexió ha d'ocupar la mateixa part de l'espectre en tots els links que la conformen, acomplint el principi de "continuïtat en l'espectre". A més a més, tot l'ample de banda de la connexió ha d'estar assignat de manera adjacent, acomplint el principi de "contigüitat en l'espectre". Per aconseguir aquests objectius, el problema de l'encaminament i assignació de l'espectre (RSA) ha merescut una gran atenció dels investigadors en els darrers anys, amb especial èmfasi a escenaris dinàmics, és a dir, en la fase d’operació de la xarxa. En aquest cas, els processos d'arribada i mort de les connexions són aleatoris i la xarxa ha d'acomodar en temps real el tràfic ofert. Tot i els grans esforços dedicats a aquest tema, queden encara alguns punts a resoldre. Aquesta Tesi està dedicada a alguns d'aquests temes oberts en l'àmbit de les xarxes EON: 1) l’agregació dinàmica de connexions de granularitat inferior a la longitud d'ona, 2) la correlació entre la granularitat del tràfic i les polítiques de desfragmentació de l'espectre, i, 3) utilitzar la fragmentació espectral per a una millor assignació de connexions d'ample de banda canviant en el temps. El primer tòpic analitza la possibilitat d'agregar connexions originades a la mateixa font però amb diferents destinacions dins d'una EON, amb l'objectiu d'estalviar recursos tant pel que fa a nombre d'equips transmissor utilitzats com a l'espectre utilitzat. S'ha proposat un nou algorisme que millora ambdós paràmetres, així com una arquitectura pels nodes de la xarxa que permet utilitzar l'algorisme d’agregació proposat de manera eficient des del punt de vista del cost. S'aconsegueix una considerable millora pel que fa a la utilització de l'espectre a més d'una significativa reducció en el nombre de transmissors per node que es requereixen. El problema de la fragmentació espectral en les EONs s'ataca en la segona aportació d'aquesta Tesi. S'ha aconseguit demostrar la correlació entre l’òptima (és a dir mínima) periodicitat de les accions de desfragmentació i la granularitat del tràfic suportat. S'ha proposat un nou algorisme per a una desfragmentació eficient, l'objectiu del qual és consolidar l'espectre disponible en les fibres tan com sigui possible, al mateix temps que es redueix el nombre de connexions que has de ser reubicades en la xarxa. Es demostra que, en una EON, es pot configurar de manera òptima la periodicitat de les desfragmentacions si es coneix la granularitat de les connexions a transportar. Finalment, en el tercer gran apartat de la Tesi, s'estudia la possibilitat d'utilitzar la fragmentació espectral en les EON per a una millor assignació dels recursos quan el tràfic és variant en el temps. En aquest context, s'ha proposat i validat un algorisme d’assignació de l'espectre (SA) que incrementa de manera intencionada la fragmentació espectral de la xarxa. En aquesta proposta, l'espectre assignat a cada nova connexi_o s'ubica al bell mig del buit espectral més gran que es troba en tota la ruta, amb l'objectiu de deixar tan espai com sigui possible entre les diferents connexions. Aquest espai és després utilitzat per a connexions que requereixen, al llarg de la seva existència, més espectre del que se'ls ha assignat inicialment (incrementen el seu ample de banda). Els resultats obtinguts mitjançant simulacions mostren significants millores en termes de Probabilitat de Bloqueig (BP) en la xarxa quan s'utilitza l'algorisme proposat. Després d'una introducció a la Tesi, el Capítol 2 ofereix una revisió de l’evolució de les xarxes òptiques de transport, tot introduint el concepte de xarxa òptica elàstica (EON). El Capítol 3 se centra en l'estudi dels mètodes d'encaminament i assignació de longitud d'ona en xarxes WDM convencionals, i la seva evolució cap al problema de l’assignació d'espectre (RSA) en EONs. El Capítol 4 detalla els estudis i les contribucions fetes en el tema d’agregació de connexions de granularitat inferior a la longitud d'ona en EONs. L'algorisme proposat, així com l'arquitectura de node que permet aplicar-lo es presenten en aquest Capítol. El problema de la fragmentació espectral en EONs i llurs solucions es revisen a fons en el Capítol 5. La correlació entre la periodicitat de les desfragmentacions espectrals i la granularitat del tràfic ofert s'estudien aquí. El Capítol 6 detalla el problema de servir connexions variants en el temps en EONs. Algunes polítiques proposades fins ara es revisen, i tot seguit se'n proposa una que, en certs aspectes, millora les prèvies. Finalment, cal destacar que aquest treball ha rebut el suport del Govern de la Generalitat de Catalunya, a través d'una beca FI-AGAUR, i que s'ha realitzat en el marc del projecte del Ministerio de Educación Ciencia y Deporte espanyol ELASTIC (TEC2011-27310). / Debido al aumento de servicios emergentes como la distribución de video de alta definición o las redes sociales, el volumen de tráfico IP ha crecido de manera exponencial durante los últimos tiempos. Se espera que este crecimiento no se pare sino que continúe de manera imparable debido a los constantes adelantos tecnológicos. Algunos ejemplos de esto pueden ser los procesadores multi-núcleo, la virtualización o el "cloud computing" que darán servicio a una nueva generación de aplicaciones de e-Science y de Grid para las cuáles serán necesarios flujos de datos desde 10 Gb/s hasta Terabits por segundo. La consecuencia esperable es que los operadores de redes de telecomunicaciones requerirán una nueva generación de transporte óptico en el futuro cercano, para dar servicio a estos grandes y heterogéneos volúmenes de tráfico de una manera económicamente eficiente y escalable. Como respuesta a las crecientes necesidades de capacidad y de diferentes granularidades de tráfico de la Internet del Futuro, se ha propuesto la arquitectura conocida como "Elastic Optical Network" (EON). Rompiendo el rígido entramado de las redes con multiplexación por división en longitud de onda (WDM) tradicionales, donde se tiene que reservar todo un canal óptico para cada comunicación, mediante las EON se consigue incrementar la flexibilidad en el aprovisionamiento de conexiones. Para hacerlo, dependiendo del volumen de tráfico se asigna la cantidad adecuada del espectro óptico a cada conexión. Y, yendo todavía un paso más allá, para deshacer la rigidez de los canales convencionales de las redes WDM, las conexiones ópticas en las EON pueden expandirse o contraerse de manera elástica según los requerimientos de ancho de banda en cada momento. De este modo, las peticiones de conexión que llegan pueden ser servidas de manera eficiente en cuanto al espectro que utilizan. Este adelanto tecnológico implica sin embargo algunos retos a nivel de red, especialmente en lo que se refiere al establecimiento eficiente de las conexiones. De manera similar a como sucede en las redes WDM, una conexión debe ocupar la misma parte del espectro en todos los links que la conforman, cumpliendo el principio de "continuidad espectral". Además, todo el ancho de banda de la conexión tiene que estar asignado de manera adyacente, cumpliendo el principio de "contigüidad espectral". Para conseguir estos objetivos, el problema del encaminamiento y asignación del espectro (RSA) ha merecido una gran atención de los investigadores en los últimos años, con especial énfasis en escenarios dinámicos, es decir, en la fase de operación de la red. En este caso, los procesos de llegada y finalización de las conexiones son aleatorios y la red tiene que acomodar en tiempo real el tráfico ofrecido. A pesar de los grandes esfuerzos dedicados a este tema, quedan todavía algunos puntos a resolver. Esta Tesis está dedicada a algunos de estos temas abiertos en el ámbito de las redes EON: 1) la agregación dinámica de conexiones de granularidad inferior a la longitud de onda, 2) la correlación entre la granularidad del tráfico y las políticas de desfragmentación del espectro, y, 3) utilizar la fragmentación espectral para una mejor asignación de conexiones de ancho de banda variante en el tiempo. El primer tópico analiza la posibilidad de agregar conexiones originadas en la misma fuente pero con diferentes destinos dentro de una EON, con el objetivo de ahorrar recursos tanto en cuanto a número de equipos transmisores utilizados como en el espectro utilizado. Se ha propuesto un nuevo algoritmo que mejora ambos parámetros, así como una arquitectura para los nodos de la red que permite utilizar el algoritmo de agregación propuesto de manera eficiente desde el punto de vista del coste. Se consigue una considerable mejora en cuanto a la utilización del espectro además de una significativa reducción en el número de trasmisores por nodo que se requieren. El problema de la fragmentación espectral en las EONs se ataca en la segunda aportación de esta Tesis. Se ha conseguido demostrar la correlación entre la óptima (es decir, mínima) periodicidad de las acciones de desfragmentación y la granularidad del tráfico soportado. Se ha propuesto un nuevo algoritmo para una desfragmentación eficiente, el objetivo del cual es consolidar el espectro disponible en las fibras tanto como sea posible, al mismo tiempo que se reduce el número de conexiones que deben ser reubicadas en la red. Se demuestra que, en una EON, se puede configurar de manera óptima la periodicidad de las desfragmentaciones si se conoce la granularidad de las conexiones a transportar. Finalmente, en el tercer gran apartado de la Tesis, se estudia la posibilidad de utilizar la fragmentación espectral en las EON para una mejor asignación de los recursos cuando el tráfico es variante en el tiempo. En este contexto, se ha propuesto y validado un algoritmo de asignación del espectro (SA) que incrementa de manera intencionada la fragmentación espectral de la red. En esta propuesta, el espectro asignado a cada nueva conexión se ubica en medio del vacío espectral más grande que se encuentra en toda la ruta, con el objetivo de dejar tanto espacio como sea posible entre las diferentes conexiones. Este espacio es después utilizado para conexiones que requieren, a lo largo de su existencia, más espectro del que se les ha asignado inicialmente (incrementan su ancho de banda). Los resultados obtenidos mediante simulaciones muestran significantes mejoras en términos de Probabilidad de Bloqueo (BP) de la red cuando se utiliza el algoritmo propuesto. Después de una introducción a la Tesis, el Capitulo 2 ofrece una revisión de la evolución delas redes ópticas de transporte, introduciendo el concepto de red óptica elástica (EON). El Capítulo 3 se centra en el estudio de los métodos de encaminamiento y asignación de longitud de onda en redes WDM convencionales, y su evolución hacia el problema de la asignación de espectro (RSA) en EONs. El Capítulo 4 detalla los estudios y las contribuciones hechas en el tema de agregación de conexiones de granularidad inferior a la longitud de onda en EONs. El algoritmo propuesto, así como la arquitectura de nodo que permite aplicarlo, se presentan en este Capitulo. El problema de la fragmentación espectral en las EONs y sus soluciones se revisan a fondo en el Capitulo 5. La correlación entre la periodicidad de las desfragmentaciones espectrales y la granularidad del tráfico ofrecido se estudian aquí. El Capitulo 6 detalla el problema de servir conexiones variantes en el tiempo en EONs. Algunas políticas propuestas hasta ahora se han revisado, y a continuación se propone una que, en algunos aspectos, mejora las previamente publicadas. Finalmente, hay que destacar que este trabajo ha recibido el apoyo del Gobierno de la Generalitat de Catalunya, a través de una beca FI-AGAUR, y que se ha realizado en el marco del proyecto ELASTIC (*TEC2011-27310), del Ministerio de Educación Ciencia y Deporte Español.
187

Regular cell design approach considering lithography-induced process variations

Gómez Fernández, Sergio 17 October 2014 (has links)
The deployment delays for EUVL, forces IC design to continue using 193nm wavelength lithography with innovative and costly techniques in order to faithfully print sub-wavelength features and combat lithography induced process variations. The effect of the lithography gap in current and upcoming technologies is to cause severe distortions due to optical diffraction in the printed patterns and thus degrading manufacturing yield. Therefore, a paradigm shift in layout design is mandatory towards more regular litho-friendly cell designs in order to improve line pattern resolution. However, it is still unclear the amount of layout regularity that can be introduced and how to measure the benefits and weaknesses of regular layouts. This dissertation is focused on searching the degree of layout regularity necessary to combat lithography variability and outperform the layout quality of a design. The main contributions that have been addressed to accomplish this objective are: (1) the definition of several layout design guidelines to mitigate lithography variability; (2) the proposal of a parametric yield estimation model to evaluate the lithography impact on layout design; (3) the development of a global Layout Quality Metric (LQM) including a Regularity Metric (RM) to capture the degree of layout regularity of a layout implementation and; (4) the creation of different layout architectures exploiting the benefits of layout regularity to outperform line-pattern resolution, referred as Adaptive Lithography Aware Regular Cell Designs (ALARCs). The first part of this thesis provides several regular layout design guidelines derived from lithography simulations so that several important lithography related variation sources are minimized. Moreover, a design level methodology, referred as gate biasing, is proposed to overcome systematic layout dependent variations, across-field variations and the non-rectilinear gate effect (NRG) applied to regular fabrics by properly configuring the drawn transistor channel length. The second part of this dissertation proposes a lithography yield estimation model to predict the amount of lithography distortion expected in a printed layout due to lithography hotspots with a reduced set of lithography simulations. An efficient lithography hotspot framework to identify the different layout pattern configurations, simplify them to ease the pattern analysis and classify them according to the lithography degradation predicted using lithography simulations is presented. The yield model is calibrated with delay measurements of a reduced set of identical test circuits implemented in a CMOS 40nm technology and thus actual silicon data is utilized to obtain a more realistic yield estimation. The third part of this thesis presents a configurable Layout Quality Metric (LQM) that considering several layout aspects provides a global evaluation of a layout design with a single score. The LQM can be leveraged by assigning different weights to each evaluation metric or by modifying the parameters under analysis. The LQM is here configured following two different set of partial metrics. Note that the LQM provides a regularity metric (RM) in order to capture the degree of layout regularity applied in a layout design. Lastly, this thesis presents different ALARC designs for a 40nm technology using different degrees of layout regularity and different area overheads. The quality of the gridded regular templates is demonstrated by automatically creating a library containing 266 cells including combinational and sequential cells and synthesizing several ITC'99 benchmark circuits. Note that the regular cell libraries only presents a 9\% area penalty compared to the 2D standard cell designs used for comparison and thus providing area competitive designs. The layout evaluation of benchmark circuits considering the LQM shows that regular layouts can outperform other 2D standard cell designs depending on the layout implementation. / Los continuos retrasos en la implementación de la EUVL, fuerzan que el diseño de IC se realice mediante litografía de longitud de onda de 193 nm con innovadoras y costosas técnicas para poder combatir variaciones de proceso de litografía. La gran diferencia entre la longitud de onda y el tamaño de los patrones causa severas distorsiones debido a la difracción óptica en los patrones impresos y por lo tanto degradando el yield. En consecuencia, es necesario realizar un cambio en el diseño de layouts hacia diseños más regulares para poder mejorar la resolución de los patrones. Sin embargo, todavía no está claro el grado de regularidad que se debe introducir y como medir los beneficios y los perjuicios de los diseños regulares. El objetivo de esta tesis es buscar el grado de regularidad necesario para combatir las variaciones de litografía y mejorar la calidad del layout de un diseño. Las principales contribuciones para conseguirlo son: (1) la definición de diversas reglas de diseño de layout para mitigar las variaciones de litografía; (2) la propuesta de un modelo para estimar el yield paramétrico y así evaluar el impacto de la litografía en el diseño de layout; (3) el diseño de una métrica para analizar la calidad de un layout (LQM) incluyendo una métrica para capturar el grado de regularidad de un diseño (RM) y; (4) la creación de diferentes tipos de layout explotando los beneficios de la regularidad, referidos como Adaptative Lithography Aware Regular Cell Designs (ALARCs). La primera parte de la tesis, propone las diversas reglas de diseño para layouts regulares derivadas de simulaciones de litografía de tal manera que las fuentes de variación de litografía son minimizadas. Además, se propone una metodología de diseño para layouts regulares, referida como "gate biasing" para contrarrestar las variaciones sistemáticas dependientes del layout, las variaciones en la ventana de proceso del sistema litográfico y el efecto de puerta no rectilínea para configurar la longitud del canal del transistor correctamente. La segunda parte de la tesis, detalla el modelo de estimación del yield de litografía para predecir mediante un número reducido de simulaciones de litografía la cantidad de distorsión que se espera en un layout impreso debida a "hotspots". Se propone una eficiente metodología que identifica los distintos patrones de un layout, los simplifica para facilitar el análisis de los patrones y los clasifica en relación a la degradación predecida mediante simulaciones de litografía. El modelo de yield se calibra utilizando medidas de tiempo de un número reducido de idénticos circuitos de test implementados en una tecnología CMOS de 40nm y de esta manera, se utilizan datos de silicio para obtener una estimación realista del yield. La tercera parte de este trabajo, presenta una métrica para medir la calidad del layout (LQM), que considera diversos aspectos para dar una evaluación global de un diseño mediante un único valor. La LQM puede ajustarse mediante la asignación de diferentes pesos para cada métrica de evaluación o modificando los parámetros analizados. La LQM se configura mediante dos conjuntos de medidas diferentes. Además, ésta incluye una métrica de regularidad (RM) para capturar el grado de regularidad que se aplica en un diseño. Finalmente, esta disertación presenta los distintos diseños ALARC para una tecnología de 40nm utilizando diversos grados de regularidad y diferentes impactos en área. La calidad de estos diseños se demuestra creando automáticamente una librería de 266 celdas incluyendo celdas combinacionales y secuenciales y, sintetizando diversos circuitos ITC'99. Las librerías regulares solo presentan un 9% de impacto en área comparado con diseños de celdas estándar 2D y por tanto proponiendo diseños competitivos en área. La evaluación de los circuitos considerando la LQM muestra que los diseños regulares pueden mejorar otros diseños 2D dependiendo de la implementación del layout.
188

Geosynchronous synthetic aperture radar for Earth continuous observation missions

Ruiz Rodon, Josep 20 November 2014 (has links)
This thesis belongs to the field of remote sensing, particularly Synthetic Aperture Radar (SAR) systems from the space. These systems acquire the signals along the orbital track of one or more satellites where the transmitter and receiver are mounted, and coherently process the echoes in order to form the synthetic aperture. So, high resolution images can be obtained without using large arrays of antennas. The study presented in this thesis is centred in a novel concept in SAR, which is known as Geosynchronous SAR or GEOSAR, where the transmitter and/or receiver are placed in a platform in a geostationary orbit. In this case, the small relative motions between the satellite and the Earth surface are taken to get the necessary motion to form the synthetic aperture and focus the image. The main advantage of these systems with respect to the current technology (where LEO satellites with lower height are considered) is the possibility of permanently acquire images from the same region thanks to the small motion of the platform. Therefore, the different possibilities in the orbital design that offer this novel technology as well as the geometric resolutions obtained in the final image have been firstly studied. However, the use of geosynchronous satellites as illuminators results in slant ranges between 35.000-38.000 Km, which are much higher than the typical values obtained in LEOSAR, under 1.000 Km. Fortunately, the slow motion of the satellite makes possible large integration of pulses during minutes or even hours, reaching Signal-to-Noise Ratio (SNR) levels in the order of LEO acquisitions without using high transmitted power or large antennas. Moreover, such large integration times, increases the length of the synthetic aperture to get the desired geometric resolutions of the image (in the order of a few meters or kilometres depending on the application). On the other hand, the use of long integration time presents some drawbacks such as the scene targets decorrelation, atmospheric artefacts due to the refraction index variations in the tropospheric layer, transmitter and receiver clock jitter, clutter decorrelation or orbital positioning errors; which will affect the correct focusing of the image. For this reason, a detailed theoretical study is presented in the thesis in order to characterize and model these artefacts. Several simulations have been performed in order to see their effects on the final images. Some techniques and algorithms to track and remove these errors from the focused image are presented and the improvement of the final focused image is analysed. Additionally, the real data from a GB-SAR (Ground-Based SAR) have been reused to simulate a long integration time acquisition and see the effects in the image focusing as well as to check the performance of compensation algorithms in the final image. Finally, a ground receiver to reuse signals of opportunity from a broadcasting satellite have been designed and manufactured. This hardware is expected to be an important tool for experimental testing in future GEOSAR analysis. / Aquesta tesi s'emmarca dins de l'àmbit de la teledetecció, en particular, en els sistemes coneguts com a radar d'obertura sintètica (SAR en anglès) des de l'espai. Aquests sistemes adquireixen senyal al llarg de l'òrbita d'un o més satèl·lits on estan situats el transmissor i el receptor, i processa els ecos de forma coherent per a formar l'obertura sintètica. D'aquesta manera es poden aconseguir imatge d'alta resolució sense la necessitat d'emprar un array d'antenes molt gran. El treball realitzat en aquest estudi es centra en un nou concepte dins del món SAR que consisteix en l'ús de satèl·lits en òrbita geostacionària per a l'adquisició d'imatges, sistemes coneguts com a Geosynchronous SAR o GEOSAR. En aquest cas, els petits moviments relatius dels satèl·lits respecte de la superfície terrestre s'empren per a aconseguir el desplaçament necessari per a formar l'obertura sintètica i així obtenir la imatge. El principal avantatge d'aquests sistemes respecte a la tecnologia actual (on s'utilitzen satèl·lits en orbites més baixes LEO) és la possibilitat d'adquirir imatges d'una mateixa zona de forma permanent gràcies als petits desplaçaments del satèl·lit. Així doncs, en aquesta tesi s'estudien les diferents possibilitats en el disseny orbital que ofereixen aquests sistemes així com les resolucions d'imatge que s'obtindrien. Tot i així, l'ús de satèl·lits en òrbita geoestacionària, resulta en una distància entre el transmissor/receptor i l'escena entre 35000-38000 Km, molt més gran que les distàncies típiques en els sistemes LEO per sota dels 1000 Km. Tot i així, el moviment lent de les plataformes geostacionàries fa possible la integració de polsos durant minuts o hores, arribant a nivells acceptables de relació senyal a soroll (SNR) sense necessitat d'utilitzar potències transmeses i antenes massa grans. A més a més, aquesta llarga integració també permet assolir unes longituds d'obertura sintètica adients per a arribar a resolucions d'imatge desitjades (de l'ordre de pocs metres o kilòmetres segons l'aplicació). Malgrat això, l'ús de temps d'integració llargs té una sèrie d'inconvenients com poden ser la decorrelació dels blancs de l'escena, l'aparició d'artefactes atmosfèrics deguts als canvis d'índex de refracció en la troposfera, derives dels rellotges del transmissor i receptor, decorrelació del clutter o errors en el posicionament orbital, que poden afectar la correcta focalització de la imatge. Així doncs, en la tesi s'ha fet un detallat estudi teòric d'aquests problemes per tal de modelitzar-los i posteriorment s'han realitzat diverses simulacions per veure els seus efectes en una imatge. Diverses tècniques per a compensar aquests errors i millorar la qualitat de la imatge també s'han estudiat al llarg de la tesi. Per altra banda, dades reals d'un GB-SAR (SAR en una base terrestre) s'han reutilitzat per adaptar-les a una possible adquisició de llarga durada i veure així de forma experimental com afecta la llarga integració en les imatges i com millora l'enfocament després d'aplicar els algoritmes de compensació. Per últim, en la tesi es presenta un sistema receptor terrestre per a poder realitzar un anàlisi experimental del cas GEOSAR utilitzant un il·luminador d'oportunitat. Els primers passos en el disseny i la fabricació del hardware també es presenten en aquesta tesi
189

On transport mechanisms in solar cells involving organic semiconductors

Nolasco Montaño, Jairo César 19 September 2011 (has links)
El conocimiento del mecanismo de transporte o de conducción en las células solares es útil para identificar las pérdidas eléctricas. En esta tesis, se han aplicado exitosamente modelos de mecanismos de transporte previamente utilizados en estructuras fabricadas a base de materiales inorgánicos. Este análisis fue útil para determinar que los mecanismos de “multituneling capture-emission“ and “tuneling-enhanced interface recombination”, son los que generalmente determinan el transporte eléctrico en las siguientes estructuras: P3HT/Si, Pentacene/C60 y P3HT:PCBM. Adicionalmente, para la estructura P3HT/Si sugerimos una metodología para determinar parámetros físicos en el P3HT. Para la estructura Pc/C60 además de determinar los mecanismos de conducción, se realizaron simulaciones de diagramas de bandas, esto fue útil para estudiar el origen de las pérdidas eléctricas en función del espesor del C60. Por último, se calculo la distribución de estados localizados para la estructura P3HT: PCBM usando mediciones de capacitancia en función de la frecuencia. / The knowledge of transport mechanisms in solar cells is useful to determine electrical losses. In my doctoral thesis we studied the transport mechanisms in solar cells involving organic semiconductors. We show that models which have been used to study amorphous inorganic solar cells can be applied on organic ones. We conclude that: multitunelling capture emission and tunelling-enhanced interface recombination mechanisms contribute to the dark current characteristics in P3HT/Si, Pc/C60 and P3HT:PCBM solar cells. Specifically, for P3HT/Si devices, we suggested a methodology to obtain some P3HT parameters. This methodology can be used for studying other organic materials. For Pc/C60 solar cells, in addition to determine the conduction mechanisms, we simulated consistently energy band diagrams and studied the origin of photocurrent losses for different C60 thickness. Finally, for P3HT:PCBM devices, the distribution of the density of states was calculated using capacitance vs. frequency measurements. It was useful to study the role of the hole transport layer on the stability of the solar cell.
190

Development of an optical fiber probe for mercury detection

Pérez Hernández, Javier 11 July 2008 (has links)
El mercurio presenta una alta toxicidad, pudiendo causar adversos efectos en la salud humana. Los procedimientos recomendados para la detección analítica de metales pesados no son apropiados para aquellas aplicaciones donde se requiere un bajo coste y equipos ligeros que permitan realizar medidas de campo. Por el contrario, los sensores opto-químicos son una tecnología con un alto potencial para el desarrollo de dispositivos detectores de bajo coste y dimensiones reducidas. Esta Tesis describe los aspectos más relevantes en el desarrollo de una sonda opto-química basada en fibra óptica para la determinación de mercurio en agua. La investigación se plantea a partir de un compuesto de rutenio(II) descubierto recientemente que presenta un cambio de color desde un rojo púrpura oscuro hasta el naranja en solución orgánica ante la exposición a iones de mercurio(II). Otro factor importante es la capacidad de anclaje de la molécula a finas capas de óxidos metálicos como puede ser el TiO2. Los logros principales alcanzados en este trabajo de investigación son: (1) un software de análisis espectral multi-variable que reduce notablemente las interferencias principales del reactivo en fase líquida. El modelo matemático se basa en la regresión lineal por mínimos cuadrados parciales (PLS), y además se ha optimizado el resultado mediante una comparativa entre diferentes modelos PLS que incluyen un tratamiento previo de los datos mediante wavelet, corrección ortogonal de la señal, algoritmos genéticos, y selección de características estadísticas. (2) Una mejora de la estabilidad acuosa de la molécula al soportarla sobre una matriz de nanopartículas de Al2O3. Algunos trabajos preliminares con el complejo de Ru(II) se centraron en la inmovilización de la molécula sobre capas finas mesoporosas de TiO2. No obstante, pérdidas del colorante son apreciables cuando se analizan muestras acuosas. Resultados de la presente investigación garantizan la estabilidad acuosa de la molécula soportada sobre películas de Al2O3 y tratadas con ácido sulfúrico, con pérdidas por debajo del 2% (durante 3 horas). (3) La construcción del transductor basado en fibra óptica consiste en la sustitución de un trozo de cubrimiento (2 cm) del núcleo de la fibra óptica por el material sensibilizado compuesto por las nanopartículas de Al2O3. El principio de funcionamiento se basa en los cambios ópticos del material reactivo ante la exposición a iones de Hg2+, modulando así la intensidad de luz que se transmite a través del núcleo óptico. Se intuye a priori que la configuración del dispositivo conlleva a admitir que la propagación de la luz en la interfase núcleo y película de alumina tratada es mediante la aparición del campo evanescente. Sin embargo, al tener la cubierta de alumina un mayor índice de refracción que el núcleo, la condición de reflexión interna total no se satisface completamente, y como resultado se tiene una respuesta de la sonda óptica a la que contribuye tanto el campo evanescente como el modo de radiación generado por la porción de luz que se refracta a través de la cubierta de alumina-molécula. Finalmente, si tenemos en cuenta que la respuesta de este tipo de sondas ópticas varía significativamente de sonda a sonda, la cuantificación de mercurio ha sido posible a través de una calibración multivariable. Se ha logrado un error en la predicción de mercurio de un 11.5 por ciento, considerando un rango de 0 a 6 mg L-1 de iones de Hg2+. De este modo, se ha conseguido una sonda opto-química basada en fibra óptica cuyo modo de funcionamiento no es muy habitual en la literatura. La originalidad del presente trabajo se fundamenta en los pocos ejemplos de dispositivos ópticos de estas características que existen para la detección de metales pesados. En lo referente al autor, este es el primer dispositivo con configuración de fibra óptica evanescente destinado a la determinación de mercurio en medio acuoso. / The organic form of mercury (methylmercury) is highly toxic, affecting the nervous system and even causing death. In the last years, human activities on coal combustion, waste incineration, gold mining and other industrial processes have raised the level of mercury in the atmosphere, rivers and other sources. Several public bodies have demonstrated that the direct detection of inorganic mercury (the precursor of mehtylmercury) will be beneficial in order to prevent mercury contamination. The detection of inorganic mercury through simple and low cost systems is possible by using colorimetric chemical sensors.Thus, several research groups worldwide have shown that the use of molecular probes, which change their optical properties upon the binding of inorganic mercury, is a promising topic for the development of detector devices for pollutant species.This Thesis describes the most remarkable aspects in the development of an optical fiber probe designed for mercury determination in aqueous samples. The research arises from the discovery of a novel molecule (IUPAC name bis(2,2'-bipyridyl-4,4'-dicarboxylato) ruthenium(II) bistetrabutylammonium bis-thiocyanate) that upon mercury binding induces a color change from dark red-purple to orange in solution. The selectivity towards mercury of this ruthenium complex is high when compared to other known chemical reagents. Yet, in this work, we have been able to increase the selectivity through a fully multivariate calibration of the absorbance measurements. We have analyzed the mercury-containing solutions under the co-existence of higher concentrations (19.5 mg L-1) of other potential competitors such as Cd2+, Pb2+, Cu2+ and Zn2+ ions. Our experimental model is based on partial least squares (PLS) linear regression and other general techniques as wavelet, orthogonal signal correction, genetic algorithm and statistical feature selection that have been used to refine, a priori, the analytical data. In summary, we have demonstrated that the root mean square error of mercury prediction with statistical feature selection, as compared to the absence of pre-treatment, can be reduced from 10.5 to 5.2 percent, which improves the prediction ability of the calibration model by a factor of 2.On the other hand, the possibility of working in solid-liquid phase increases the integration ability of the molecule in a device, making easier the measurement process. Nevertheless, the immobilization of the molecule onto a surface constitutes one of the challenges of this Thesis.Some preliminary works with the Ru(II) complex focussed on the immobilization of the molecule onto TiO2 mesoporous thin films.However, some leaching problems were apparent when aqueous samples were analysed. Accordingly, we have improved the water stability of the molecule by anchoring the dye onto Al2O3 nanoparticles thin films treated with sulphuric acid. Moreover, the good optical properties of the alumina support allow a better transparency of the films, which translates in a higher amount of available spectral absorbance information.A compact mercury read-out system has been achieved by coating an unclad optical fiber piece with Al2O3 paste. The proof-of-principle is based on the optical changes of the reagent upon Hg2+ ions exposure, which modulates the light intensity transmitted through the optical core.There are many theoretical studies that explore a particular research case of the evanescent optical fibers. As the alumina cladding has higher refractive index than the core, both evanescent field and radiative mode may appear in the modified cladding. This Thesis exposes a brief explanation of this behavior in order to understand the mechanisms of the response of our mercury optical fiber probe. Moreover, several experiments have been carried out in mercury aqueous samples so as to find the proper working conditions, such as the optimum dye concentration adsorbed onto the alumina cladding, which has a great effect on the device performance. Finally, mercury quantification has been possible through multivariate calibration, direct partial least squares being the most robust procedure if we take into account the fact that the response of this kind of optical probes varies significantly from one to another. A root mean square error for mercury predictions of 11.5 percent has been achieved within a range from 0 to 6 mg L-1 of Hg2+ ions.Overall, this thesis work has illustrated all the steps that come into play in the design of an optical fiber chemical-based probe, providing a simplified measurement process and a lower cost if it is compared to traditional analysis equipment. As far as the author is concerned, an optical fiber probe for mercury determination is presented for the first time.

Page generated in 0.239 seconds