• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 260
  • 73
  • 31
  • 1
  • Tagged with
  • 365
  • 365
  • 365
  • 364
  • 364
  • 63
  • 53
  • 40
  • 40
  • 40
  • 35
  • 20
  • 20
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

Desarrollo y caracterización de estructuras termoeléctricas con pellets constituidos por nuevos materiales y geometrías no estándar

Villasevil Marco, F. Xavier (Francesc Xavier) 11 October 2006 (has links)
Amb els materials utilitzats actualment en la fabricació de les cèl·lules termoelèctriques i amb les geometries utilitzades, no és possible millorar, en un rang determinat de temperatures, característiques tals com la figura de mèrit i el COP de estructures. La comunitat científica intenta augmentar el factor de mèrit buscant nous materials, els sistemes de baixa dimenssionalitat, els punts quàntics i super-xarxes. Tant sols uns pocs realitzen investigació dels fenòmens termoelèctrics sense utilitzar nous materials, buscant una major comprensió de los principis físics que regulen aquests fenòmens.Es possible contemplar, en la recerca de la millora dels mòduls termoelèctrics, las dos tendències a la vegada; és a dir, buscar una major comprensió de los principis físics i a la vegada assajar nous materials. Per aquesta raó, la tesi realitza tant l'estudi de la influencia de la geometria i de les propietats termoelèctriques de les thermo-couples sobre les propietats dels mòduls termoelèctrics, com el desenvolupament, la caracterització i testejat de varies cèl·lules basades en diferents materials caracteritzats en el grup de investigació.Concretament, en esta tesi, s'han caracteritzat nous mòduls termoelèctrics amb materials (Bi2Te3)1-x-y (Sb2Te3)x (Sb2Se3)y crescuts amb tècniques de cristal·lització de Bridgeman, i també altres mòduls amb thermo-couples de materials com són les Skutterudites basades en el Zn4Sb3 - CoSb3 amb creixement a base de nanotecnologia. En tots els desenvolupaments s'assagen noves geometries no estàndard i es caracteritza i compara el seu comportament en un rang de temperatures entre 300 i 650 ºK.La caracterització s'ha realitzat a partir de las característiques intrínseques relacionades amb les propietats termoelèctriques dels materials constituents de les thermo-couples i la seva geometria; tot determinant el comportament del mòdul funcionant tant com bomba de calor i refrigerador com generador en el rang de temperatures considerat.Veient que aquests aspectes relacionats tant amb la geometria del semiconductor com amb les seves propietats intrínseques i la seva interacció en un modelo inicialment unidimensional, són tractats a la literatura mitjançant formes bàsiques, s'ha considerat necessari profunditzar sobre aquestes influències. La qual cosa ha permès construir i caracteritzar mòduls no estàndard, amb pellets configurats amb diferents geometries i obtenint bones prestacions en el rang de temperatures considerat. També el comportament en freqüència és molt poc tractat en el modelat de les estructures termoelèctriques, i tanmateix hi ha aplicacions que requereixen un anàlisi en freqüència i a més aquestes aplicacions estan relacionades amb la miniaturització de la cèl·lula i la seva inèrcia en la resposta. Aquesta tesi, considerant aquest aspecte útil en l'objectiu de la caracterització, ha treballat el comportament en freqüència; aconseguint desenvolupar, caracteritzar i construir un sistema termoelèctric no estàndard per a una aplicació industrial i amb una inèrcia en la resposta que no compleix cap sistema comercial estàndard fins el moment. Per aconseguir l'objectiu de desenvolupar i caracteritzar estructures termoelèctriques amb pellets constituïts per nous materials i geometries no estàndard, la tesi (un cop examinat l'estat de l'art tant en l'aspecte del modelat com en l'estudi dels fenòmens termoelèctrics), segueix el següent seqüència:1) Estudi i anàlisis de la influència del model en la caracterització de les cèl·lules.2) Estudi i anàlisis de la influència tant de les propietats com de la geometria dels pellet i de la pròpia cèl·lula.3) Desenvolupament i caracterització de 5 cèl·lules termoelèctriques en el rang de 270 a 650ºK; una d'elles con un temps de inèrcia molt baix per a una aplicació industrial.4) Construcció i testejat de totes las plaques caracteritzades.5) Comparació del comportament i de les propietats de totes las cèl·lules i thermo-couples. / With the materials use at the present time to manufacture thermoelectric devices and withthe actual geometries, it is not possible to improve, in a determine temperature range,characteristics as the Figure of Merit or COP from their structures.The Scientific community is trying to improve the Figure of Merit, by searching for newmaterials, including systems of low dimensions as quantic points and super-nets. Only few peopleare working into thermoelectric phenomenon with out using new materials, searching for a betterunderstanding of the physical behaviors.It is possible to observe, in our search of improving the thermoelectric devices, bothtendencies at the same time; is to say, to search for a better understanding of the physicalphenomenon and test new materials as well.For this reason, this thesis is focus in the study of the geometry influence and thethermoelectric properties of the thermocouples regarding the module properties, as thedevelopment, characterization, and few devices test analysis base in different materials define inthe research group.Basically in this thesis, it has been characterize new thermoelectric modules with materials(Bi2Te3)1-x-y (Sb2Te3)x (Sb2Se3) and implemented with crystallization techniques from Bridgeman,and also some other modules with thermocouples with materials as Skutterudites base in Zn4Sb3 -CoSb3 , with nanotechnology process.In all developments we test new geometries non standard and also its characterization andcompare their behavior in a temperature range of 300 to 650 ºK.The characterization was done starting with the intrinsic characteristics related to thethermoelectric properties of the materials regarding the geometry and the thermocouples, anddetermining the behavior of the module as a heat pump and cooling device, in the temperaturerange selected for such purpose.Taking into account the related aspect, such as the semiconductor geometry as theirintrinsic properties and its interaction initially one-dimension, this are treated in the literature asbasic forms, it was necessary a deep research on all this influences. It has allowed to build up andto characterize non standard modules, with pellets configure with different geometries and obtaininggood results in the temperature range propose.Also the behavior in frequency has been little treated in the modeling of the thermoelectricstructures, however there are applications which needs a frequency analysis and are related tominiaturization of the thermoelectric device and its inertia in their response.This thesis, taking into account this useful aspect having as goal the characterization, hasbeen working this behavior in frequency, reaching a development, characterization and build up athermoelectric system non standard for an industrial application and with a good inertia in theresponse that does not meets any standard commercial system at this moment.To achieve the objective of developing and to characterize the thermoelectric structureswith pellets form by new materials and new geometries non standard, the thesis, once review thestate of art, from the view of the modeling as the thermoelectric phenomenon study, follows thedescribe sequence1) Study and analysis of the influence on the devices, from modeling and characterization.2) Study and analysis of the influence regarding the properties as the geometry of the pelletsfrom the thermoelectric device.3) Development and characterization of 5 thermoelectric devices in the range of 270 to 650K,one of them with a low time of inertia for an industrial application.4) Construction and testing of all characterize thermoelectric devices.5) Behavior comparison of all properties of TE devices and thermocouples / Con los materiales utilizados actualmente en la fabricación de las células termoeléctricas ycon las geometrías utilizadas, no es posible mejorar, en un rango determinado de temperaturas,características como la figura de mérito y el COP de estructuras. La comunidad científica intentaaumentar el factor de mérito por medio de la búsqueda de nuevos materiales, incluidos lossistemas de baja dimensionalidad como puntos cuánticos y superredes. Sólo unos pocos realizaninvestigación de los fenómenos termoeléctricos sin utilizar nuevos materiales, buscando una mejorcomprensión de los principios físicos que rigen estos fenómenos.Es posible contemplar, en la búsqueda de la mejora de los módulos termoeléctricos, lasdos tendencias a la vez; es decir, buscar una mejor comprensión de los principios físicos y a la vezensayar nuevos materiales. Por esta razón, esta tesis realiza tanto el estudio de la influencia de lageometría y de las propiedades termoeléctricas de las thermo-couples sobre las propiedades delos módulos termoeléctricos, como el desarrollo, la caracterización y testeado de varias célulasbasadas en diferentes materiales caracterizados en el grupo de investigación.Concretamente, en esta tesis, se han caracterizado nuevos módulos termoeléctricos conmateriales (Bi2Te3)1-x-y (Sb2Te3)x (Sb2Se3)y crecidos con técnicas de cristalización de Bridgeman, ytambién otros módulos con thermo-couples de materiales como son las Skutterudites basadas enel Zn4Sb3 - CoSb3 con crecimiento a base de nanotecnología. En todos los desarrollos se ensayannuevas geometrías no estándar y se caracteriza y compara su comportamiento en un rango detemperaturas entre 300 y 650 ºK.La caracterización se ha realizado a partir de las características intrínsecas relacionadascon las propiedades termoeléctricas de los materiales constituyentes de las thermo-couples y sugeometría; y determinando el comportamiento del módulo funcionando tanto como bomba de calory refrigerados como generador en el rango de temperaturas considerado.Notando que estos aspectos relacionados tanto con la geometría del semiconductor comocon sus propiedades intrínsecas y su interacción en un modelo inicialmente unidimensional, sontratados en la literatura mediante formas básicas, se ha considerado necesario profundizar sobreestas influencias. Ello ha permitido construir y caracterizar módulos no estándar, con pelletsconfigurados con diferentes geometrías y obteniendo buenas prestaciones en el rango detemperaturas considerado.También el comportamiento en frecuencia es muy poco tratado en el modelado de lasestructuras termoeléctricas, y sin embargo hay aplicaciones que requieren un análisis enfrecuencia y que están relacionadas con la miniaturización de la célula y en su inercia en larespuesta. Esta tesis, considerando este aspecto útil en el objetivo de caracterización, ha trabajadoeste comportamiento en frecuencia; consiguiendo desarrollar, caracterizar y construir un sistematermoeléctrico no estándar para una aplicación industrial y con una inercia en la respuesta que nocumple ningún sistema comercial estándar hasta el momento.Para conseguir el objetivo de desarrollar y caracterizar estructuras termoeléctricas conpellets constituidos por nuevos materiales y geometrías no estándar, la tesis (una vez examinadoel estado del arte tanto en el aspecto del modelado como en el estudio de los fenómenostermoeléctricos), sigue la siguiente secuencia:1) Estudio y análisis de la influencia del modelo en la caracterización de las células.2) Estudio y análisis de la influencia tanto de las propiedades como de la geometría delos pellet y de la propia célula.3) Desarrollo y caracterización de 5 células termoeléctricas en el rango de 270 a 650K;una de ellas con un tiempo de inercia muy bajo para una aplicación industrial.4) Construcción y testeado de todas las placas caracterizadas.5) Comparación del comportamiento y de las propiedades de todas las células y thermocouples.
302

Generación de falsas claves criptográficas como medida de protección frente a ataques por canal lateral

Lumbiarres López, Rubén 29 July 2015 (has links)
In the late 90s, Paul C. Kocher introduced the concept of differential attack focused on the power consumption of a cryptographic device. In this type of analysis the plain text sent to the device is known, and all possible hypotheses of a subset of the key, related to a specific point of the cryptographic algorithm, are tested. If the key value at that point depends only on 1 byte, it is possible to predict the input current based on a theoretical model of power consumption. Thus, using statistic procedures, it is easy to compare the consumption measured during the processing of each plain text and the intermediate values related to all the hypothesis of the key.The one with the highest level of similarity will correspond to the actual key. So far the countermeasures proposed to prevent the success of the attack can be classified into two groups: Masking and Hiding. Masking tries to decouple the processed data and the power consumption by adding a random mask which is unknown by the attacker. Therefore, it is impossible to make a hypothesis that allows the theoretical and the real power consumption of the device to be related. Although is a valid method, the key could be revealed by performing a second-order attack that analyzes several points of the current trace. Hiding aims at making constant the consumption of a device in each clock cycle and independent of the processed data. In order to achieve this objective, the data is processed in double line, in such a way that the datum and its complementary are processed together, so that the same number of transitions always occur on every clock cycle. The weakness of such a method lies on the impossibility of building identical CMOS cells, which causes a minimum difference of consumption between the two lines that can be used successfully to discover the key. This thesis proposes a countermeasure based on a differentiated protection strategy with respect to the proposals made in other specific studies. It is intended to modify the algorithm in order to force a very high correlation with a different hypothesis to the one of the true key (Faking). Thus, the actual key is hidden behind the strong correlation, which is impossible to differentiate from the rest of false assumptions and remains protected. To verify its performance a trial bank has been designed to launch consumption analysis attacks. We have implemented the algorithm AES due to its simplicity and strength. Two types of attacks have been carried out. In the first one, the analysis was performed using both the correlation and the mean difference analysis without including any countermeasure. In the second attack, the proposed countermeasure has been added and the attack was repeated to check its effectiveness. We have evaluated three different situations. First of all, the algorithm and the countermeasure are solved by software on a 32-bit processor. Secondly, the algorithm is executed in software and the implementation of the countermeasure has been performed with a specific hardware coprocessor. Finally, a full hardware implementation including both the algorithm and the countermeasure has been chosen.All of them have been implemented on a Virtex 5 FPGA Xilinx. Several conclusions are obtained from the comparison between each of the AES implementations without countermeasures and their respective solution with the added countermeasure. The obtained results are also compared to other which use "masking" and "hiding" techniques. The results demonstrate that the proposal is valid. In all three cases, the protected system behaves like the unprotected system but returning the false key after the attacks. It should be noted that the amount of resources needed to carry out the "Faking" is less than the "Masking" or "Hiding" and the time needed to process the plain text is not particularly affected. / A finales de los 90 Paul C.Kocher introdujo por primera vez el concepto de ataque diferencial sobre el consumo de corriente de un dispositivo criptográfico. En este tipo de análisis, se conoce el texto plano que se envía al dispositivo y se plantean todas las posibles hipótesis de la clave para un punto concreto del algoritmo. Si el valor en ese punto del algoritmo depende únicamente de 1 byte de la clave, es posible calcular todos los valores que se producirán. Llegado a este punto, se compara, por métodos estadísticos, el consumo medido durante el procesado de cada texto plano y los valores intermedios relacionados con todas las hipótesis de la clave. Aquella que mayor nivel de similitud tenga corresponderá con la clave real. Las contramedidas propuestas hasta la fecha, para evitar el éxito del ata-que, pueden separarse en dos grupos: enmascaramiento (Masking) y ocultación (Hiding). El enmascaramiento trata de desvincular el dato procesado del consumo eléctrico mediante la adición de una máscara aleatoria y desconocida por el atacante. En consecuencia, resulta imposible realizar una hipótesis que permita relacionar los consumos teórico y real del dispositivo. Si bien este es un método inicialmente válido, puede descubrirse la clave realizando un ataque de segundo orden que analiza varios puntos del consumo. La ocultación persigue que el consumo de un dispositivo sea el mismo en cada ciclo de reloj e independiente del dato procesado. Para ello, se procesa el dato en doble línea, por un lado el dato propiamente dicho y por el otro su complementario, de forma que siempre se produzcan la misma cantidad de transiciones en cada ciclo de reloj. La debilidad de este método radica en la práctica imposibilidad de construir celdas CMOS idénticas, esto provoca que siempre exista una diferencia de consumo entre las dos líneas y pueda usarse con éxito para descubrir la clave. En esta tesis se propone una contramedida basada en una estrategia de protección claramente diferenciada con respecto a las propuestas realizadas en la bibliografía específica. Se pretende modificar el algoritmo con el objetivo de forzar una correlación muy alta en una hipótesis diferente a la de la clave (Faking). De este modo, la clave real se oculta tras la fuerte correlación aparecida, resulta imposible diferenciarla del resto de hipótesis falsas y queda protegida. Para verificar su funcionamiento se ha montado un banco de pruebas para realizar ataques por análisis de consumo. Se ha implementado el algoritmo AES debido a su simplicidad y robustez. Se han realizado dos tipos de ataques: en el primero se han practicado análisis de correlación y diferencia de medias sin contramedida alguna; en el segundo, se ha añadido la contramedida y se han repetido los ataques para comprobar su eficacia. Se han evaluado 3 escenarios diferentes, primeramente el algoritmo y la contramedida se resuelven mediante software en un procesador de 32 bits. En segundo lugar, el algoritmo se resuelve mediante software y la implementación de la contramedida se ha realizado en un coprocesador hardware específico. Fi-nalmente, se ha elegido una implementación totalmente hardware para resolver tanto el algoritmo como la contramedida. Todos ellos se han implementado sobre una FPGA Virtex5 de Xilinx. Las conclusiones se obtienen de la comparación entre cada una de las im-plementaciones del AES sin contramedidas y su respectiva solución con la con-tramedida añadida. También se comparan los resultados obtenidos con otros que utilizan las técnicas "Masking" y "Hiding" Los resultados demuestran que la propuesta es válida. En los tres casos, el sistema protegido se comporta igual que el sistema sin proteger, pero retornando la clave falsa ante los ataques realizados. Se ha de destacar que, la cantidad de recursos necesarios para llevar a cabo el "Faking" es menor que con el "Masking" o el "Hiding" y el tiempo necesario para procesar el texto plano no se ve particularmente afectado por su inclusión.
303

Quality evaluation of DInSAR results from the phase statistical analysis

Centolanza, Giuseppe 23 October 2015 (has links)
The Earth is continuously monitored by sensors capable of providing diversified information about several phenomena. In particular Synthetic Aperture Radar (SAR) is able to observe the Earth in all-day and all-weather conditions. Differential SAR Interferometry (DInSAR) regards a set of techniques able to measure displacement of the terrain. In the last decades these techniques have become very powerful geodetic tools for land deformation monitoring and have gained a prominent role in several fields, ranging from geophysical to engineering, from commercial to civil protection purposes. Measurements of direction and magnitude of landslides phenomena, monitoring of subsidence movements due to natural events or human activity are some examples of DInSAR applications. These techniques allow not only the analysis of a single deformation episode but also to estimate, with millimetric precision, the temporal evolution of large-scale deformations phenomena occurring on the Earth surface. This research covers transversally several aspects within the DInSAR applications and particularly is focused on analyzing step by step the DInSAR algorithm of the Coherent Pixel Technic (CPT) developed by the Universitat Politècnica de Catalunya (UPC) highlighting the conditions for a correct estimation of the solution. The achieved precision can be really high but anyway it is important to understand all the limitations that can change from one data-set to another. Particular attention has been paid on analyzing the different deteriorating factors that can affect the estimation, such as the quality of the data, the atmospheric artifacts or the spatial and temporal sampling of the phenomenon. In this regard, a theoretical study on the propagation of the interferometric phase noise has been carried out and validated through simulations. For reducing the impact of the interferometric phase noise normally only pixels with a certain quality can be processed. These pixels can be selected through different methods described in detail in the literature. On the one hand, each selection technique is able to detect a specific kind of target at a determined resolution. On the other hand, there is an obvious compromise between the quality and the pixels¿ density over the scene. Indeed, working with high densities could increase the reliability and the accuracy of the final result as long as poor quality pixels are not included in the processing. In this regard, in this Thesis a combination of the different kinds of targets has been studied with the objective of a joint processing at different resolutions. Finally the constant growth of the spaceborne, airborne and ground-based SAR sensors in terms of technology and number of available devices could be the beginning for exploiting at the same time different data-set in a joint processing. The integration of data coming from different sensors with different orbits, different resolution, different carrier frequencies and incidence angles can help in covering in a better way a complex displacement scenario and can provide more complete information. / La Tierra está continuamente monitorizada por una gran variedad de sensores e instrumentos capaces de extraer información muy diversa de distintos fenómenos geofísicos. En este contexto, los Radares de Apertura Sintética (SAR) orbitales, terrestres o aerotransportados, están protagonizando un interés creciente, ya que permiten monitorizar escenarios de naturaleza muy diversa con independencia de las condiciones meteorológicas, operando tanto de día como de noche. Entre las diferentes aplicaciones que permiten explotar imágenes SAR, la Interferometría Diferencial SAR (DInSAR) ha adquirido una gran relevancia, permitiendo la monitorización de desplazamientos complejos de forma remota y con una elevada precisión. De hecho, en las últimas décadas, esta técnica se ha convertido en una herramienta geodésica de gran utilidad para el control del desplazamiento de superficies, adquiriendo un papel muy destacado en una gran variedad de áreas de investigación y comerciales: mediciones de dirección y magnitud en deslizamientos, control de fenómenos de subsidencia debido a eventos naturales o actividades humanas, etc. Las técnicas DInSAR no sólo permiten medir un episodio de deformación aislado sino también estimar, con precisiones milimétricas, la evolución temporal de desplazamientos de gran escala. En la presente Tesis doctoral se investigan de forma transversal varios aspectos en el marco de aplicaciones DInSAR y, en particular y de una forma más exhaustiva, el algoritmo Coherent Pixel Technique (CPT) desarrollado por la Universidad Politécnica de Cataluña (UPC), remarcando las condiciones de contorno necesarias para la correcta estimación de las soluciones. A pesar de que la precisión en los resultados obtenidos puede ser elevada, es de extremada importancia analizar en profundidad las limitaciones existentes para los distintos escenarios posibles. En este contexto, se ha prestado una especial atención al análisis de los diferentes factores de error que pueden afectar a la estimación, tales como la calidad de los datos, los artefactos atmosféricos o el muestreo espacial y temporal del fenómeno bajo observación. Con este propósito, se ha desarrollado un estudio teórico detallado relacionado con la propagación del ruido de fase interferométrica a lo largo de la cadena de procesado DInSAR, que a su vez ha sido validado mediante datos simulados. Con el objetivo de reducir el impacto del ruido de fase interferométrica, únicamente aquellos píxeles del escenario que cumplen con unos ciertos parámetros de calidad de fase deben ser incluidos en el procesado. Estos píxeles pueden ser seleccionados previamente a través de diferentes metodologías que se describen en detalle en la literatura. Por un lado, ha de tenerse en cuenta que cada una de estas técnicas es adecuada para un determinado tipo de blanco y resolución. Por otro lado, ha de remarcarse que existe un compromiso claro entre calidad y densidad. Efectivamente, trabajar con densidades elevadas favorece la fiabilidad del procesado y la utilidad de los resultados finales, siempre y cuando no sea a expensas de incluir píxeles de mala calidad. Con este propósito, en este trabajo de Tesis doctoral se propone la combinación de los distintos tipos de blanco a distintas resoluciones, obtenidos con los distintos métodos de selección disponibles, para la realización de un procesado conjunto. Finalmente, el crecimiento de sensores SAR aerotransportados y terrestres, en términos de tecnología y número de dispositivos disponibles, podría ser el comienzo para la explotación conjunta de datos desde múltiples plataformas. En este contexto, se muestra como la integración de los datos procedentes de diferentes sensores con distintas órbitas, resolución, frecuencia y ángulo de incidencia favorecen la obtención de mayores coberturas y mejoran el proceso de estimación de desplazamiento, dando lugar a una información más completa y detallada.
304

Design and assessment of a low-frequency magnetic measurement system for eLISA

Mateos Martín, José Ignacio 27 November 2015 (has links)
The primary purpose of this thesis is the design, development and validation of a system capable of measuring magnetic field with low-noise conditions at sub-millihertz frequencies. Such instrument is conceived as a part of a space mission concept for a gravitational-wave observatory called eLISA (evolved Laser Interferometer Space Antenna). In addition, the work of this thesis is also well-suited for use in magnetically sensitive fundamental physics experiments requiring long integration time, such as high-precision measurement of the weak equivalence principle using space atom interferometry. To this end, the baseline design of the instrument is also foreseen to monitor the environmental magnetic field in a proposed mission concept involving space atom-interferometric measurements, known as STE-QUEST (Space-Time Explorer and Quantum Equivalence Principle Space Test). / El principal objetivo de esta tesis es el diseño, desarrollo y validación de un sistema capaz de medir campos magnéticos de bajo ruido a muy baja frecuencia (0.1\,mHz). Este instrumento es concebido como parte de una propuesta de misión espacial para un observatorio de ondas gravitacionales llamado eLISA (evolved Laser Interferometer Space Antenna). Además, el estudio de esta tesis es también de utilidad para experimentos de física fundamental especialmente sensibles a los campos magnéticos. En particular, aquellos que requieren tiempos de integración largos, como por ejemplo medidas de alta precisión del principio de equivalencia usando interferometría atómica en el espacio. En este contexto, está previsto que el sistema de medidas desarrollado en esta tesis forme también parte del la misión espacial STE-QUEST (Space-Time Explorer and Quantum Equivalence Principle Space Test). Diferentes tecnologías de sensores magnéticos (fluxgate, magnetoresitencias anisotrópicas, y magnetómetros atómicos) junto con técnicas apropiadas de reducción de ruido electrónico han sido estudiadas con el fin de evaluar si pueden ser usadas en misiones espaciales con exigentes requerimientos a baja frecuencia. Por otro lado, estas misiones requieren del control minucioso del ambiente magnético generado en el satélite. Esto es debido a que el instrumento principal puede operar correctamente y alcanzar su máximo rendimiento sólo si el entorno magnético se encuentra bajo unas determinadas condiciones. Por lo tanto, este trabajo también implica la investigación de las propiedades magnéticas del magnetómetro y su posible impacto sobre el experimento científico. Finalmente, otro problema potencial es la exactitud con la que el campo magnético puede ser estimado desde la posición del sensor hasta la región de interés donde se desea interpolar la medida. La elección de un método robusto para una determinada configuración de sensores es también parte de este trabajo. Aunque otros tópicos son cubiertos, los objetivos aquí mencionados son los principales temas cubiertos en esta tesis.
305

Methods and models in signal processing for gait analysis using waist-worn accelerometer : a contribution to Parkinson’s disease

Sayeed, Taufique 16 July 2015 (has links)
Thesis has been developed in the framework of, and according to, the rules of the Erasmus Mundus Joint Doctorate on Interactive and Cognitive Environments EMJD ICE [FPA n° 2010-0012] / Parkinson's disease (PD) is a neurodegenerative disease that predominantly alters patients' motor performance and compromises the speed, the automaticity and fluidity of natural movements. After some years, patients fluctuate between periods in which they can move almost normally for some hours (ON state) and periods with motor disorders (OFF state). Reduced step length and inability of step are important symptoms associated with PD. Monitoring patients¿ step length helps to infer patients¿ motor state fluctuations during daily life and, therefore, enables neurologists to track the evolution of the disease and improve medication regimen. In this sense, MEMS accelerometers can be used to detect steps and to estimate the step length outside the laboratory setting during unconstrained daily life activities. This thesis presents the original contributions of the author in the field of human movement analysis based on MEMS accelerometers, specifically on step detection and step length estimation of patients with Parkinson's disease. In this thesis, a user-friendly position, the lateral side of the waist, is selected to locate a triaxial accelerometer. The position was selected to enhance comfortability and acceptability. Assuming this position, first, a new method for step detection has been developed for the signals captured by the accelerometer from this location. The method is validated on healthy persons and patients with Parkinson's disease while compared to current state-of-the-art methods, performing better than the existing ones. Second, current methods of selected step length estimators that were originally developed for the signals from lower back close to L4-L5 region are modified in order to be adapted to the new sensor positions. Results obtained from 25 PD patients are discussed and the effects of calibrating in each motor state are compared. A generic correction factor is also proposed and compared with the best method to use instead of individual calibration. Despite variable gait speed and different motor state, the new step detection method achieved overall accuracy of 96.76% in detecting steps. Comparing the original and adapted methods, adapted methods performs better than the original ones. The best one is with multiplying individual correction factors that consider left and right step length separately providing average error of 0.033 m. Finally, an adapted inverted pendulum (IP) model based step length estimators is proposed using the signals from left lateral side of waist. The model considers vertical displacement of waist as an inverted pendulum during right step.For left step, the displacement during single support and double support phase is considered as an inverted pendulum and a standard pendulum respectively.Results obtained from 25 PD patients are discussed.Validity and reliability of the new model is compared with three existing estimators. Experimental results show that ICE-CETpD estimates step length with higher accuracy than the three best contenders taken from the literature.The mean errors of this method during OFF state and ON states are 0.021m and 0.029m respectively.The standard deviation and RMSE shown as (SD) RMSE are (0.02)0.029m during OFF state and (0.027)0.038m during ON state. The intra-class correlations of proposed estimator with reference step length are above 0.9 during both motor states.The calibration of model parameters in each motor state is tested and found that the training sessions done with patients in ON state provide more accurate results than in OFF state. Given that training is in ON state, the advantage of this approach is that patients would not need to attend without medication in order to train the method. / La enfermedad de Parkinson (EP) es una enfermedad neurodegenerativa que altera, de forma predominante, la capacidad motora de los pacientes y, además, afecta la velocidad, la automaticidad y la fluidez de los movimientos naturales. Tras varios años, los pacientes fluctúan entre unos periodos en los cuales pueden moverse de forma casi normal durante varias horas (periodos o estados ON) y periodos donde los desórdenes del movimiento aparecen (periodos o estados OFF). Entre otros síntomas, los pacientes con la EP sufren una reducción de la longitud del paso y una inhabilitación de la marcha. Monitorizar la longitud del paso contribuye a inferir el estado motor de los pacientes, a conocer las fluctuaciones durante su vida diaria y, en consecuencia, permitiría a los neurólogos realizar un seguimiento de la evolución de la enfermedad y mejorar la pauta terapéutica. En este sentido, los acelerómetros MEMS pueden ser usados para detectar pasos y estimar la longitud del paso más allá de las instalaciones de los laboratorios, es decir, en entornos no controlados. Esta tesis presenta las contribuciones originales del autor en el campo del análisis del movimiento humano basado en acelerómetros MEMS, específicamente en la detección de pasos y la estimación de la longitud del paso en pacientes con la EP. En esta tesis, se ha seleccionado una posición amigable en la cual localizar un acelerómetro MEMS triaxial. La posición, que consiste en el lateral de la cintura cerca de la cresta ilíaca, fue seleccionada para mejorar la comodidad y la aceptabilidad desde el punto de vista del paciente. Asumiendo esta posición, en primer lugar, se presenta un análisis de los distintos métodos existentes en la literatura para la detección de pasos y, además, se presenta una nueva técnica de detección. Los métodos se han testado en usuarios sanos y en pacientes con Parkinson, mostrando que el nuevo método obtiene un porcentaje de acierto en la detección más alto que el resto de métodos. En segundo lugar, se han seleccionado aquellos métodos de estimación de la longitud de paso que fueron desarrollados mediante un sensor situado en el centro de la espalda, cerca de las vértebras L4-L5. Estos métodos fueron modificados con el fin de ser adaptados a la nueva posición del sensor y validados en señales obtenidas de 25 pacientes con EP. Además, se propone un factor de corrección genérico, el cual se compara con el mejor de los métodos obtenidos, para ser usado en lugar de una calibración individual. A pesar de la variabilidad en la velocidad de la marcha debida a las fluctuaciones motoras, el nuevo método alcanza un 96,76% de precisión en la detección de pasos y, respecto la estimación de la longitud del paso, los métodos modificados obtienen mayor precisión que los originales. El mejor de los métodos obtenidos consiste en el uso de un factor de corrección multiplicador que considera los pasos de cada lado por separado, proporcionando un error medio de 0,03 m. Finalmente, se presenta un nuevo modelo de la marcha representada como un péndulo invertido modificado que se emplea para analizar las señales de acelerometría obtenidas desde el lateral izquierdo de la cintura. De forma más concreta, este modelo considera el desplazamiento vertical de la cadera como un péndulo invertido durante el paso derecho (lado contrario del sensor). Para el paso izquierdo, el desplazamiento durante la fase single support y double support se model iza como un péndulo invertido y un péndulo simple, respectivamente. Los resultados obtenidos en 25 pacientes con EP son presentados y discutidos. La validez y fiabilidad del nuevo modelo son comparados con tres modelos distintos. Los resultados experimentales obtenidos muestran que el nuevo modelo, llamado ICE-CETpD, estima la longitud del paso con una precisión mayor que el resto de métodos seleccionados de la literatura. El error promedio de este método durante el estado OFF y ON es de 0,021 m. y 0,029 m., respectivamente, con una correlación intraclase superior a 0.9 en ambos estados motores. La calibración de los parámetros del modelo en cada estado motor ha sido evaluada, concluyendo que una calibración en ON proporciona más precisión en los resultados. En consecuencia, la ventaja de la aproximación propuesta residiría en no requerir señales en OFF de los pacientes con EP, por lo cual no sería necesario que los pacientes prescindieran de tomas de medicación. / La malaltia de Parkinson (MP) és una malaltia neurodegenerativa que altera de forma predominant la capacitat motora dels pacients i, a més, afecta la velocitat, l’automatització i la fluïdesa dels moviments naturals. Després de diversos anys, els pacients fluctuen entre uns períodes en els quals poden moure’s de forma quasi normal i que duren vàries hores (períodes o estats ON) i períodes on els desordres del moviment apareixen (períodes o estats OFF). Entre altres símptomes, els pacients amb la MP sofreixen una reducció de la longitud del pas i una inhabilitació de la marxa. La monitorització de la longitud del pas contribueix a inferir l’estat motor del pacient i a conèixer les fluctuacions durant la seva vida diària permetent als neuròlegs, en conseqüència, realitzar un seguiment de l’evolució de la malaltia i millorar la pauta terapèutica. En aquest sentit, els acceleròmetres MEMS poden ser utilitzats per tal de detectar passes i estimar la longitud del pas fora de les instal·lacions dels laboratoris, és a dir, en entorns no controlats. Aquesta tesis presenta les contribucions originals de l’autor en el camp de l’anàlisi del moviment humà basat en acceleròmetres MEMS, específicament en la detecció de passes i l’estimació de la longitud del pas en pacients amb MP. En aquesta tesis, s’ha seleccionat una posició amigable en la qual localitzar un acceleròmetre MEMS triaxial. La posició, que consisteix en el lateral de la cintura prop de la cresta ilíaca, va ser seleccionada per maximitzar la comoditat i l’acceptabilitat des del punt de vista del pacient. Assumint aquesta posició, en primer lloc, es presenta un anàlisi dels diferents mètodes existents a la literatura en detecció de passes i, a més, es presenta una nova tècnica de detecció basada en acceleròmetres. Tots els mètodes han estat provats en usuaris sans i en pacients amb la MP; els resultats mostren que el nou mètode obté un percentatge d’encert en la detecció de passes més alt que la resta de mètodes. En segon lloc, s’han seleccionat aquells mètodes d’estimació de la longitud de pas que van ser desenvolupats per a tractar les senyals d’un sensor situat prop de les vèrtebres L4-L5. Aquests mètodes van ser modificats amb la fi de ser adaptats a la nova posició del sensor. Tots ells van ser validats en senyals obtingudes de 25 pacients amb la MP. A més, es proposa un factor de correcció genèric, el qual es compara amb el millor dels mètodes obtinguts per tal de ser usat en lloc d’una calibració individual. A pesar de la variabilitat en la velocitat de la marxa deguda a les fluctuacions motores, el nou mètode assoleix un 96,76% de precisió en la detecció de passes i, respecte l’estimació de la longitud de pas, els mètodes modificats obtenen una major precisió que els originals. El millor d’ells consisteix en un factor de correcció multiplicador que considera les passes de cada costat per separat, proporcionant un error mig de 0,033 m. Finalment, es presenta un nou model de la marxa representada com un pèndul invertit modificat que és utilitzat per analitzar les senyals d’accelerometria obtingudes des del lateral esquerra de la cintura. De forma més concreta, aquest model considera el desplaçament vertical del maluc com un pèndul invertit durant la passa dreta (costat contrari al del sensor). Durant la passa esquerra, el desplaçament durant la fase single suport i double suport es modelitza com un pèndul invertit i un pèndul simple, respectivament. Els resultats obtinguts en 25 pacients amb MP són presentats i discutits. La validesa i fiabilitat del nou model són comparats amb els de tres models diferents. Els resultats experimentals obtinguts mostren que el nou model, anomenat ICE—CETpD, estima la longitud de la passa amb una major precisió que la resta de mètodes seleccionats de la literatura. L’error mitjà d’aquest mètode durant l’estat OFF i ON és de 0, 021 i 0,029 m., respectivament, amb una correlació intraclasse superior a 0,9 en ambdós estats motors. La calibració dels paràmetres del model en cada estat motor ha estat avaluada, obtenint que una calibració en ON proporciona més precisió en els resultats. D’aquesta manera, l’avantatge de l’aproximació proposada residiria en no requerir de senyals en OFF dels pacients amb MP, per la qual cosa no seria necessari que els pacients prescindissin de preses de medicació.
306

The UJI online robot: a distributed architecture for pattern recognition, autonomous grasping and augmented reality

Marín Prades, Raúl 24 May 2002 (has links)
The thesis has been developed at the Intelligent Robotics Laboratory of the University Jaume I (Spain). The objectives are focused on the laboratory's interest fields, which are Telerobotics, Human-Robot Interaction, Manipulation, Visual Servoing, and Service Robotics in general.Basically, the work has consisted of designing and implementing a whole vision based robotic system to control an educational robot via web, by using voice commands like "Grasp the object one" or "Grasp the cube". Our original objectives were upgraded to include the possibility of programming the robot using high level voice commands as well as very quick and significant mouse interactions ("adjustable interaction levels"). Besides this, the User interface has been designed to allow the operator to "predict" the robot movements before sending the programmed commands to the real robot ("Predictive system"). This kind of interface has the particularity of saving network bandwidth and even being used as a whole task specification off-line programming interface. By using a predictive virtual environment and giving more intelligence to the robot supposes a higher level of interaction, which avoids the "cognitive fatigue" associated with many teleoperated systems.The most important novel contributions included in this work are the following:1. Automatic Object Recognition: The system is able to recognize the objects in the robot scenario by using a camera as input (automatic object recognition). This feature allows the user to interact with the robot using high level commands like "Grasp allen".2. Incremental Learning: Due to the fact that the object recognition procedure requires some kind of training before operating efficiently, the UJI Online Robot introduces the In-cremental Learning capability, that means the robot is always learning from the user in-teraction. It means the object recognition module performs better as time goes by.3. Autonomous Grasping: Once an object has been recognized in a scene, the following question is, how can we grasp it? The autonomous grasping module calculates the set of possible grasping points that can be used in order to manipulate an object according to the stability requirements.4. Non-Immersive Virtual Reality: In order to avoid the Internet latency and time-delay effects, the system offers a user interface based on non-immersive virtual reality. Hence, taken the camera data as input, a 3D virtual reality scenario is constructed, which allows specifying tasks that can be confirmed to the real robot in one step.5. Augmented Reality: The 3D virtual scenario is complemented with computer generated information that helps enormously to improve the human performance (e.g. projections of the gripper over the scene is shown, superposition of data in order to avoid robot occlusions, etc.). In some situations the user has more information by controlling the robot from the user interface (web based) than seeing the robot scenario directly.6. Task specification: The system permits specifying complete "Pick & Place" actions, which can be saved into a text file. This robot programming can be accomplished using both, the off-line and the on-line mode.7. Speech recognition/synthesis: To our knowledge this is the first online robot that allows the user to give high-level commands by using simply a microphone. Moreover, the speech synthesizer is integrated into the predictive display, in such a way that the robot re-sponds to the user and asks him/her for confirmation before sending the command to the real scenario.As explained at Chapter I, the novel contributions have been partially published in several sci-entific forums (journals, books, etc.). The most remarkable are for example the acceptance of two papers at the IEEE International Conference on Robotics and Automation 2002, and the publication of an extended article at the Special Issue on web telerobotics of the International Journal on Robotics and Automation (November 2002).We have proved the worth of the system by means of an application in the Education and Training domain. Almost one hundred undergraduate students have been using the web-based interface in order to program "Pick and Place" operations. The results are really encouraging (refer to Chapter VII) for more details. Although we are referring to the project as "The UJI Online Robot", in the Educa-tion and Training domain "The UJI Telerobotic Training System" term has been used instead.Further work is planned to focus on applying Remote Visual Servoing techniques in order to improve the actual system performance. This would avoid having to spend long nights calibrating the robot and the cameras, as well extending the system capabilities to work on less structured environments.
307

Microarchitectural Techniques to Exploit Repetitive Computations and Values

Molina Clemente, Carlos 10 July 2005 (has links)
La dependencia de datos es una de las principales razones que limitan el rendimiento de los procesadores actuales. Algunos estudios han demostrado, que las aplicaciones no pueden alcanzar más de una decena de instrucciones por ciclo en un procesador ideal, con la simple limitación de las dependencias de datos. Esto sugiere que, desarrollar técnicas que eviten la serialización causada por ellas, son importantes para acelerar el paralelismo a nivel de instrucción y será crucial en los microprocesadores del futuro.Además, la innovación y las mejoras tecnológicas en el diseño de los procesadores de los últimos diez años han sobrepasado los avances en el diseño del sistema de memoria. Por lo tanto, la cada vez mas grande diferencia de velocidades de procesador y memoria, ha motivado que, los actuales procesadores de alto rendimiento se centren en las organizaciones cache para tolerar las altas latencias de memoria. Las memorias cache solventan en parte esta diferencia de velocidades, pero a cambio introducen un aumento de área del procesador, un incremento del consumo energético y una mayor demanda de ancho de banda de memoria, de manera que pueden llegar a limitar el rendimiento del procesador.En esta tesis se proponen diversas técnicas microarquitectónicas que pueden aplicarse en diversas partes del procesador, tanto para mejorar el sistema de memoria, como para acelerar la ejecución de instrucciones. Algunas de ellas intentan suavizar la diferencia de velocidades entre el procesador y el sistema de memoria, mientras que otras intentan aliviar la serialización causada por las dependencias de datos. La idea fundamental, tras todas las técnicas propuestas, consiste en aprovechar el alto porcentaje de repetición de los programas convencionales.Las instrucciones ejecutadas por los programas de hoy en día, tienden a ser repetitivas, en el sentido que, muchos de los datos consumidos y producidos por ellas son frecuentemente los mismos. Esta tesis denomina la repetición de cualquier valor fuente y destino como Repetición de Valores, mientras que la repetición de valores fuente y operación de la instrucción se distingue como Repetición de Computaciones. De manera particular, las técnicas propuestas para mejorar el sistema de memoria se basan en explotar la repetición de valores producida por las instrucciones de almacenamiento, mientras que las técnicas propuestas para acelerar la ejecución de instrucciones, aprovechan la repetición de computaciones producida por todas las instrucciones. / Data dependences are some of the most important hurdles that limit the performance of current microprocessors. Some studies have shown that some applications cannot achieve more than a few tens of instructions per cycle in an ideal processor with the sole limitation of data dependences. This suggests that techniques for avoiding the serialization caused by them are important for boosting the instruction-level parallelism and will be crucial for future microprocessors. Moreover, innovation and technological improvements in processor design have outpaced advances in memory design in the last ten years. Therefore, the increasing gap between processor and memory speeds has motivated that current high performance processors focus on cache memory organizations to tolerate growing memory latencies. Caches attempt to bridge this gap but do so at the expense of large amounts of die area, increment of the energy consumption and higher demand of memory bandwidth that can be progressively a greater limit to high performance.We propose several microarchitectural techniques that can be applied to various parts of current microprocessor designs to improve the memory system and to boost the execution of instructions. Some techniques attempt to ease the gap between processor and memory speeds, while the others attempt to alleviate the serialization caused by data dependences. The underlying aim behind all the proposed microarchitectural techniques is to exploit the repetitive behaviour in conventional programs. Instructions executed by real-world programs tend to be repetitious, in the sense that most of the data consumed and produced by several dynamic instructions are often the same. We refer to the repetition of any source or result value as Value Repetition and the repetition of source values and operation as Computation Repetition. In particular, the techniques proposed for improving the memory system are based on exploiting the value repetition produced by store instructions, while the techniques proposed for boosting the execution of instructions are based on exploiting the computation repetition produced by all the instructions.
308

Desenvolupament de tècniques de mesura d'impedància elèctrica aplicada a la caracterització de sòls

Torrents Dolz, Josep Maria 25 November 1996 (has links)
La humitat és un dels paràmetres més característics del sòl i el seu coneixement té interès des de diversos àmbits de la enginyeria. Conèixer la humitat mitjançant la impedància elèctrica planteja un estudi acurat de les tècniques de mesura per determinar quins factors o components es mesuren realment. Cal saber, a més, si corresponen a la presència i quantificació de la humitat o a interferències com fenòmens de transducció iònico electrònica, fenòmens en el si del material o limitacions pròpies de la instrumentació, sovint poc aprofundits per la bibliografia. L'estudi teòric de les propietats elèctriques, conductivitat i permitivitat, de les barreges estableix unes directrius o punts de partida. El sòl és un sistema de partícules amb tres fases: la sòlida, l'electrolítica i els buits, que es comporta com un dielèctric compost amb moltes pèrdues. La interacció entre fases modifica les propietats elèctriques de les barreges teòriques i ens porta a l'estudi detallat de diverses lleis pseudoempíriques i al plantejament d'un model propi.S'han analitzat les tècniques clàssiques de mesura d'impedància elèctrica, abast, validesa i limitacions quan s'estudia el medi sòl. La no consideració dels punts febles o el seu oblit pot portar a interpretacions errònies. Aquesta anàlisi de tècniques de mesura i l'estudi elèctric de materials ha portat al desenvolupament de cèl.lules adaptades a diferents estratègies de mesura, a la combinació de diversos instruments i a la connexió adient de les parts amb diverses solucions originals.La conductivitat dels sòls no depèn de la freqüència en el marge estudiat (1 Hz a 100 MHz); sí que depèn dels continguts de sals dissoltes en l'electròlit. A partir d'un llindar, hi ha una relació lineal entre conductivitat i humitat en sòls de tipus sorrenc. En canvi, la relació en sòls llimosos i argilosos és de tipus potencial fins a una saturació. A freqüència baixa, no és possible mesurar la permitivitat de sòls atesa la influència de la conductivitat. A freqüències superiors a 1 MHz, la relació permitivitat humitat és aproximadament lineal en sòls sorrencs i potencial en sòls llimosos i argilosos. Aquests resultats s'han contrastat amb els models bibliogràfics, que s'han adaptat o modificat.L'anàlisi i desenvolupament de les tècniques de mesura i els models elèctrics de sòls permeten conèixer el contingut d'humitat dels sòls, tot i que cal un coneixement del tipus de sòl de què es tracta i de la concentració inicial de l'electròlit. Les tècniques desenvolupades complementen de forma ràpida i barata les tècniques clàssiques no elèctriques i poden substituir les si s'accepta una incertesa del 5%.
309

Modelling and nonlinear control of voltage frequency of hydroelectric power plants

Quiroga, Oscar Daniel 27 October 2000 (has links)
Las centrales hidroeléctricas, como sistemas reales, tienen un comportamiento no lineal. Con el objetivo de diseñar controladores para turbinas, fue una práctica normal en el pasado considerar o simplificar estos comportamientos no lineales linealizando en un punto de operación las ecuaciones diferenciales que representan la dinámica de la central hidroeléctrica. La principal motivación de esta tesis nace como consecuencia y la necesidad de mejorar y optimizar las respuestas dinámicas de las plantas hidroeléctricas, considerando estos comportamientos no lineales, conduciendo a modelos dinámicos más realistas del sistema de la turbina hidráulica, además, desarrollar y diseñar controladores más eficientes. Esta tesis considera en general el caso de sistemas de operación aislados, este es el caso de una central hidroeléctrica alimentando una carga aislada. En esta tesis se cubren dos objetivos principales: 1) Profundizar el Conocimiento de los Modelos de Sistemas Hidroeléctricos, 2) Diseñar Controladores a Partir de Modelos Probados.Profundizar el Conocimiento de los Modelos de Sistemas HidroeléctricosEste objetivo consiste en desarrollar un análisis comparativo de diferentes modelos de centrales hidroeléctricas aplicados al control de la velocidad de giro de la turbina, y proponer nuevos modelos. Con este propósito se utilizan parámetros tomados de diferentes centrales hidroeléctricas referenciadas en la bibliografía. Además, se propone la identificación de la central hidroeléctrica de Susqueda (Río Ter, Girona) usando estos modelos previamente refinados. Un paso previo muy importante para el diseño de un controlador es obtener un modelo dinámico de un sistema hidráulico confiable.Diseñar Controladores a Partir de Modelos ProbadosEl segundo objetivo es el desarrollo y diseño de controladores de la frecuencia (velocidad de giro) para centrales hidroeléctricas usando técnicas de control no lineal basadas en técnicas de la geometría diferencial y de la función de Lyapunov. En ambos casos los controladores son diseñados a partir de modelos de sistemas hidráulicos no lineales. Los resultados demuestran que usando dos funciones de coste, los controladores no lineales mejoran el comportamiento dado por los clásicos controladores PID entre un veinte y un doce por ciento, y con respecto a un controlador Gain Scheduling la mejora es entre un quince y un doce por ciento. / Hydroelectric power plants, like real systems, have nonlinear behaviour. In order to design turbine controllers, it was normal practice in the past to consider or simplify these nonlinear behaviours by linearizing at an operating point the differential equations that represent the dynamics of the hydroelectric plant. The main motivation of this dissertation was born as a consequence and necessity of improving and optimising the dynamic responses of hydroelectric plants, by taking into account these nonlinear behaviours, leading to more realistic dynamic models of the hydraulic turbine system and to the development and design of more efficient controllers. This dissertation considers in general the case of isolated system operations; it is therefore the case of a hydroelectric power plant supplying an isolated load. Two objectives are covered in this dissertation: 1) To Deepen the Knowledge of Hydroelectric System Models, 2) To Design Controllers from Well Proven Models.To Deepen the Knowledge of Hydroelectric System ModelsThis objective consists of performing a detailed comparative analysis of different existent hydroelectric models applied to speed control and propose new ones. For this purpose real parameters taken from many hydroelectric power plants referenced in the bibliography are utilised. Moreover, the identification of a hydroelectric power plant on the Ter River (Susqueda) is proposed by using these previously refined models. To obtain a reliable dynamic model of hydraulic turbine systems is an important step prior to the controller design. To Design Controllers from Well Proven ModelsThe second objective is the development and design of frequency (speed) controllers for hydroelectric power plants by using nonlinear control techniques based on differential geometry and on the Lyapunov function. For both cases the controllers are designed from nonlinear dynamic models of hydraulic turbine systems. The results demonstrate that using two cost functions the nonlinear controllers improve the behaviour given by classical PID controllers between a twenty and a twelve per cent, and with respect a Gain Scheduling controller the improvement is between a fifteen and a twelve per cent.
310

Broadband electrical impedance spectroscopy for dynamic electrical bio-impedance characterization

Sánchez Terrones, Benjamín 13 January 2012 (has links)
The electrical impedance of biological samples is known in the literature as Electrical Bioimpedance (EBI). The Electrical Bioimpedance enables to characterize physiological conditions and events that are interesting for physiological research and medical diagnosis. Although the Electrical Bioimpedance weakness is that it depends on many physiological parameters, on the other hand, it is suitable for many medical applications where minimally invasive and real-time measurements with simple and practical implementations are needed. The Electrical Impedance Spectroscopy (EIS) techniques based on broadband excitations are expected to help to understand various unsolved problems in biomedical applications. Broadband EIS opens up the possibility to reduce drastically the measuring time for acquiring EBI time-variations but, at the same time, measuring in a short time compromises the EBI accuracy. The way to overcome this intrinsic loss of accuracy relies on the design of the appropriate time/frequency input excitation properties and the use of the suitable spectral analysis processing techniques. The presented thesis covers the topics related to study of broadband excitations for Impedance Spectroscopy in biomedical applications and, more specific, the influence of the multisine excitation time/frequency properties on the impedance spectrum accuracy and its optimization. Furthermore, an advanced fast signal processing method has been implemented to process in real-time EBI data corrupted by transients, a common situation when measuring in a short measuring time. Despite being the goal to apply all this knowledge for myocardial tissue regeneration monitoring, at the moment of drafting the thesis, any of the research projects that have supported this thesis have issued functional beating tissue. For that reason, the theory presented has been validated by a set of experimental measurements over animals and patients where the impedance spectrum time-varying properties were pretended to be characterized. The thesis presents novel findings of relevance of a successful application of broadband EIS in two different measurement campaigns where it has been put in practice: (1) within the collaboration of the pneumology and cardiology service from Hospital Santa Creu i Sant Pau for in-vivo human lung tissue characterization, and (2), within the measurement of animal healthy myocardium tissue electrical impedance including its dynamic behavior during the cardiac cycle.

Page generated in 0.0571 seconds