• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 298
  • 104
  • 64
  • 28
  • 2
  • 1
  • 1
  • Tagged with
  • 498
  • 118
  • 101
  • 98
  • 85
  • 71
  • 58
  • 56
  • 56
  • 56
  • 56
  • 56
  • 56
  • 56
  • 47
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
311

Cèl·lules mare mesenquimals humanes: aïllament, caracterització i potencialitat per a la regeneració cardíaca

Farré Crespo, Jordi 03 December 2008 (has links)
La insuficiència cardíaca congestiva és una epidèmia creixent a nivell mundial. Les causes principals de la insuficiència cardíaca estan relacionades amb el dany irreversible que resulta d'un infart de miocardi. El cor humà té una capacitat de regeneració limitada, i la pèrdua de múscul, juntament amb la contracció i la fibrosi de la cicatriu miocàrdica, posen en joc un conjunt d'esdeveniments anomenats remodelat ventricular, que finalment tendeixen cap a una insuficiència cardíaca congestiva. En l'actualitat no hi ha cap tractament o procediment clínic, amb excepció del trasplantament cardíac, que substitueixi la cicatriu de l'infart per teixit contràctil funcional. Recentment, la identificació de diferents tipus de cèl·lules mare capaces de contribuir a la regeneració dels teixits ha generat un notable interès en la possibilitat que la teràpia cel·lular pugui ser utilitzada per reparar el miocardi danyat (cardiomioplàstia cel·lular). No obstant això, es desconeix encara quin és el tipus cel·lular ideal per a la cardiomioplàstia cel·lular.Tradicionalment, es pensava que les cèl·lules mare pròpies d'un teixit adult només podien diferenciar-se cap a cèl·lules del teixit d'origen. Recentment, però, un conjunt d'estudis han demostrat que les cèl·lules mare adultes poden diferenciar-se cap a llinatges diferents als del seu teixit d'origen exhibint una plasticitat que ha estat anomenada transdiferenciació. Les cèl·lules mare mesenquimals són unes cèl·lules no hematopoètiques que típicament s'han aïllat del moll d'os però que més endavant s'ha demostrat que resideixen virtualment en tots els teixits. La seva accessibilitat, capacitat proliferativa, potencial de diferenciació i perfil immunològic fan que les cèl·lules mare mesenquimals adultes siguin un candidat principal per l'aplicació en teràpia regenerativa.En aquesta tesi hem aïllat i estudiat tres tipus de cèl·lules mare d'origen mesenquimal de tres teixits diferents, el moll d'os, el teixit adipós subcutani i el teixit adipós epicàrdic. Tots ells s'han caracteritzat in vitro i se n'ha estudiat la velocitat de creixement, la seva expressió de marcadors de superfície i la seva capacitat pluripotencial vers els llinatges adipogènic i osteogènic. La recerca en aquesta tesi però, s'ha centrat en el seu potencial per a la regeneració cardiovascular. Per aquest motiu es va estudiar el potencial cardiomiogènic mitjançant l'anàlisi de l'expressió basal de marcadors característicament cardíacs i la seva capacitat de diferenciació cap a cardiòcits. Dels resultats obtinguts en aquesta primera fase in vitro vam concloure que les cèl·lules progenitores derivades de greix epicàrdic (epiATPC), unes cèl·lules no descrites fins ara, eren el candidat cel·lular ideal per a l'estudi del seu potencial de regeneració del miocardi infartat in vivo. Per aquest motiu, es va estudiar l'efecte de les epiATPC trasplantades en dos models animals d'infart de miocardi en els quals es va observar una notable millora del miocardi infartat a nivell histològic i de funció. En conclusió, les epiATPC són una font cel·lular alternativa per a la cardiomioplàstia cel·lular, com ho demostra la seva capacitat de diferenciació cap a cardiòcit i cèl·lula endotelial, així com la millora de la funció cardíaca observada en els dos models d'infart agut de miocardi estudiats en aquest treball. / Congestive heart failure is a growing epidemic worldwide. The main causes of heart failure are related to the irreversible damage that results from a heart attack. The human heart has a limited capacity for regeneration, and loss of muscle, along with contraction and fibrosis of the myocardial scar, put into play a series of events known as ventricular remodelling, which ultimately tend to congestive heart failure.At present there is no treatment or clinical procedure, with the exception of heart transplant, to replace the scar tissue for a viable tissue with contractile function. Recently, the identification of different types of stem cells capable of contributing to the regeneration of tissues has generated a significant interest in the possibility that cell therapy can be used to repair the damaged myocardium (cellular cardiomyoplasty). However, it is not known yet which cell type is ideal for the cellular cardiomyoplasty.Traditionally, it was thought that stem cells of an adult tissue could only differentiate itself into cells types of the tissue of origin. Recently, however, a number of studies have shown that adult stem cells can differentiate itself into different lineages of their tissue of origin displaying a plasticity that has been called transdifferentiation. Adult mesenchymal stem cells are a non-haematopoietic cells that typically have been isolated from the bone marrow but was later shown to reside in virtually all tissues. Its accessibility, proliferative capacity, potential for differentiation and immunological profile makes adult mesenchymal stem cells a primary candidate for the application in regenerative therapy.In this thesis we isolated and studied three types of stem cells of mesenchymal origin from three different tissues, bone marrow, subcutaneous fat and epicardic adipose tissue. All of them have been characterized in vitro and has studied the rate of growth, their expression of surface markers and their capacity towards the adipogenic and osteogenic lineages. Research in this thesis however, has focused on the potential for cardiovascular regeneration. That is why we studied the cardiomyogenic potential by analyzing the expression of basal characteristically cardiac markers and their ability to differentiate into cardiomyocytes. Based on the results obtained in this first phase in vitro we conclude that epicardial fat progenitor cells (epiATPC), a stem cell type not reported until now, were the ideal cell type for the study of their potential to regenerate myocardial infarction in vivo. For this reason, we studied the effect of epiATPC transplanted in two animal models of myocardial infarction in which there was a remarkable improvement of the infracted myocardium at histological and functional levels.In conclusion, epiATPC are an alternative cell source to cellular cardiomyoplasty, as demonstrated by their ability to differentiate into cardiomyocytes and endothelial cells, as well as the improvement of cardiac function observed in the two models of acute myocardial infarction studied in this work.
312

Análisis cuantitativo y modelización del metabolismo de la levadura Pichia pastoris

Santos de Jesus, Sérgio 01 February 2008 (has links)
El presente trabajo está centrado en el análisis y modelización del metabolismo central de la levadura Pichia pastoris. Concretamente, el objetivo de este trabajo consistió en analizar la distribución de flujos en las principales vías metabólicas del metabolismo central de esta levadura mediante distintas aproximaciones experimentales y matemáticas basadas en un modelo metabólico estequiométrico y compartimentalizado. Los datos experimentales fueron obtenidos en su mayor parte del trabajo de tesis de A. Solà (Solà, 2004, tesis doctoral, Universitat Autònoma de Barcelona), centrado en experimentos de marcaje isotópico con 13C de cultivos de P. pastoris operados en quimiostato a μ=0,05 y 0,16 h-1 con diferentes fuentes de carbono (glucosa, glicerol, metanol y mezclas de glicerol/metanol). Los datos fisiológicos experimentalmente obtenidos en dicho estudio se han reconciliado a través de ecuaciones de balances elementales y por grado de reductancia; además, se ha propuesto una ecuación estequiométrica para la formación de biomasa para cada condición de cultivo estudiada. Los datos reconciliados a través de ecuaciones de balances elementales se han usado para el análisis de flujos metabólicos; en primer lugar, se ha utilizado la metodología clásica; los resultados obtenidos en esta primera aproximación se compararon con datos experimentales previamente obtenidos mediante técnicas de marcaje isotópico de 13C por A. Solà. El segundo estudio ha consistido en el cálculo de flujos metabólicos introduciendo restricciones derivadas de cocientes de flujos metabólicos estimados experimentalmente mediante técnicas de 13C-RMN. Dado el reducido número de restricciones derivadas de experimentos de 13C-RMN que se pueden aplicar en este modelo metabólico (3 o 4), en un tercer estudio se ha realizado una primera aproximación a metodologías de simulación y optimización del diseño de experimentos de marcaje isotópico con el objetivo de implementar un procedimiento experimental que permitiera obtener datos suficientes para determinar con más precisión los flujos a través de determinadas rutas de la red, particularmente los relacionados a la vía de las pentosas fosfato (PP). Concretamente, para explorar esta estrategia se han realizado estudios para la optimización de un experimento de marcaje para un cultivo operado en quimiostato utilizando glicerol como fuente de carbono a μ=0,05h-1; la estrategia de marcaje optimizada se llevó posteriormente a cabo en el laboratorio y se analizó los patrones de marcaje de los principales metabolitos (incluyendo algunos aminoácidos) y aminoácidos proteinogénicos mediante LC-MS/MS y 2D-RMN, respectivamente. Ello ha permitido comparar y combinar datos experimentales obtenidos mediante dos estrategias de análisis para la estimación de flujos metabólicos. Así, globalmente, este trabajo permite concluir que el análisis clásico de flujos metabólicos (MFA) es una herramienta de cálculo que está limitada a redes poco complejas; sin embargo cuando se aplican restricciones derivadas del análisis por 13C-RMN al MFA, se observa que esta metodología de análisis presenta alta sensibilidad para la determinación de distribución de flujos metabólicos en el ciclo de los ácidos tricarboxílicos (TCA) y reacciones de transporte entre el citoplasma y la mitocondria. Por el contrario, utilizando una metodología de 13C-MFA basada en datos derivados de 13C-LC-MS, se observa que este método presenta poca sensibilidad en redes metabólicas compartimentalizadas, pues no permite distinguir los pools de metabolitos de un compartimiento dado (mitocondria/citoplasma). Sin embargo, este método presenta alta sensibilidad para la determinación de flujos a través de la vía de las PP. Así pues, la combinación de distintas metodologías basadas en datos de experimentos de marcaje isotópico ha permitido mejorar la información sobre el comportamiento del sistema. Finalmente, se ha llevado a cabo un análisis estructural de la red metabólica a través de la metodología del análisis de módulos elementales, así como una primera aproximación para su combinación con el análisis de flujos metabólicos basados en datos de marcaje isotópico con el objetivo de facilitar la interpretación fisiológica de los resultados, es decir, determinar cuales son las principales vías metabólicas activas bajo un estado fisiológico dado y cual es el flujo a través de dichas rutas. / This study is focused on the analysis and modelling of the central carbon metabolism of the yeast Pichia pastoris. In particular, the major aim of this study was to analyze de flux distribution through the main metabolic pathways of the central metabolism of this yeast by jeans of different experimental and mathematical approaches, based on a stoichiometric and compartmentalized metabolic model. Experimental data was mostly obtained from previous studies from A. Solà (Solà, 2004, PhD thesis, Universitat Autònoma de Barcelona), describing isotopic labelling experiments with 13C of P. pastoris cells growing on chemostat cultures at a growth rate of μ=0.05 and 0.16 h-1, on different carbon sources (glucose, glycerol, methanol and mixtures of glycerol/methanol). The experimental physiological data obtained in A. Solà's study have been reconciliated by means of elementary and grade of reductance balance equations; moreover, a stoichiometric equation for the formation of biomass has been proposed for each of the studied growth condition. The data reconciliated by elementary balance equations have been used for metabolic flux analysis. First, the classic metabolic flux analysis methodology has been applied; the obtained results in this first approximation were compared with the experimental data previously generated from 13C-labeling experiments by A. Solà. Second, metabolic fluxes have been calculated introducing a number of restrictions derived from metabolic flux ratios experimentally estimated by 13C-NMR. Third, given the reduced number of restrictions derived from these experiments that are actually aplicable to the defined metabolic model (3 or 4), we performed a first approximation to methodologies for simulation and optimisation of isotopic labeling experiments; the aim of such approach was to implement an experimental procedure to allow for the generation of labelling data needed for the precise determination of fluxes through some pathways of the network, particularly those related to the pentose phosphate pathway (PPP). In order to explore this strategy, studies for the optimisation of a labelling experiment of cells growing on glycerol in chemostat cultures at a growth rate of 0.05 h-1 were performed. The optimised labelling strategy was subsequently implemented in the laboratory; the labelling patterns of the major metabolites (including some amino acids) of the central carbon metabolism and, of the proteinogenic amino acids, were analysed by LC-MS/MS and 2D-NMR, respectively. This allowed us comparing and combining experimental labelling data derived from two analytical strategies for the calculation of metabolic fluxes. Overall, this study illustrates that classic metabolic flux análisis (MFA) is a mathematical tool limited to networks of low complexity. Nevertheless, when restrictions derived from 13C-NMR analyses are introduced MFA, this methodology shows a high sensitivity for the calculation of the metabolic flux distribution in the tricarboxylic acid cycle (TCA) and transport reactions of TCA intermediates between cytoplasm and mitochondria. In contrast, by using a 13C-MFA methodology using data derived from 13C-LC-MS, we observe that this method shows low sensitivity for compartimentalized metabolic networks, as it did not allow distinguishing pools of a given metabolite found in different compartments (e.g. mitochondria/cytoplasm). Nevertheless, this method shows high sensitivity for determining fluxes through the PPP. In summary, the combination of different methodologies based on the use of data obtained from isotopic labelling experiments has allowed us to improve the information on the system's behaviour. In addition, a structural analysis of the metabolic network has been performed using the methodology of elementary modes analysis; moreover, a first approximation to its combination with metabolic flux analysis based on 13C-derived data has been proposed, with the objective to facilitate the physiological interpretation of the results, i.e. to assess which are the major active pathways under a given physiological state and to calculate the carbon fluxes through these pathways.
313

Robust control through robusntness enhancement. Control Configurations And Two-Step Design Approaches

Pedret Ferré, Carles 18 July 2003 (has links)
En aquesta Tesi es proposa una nova estructura de control amb l'objectiu de solucionar el conflicte entre rendiment i robustesa en l'esquema de realimentació tradicional. La teoria matemàtica de la factorització coprimera permet proposar un configuració de control basada en observador. És el que es denomina configuració Observador-Controlador i es fa servir de diferents maneres. La primera proposta enfoca la millorar les prestacions de robustesa com a una alternativa al disseny d'un controlador robust. Amb la intenció d'aconseguir un bon rendiment en presència de pertorbacions i d'incerteses procedim de la següent manera: en primer lloc, dissenyem un sistema de control per realimentació estàndard per tal de satisfer els requeriments de seguiment a referència; en segon lloc, millorem les propietats de robustesa sense alterar les propietats de seguiment del sistema de control inicial. Aquesta estratègia es basa en la generació d'un complement pel sistema de control nominal mitjançant una estructura fonamentada en la configuració Observador-Controlador. Els sistema de control resultant funciona de tal manera que la planta estarà controlada només pel controlador per realimentació nominal quan no hi hagi ni incerteses ni pertorbacions externes i el controlador per a la robustificació estarà actiu només en presencia de incerteses i/o pertorbacions externes.La segona proposta afronta l'objectiu d'aconseguir un bon rendiment en presència de pertorbacions i d'incerteses. En aquest cas, desenvolupen un controlador de dos graus de llibertat (2-DOF) i procedim de la següent manera: primer, dissenyem un sistema de control per realimentació basat en observador per tal de garantir un nivell mínim d'estabilitat robusta; segon, dissenyem un prefiltre per tal de garantir robustesa en les propietats de llaç obert. Malgrat les dues propostes no es basen en una reformulació en termes del factor de Youla, es possible fer una parametrització basada en Youla per tal de caracteritzar el conjunt de tots els observadors per una planta nominal. En essència, les dues propostes es poden veure com a estructures de dos graus de llibertat. Tot i que l'esquema de la primera proposta no s'adapta a una estructura de 2-DOF clàssica, amb un prefiltre i una part per realimentació, podem considerar-la com a tal pel fet que aconsegueix una complerta separació de propietats. En aquest cas, el controlador inicial s'ocupa de les especificacions de seguiment a referència per a la planta nominal i el controlador per a la robustificació s'encarrega de la millora, si cal, les prestacions de robustesa nominals. / In this Thesis, we shall propose a new controller architecture to try to completely overcome the conflict between performance and robustness in the traditional feedback framework. The proposed control configuration comes from the coprime factorization approach and, in such a context, a somewhat uncommon observer-based control configuration is derived. It is the Observer-Controller configuration and it is used in different arrangements.The first proposal deals with the robustness enhancement problem as an alternative to the design of a robust control system. With the lofty goal of achieving high performance in the face of disturbances and uncertainties we proceed as follows: first, an initial feedback control system is set for the nominal plant to satisfy tracking requirements and second, the resulting robustness properties are conveniently enhanced while leaving unaltered the tracking responses provided by the initial controller. The approach is based on the generation of a complement for the nominal control system by means of an structure based on the Observer-Controller configuration. The final control system works in such a way that the plant will be solely controlled by the initial nominal feedback controller when there is neither model uncertainties nor external disturbances and the robustification controller will only be active when there is model uncertainties and/or external disturbances. The second proposal also addresses the goal of high performance in the face of disturbances and uncertainties. In this case, a two degrees-of-freedom (2-DOF) control configuration is developed. We proceed as follows: first, an observer-based feedback control scheme is designed to guarantee some levels of stability robustness and second, a prefilter controller is computed to guarantee robust open-loop processing of the reference commands. Despite both proposals are not based on a reformulation in terms of the Youla parameter, it is possible to perform a Youla parametrization to characterize the set of all observers for the nominal plant. Essentially, both proposals can be considered as 2-DOF control configurations. The first presented proposal do not fit the standard 2-DOF control scheme made up with a feedback controller and a prefilter controller. Nevertheless, it can also be seen to lie in the 2-DOF control configuration in the sense that a complete separation of properties is achieved. In such case, the tracking properties of the nominal plant are attained by a controller and the robustness properties are considered and enhanced if necessary by the Observer-Controller configuration.
314

Diseño de dispositivos optoelectrónicos integrados: métodos numéricos de simulación de la propagación de ondas electromagnéticas

Jiménez Jiménez, David 07 July 2000 (has links)
La tesis se centra en el desarrollo de metodos numéricos para simular la propagación del campo electromagnético en guías de onda, haciendo especial énfasis en la investigación de condiciones de frontera que permitan el flujo de las ondas radiadas hacia el exterior de la región de cálculo. Concretamente se hacen las siguientes aportaciones originales: en el método de Berénger se adapta la formulación al BPM y se demuestra su eficiencia para absorber las ondas radiadas en problemas de guias de onda; en la teoría de los operadores de Higdan se derivan las propiedades de reflexión de estos operadores en el espacio continuo y discreto, y se propone la modificación de los operadores cuando se utiliza en forumulación paraxial del BPM; en el Metodo de los Operadores Complementarios se demuestra en complementariedad de los operadores de Higdan y se demuestra su eficacia para eliminar las reflexiones artificiales que aparecen en la frontera de la region de calculo; se ha propuesto el Metodo de los Operadores Complementarios Extendido, que permite la cancelación adicional de las reflexiones de orden dos en determinados problemas. Para las condiciones de frontera anteriores se presenta un estudio comparativo, introduciendo varios experimentos numérica y de la eficiencia computacional. Con el objetivo de mostrar la utilización práctica de estos métodos numéricos en el proceso de diseño de un dispositivo, se propone el diseño de un sensor optico integrado, en tecnologia de silicio, para la medida de indices de refracción. El sensor se basa en la guía ARROW y utiliza la interferometría como técnica de deteción. Como novedad principal se introduce una capa de nitruro de silicio sobre la estructura ARROW, que permite un aumento notable de la sensibilidad.
315

Quantum Monte Carlo simulation of tunnelling devices using wavepackets and Bohm trajectories

Oriols Pladevall, Xavier 01 July 1999 (has links)
No description available.
316

Thin-film bulk acoustic wave resonators - FBAR: fabrication, heterogeneous integration with CMOS technologies and sensor applications

Campanella Pineda, Humberto 29 February 2008 (has links)
El gran impacto de la tecnología FBAR tanto en sistemas de radio frecuencia como más recientemente en sensores han motivado el desarrollo de aplicaciones integradas. Esto implica que los procesos de fabricación deberían lograr producir dispositivos resonadores con un alto factor de calidad, al tiempo que permitir la integración de los FBAR con tecnologías CMOS estándar. De tal manera, esta tesis doctoral aborda dichos requerimientos, contribuyendo con el diseño, fabricación y caracterización de resonadores FBAR; su integración con tecnologías CMOS estándar; y su aplicación a sistemas de sensores. El desarrollo de la tecnología de fabricación de los FBAR ha involucrado la puesta a punto de las técnicas de depósito y micro-mecanización de la estructura en capas del resonador, la cual está comprendida por una película de material acústico hecha de nitruro de aluminio (AlN). Se realizaron diversas pruebas para analizar la calidad del AlN depositado. También se probaron y pusieron a punto diferentes tecnologías de micro¬mecanización para liberar la estructura del FBAR, destacando entre ellas la técnica de ataque en seco por la cara de componentes, dados los altos factores de calidad obtenidos (superiores a 2.000 a 2,4 GHz). Sobre los dispositivos fabricados se realizaron caracterizaciones estructurales, modelos utilizando análisis de elementos finitos y la extracción de parámetros de circuito equivalente. Una variación del proceso que involucraba el diseño, modelado y fabricación de un dispositivo FBAR con compensación de temperatura fue igualmente desarrollada. En este ámbito vale la pena resaltar la concepción y realización de una novedosa técnica post-fabricación para el ajuste fino de la frecuencia de resonancia de los FBAR por medio de un haz de iones focalizados (FIB). Basado en la tecnología arriba mencionada, se desarrolló un método de integración heterogénea a nivel de oblea de los dispositivos FBAR en sustratos CMOS estándar. De acuerdo con este método, se logró fabricar por primera vez dispositivos FBAR flotando sobre sustratos CMOS estándar. Este método ha sido exitosamente demostrado por medio de la integración de los FBAR tanto con la tecnología comercial AMS035 como con la CNM25, desarrollada en el CNM-IMB (CSIC). En el terreno de las aplicaciones, se diseñaron y realizaron diferentes aplicaciones de sensores basadas en FBAR, siendo el detector de masas localizadas la más relevante de entre ellas. Es de anotar que esta aplicación fue demostrada por primera vez utilizando FBARs de alta frecuencia como elemento sensor. De tal forma, se contrastaron los resultados experimentales y de modelado del sensor. Por otra parte, se presenta también el concepto de sensores mecánicos basados en FBAR. Para ello se han desarrollado dos ejemplos: el acelerómetro basado en FBAR y el sensor de fuerza para aplicaciones de puntas de AFM. Se reporta también en esta tesis la fabricación y caracterización de un nuevo tipo de resonadores acústicos de AlN sin contacto entre electrodos. / The high impact of FBAR on radio-frequency and, most recently, on sensing systems has motivated the development of integrated applications. This means that the fabrication process should succeed in producing high-quality-factor resonators and, at the same time, in integrating FBARs with standard CMOS technologies. Hence, this Ph.D. thesis addresses these requirements by contributing with the design, fabrication and characterization of thin-film bulk acoustic wave resonators (FBAR); their integration with standard complementary-metal-oxide-semiconductor (CMOS) technologies; and their application to sensing systems. The development of the FBAR's fabrication technology has involved the set up of the deposition and micromachining techniques of the layered structure of the resonator, which comprises an acoustic layer made of aluminum nitride (AlN). Several tests on the deposition and characterization of the AlN quality were carried out. Also, different micro-machining technologies for FBAR releasing were tested, the front-side micro-machining technique having obtained the best quality-factor results (over 2,000 at 2.4 GHz). Structural and device experimental characterization; and equivalent-circuit parameter and finite-element modeling of the FBAR were carried out. A process variation involving the design, modeling and fabrication of a temperature-compensated (TC) FBAR device was also implemented. Another remarkable result is the implementation of a post-fabrication, focused-ion-beam assisted technique for tuning of the resonance frequency of the FBAR. Based on the foregoing-mentioned FBAR technology, a method for performing wafer-level heterogeneous integration of the FBAR with a CMOS substrate was developed. According to this method, the fabrication of a floating FBAR above standard CMOS substrates has been achieved for the first time. The method was demonstrated by integrating FBARs on the commercial AMS035 and the in-house CNM25 CMOS technologies. On the application side, different FBAR-based sensor applications were implemented, the localized-mass detector being the most relevant, which has been demonstrated for the first time for high-frequency bulk-acoustic resonators. Experimental and modeling results have been contrasted. Also, the concept of FBAR-based mechanical sensor has been introduced. Two examples are the embedded-FBAR accelerometer and the force sensor for AFM-cantilever applications. The fabrication and characterization results of an AlN-based contactless acoustic resonator are also reported in this thesis.
317

Modelización y Fabricación de Dispositivos Supresores TVS para Protección en Aplicaciones de Baja Tensión

Urresti Ibáñez, Jesús Roberto 11 December 2008 (has links)
The contious reduction in size and work voltage of the new generation integrated circuits (ICs) requires the reducction of the thickness of the different layers that make up (especially the gate oxides and levels of isolation between conductors), in order to increase its density and speed of integration, reducing its energy consumption. However, these improvements involve an increase in their sensitivity to external perturbations such as fluctuations in the electricity network, capacitive coupling or electrostatic discharge (ESD). Although there is a wide range of electronic devices designed to protect ICs from such disturbances avoiding destruction (Zener diodes, thyristors, etc.), The continuous reduction of voltage operation and increasing the frequency of work has required a major research effort to adapt the protective devices to the new conditions of operation. The main features that should satisfy any device designed to protect an electronic system are: fast response, low parasitic capacity, driving in low resistance, high absorption capacity of current, low leakage current in reverse, minimum size, low cost, should not interfere in the normal mode of operation of the system that protects and must maintain unchanged its electrical characteristics over time. In high voltage applications, Zener diodes and thyristors are the most used, both in format as a discreet way to the monolithic IC, for protection against ESD phenomena. However, new generations of ICs for mobile applications (portable computers, telecommunications, remote control systems, etc.) Require devices capable of working at low voltage and low energy consumption (in order to maximize the life of batteries ). Under these conditions, the protection of traditional elements are not optimal, so that further protection devices with low voltage and low shooting leakage current in his block state. In this situation, the use of new protective structures based on a process of rupture by emptying (punch-through) improves the characteristics of those based on a break by avalanche (base of the traditional components). Thus, this study aims to analyze, optimize, design and produce new elements of protection by breaking with punch-through, known as Transient Voltage Suppressors (TVS), which improve the performance of Zener diodes in applications from low tension (less than 3 V). Thus, Chapter 1 describes the main electric perturbation and sources that originated, along with a description of its effect on the CIs. It also provides a description of the different existing devices suppressors, with special emphasis on TVS, the main topic for this work. In Chapter 2 presents a study of the vertical TVS based in the punch-through effect, which analyzes the electrical characteristics of its two configurations (TVS 3 layers, TVS 4 layers). It also presents the theoretical model of rupture developed for this type of structures as well as the verification of it through numerical simulations and experimental data. Chapter 3 deals with the design, fabrication and characterization of vertical TVS. We show the technological processes done and the improvements are detailed, demonstrating the superiority of TVS 4 layers respect to the TVS 3 layers and Zener diodes. Chapter 4 presents the first study published on lateral punch-through TVS devices intended to be integrated with the circuitry to protect. The study was conducted for different configurations proposed in technology Bulk Silicon, compared among themselves and choose the configuration that shows better characteristics. This chapter also presents a novel way of using the field plate to reduce the breakdown voltage into the lateral TVS. Finally, and as a line of the future, assessing the feasibility of integrating lateral TVS devices in SOI (Silicon-On-Insulator) substrates. Finally, Chapter 5 shows the manufacturing of lateral TVS. Details the technological process, the design of masks, clean room manufacturing in the characterization and finally, whether technological, using techniques of Reverse Engineering, as electric.
318

Análisis automático de prestaciones de aplicaciones paralelas basadas en paso de mensajes

Jorba Esteve, Josep 06 April 2006 (has links)
La tesis presenta, el desarrollo de una propuesta de arquitectura para el análisis automático de prestaciones de aplicaciones paralelas desarrolladas bajo paradigmas de programación de paso explicito de mensajes.A lo largo de los capítulos que configuran la misma: se han analizado diferentes aspectos que tienen que ver con el ámbito de aplicación, ya sea introduciendo los sistemas paralelos y distribuidos usados como base, así como las métricas base de prestaciones. Dando una visión de diferentes técnicas base para la monitorización, como el tracing y profiling, y como se han usado como primer paso de las herramientas clásicas de análisis de prestaciones, normalmente basadas en técnicas de visualización. Las deficiencias de estas, así como el amplio conocimiento necesario para intepretar correctamente los datos proporcionados, nos llevan a considerar herramientas de un nivel superior, que proporcionen automatismos más allá de la monitorización y nos permitan obtener resultados interpretables y útiles directamente para la mejora de las prestaciones de las aplicaciones.La arquitectura propuesta, mediante diferentes fases de monitorización, detección de problemas, clasificación según su relevancia, análisis de sus causas, y la emisión de sugerencias sobre actuaciones nos permite minimizar y/o hacer desaparecer las ineficiencias causadas por los problemas de prestaciones aparecidos durante la ejecución de las aplicaciones.Entre los objetivos de la arquitectura propuesta, se encuentran: a) La especificación del conocimiento de prestaciones, mediante la introducción de conocimiento en forma de estructura de problemas, y del análisis de sus causas, de forma que permita ampliar el conocimiento que en cada momento pueda disponer la herramienta. b) Independencia de los mecanismos de detección de los problemas concretos definidos. c) Independencia del sistema base de paso de mensajes utilizado. d) Relación de los problemas con el código fuente de la aplicación, para establecer que puntos están relacionados con los problemas. e) La emisión de sugerencias útiles de cara al usuario final para proporcionar actuaciones directas sobre el código de la aplicación para mejorar sus prestaciones.Los resultados experimentales obtenidos sobre un prototipo de herramienta basada en la arquitectura propuesta, demuestran la viabilidad de las de las propuestas formuladas en esta tesis. La herramienta ha sido probada con un amplio conjunto de aplicaciones paralelas y distribuidas para demostrar esta viabilidad, comprobando que la metodología es eficaz, fiable y beneficiosa y que puede ser usada para mejoras reales del rendimiento de las aplicaciones. / The thesis presents, the development of a architectural proposal for the automatic performance analysis of parallel applications developed in programming paradigms of explicit message passing.In the chapters that form the thesis: different aspects have been analyzed that they have to do with the field of application, by introducing the parallel and distributed systems used as base systems, as well the base metrics of performance. Giving a vision of different techniques for monitoring, like tracing and profiling, and since they have used like the first step in the classic tools of performance analysis, normally based on visualization techniques. The deficiencies of these tools, as well as the wide knowledge necessary to interpret the obtained data correctly, takes us to consider tools of a superior level, that provide automatism beyond the monitoring process and they allow us to directly obtain interpretable and useful results for the improvement of the performance of the applications.The architectural proposal, is composed of different phases: from monitoring, detection of problems, classification according to his relevance, analysis of its causes, and the emission of hints on performance that allows us to minimize and/or to make disappear the inefficiencies caused by the performance problems appeared during the execution of the applications.The main goals of the proposed architecture are: a) Ability to specify the performance knowledge, by means of the introduction of knowledge in a form of the structure of the performance problems, and of the analysis of its causes. So, this specification allows us to extend the performance knowledge that every moment can have the tool. b) Independence of the mechanisms of detection of the defined performance problems. c) Independence of environment of message passing used. d) Relation of the problems with the source code of the application, to establish that points are related to the performance problems. e) The emission of useful suggestions/hints facing the end user to provide direct operating points on the code of the application to improve its performance.The experimental results obtained in a tool prototype based on the architecture demonstrate the viability of those of the proposals formulated in this thesis. The tool has been proven with an ample set of parallel and distributed applications to demonstrate this viability, verifying that the methodology is effective, feasible, and profitable and that can be used for a real improvement of the program performance.
319

FTDR: Tolerancia a fallos, en clusters de computadores geográficamente distribuidos, basada en Replicación de Datos

Rodrigues de Souza, Josemar 01 June 2006 (has links)
El crecimiento de los clusters de computadores, y en concreto de sistemas multicluster incrementa los potenciales puntos de fallos, exigiendo la utilización de esquemas de tolerancia a fallos que proporcionen la capacidad de terminar el procesamiento. El objetivo general planteado a sistemas de tolerancia a fallos es que el trabajo total se ejecute correctamente, aún cuando falle algún elemento del sistema, perdiendo el mínimo trabajo realizado posible, teniendo en cuenta que las prestaciones disminuyen debido al overhead necesario introducido para tolerar fallos y a la perdida de una parte del sistema. Esta Tesis presenta un modelo de tolerancia a fallos en clusters de computadores geográficamente distribuidos, utilizando Replicación de Datos denominado FTDR (Fault Tolerant Data Replication). Está basado en la replicación inicial de los procesos y una replicación de datos dinámica durante la ejecución, con el objetivo de preservar los resultados críticos. Está orientado a aplicaciones con un modelo de ejecución Master/Worker y ejecutado de forma transparente al usuario. El sistema de tolerancia a fallos diseñado, es configurable y cumple el requisito de escalabilidad. Se ha diseñado un modelo funcional, e implementado un Middleware. Se propone una metodología para incorporarlo en el diseño de aplicaciones paralelas. El modelo está basado en detectar fallos en cualquiera de los elementos funcionales del sistema (nodos de cómputo y redes de interconexión) y tolerar estos fallos a partir de la replicación de programas y datos realizada, garantizando la finalización del trabajo, y preservando la mayor parte del cómputo realizado antes del fallo, para ello es necesario, cuando se produce un fallo, recuperar la consistencia del sistema y reconfigurar el multicluster de una forma transparente al usuario. El Middleware desarrollado para la incorporación de la tolerancia a fallos en el entorno multicluster consigue un sistema más fiable, sin incorporar recursos hardware extra, de forma que partiendo de los elementos no fiables del cluster, permite proteger el cómputo realizado por la aplicación frente a fallos, de tal manera que si un ordenador falla otro se encarga de terminar su trabajo y el cómputo ya realizado está protegido por la Replicación de Datos. Este Middleware se puede configurar para soportar más de un fallo simultáneo, seleccionar un esquema centralizado o distribuido, también se pueden configurar parámetros relativos a aspectos que influyen en el overhead introducido, frente a la pérdida de más o menos computo realizado. Para validar el sistema se ha diseñado un sistema de inyección de fallos. Aunque añadir la funcionalidad de tolerancia a fallos, implica una pérdida de prestaciones, se ha comprobado experimentalmente, que utilizando este sistema, el overhead introducido sin fallos, es inferior al 3% y en caso de fallo, después de un tiempo de ejecución, es mejor el tiempo de ejecución (runtime) tolerando el fallo que relanzar la aplicación. / The growth of the clusters computers and in special multi-cluster systems increases the potential failures points, demanding the utilization of fault tolerance schemes that provide the capacity of finishing the processing. The general goal proposed for fault tolerance systems is that the total work executes correctly, still when it fails with some elements of the system, losing the minimum possible performed work, having in mind that performance decreases due to the necessary overhead introduced to tolerate failures and to the loss of a part of the system. This Thesis presents a fault tolerance model in clusters computers geographically distributed, using Data Replication denominated FTDR (Fault Tolerant Data Replication). It is based on initial process replication and a dynamic data replication during the execution, with the goal of preserving the critical results. It is guided to the applications with an execution model Master/Worker and executed in a transparent way to the user. The design of fault tolerance system is configurable and accomplishes scalability requisites. A functional model has been drawn, and a Middleware has been implemented. A methodology to incorporate it in the parallels applications design is proposed. The model is based on failures detection for any of the functional elements of the system (nodes of compute and network interconnection) and to tolerate these failures starting from programs replication and data, guaranteeing the conclusion of work, and preserving most of the compute performed before the fault, for that it is necessary, when a failure takes place, to recover the consistency of the system and recon figurate the multicluster in a transparent way to the user. The Middleware developed to incorporate fault tolerance in the multicluster environment gets a more reliable system, without incorporating extra hardware resources, so that starting from the non reliable elements of cluster, it allows to protect the computation performed by the application in front of failures, that is if a computer fails another takes care of finishing its work and compute yet performed is protected by Data Replication. This Middleware can be configured to tolerate more than one simultaneous failure, select a centralized or distributed scheme; relative parameters for aspects that influence in the introduced overhead can also be configured, adapting to the loss of more or less performed compute. To validate the system we drew a failure injection system. Despite adding the fault tolerance functionality implies a loss of installments, it is experimentally proved, that using this system, the overhead introduced without failures, is lower than 3% and in case of failure, after an execution time, the runtime is better tolerating the failure than relaunching the application.
320

Definition of Framework-based Performance Models for Dynamic Performance Tuning

Cesar Galobardes, Eduardo 07 April 2006 (has links)
Parallel and distributed programming constitutes a highly promising approach to improving the performance of many applications. However, in comparison to sequential programming, many new problems arise in all phases of the development cycle of this kind of applications. For example, in the analysis phase of parallel/distributed programs, the programmer has to decompose the problem (data and/or code) to find the concurrency of the algorithm. In the design phase, the programmer has to be aware of the communication and synchronization conditions between tasks. In the implementation phase, the programmer has to learn how to use specific communication libraries and runtime environments but also to find a way of debugging programs. Finally, to obtain the best performance, the programmer has to tune the application by using monitoring tools, which collect information about the application's behavior. Tuning can be a very difficult task because it can be difficult to relate the information gathered by the monitor to the application's source code. Moreover, tuning can be even more difficult for those applications that change their behavior dynamically because, in this case, a problem might happen or not depending on the execution conditions.It can be seen that these issues require a high degree of expertise, which prevents the more widespread use of this kind of solution. One of the best ways to solve these problems would be to develop, as has been done in sequential programming, tools to support the analysis, design, coding, and tuning of parallel/distributed applications. In the particular case of performance analysis and/or tuning, it is important to note that the best way of analyzing and tuning parallel/distributed applications depends on some of their behavioral characteristics. If the application to be tuned behaves in a regular way then a static analysis (predictive or trace based) would be enough to find the application's performance bottlenecks and to indicate what should be done to overcome them. However, if the application changes its behavior from execution to execution or even dynamically changes its behavior in a single execution then the static analysis cannot offer efficient solutions for avoiding performance bottlenecks. In this case, dynamic monitoring and tuning techniques should be used instead. However, in dynamic monitoring and tuning, decisions must be taken efficiently, which means that the application's performance analysis outcome must be accurate and punctual in order to effectively tackle problems; at the same time, intrusion on the application must be minimized because the instrumentation inserted in the application in order to monitor and tune it alters its behavior and could introduce performance problems that were not there before the instrumentation. This is more difficult to achieve if there is no information about the structure and behavior of the application; therefore, blind automatic dynamic tuning approaches have limited success, whereas cooperative dynamic tuning approaches can cope with more complex problems at the cost of asking for user collaboration. We have proposed a third approach. If a programming tool, based on the use of skeletons or frameworks, has been used in the development of the application then much information about the structure and behavior of the application is available and a performance model associated to the structure of the application can be defined for use by the dynamic tuning tool. The resulting tuning tool should produce the outcome of a collaborative one while behaving like an automatic one from the point of view of the application developer.

Page generated in 0.0381 seconds