151 |
Efectos de la estimulación eléctrica del núcleo basal magnocelular sobre el condicionamiento de evitación activa de dos sentidos, en ratasMontero Pastor, Ana 14 May 2004 (has links)
Numerosos estudios conductuales han investigado el papel del núcleo basal magnocelular (NBM) y sus proyecciones colinérgicas a la corteza y a la amígala sobre las funciones cognitivas. Estos estudios señalan la participación del sistema colinérgico del NBM en la atención, la adquisición y la consolidación de la memoria, pero no en la recuperación de la información. Estudios de estimulación eléctrica (EIC) han demostrado la implicación del NBM en la activación cortical y en la plasticidad, mecanismos neurales relacionados con los procesos de aprendizaje y memoria.No obstante, existen pocos estudios conductuales de evaluación de los efectos de la EIC del NBM sobre la memoria. Además, no hay ninguno que analice la activación del NBM a lo largo de múltiples fases del aprendizaje. Por lo tanto, nos propusimos investigar los efectos de la EIC del NBM en diferentes estadios del aprendizaje de la tarea de evitación activa de dos sentidos (EV2). El Experimento I estudia los efectos de la EIC post-entrenamiento sobre la retención a corto (24 h) y a largo (11 días) plazo. La posible influencia de la ejecución en la adquisición también fue estudiada. Los resultados muestran que la EIC del NBM mejora la retención a corto y a largo plazo, especialmente en ratas con un nivel bajo de aprendizaje inicial. En el Experimento II investigamos los efectos de la EIC del NBM aplicada en diferentes fases del aprendizaje de la EV2: (a) inmediatamente antes de la primera sesión de entrenamiento, para evaluar los efectos de la EIC sobre la adquisición (EIC preadquisición); (b) inmediatamente después de la primera sesión, para determinar los efectos sobre la consolidación de la memoria y el reaprendizaje en dos sesiones de retención (24 y 48 h después de la adquisición) (EIC postadquisición); (c) inmediatamente antes de la sesión de retención de 24 h, para analizar los efectos sobre la recuperación de la información, (EIC preretención 24 h). Con el objetivo de obtener mayores efectos sobre el condicionamiento, aumentamos la intensidad de la corriente (100 _A) y la duración del tratamiento (30 o 45 min) de EIC. Los principales resultados son: (i) la EIC preadquisición mejora la adquisición de la tarea sin afectar la conducta en las sesiones posteriores de retención; (ii) la estimulación postadquisición durante 45 min interrumpe ligeramente la ejecución en la sesión de retención de 24 h pero no en la de 48 h; (iii) la EIC preretención 24 h no afecta a ninguna de las dos sesiones de retención. La facilitación en la adquisición de la EV2 puede ser explicada por una mejora en la atención dado que la eficacia del aprendizaje depende de esta función, la cual, a su vez, depende de las proyecciones colinérgicas del NBM. Respecto a la consolidación de la memoria, ambos experimentos muestran efectos moduladores (facilitación o ligera interrupción) sobre la retención dependiendo del (a) nivel inicial de aprendizaje (Experimento I) y (b) la duración del tratamiento y la intensidad de la corriente (Experimento II). Además, nuestros resultados indican que la contribución del NBM es menos importante en la recuperación de la memoria, cuando la tarea ya está aprendida. En general, estos resultados sugieren que la activación del NBM puede contribuir más en estadios iniciales que en fases posteriores de la tarea. Los efectos moduladores sobre los procesos cognitivos tras la EIC del NBM podrían ser explicados por la inducción de plasticidad cortical. La activación del NBM podría haber creado un estado permisivo, a través de la liberación de acetilcolina, que optimizase los mecanismos de plasticidad neural necesarios para los procesos de aprendizaje y memoria. Sin embargo, nuestros resultados también pueden ser interpretados en el contexto de la modulación subcortical (amígdala basolateral) y la activación de otros sistemas de neurotransmisión como el ácido _-aminobutírico. / Extensive behavioral studies have investigated the role of the nucleus basalis magnocellularis (NBM), and mainly its cholinergic projections to neocortex and amygdala, on cognitive functions. Converging evidence from those studies supports an important role of NBM cholinergic system in attention, acquisition and memory consolidation, but not in retrieval of information. Studies of NBM electrical stimulation (ICS) have demonstrated the involvement of NBM in cortical activation and cortical plasticity, both neural mechanisms related to learning and memory processes.Nevertheless, there are only few studies that have evaluated the effects of NBM ICS on behavioral memory. Moreover, there is not any study that examines the activation of NBM across the multiple phases of learning. Therefore, we seek to investigate the effects of NBM ICS during different stages of learning of a two-way active avoidance task (AA2). Experiment I, focused on memory consolidation, assess the effects of the post-training NBM ICS on short-(24 h) and long-(11 days) term retention of AA2. The possible influence of the acquisition performance was also studied. The results show that post-training NBM ICS improves both short-(24 h) and long-(11 days) term retention of AA2, especially in the rats with a low initial learning ability. In Experiment II we investigate the effects of NBM ICS applied at different phases during the learning of AA2: (a) immediately before the first training session, to evaluate the effects stimulating the NBM on the acquisition (preacquisition ICS); (b) immediately after the first training session, testing the animals' performance on two retention sessions (24 and 48 h after the acquisition session), to determine the effects on memory consolidation and relearning (postacquisition ICS); (c) immediately before the 24-h retention session, to analyze the effects of NBM activation on retrieval, when the task-relevant information may be already stored (preretention 24-h ICS). In order to obtain stronger effects on the conditioning, in this experiment we raised both current intensity (100 _A) and treatment duration (30 or 45 min) of the ICS. The main results are: (i) preacquisition ICS of the NBM significantly improved the acquisition of the task, without affecting behaviour in latter retention sessions; (ii) postacquisition ICS for 45 min slightly disrupted performance in the 24-h retention but not the 48-h retention session; (iii) preretention 24-h ICS did not affect either 24 or 48-h retention sessions. The facilitation in acquisition of AA2 could be explained on the basis of attentional enhancement given that the efficacy of learning depends on this function, which, in turn, depends on cholinergic NBM projections. Regarding memory consolidation, both experiments showed modulatory effects (facilitation or slight disruption) on retention, depending on (a) the initial learning ability of the subjects (Experiment I), and (b) the treatment duration and current intensity (Experiment II). Moreover, our results indicate that the contribution of NBM is less important in memory retrieval, when a task is already well learned, and then its activation would not improve latter phases of learning. Collectively, these findings suggest that NBM activation may contribute to early rather that late phases of the task. Modulatory effects on cognitive processes with NBM activation could be explained on the grounds of cortical plasticity induction. Activation of the NBM could have created a permissive state through acetylcholine (ACh) release that would optimize neural plasticity mechanisms, which are necessary for learning and memory processes. However, our results could be interpreted not only in the context of cortical activation and ACh release but also subcortical modulation (basolateral amygdala) and activation of other neurotransmitter systems such as _-aminobutyric acid.
|
152 |
Strategies for pushing nonlinear microscopy towards its performance limitsAviles-Espinosa, Rodrigo 27 March 2013 (has links)
The requirement for imaging living structures with higher contrast and resolution has been covered by the inherent advantages offered by nonlinear microscopy (NLM). However, to achieve its full potential there are still several issues that must be addressed. To do so, it is very important to identify and adapt the key elements in a NLM for achieving an optimized interaction among them. These are 1) the laser source 2) the optics and 3) the sample properties for contrast generation. In this thesis, three strategies have been developed for pushing NLM towards its limits based on the light sample interaction optimization.
In the first strategy it is experimentally demonstrated how to take advantage of the sample optical properties to generate label-free contrast, eliminating the requirement of modifying the sample either chemically or genetically. This is carried out by implementing third harmonic generation (THG) microscopy. Here, it is shown how the selection of the ultra-short pulsed laser (USPL) operating wavelength (1550 nm) is crucial for generating a signal that matches the peak sensitivity of most commercial detectors. This enables reducing up to seven times the light dose applied to a sample while generating an efficient signal without the requirement of amplification schemes and specialized optics (such as the need of ultraviolet grade). To show the applicability of the technique, a full developmental study of in vivo Caenorhabditis elegans embryos is presented together with the observation of wavelength induced effects. The obtained results demonstrate the potential of the technique at the employed particular wavelength to be used to follow morphogenesis processes in vivo.
In the second strategy the limits of NLM are pushed by using a compact, affordable and maintenance free USPL sources. Such device was designed especially for two-photon excited fluorescence (TPEF) imaging of one the most widely used fluorescent markers in bio-imaging research: the green fluorescent protein. The system operating parameters and its emission wavelength enables to demonstrate how matching the employed fluorescent marker two-photon action cross-section is crucial for efficient TPEF signal production at very low powers. This enables relaxing the peak power conditions (40 W) to excite the sample. The enhanced versatility of this strategy is demonstrated by imaging both fixed and in vivo samples containing different dyes. More over the use of this laser is employed to produce second harmonic generation images of different samples. Several applications that can benefit by using such device are outlined. Then a comparison of the employed USPL source is performed versus the Titanium sapphire laser (the most used excitation source in research laboratories). The final goal of this strategy is to continue introducing novel laser devices for future portable NLM applications. In this case, the use of chip-sized semiconductor USPL sources for TPEF imaging is demonstrated. This will allow taking NLM technology towards the sample and make it available for any user.
In the last strategy, the light interaction with the optical elements of a NLM workstation and the sample were optimized. The first enhancement was carried out in the laser-microscope optical path using an adaptive element to spatially shape the properties of the incoming beam wavefront. For an efficient light-sample interaction, aberrations caused by the index mismatch between the objective, immersion fluid, cover-glass and the sample were measured. To do so the nonlinear guide-star concept, developed in this thesis, was employed for such task. The correction of optical aberrations in all the NLM workstation enable in some cases to have an improvement of more than one order of magnitude in the total collected signal intensity.
The obtained results demonstrate how adapting the interaction among the key elements of a NLM workstation enables pushing it towards its performance limits. / La creciente necesidad de observar estructuras complicadas cada vez con mayor contraste y resolución han sido cubiertas por las ventajas inherentes que ofrece la microscopia nolineal. Sin embargo, aun hay ciertos aspectos que deben ser ajustados para obtener su máximo desempeño. Para ello es importante identificar y adaptar los elementos clave que forman un microscopio optimizar la interacción entre estos. Dichos elementos son: 1) el laser, 2) la
óptica y 3) las propiedades de la muestra. En esta tesis, se realizan tres estrategias para llevar la eficiencia de la microscopia nolineal hacia sus límites.
En la primera estrategia se demuestra de forma experimental como obtener ventaja de las propiedades ópticas de la muestra para generar contraste sin el uso de marcadores mediante la generación de tercer harmónico. Aquí se muestra como la selección de la longitud de onda del láser de pulsos ultracortos es crucial para que la señal obtenida concuerde con la máxima sensibilidad del detector utilizado. Esto permite una reducción de la dosis de luz con la que se expone la muestra, elimina intrínsecamente el requerimiento de esquemas de amplificación de señal y de óptica de tipo ultravioleta (generalmente empleada en este tipo de microscopios). Mediante un estudio comparativo con un sistema convencional se demuestra que los niveles de potencia óptica pueden ser reducidos hasta siete veces. Para demostrar las ventajas de dicha técnica se realiza un estudio completo sobre el desarrollo embrionario de Caenorhabditis elegans y los efectos causados por la exposición de la muestra a dicha longitud de onda. Los resultados demuestran el potencial de la técnica para dar seguimiento a procesos morfogénicos en muestras vivas a la longitud de onda utilizada.
En la segunda estrategia se diseñó una fuente de pulsos ultracortos que es compacta, de costo reducido y libre de mantenimiento para excitar mediante la absorción de dos fotones uno de los marcadores más utilizados en el entorno biológico, la proteína verde fluorescente. Los parámetros de operación en conjunto con la longitud de onda emitida por el sistema proporcionan la máxima eficiencia permitiendo el uso de potencias pico muy bajas (40 W),
ideales para relajar la exposición de la muestra. La versatilidad de esta estrategia se demuestra empleando muestras fijas y vivas con diferentes marcadores fluorescentes. Este láser también es empleado para la obtención de señal de segundo harmónico en diferentes muestras. Adicionalmente, se llevó a cabo un estudio comparativo entre la fuente desarrollada y un sistema Titanio zafiro (uno de los láseres más utilizados en laboratorios de
investigación). El objetivo final de esta estrategia es introducir fuentes novedosas para aplicaciones portátiles basadas en procesos nolineales. En base a esto se demuestra el uso de dispositivos construidos sobre un microchip para generar imágenes de fluorescencia de dos fotones. Esto permitirá llevar la tecnología hacia la muestra biológica y hacerla disponible para cualquier usuario.
En la última estrategia se optimiza de la interacción de la luz con los elementos ópticos del microscopio y la muestra. La primera optimización se lleva a cabo en la trayectoria óptica que lleva el láser hacia el microscopio empleando un elemento adaptable que modifica las propiedades espaciales de la luz. Para mejorar la interacción de la luz y la muestra se miden las aberraciones causadas por la diferencia de índices refractivos entre el objetivo, el medio
de inmersión y la muestra. Esto se realizo empleando el concepto de la “estrella guía nolineal” desarrollado en esta tesis. Mediante la corrección de las aberraciones en el sistema de microscopia nolineal se obtiene una mejora, en algunos casos de un orden de magnitud, en la intensidad total medida.
Los resultados obtenidos en esta tesis demuestran como el adaptar la interacción entre los elementos clave en un microscopio nolineal permiten llevar su desempeño hacia los límites.
|
153 |
Exponentiated weibull fading channel model in free-space optical communications under atmospheric turbulenceBarrios Porras, Ricardo 17 May 2013 (has links)
Free-space optical (FSO) communications is drawing increasing attention as a promising technology to overcome bandwidth shortage, of an evermore crowded wireless marketplace. Currently radio-frequency (RF) technology struggles to cope with the ever increasing demand for high-bandwidth data. Moreover, as the number of users increases, the RF spectrum is getting so crowded that there is virtually no room for new wireless services, with the additional inconvenient of limited bandwidth restriction for using a RF band and the license fees that have to be paid for such bands. FSO communications offer clear advantages over other alternatives such as narrower and more secure beams, virtually limitless bandwidth and no regulatory policies for using optical frequencies and bandwidth. Moreover, in the space sector FSO technology is becoming more attractive for satellite communication systems due to the less mass and power requirements --compared to RF.
The major drawback for deploying wireless links based on FSO technology is the perturbation of the optical wave as it propagates through the turbulent atmosphere. Many effects are produced, of which the most noticeable is the random fluctuations of the signal-carrying laser beam irradiance (intensity), phenomenon known as scintillation and quantified by the scintillation index (SI). The statistical analysis of the random irradiance fluctuations in FSO links is conducted through the probability density function (PDF), from which one can obtain other statistical tools to measure link performance such as the probability of fade and the bit error-rate (BER). Nowadays, the most widespread models for the irradiance data are, by far, the Lognormal (LN) and Gamma-Gamma (GG) distributions. Although both models comply with actual data in most scenarios neither of them is capable of fitting the irradiance data under all conditions of atmospheric turbulence for finite receiving aperture sizes, i.e. in the presence of aperture averaging. Furthermore, there are several cases where neither the LN or the GG model seem to accurately fit the irradiance data, specially in the left tail of the PDF.
The work presented in this thesis is devoted to propose a new model for the irradiance fluctuations in FSO links under atmospheric turbulence, in the presence of aperture averaging; resulting in the exponentiated Weibull (EW) distribution. A physical justification for the appearance of the new model is provided along with numerous test scenarios in the weak-to-strong turbulence regime --including numerical simulations and experimental data-- to assess its suitability to model the irradiance data in terms of the PDF and probability of fade. Here, a semi-heuristic approach is used to find a set of equations relating the EW parameters directly to the SI. Such expressions were tested offering a fairly good fitting the actual PDF of irradiance data. Furthermore, for all the scenarios tested a best fit version of the EW PDF is obtained and always presents itself as an excellent fit to the PDF data. The new model has been compared to the LN and GG distributions proving to cope to the predictions made by those and, in some cases, even outperforming their predictions. Additionally, a new closed-form expression has been derived for estimating the BER performance under EW turbulence, for intensity-modulation/direct-detection (IM/DD) systems using on-off keying (OOK) modulation. Moreover, this expression has been extended to include pointing errors. Finally, the exponentiated Weibull PDF has been proved to be valid with fully and partially coherent beams.
The results presented here suggest that the EW distribution presents the better fit for data under different scenarios, thus, the exponentiated Weibull distribution becomes an excellent alternative to model the PDF of irradiance data under all conditions of atmospheric turbulence in the presence of aperture averaging.
|
154 |
Improving ms-sensor technologies for food quality assessmentVinaixa Crevillent, Maria 24 July 2008 (has links)
SUMMARY Food industry is demanding for fast screening methodologies in order to guaranty food quality and safety. These methodologies should allow high throughput with sufficient accuracy and reproducibility. In this context, MS-Sensor is a challenging approach since it allows simultaneous determination of compounds in food matrices and complex mixtures with a high sample throughput. The basic working principle of MS-Sensor systems is based on the introduction of volatile components extracted from the headspace of a sample into the ionization chamber of a mass spectrometer. The mass spectra resulting from the ionization and fragmentation of this extract constitute a very complex ionization pattern that can be seen as a fingerprint which is characteristic of the matrix being analyzed. These ionisation patterns are then processed by pattern recognition engines to perform tasks such as classification, recognition and, to a limited extent, quantification.This thesis is devoted to study the possibilities and capabilities of MS-Sensor approach to its application in several food quality related problems such as the determination rancidity levels in crisps; the detection of fungal spoilage in bakery products, the monitoring of sardines freshness under cold storage; the classification of virgin olive oils according its organoleptic properties and the discrimination of two Iberian ham qualities according pigs feeding. In each one of these applications it has been demonstrated the feasibility of using a MS-Sensor to solve the food quality problem under study. It has been widely demonstrated that the MS-Sensor profile can be considered as a useful fingerprint technique for characterization of the targeted quality property and, as in certain cases, even for quantification of several parameters correlated with this problem.Despite that feasibility of MS-Sensor has been widely demonstrated for the applications under study, this approach stills suffer from some weakness or drawbacks that may influence performance of MS-Sensor. Main drawbacks are the inherent high dimensionality of data response matrices and the low selectivity of m/z fragments pseudosensors used as variables in these matrices.These two drawbacks could be responsible for the lack of reproducibility showed by MS-Sensor systems in certain applications mentioned above. In order to success in the development of such applications it was necessary to figure out different strategies for overcoming this high dimensionality and the low selectivity. In order to handle the low selectivity of m/z fragments several new methodologies based on the use of multi-way algorithms has been implemented for the first time in the framework of this thesis. Besides, new variable selection algorithms has been developed and implemented in order to avoid high dimensionality modelling. It has been demonstrated that use of the developed algorithms leads to a simpler and more parsimonious models and consequently to a better performance and more reproducible results.In addition, several issues related to use of MS-Sensor in food analysis has been studied: the use of different headspace sampling techniques; the comparison of MS-Sensor systems performance against classical MOS based electronic noses; the application of new algorithms for pre-processing MS-Sensor signals; the correlation of MS-Sensor response and the well-established methods to assess the quality property under study, etc.MS-Sensor is a powerful device set-up, capable of producing large amounts of highly selective information. Optimal use of this device implies both, a correct use of analytical techniques (sample handling and instrumental) and a rational use of subsequent data analysis. That can be only attained if analytical people in charge of experimental set-up work side by side with data analysis and software developers. This thesis aims to bring nearer this close collaboration. RESUM La indústria alimentària exigeix el desenvolupament de mètodes analítics que puguin donar resposta immediata i que al mateix temps puguin garantir la qualitat i la seguretat dels productes de forma acurada i reproduïble. En aquests context, els mètodes que utilitzen un sistema MS-Sensor poden ser uns bons candidats ja que permeten fer lanàlisi de volàtils de matrius complexes duna manera ràpida i també permeten processar moltes mostres en poc temps. El funcionament dun MS-Sensor es basa en la introducció dels compostos volàtils que sextreuen de lespai de cap duna mostra en la font dionització dun espectròmetre de masses sense prèvia separació cromatogràfica i sense necessitat duna preparació de mostra prèvia. Lespectre de masses resultat de la ionització i fragmentació de tots els compostos volàtils presents en lextracte es pot considerar com una empremta digital característica de la matriu que sestà analitzant. Els espectres de masses generats es processen a posteriori amb un sistema de reconeixement de patrons per tal de realitzar tasques associades a aquests sistemes com son la classificació i el reconeixement de noves mostres i dins de certs límits la quantificació daquestes.Aquesta tesi està dedicada a lestudi de les capacitats i possibilitats daquests sistema a donar resposta a tot un seguit daplicacions relacionades amb lanàlisi de la qualitat de diferents tipus daliments com son: la determinació del grau denranciment de patates fregides; la detecció del creixement fúngic en productes de brioxería industrial; la monitorització del grau de frescor de sardines guardades en fred; la classificació de diversos olis doliva en base a les seves propietats organolèptiques i la classificació del pernil ibèric en base a la seva qualitat determinada per lalimentació del porc. Per cada una daquests aplicacions sha demostrat laplicabilitat i la fiabilitat del sistema MS-Sensor a lhora de resoldre les diferents qüestions plantejades sobre qualitat alimentària. Sha demostrat àmpliament que el perfil de volàtils que sobté amb un MS-Sensor pot cosiderar-se com una empremta digital vàlida i molt útil en la caracterització del problema que es vol resoldre i fins i tot en alguns casos, sha demostrat que aquesta mateixa empremta es pot correlacionar amb el paràmetres danàlisi clàssics que susen més habitualment per tal de resoldre aquests problema o que inclús aquests sistema es pot fer servir per predir-los.Encara que la viabilitat del sistema MS-Sensor en les aplicacions plantejades ha estat demostrada àmpliament en el decurs daquesta tesis, aquests sistema té petits inconvenients o punts febles que resten per resoldre. Aquests inconvenients poden afectar de manera directa els resultants que se nobtenen. Els principals punts febles del MS-Sensor son delevada dimensionalitat de les matrius de resposta que sobtenen que és inherent al propi sistema i la baixa selectivitat del fragments m/z considerats com a variables en aquestes matrius.Aquests dos inconvenients poden ser els responsables de la falta de reproductibilitat que sha obtingut en algunes aplicacions. Per tal dobtenir bons resultats en alguna daquestes aplicacions es van haver de plantejar noves estratègies que poguessin salvar les dificultat derivades de la baixa selectivitat de les variables i de la seva elevada dimensionalitat. Per primera vegada i dins del marc daquesta tesis sha plantejat lús dalgoritmes multi-way i la inclusió del temps de retenció com a variable que pugui reportar informació addicional en el processat de les respostes del MS-Sensor. A la vegada, sha desenvolupat i implementat nous algoritmes per a la selecció de variables per tal devitar en la mesura del possible lelevada dimensionalitat en les matrius de resposta. Sha demostrat que lús daquests nous algoritmes permet obtenir models més simples i robustos i per tant podem aconseguir un millor funcionament del sistema i resultats més reproduïbles.A més a més shan estudiat diferents aspectes relacionats amb la utilització dun sistema MS-Sensor per a lanàlisi daliments com son: lús de diferents tècniques de mostreig despai de cap, la comparació del sistema MS-Sensor amb sistemes clàssics dolfacte electrònic, laplicació i desenvolupament dalgoritmes de pre-processament dels espectres generats, la correlació de les respostes obtingudes amb un sistema MS-Sensor amb mètodes danàlisi daliments tradicionals, etc.El MS-Sensor es un dispositiu molt potent, capaç de produir una elevada quantitat de dades. Lús òptim daquests sistema es composa duna banda dun ús correcte dels aspectes instrumentals com son el propi sistema en si i les tècniques de mostreig i per altra banda dun ús racional de les tècniques danàlisi de dades. Això només saconsegueix si els analítics que treballen amb el set-up de lexperiment treballen colze a colze i en estreta collaboració amb la gent encarregada de fer lanàlisi de dades. Aquesta tesi, pretén fer més estret lespai entre aquests dues disciplines i dóna les eines per ajuntat i promoure aquesta collaboració.
|
155 |
Off-axis holography in microwave imaging systemsMarín Garcia, Jordi 23 January 2015 (has links)
En las pasadas décadas, la investigación en tecnología de terahercios fue únicamente motivada por instrumentación para los campos de astrofísica y ciencias de la tierra. La principal línea de investigación de estos campos comprende la detección, identificación y mapeo mediante espectroscopia molecular de bandas de emisión y absorción de gases a baja presión. Este campo fue el mayor foco de desarrollo que permitió en primer lugar el desarrollo de instrumentación y tecnología a bandas de terahercios. En contraposición con su uso en campos científicos, la radiación de terahercios es una de las bandas de radio-frecuencia menos usadas en el ámbito comercial. La escasez de fuentes, sensores, sub-sistemas e instrumentos ha dificultado en los últimos años la proliferación de aplicaciones para un mayor público de consumo. La combinación de los últimos avances tecnológicos provenientes del campo científico, así como el descubrimiento de nuevas aplicaciones ha despertado de nuevo el interés por este campo, lo que ha supuesto un nuevo impulso económico para el desarrollo a estas frecuencias tanto a nivel público como privado.
Además del mencionado interés científico, la radiación de terahercios tiene características muy atractivas como por ejemplo una buena resolución espacial (comparada con menores frecuencias), penetración en materiales, capacidades espectroscópicas, absorción por humedad y niveles bajos de energía.
El trabajo desarrollado en esta tesis es parte de un proyecto de investigación a nivel nacional Español denominado Terasense. El interés principal de este proyecto es equipar las instituciones de investigación académicas con un nuevo conjunto de instrumentación y capacidades para poder desarrollar proyectos en el estado del arte en el campo de ondas milimétricas y sub-milimétricas.
El objetivo principal de esta tesis es explorar la viabilidad de sistemas de imagen en microondas y ondas milimétricas basados en técnicas holográficas mediante medidas de intensidad. En este documenta se estudia principalmente el uso de la técnica holográfica con referencia desplazada. No solo desde un punto de vista teórico sino especialmente desde un punto de vista experimental y práctico. En la tesis, diferentes experimentos y dispositivos son simulados, diseñados e implementados. La ida y vuelta entre software y hardware ha permitido la creación de un marco de desarrollo para el test de las diferentes técnicas de imagen estudiadas. El rango de frecuencia escogido como meta para este proyecto es la banda de frecuencia W (75-110 GHz). Sin embargo, muchos experimentos han sido desarrollados primero en banda X (8-12 GHz) para desarrollar la experiencia necesaria requerida para trabajar a frecuencias superiores en el rango de las ondas milimétricas. / In past decades research in terahertz technology was solely motivated by instruments for topics such as astrophysics, planetary and earth sciences. Molecular line spectroscopy detection, identification and mapping of thermal emission and absorption signatures from low pressure gases comprised the main focus for most scientific requirements and motivated the development of terahertz instrumentation and technology. In spite of the scientific contributions of terahertz radiation, its spectrum is still one of the least used electromagnetics bands in commercial use. The unavailability of sources, sensors, sub-systems and instruments has been a cumbersome issue over the past years for its wide-spread use in commercial instrumentation. The combination of technological advances coming from the space-based community, along with the emergence of new applications, have managed to drive again the interest from both public and private sectors which has renown and skyrocketed the funding and research in terahertz applications.
Aside from the aforementioned scientific interest, terahertz radiation has appealing characteristics such as good imaging resolution (as compared to lower frequencies), material penetration, spectroscopic capabilities, water absorption and low energy levels.
The work of this thesis is part of a Spanish national research project called Terasense. The main focus of the project is to equip national academic research institutions with a completely new set of instrumentations and capabilities in order to advance towards the current state of the art in millimeter and sub-millimeter wave technologies.
The main objective of this thesis is to explore the viability of microwave and millimeter-wave imaging systems based on intensity-only holographic techniques. This dissertation is mostly focused on the Off-Axis Holography technique. Not only from a theoretical perspective but specially from an actual implementation standpoint. In order to do so, different experimental setups and devices have been designed and manufactured. Iteration between hardware and software has created a framework for devising and testing different imaging techniques under consideration. The frequency range W-Band (75-110 GHz) has been chosen as the main goal for all systems under study, however different setups will first be constructed, characterized and tested at X-Band (8-12 GHz) in order to build up the expertise required to work at millimeter-wave frequencies.
|
156 |
Contribución al estudio de mejora de prestaciones del protocolo TCP en diferentes entornosCalveras, Anna 19 January 2000 (has links)
Internet, la mayor red de ordenadores del mundo, formada por millones de terminales repartidos por todo el planeta, está basada en la arquitectura de protocolos TCP/IP, cuyas aplicaciones más utilizadas son, sin duda, el correo electrónico, la transferencia de ficheros, el acceso remoto y el acceso a la Web. Todas ellas tienen en común el protocolo de transporte que utilizan, TCP [Ste94, RFC793, RFC2581], que es extremo a extremo, fiable y orientado a conexión.Los protocolos de la arquitectura TCP/IP fueron diseñados para ser utilizados en redes compuestas únicamente por ordenadores fijos y en las que el principal problema era la limitación en el ancho de banda disponible y la tasa de error de bit. Tanto las tecnologías de red como las necesidades de los usuarios han ido evolucionando, debiendo hacer un esfuerzo importante en la adecuación de los protocolos para su comportamiento óptimo en los nuevos entornos.En primer lugar se ha evolucionado hacia entornos de alta velocidad en los que las líneas de transmisión son extremadamente fiables, con lo cual el problema de la transmisión fiable extremo a extremo se centra en la pérdida de paquetes debido a los problemas de congestión de los nodos de conmutación de la red. Para obtener buenas prestaciones del protocolo deben plantearse mecanismos que actúen de forma eficiente en los casos de congestión.Siguiendo la evolución, actualmente se plantea el uso de este tipo de protocolos sobre el canal radio móvil, el cuál presenta características muy diferentes. La velocidad reducida de los enlaces y la elevada tasa de error en bit (BER) son el aspecto diferencial. Por lo tanto, un aspecto crítico a la hora de determinar la viabilidad de ofrecer servicios de datos basados en aplicaciones TCP/IP en redes móviles es el del análisis de las posibilidades de acoplamiento de esta arquitectura de protocolos a este nuevo enlace de comunicación.
|
157 |
Wireless sensor networks in the future internet of things: density, mobility, heterogeneity and integrationBarceló Lladó, Marc 09 November 2015 (has links)
Las redes de sensores inalámbricos están destinadas a revolucionar nuestra manera de vivir, trabajar y relacionarnos con el entorno. Aunque este tipo de redes ha estado en el foco de la investigación científica durante la última década, su rendimiento en implementaciones prácticas está todavía muy por detrás de los resultados teóricos. Esto es en gran parte debido a los problemas prácticos que aparecen en entornos reales. Como resultado, su uso está generalmente limitado a aplicaciones simples de monitorización del entorno. El objetivo de esta tesis es reducir el margen entre el potencial teórico y real de las redes de sensores inalámbricos y de esta manera incrementar su integración dentro de la sociedad. En concreto, la tesis se centra en los siguientes cuatro obstáculos: alta densidad de nodos, movilidad de nodos, tráfico heterogéneo e integración en el internet de las cosas.
Primero, el objetivo es el de reducir las interferencias en despliegues de alta densidad de nodos. Para ello se propone un esquema práctico para realizar el enrutado, el control de potencia y la selección de canal, basado en el protocolo RPL (Routing Protocol for Low-Power and Lossy Networks). Esta solución permite reducir las colisiones entre paquetes y además mejorar el consumo energético de este tipo de redes.
Segundo, se pretende mejorar la baja fiabilidad y robustez de las redes de sensores inalámbricos con nodos móviles. Con este objetivo se presenta un método que combina RPL con un sistema de enrutado que considera la posición de los nodos basado en el filtro de Kalman. Éste combina la eficiencia y fiabilidad de RPL permitiendo además manejar nodos móviles.
Tercero, se estudian maneras de proporcionar la calidad de servicio necesaria a las redes de sensores con tráfico heterogéneo. Para ello se propone una estrategia multi árbol basada en la construcción de múltiples instancias RPL. Ésta construye diferentes topologías virtuales para cada función objetivo, y de esta manera es posible atender los requisitos de cada flujo de tráfico de manera independiente.
Finalmente, se estudia la manera de integrar las redes de sensores inalámbricos dentro de la nube y el internet de las cosas. Con este objetivo se propone una formulación para coordinar la utilización de los recursos de la red de manera conjunta usando estrategias de virtualización y computación móvil en la nube. Esto permite reducir el consumo energético de la red, teniendo en cuenta las capacidades y limitaciones de cada nodo, satisfaciendo tanto los requisitos de los diferentes servicios como los de los usuarios. / Wireless sensor networks (WSNs) are expected to revolutionize the way we live, work, and interact with the physical environment. Although WSNs have been in the spotlight of the research community for the last decade, their performance in practical implementations is still far behind the theoretical results. This is mainly due to the practical issues that arise in real-life scenarios. As a result, WSNs are generally limited to simple environmental sensing applications. The aim of this thesis is to reduce the gap between the theoretical and real potential of WSNs, and therefore increase their integration in society. In particular, this thesis focuses on the following four practical obstacles: high node density, node mobility, traffic heterogeneity and integration with the future Internet of Things (IoT). First, we deal with the interference problem in high density sensor deployments. We address this issue proposing a pragmatic joint routing, transmission power control and channel allocation approach, built upon the well-known RPL (Routing Protocol for Low-Power and Lossy Networks). This reduces the average packet collisions and the energy consumption of WSNs. Second, we address the low communication reliability and robustness in WSNs with mobile nodes. In particular, we propose a solution that combines RPL with a position-based routing approach based on Kalman filtering. This provides the efficiency and reliability of RPL, and also includes mobility support for non-static nodes. Third, we study the problem of QoS (Quality of Service) provisioning in WSNs managing heterogeneous traffic. With this in mind, we propose a multi-tree approach based on the construction of multiple RPL Instances. This constructs multiple virtual topologies to address the particular requirements of each traffic flow individually. Finally, we focus on the efficient integration of wireless sensors with Cloud-based IoT platforms. In particular, we propose a formulation to orchestrate the resource utilization of the whole network, taking advantage of the recent advances in virtualization and mobile cloud computing. This optimizes the overall consumption, considering the capabilities and limitations of each node, while satisfying the service requirements and the individual users' demands.
|
158 |
Experimental and numerical study of the symbolic dynamics of modulated semiconductor lasers with optical feedbackTorrentino, Taciano 10 July 2015 (has links)
The goal of this thesis is to investigate the influence of current modulation in the dynamics of the low-frequency fluctuations (LFF) regime induced by optical feedback in semiconductor lasers. In this regime the laser output exhibits apparently random and sudden dropouts that, in some statistical properties, are similar to excitable neuronal spikes. Long time series containing tens of thousands of LFF dropouts were experimentally acquired and simulated, using the Lang and Kobayashi model, under different conditions. By detecting the individual dropouts, the intensity time series were transformed in series of inter-spike intervals (ISI). We then analyzed the ISI sequences by using a symbolic method of analysis capable of unveil serial correlations in data sets, known as ordinal symbolic analysis. Our findings reveal the existence of a hierarchical and clustered organization of ordinal patterns in the ISI series.
When the laser is subject to periodical external forcing, through modulation of the injection current, we identify clear changes in the dynamics as the increase of the modulation amplitude induces deterministic-like behavior in the system. When the modulation frequency is varied, the change in the statistics of the various symbols is empirically shown to be related to specific changes in the ISI distribution, which arise due to different noisy phase-locking regimes.
We also investigated how the spike rate is affected by the modulation, for different parameters that determine the natural (without modulation) spike rate. When the intrinsic spike dynamics is slow, fast modulation can produce faster spikes. When the intrinsic dynamics is already fast, modulation cannot induce much faster spikes. Similar effects were observed in the spike correlations: we found that higher natural spike rates wash out the effects of the modulation in the spike correlations. Simulations of the Lang and Kobayashi model are shown to be in good agreement with the experimental observations.
The results reported in this thesis may be important to the use of semiconductor lasers as optical spiking neurons in information processing networks inspired by biological ones, and more generally, to the analysis of serial correlations in spiking excitable systems. Future work may include investigations of how correlations that encode an external signal spread in a small network of semiconductor lasers. / El objetivo de esta tesis es investigar la influencia de la modulación de corriente sobre la dinámica de los láseres semiconductores con realimentación óptica en el regimen de fluctuaciones de baja frequencia (low-frequency fluctuations, o LFF) . En este regimen la intensidad de la salida del láser muestra caídas abruptas y aparentemente aleatorias que son similares, en algunas propiedades estadísticas, a los spikes neuronales excitables. Largas series temporales, que contienen decenas de estas caídas, fuerón adquiridas experimentalmente y simuladas usando el modelo de Lang y Kobayashi, bajo diferentes condiciones. Al detectar las caídas individuales, las series temporales son transformadas en series de intervalos entre caídas (inter-spike intervals, o ISI). Seguidamente, se analizan las secuencias de ISI mediante el uso de un método de análisis simbólico, conocidos como análisis simbólico ordinal, capaz de revelar correlaciones seriales en los conjuntos de datos. Nuestros resultados revelan la existencia de una organización jerárquica y agrupada de los patrones ordinales en las series de ISI. Cuando el láser está sujeto a forzamiento externo periódico, a través de la modulación de la corriente de inyección, identificamos cambios claros en la dinámica. El aumento de la amplitud de modulación induce comportamiento determinista en el sistema. Cuando la frecuencia de modulación es variada, se muestra empíricamente el cambio en las estadísticas de los distintos símbolos, que está relacionado a los cambios específicos en la distribución de los ISI. Estos cambios surgen debido a diferentes regímenes ruidosos en el bloqueo en fase. También se investigó cómo la frecuencia de aparicion de las caídas se ve afectada por la modulación, para los diferentes parámetros que determinan la frecuencia natural (sin modulación) de las caídas. Cuando la dinámica intrínseca de las caídas es lenta, la modulación rápida puede producir caídas más rápidas. Cuando la intrínseca dinámica ya es rápida, la modulación no puede inducir caídas mucho más rápidas. Efectos similares fueron observados en las correlaciones de las caídas: encontramos que mayores tasas de las caídas naturales acaban con los efectos de la modulación en las correlaciones. Las simulaciones de lo modelo de Lang y Kobayashi se muestran estar en buen acuerdo con las observaciones experimentales. Los resultados presentados en esta tesis pueden ser importantes para el uso de láseres semiconductores por ejemplo como neuronas ópticas en redes de procesamiento de información, inspiradas en las redes de neuronas biológicas, y más generalmente, para el análisis de las correlaciones seriales en sistemas excitables. El trabajo futuro podría incluir la investigación de cómo correlaciones que codifican una señal externa se propagan en una pequeña red de láseres semiconductores.
|
159 |
Priority realloc : a threefold mechanism for route and resources allocation in EONsDantas, Joana Sócrates 17 July 2015 (has links)
Cotutela Universitat Politècnica de Catalunya i Escola Politécnica da Universidade de São Paulo / Backbone networks are responsible for long-haul data transport serving many clients with a large volume of data. Since long-haul data transport service must rely on a robust high capacity network the current technology broadly adopted by the industry is Wavelength Division Multiplexing (WDM). WDM networks enable one single fiber to operate with multiple high capacity channels, drastically increasing the fiber capacity. In WDM networks each channel is associated with an individual wavelength. Therefore a whole wavelength capacity is assigned to a connection, causing waste of bandwidth in case the connection bandwidth requirement is less than the channel total capacity.
In the last half decade, Elastic Optical Networks (EON) have been proposed and developed based on the flexible use of the optical spectrum known as the flexigrid. EONs are adaptable to clients requirements and may enhance optical networks performance. For these reasons, research community and data transport providers have been demonstrating increasingly high interest in EONs which are likely to replace WDM as the universally adopted technology in backbone networks in the near future.
EONs have two characteristics that may limit its efficient resources use. The spectrum fragmentation, inherent to the dynamic EON operation, decreases the network capacity to assign resources to connection requests increasing network blocking probability. The spectrum fragmentation also intensifies the denial of service to higher rate request inducing service unfairness.
Due to the fact EONs were just recently developed and proposed, the aforementioned issues were not yet extensively studied and solutions are still being proposed. Furthermore, EONs do not yet provide specific features as differentiated service mechanisms. Differentiated service strategies are important in backbone networks to guarantee client's diverse requirements in case of a network failure or the natural congestion and resources contention that may occur at some periods of time in a network.
Impelled by the foregoing facts, this thesis objective is three-fold. By means of developing and proposing a mechanism for routing and resources assignment in EONs, we intend to provide differentiated service while decreasing fragmentation level and increasing service fairness.
The mechanism proposed and explained in this thesis was tested in an EON simulation environment and performance results indicated that it promotes beneficial performance enhancements when compared to benchmark algorithms. / Redes backbone sao responsáveis pelo transporte de dados à longa distância que atendem a uma grande quantidade de clientes com um grande volume de dados. Como redes backbone devem basear-se em uma rede robusta e de alta capacidade, a tecnologia atual amplamente adotada pela indústria é Wavelength Division Multiplexing (WDM). Redes WDM permitem que uma única fibra opere com múltiplos canais de alta largura de banda, aumentando drasticamente a capacidade da fibra. Em redes WDM cada canal está associado a um comprimento de onda particular. Por conseguinte, toda capacidade do comprimento de onda é atribuída a uma única conexão, fazendo com que parte da largura de banda seja desperdiçada no caso em que a requisição de largura de banda da conexão seja menor do que a capacidade total do canal. A partir da metade da última década, as Redes Ópticas Elásticas (Elastic Optical Networks - EON) têm sido propostas e desenvolvidas com base no uso flexível do espectro óptico conhecido como flexigrid. EONs são adaptáveis às requisiçes por banda dos clientes e podem, portanto, melhorar o desempenho das redes ópticas. Por estas razões, EONs têm recebido cada vez mais interesse dos meios de pesquisa e provedores de serviço e provavelmente substituirão WDM como a tecnologia universalmente adotada pela indústria em redes backbone. EONs têm duas características que podem limitar a utilização eficiente de recursos. A fragmentação do espectro, inerente à operação dinâmica das EONs, pode diminuir a capacidade da rede em distribuir recursos ao atender às solicitações por conexões aumentando a probabilidade de bloqueio na rede. A fragmentação do espectro também intensifica a negação de serviço às solicitações por taxa de transmissão mais elevada, gerando injustiça no serviço prestado. Como EONs foram desenvolvidas recentemente, respostas às questões acima mencionadas ainda estão sob estudo e soluções continuam sendo propostas na literatura. Além disso, EONs ainda não fornecem funções específicas como um mecanismo que proveja diferenciação de serviço. Estratégias de diferenciação de serviço são importantes em redes backbone para garantir os diversos requisitos dos clientes em caso de uma falha na rede ou do congestionamento e disputa por recursos que podem ocorrer em alguns períodos em uma rede. Impulsionada pelos fatos anteriormente mencionados, esta tese possui três objetivos. Através do desenvolvimento e proposta de um mecanismo de roteamento e atribuição de recursos para EONs, temos a intenção de disponibilizar diferenciação de serviço, diminuir o nível de fragmentação de espectro e aumentar a justiça na distribuição de serviços. O mecanismo proposto nesta tese foi testado em simulações de EONs. Resultados indicaram que o mecanismo proposto promove benefícios através do aprimoramento da performance de uma rede EON quando comparado com algoritmos de referência. / Les xarxes troncals son responsables per el transport de dades a llarga distància que serveixen a una gran quantitat de clients amb un gran volum de dades. Com les xarxes troncals han d'estar basades en una xarxa robusta i d'alta capacitat, la tecnologia actual àmpliament adoptada per la indústria és el Wavelength Division Multiplexing (WDM). Xarxes WDM permeten operar amb una sola fibra multicanal d'alt ample de banda, el que augmenta molt la capacitat de la fibra. A les xarxes WDM cada canal est a associat amb una longitud d'ona particular. En conseqüència, tota la capacitat del canal es assignada a una sola connexió, fent que part dels recurs siguin perduts en el cas en que l'ample de banda sol licitada sigui menys que la capacitat total del canal.
A gairebé deu anys les xarxes òptiques elàstiques (Elastic Optical Networks -EON) son propostes i desenvolupades basades en el ús visible de l'espectre òptic conegut com Flexigrid. EONs són adaptables a les sol·licituds per ample de banda dels clients i per tant poden millorar el rendiment de les xarxes òptiques.
Per aquestes raons, EONs han rebut cada vegada més interès en els mitjans d’investigació i de serveis i, probablement, han de reemplaçar el WDM com la tecnologia universalment adoptada en les xarxes troncals. EONs tenen dues característiques que poden limitar l'ús eficient dels recursos seus. La fragmentació de l'espectre inherent al funcionament dinàmic de les EONs, pot disminuir la capacitat de la xarxa en distribuir els recursos augmentant la probabilitat de bloqueig de connexions. La fragmentació de l'espectre també intensifica la denegació de les sol·licituds de servei per connexions amb una major ample de banda, el que genera injustícia en el servei ofert.
Com les EONs s'han desenvolupat recentment, solucions als problemes anteriors encara estan en estudi i les solucions segueixen sent proposades en la literatura. D'altra banda, les EONs encara no proporcionen funcions especifiques com mecanisme de diferenciació de provisió de serveis. Estratègies de diferenciació de servei són importants en les xarxes troncals per garantir les diverses necessitats dels clients en cas d'una fallada de la xarxa o de la congestió i la competència pels recursos que es poden produir en alguns períodes.
Impulsada pels fets abans esmentats, aquesta tesi te tres objectius. A través del desenvolupament i proposta d'un mecanisme d'enrutament i assignació de recursos per EONs, tenim la intenció d'oferir la diferenciació de serveis, disminuir el nivell de fragmentació de l'espectre i augmentar l'equitat en la distribució dels serveis.
El mecanisme proposat en aquesta tesi ha estat provat en simulacions EONs. Els resultats van indicar que el mecanisme promou millores en el rendiment de la EON, en comparació amb els algoritmes de referència.
|
160 |
Coating engineering of composite materials for organic field-effect transistorsDel Pozo León, Freddy G 20 November 2014 (has links)
Esta tesis describe el desarrollo de una tecnología para depositar películas delgadas de polímeros aislantes y materiales compuestos, para aplicaciones en transistores orgánicos de efecto de campo (OFETs). Los materiales compuestos se componen de un semiconductor y un aislante. El aislante es el aglutinante y el semiconductor el material activo. Los materiales activos son polímeros o moléculas pequeñas. Los aglutinantes son estirenos, metacrilatos o combinaciones de ambos. A fin de demostrar las capacidades de la tecnología desarrollada, nombrada Bar Assisted Meniscus Shearing (BAMS), películas delgadas de poliestireno sobre Si/SiOx fueron depositadas, espesores típicos en el intervalo de 50 a 80 nm se encontraron, también valores de RMS en el rango de 0,5 a 0,6 nm fueron determinados, y confirma que películas muy lisas fueron formadas con aplicación tentativa a dieléctricos. Poli (3-hexiltiofeno) (P3HT) es ampliamente utilizado en transistores orgánicos de efecto de campo. Materiales compuestos basados en P3HT y poliestireno fueron probados. OFETs basados en materiales compuestos que sólo utilizan un 10% del material activo (P3HT) mostraron una movilidad de 0,1 cm2V-1s-1 y dicho valor coincide con el valor máximo de mobilidad reportado en literatura hasta la fecha para P3HT puro. Es importante destacar que todos los OFETs fabricados por BAMS usando materiales compuestos tienen voltajes de umbral alrededor de cero voltios a pesar de que toda la fabricación y caracterización se llevo a cabo en aire. Los semiconductores poliméricos juegan un papel muy importante dentro de los semiconductores orgánicos, debido a su ventaja de la capacidad de procesamiento. Por otra parte, las moléculas pequeñas carecen de procesabilidad pero en general poseen una alta mobilidad. Así, materiales compuestos se han desarrollaron para añadir procesabilidad a las pequeñas moléculas, pero tratando de mantener una alta mobilidad. Derivados del TTF, dibenzo - tetratiafulvaleno (DB-TTF), ditiofeno - tetratiafulvaleno (DT-TTF) y bis (etylenetio) - tetratiafulvaleno (BET-TTF) fueron las tres moléculas pequeñas investigadas. En primer lugar, películas térmicamente evaporadas de DB-TTF y BET-TTF puros fueron investigadas y su estabilidad en aire evaluada, se encontró que ambos son extremadamente inestables en presencia de oxígeno y agua. La inclusión de BAMs ha demostrado ser eficaz para producir OFETs basados en materiales compuestos. En primer lugar, se investigaron mezclas de poli (-metil-estireno) (PAMS), y DB-TTF. Los OFETs fabricados muestran estabilidad en aire y características de salida y de transferencia como las de un libro de texto, todas con mobilidades aceptables en el rango de 10-3 cm2V-1s-1. También OFETs a base de poliestireno isotáctico y DB-TTF se investigaron y mobilidades en el intervalo de 10-2 cm2V-1s-1 fueron encontradas. Además, una investigación de composiciones para los materiales compuestos se llevo a cabo, variando relaciones de mezcla y el peso molecular del poliestireno. Dicha investigación reveló que la mejor combinación es la relación de DB-TTF y poliestireno para GPC 3000 (PS3000) en una proporción 1: 2. Después de un estudio a fondo se obtuvo una mobilidad promedio para tal mezcla en el rango de 10-1 cm2V-1s-1 y tensiones umbrales cercanas a cero voltios, sin embargo vale la pena destacar que valores de mobilidad tan altos como 0.7 cm2V-1s-1 fueron encontrados. Medidas en función de la temperatura fueron llevadas a cabo y revelaron que el transporte de carga para estos dispositivos (DB-TTF: PS3000 1: 2) apuntan hacia una movilidad independiente de la temperatura, que correctos a nuestro saber y entender es el primer semiconductor orgánico procesado en solución que exhibe tal comportamiento. Otro comportamiento digno de resaltar fue el encontrado cuando los dispositivos constituyen inversores, ganancias tan altas como 300 fueron encontradas, lo que también a la actualidad es el valor de ganancia más alta para inversores orgánicos. / This thesis describes the development of a technology to deposit thin films of insulating polymers and composite materials for applications in organic field-effect transistors (OFETs). Composite materials are comprised of a semiconductor and an insulator. The insulator is the binder and the semiconductor the active material. The active materials are either polymers or small molecules. Binders are styrenes, methacrylates or combinations of both. In order to first demonstrate the capabilities of the technology developed, namely Bar Assisted Meniscus Sheering (BAMs), thin films of polystyrene on Si/SiOx were deposited, typical thicknesses in the range of 50 to 80 nm were found, also RMS values in the range of 0.5 – 0.6 nm were found as well, and confirms very smooth films with tentative application as dielectrics. Poly-(3-hexylthiophene) (P3HT) is widely used is organic field-effect transistors. Composite materials comprised of P3HT and polystyrene were tested. OFETs fabricated based on composites which only use a 10 % of the active material exhibited a mobility of 0.1 cm2V-1s-1 such value match the maximum mobility value reported in literature to-date for pure P3HT. It is important to highlight that all OFETs fabricated by BAMS using based on the composites have threshold voltages around zero volts despite the fact that all fabrication and characterization were carried out in air. Polymeric semiconductors plays a very important role inside organic semiconductors, due to their advantage the processability. On the other hand, small-molecules lacks processability but in general possess high mobility than polymeric semiconductors. So, composite materials were devised to add processability to small-molecules, but trying to maintain high mobility. TTF derivatives, dibenzo - tetharthiafulvalene (DB-TTF), dithiophene - tetrathiafulvalene (DT-TTF) and bis(ethylenethio) – tetrathiafulvalene (BET-TTF) were the three small-molecules investigated. First, thermally evaporated films of pure DB-TTF and BET-TTF were investigated and their stability in air assessed, found that both are extremely unstable under the presence of oxygen and water even at ppm levels. The inclusion of BAMs have been proven effective in order to produce OFETs based on composites -- insulator binder and TTF-derivatives. First, poly−(−μετηψλ styrene) PAMS, and DB-TTF composites were investigated. OFETs fabricated shows stability in air and text-book like output and transfer characteristics, all with acceptable mobilities in the range of 10-3 cm2V-1s-1. Also OFETs based on isotactic polystyrene and DB-TTF were investigated reporting mobilities in the range of 10-2 cm2V-1s-1. Further, an screening of compositions for composites were carried out, varying blend ratios and the molecular weight of the polystyrene. The screening was carried out using bottom and top contact devices. The screening revealed that the best performing blend is DB-TTF and polystyrene for GPC 3000 (PS3000) in a ratio 1:2. After an in-depth study have been conducted found average mobility for such blend in the range of 10-1 cm2V-1s-1 and threshold voltages close to zero volts were also found, however is worth to highlight that mobility values as high as 0.7 cm2V-1s-1 were also found. Temperature measurements have been carried out and revealed that the charge transport found for these devices (DB-TTF:PS3000 1:2) point towards a temperature independent mobility, that to the best of our knowledge to-date is the first organic solution processed semiconductor that exhibits such behavior. Also when devices construct inverters gains as high as 300 were found, which also to-date and to the best of our knowledge is the highest gain value for organic based inverters.
|
Page generated in 0.0565 seconds