• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 781
  • 423
  • 159
  • 2
  • Tagged with
  • 1364
  • 653
  • 632
  • 454
  • 389
  • 379
  • 367
  • 337
  • 281
  • 266
  • 196
  • 182
  • 181
  • 177
  • 165
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Cruise speed reduction for air traffic flow management

Delgado Muñoz, Luis 08 April 2013 (has links)
Avui dia un considerable nombre d’infraestructures del transport aeri tenen problemes de congestió. Aquesta situació es veu empitjorada amb l’increment de trànsit existent i amb la seva densitat deguda al sistema de hub i spoke utilitzat per les companyies aèries. Aquesta congestió es veu agreujada puntualment per disminucions de capacitat per causes com la meteorologia. Per mitigar aquests desequilibris, normalment són implementades mesures de gestió del flux de transit aeri (ATFM), sent el retard a l’aeroport d’origen una de les més utilitzades. Assignant retard previ a l’enlairament, el trànsit d’arribada és repartit durant un interval de temps superior i les arribades es distribueixen. Malgrat això, la predicció de quan aquestes reduccions de capacitat es solucionaran una tasca dificultosa. Això comporta que es defineixin regulacions que són més llargues del necessari i per tant, porta a la realització de retard innecessari i al desaprofitament de capacitat. La definició de trajectòries precises ofereix noves oportunitats per gestionar aquests desequilibris. Una tècnica prometedora és la utilització de variacions de velocitat durant el creuer. Generalment, es considera que volar més lent que la velocitat de màxim abast (MRC) no és eficient. En aquesta tesis es presenta una nova aproximació. Quan les aerolínies planifiquen els seus vols, consideren el cost del temps junt amb el del combustible. Per tant, és habitual seleccionar velocitats més ràpides que MRC. Així és possible volar més lent de la velocitat de MRC tot mantenint el mateix consum inicialment planificat. Aquest retard realitzat a l’aire pot ser considerat a la fase pre-tàctica per dividir el retard assignat a un vol en retard a terra i retard a l’aire durant el creuer. Amb aquesta estratègia, el retard és absorbit de manera gradual durant el vol fent servir el mateix combustible que inicialment planificat. Si la regulació es cancel•la abans del que estava planificat inicialment, els vols que estan a l’aire es troben en una situació més favorable per tal de recuperar part del retard. La present tesis es centra en l’estudi d’aquest concepte. En primer lloc, s’ha realitzat un estudi de la relació entre el combustible utilitzat i el temps de vol quan es modifica la velocitat nominal de creuer. A continuació, s’ha definit i analitzat el retard que pot ser realitzat sense incorre en un consum extra de combustible en l’absència i en la presencia de vent. També s’ha considerat i analitza la influència de triar un nivell de vol diferent del planificat inicialment i la utilització de combustible extra per tal d’obtenir major quantitat de retard. Els resultats mostren que per vols de curt i mitja distància, la quantitat de retard realitzable és d’entorn a 5 minuts, aquesta quantitat augmenta a uns 25 minuts per vols de llarg recorregut. El nivell de vol s’ha identificat com un dels paràmetres principals que afecten a la quantitat de retard que pot ser absorbit a l’aire. A continuació es presenta l’aplicació de la tècnica a regulacions d’ATFM realistes, i particularment a ground delay programs (GDP). Per tal de mostrar resultats que siguin significatius, els GDPs implementats en 2006 en el espai aeri nord-americà han sigut analitzats. Han sigut detalladament estudiats escenaris als aeroports de San Francisco, Newark i Chicago. Aquests tres aeroports van ser els que van declarar més GDPs durant el 2006 i per la seva situació geogràfica presenten trànsits amb diferents característiques. Per tal de considerar el trànsit s’ha utilitzat dades de la Federal Aviation Administration i característiques aerodinàmiques i de consum realistes provinents d’Airbus. Finalment, la tesis presenta l’efecte d’utilitzar radis d’exempció en els programes de regulació de trànsit i l’ ús de polítiques de priorització de vols diferents a la utilitzada actualment (ration-byschedule). Per concloure, s’ha realitzat una breu discussió sobre l’impacte d’aquesta estratègia en la gestió del trànsit aeri. / Nowadays, many air transport infrastructures suffer from congestion. This situation is worsened by a continuous increase in traffic, and, traffic density due to hub and spoke systems. Weather is one of the main causes which leads to punctual capacity reduction. To mitigate these imbalances, air traffic flow management (ATFM) initiatives are usually undertaken, ground delay at the origin airport being one of the main ones used. By assigning delay on ground at the departure airport, the arrival traffic is spread out and the arrivals are metered at the congested infrastructure. However, forecasting when these capacity drops will be solved is usually a difficult task. This leads to unnecessarily long regulations, and therefore to the realisation of unnecessary delay and an underuse of the capacity of the infrastructures.The implementation of precise four dimension trajectories, envisaged in the near future, presents new opportunities for dealing with these capacity demand imbalances. In this context, a promising technique is the use of speed variation during the cruise. Generally, it is considered that flying slower than the maximum range speed (MRC) is neither efficient nor desirable. In this dissertation a new approach is presented. When airlines plan their flights, they consider the cost of time along with the cost of fuel. It is therefore common practice to select speeds that are faster than MRC.Thus, it is possible to fly slower than MRC while maintaining fuel consumption as initially planned. This airborne delay can be considered at a pre-tactical phase to divide the assigned air traffic flow management delay between ground and airborne delay. With this strategy, the delay is absorbed gradually during the flight using the same fuel as initially planned, but with the advantage that, if the regulation is cancelled before planned, the flights which are already airborne are in a better position to recover part of their assigned delay.This dissertation focuses on the study of this concept. Firstly, a study of the trade-off existing between fuel consumption and flight time, when modifying the nominal cruise speed, is presented. Secondly, the airborne delay that can be realised without incurring extra fuel consumption is defined and assessed in the absence and presence of wind. The influence of selecting a different flight level than initially planned, and the use of extra fuel consumption to obtain higher delay, are also considered and analysed. Results show that for short and mid-range flights around 5 minutes of airborne delay can be realised, while for longer flights this value increases up to around 25 minutes. The flight level is identified as one of the main parameters which affect the amount of airborne delay realisable.Then, the application of the suggested cruise speed reduction on realistic ATFM initiatives, and, in particular, on ground delay programs (GDP) in the United States, is presented. In order to obtain significant results, the GDPs implemented in North American airspace during 2006 are analysed. Scenarios for San Francisco International, Newark Liberty International and Chicago O'Hare International are studied in detail, as these airports were the ones where the most GDPs were implemented in 2006. In addition, due to their location, they present different traffic behaviours. In order to consider the traffic, Federal Aviation Administration data and the aerodynamics and fuel consumption characteristic form Airbus are used.Finally, the use of radius of exemption in the GPDs and the use of ration policies different from the operative ration-by-schedule, are also analysed. To conclude, a brief discussion about the impact of this speed reduction strategy on the air traffic management is presented. / Hoy en día un número considerable de infraestructuras del transporte aéreo tienen problemas de congestión. Esta situación se ve empeorada por el incremento de tráfico existente y por su densidad producida por el sistema de hub y spoke utilizado por las compañías aéreas. Esta congestión se ve agravada puntualmente por disminuciones de capacidad debidas a causas como la meteorología. Para mitigar estos desequilibrios, normalmente se implementan medidas de gestión del tráfico aéreo (ATFM), siendo el retraso en el aeropuerto de origen una de las más utilizadas. Asignando retraso en tierra previo al despegue, el tráfico de llegada se distribuye durante un intervalo mayor de tiempo y se controlan las llegadas. Pese a esto, la predicción de cuando estas reducciones de capacidad se solventarán es generalmente una tarea compleja. Por esto, se suelen definir regulaciones durante un periodo de tiempo superior al necesario, comportando la asignación y realización de retraso innecesario y el desaprovechamiento de las infraestructuras. La definición de trayectorias precisas permite nuevas oportunidades para gestionar estos desequilibrios. Una técnica prometedora es el uso de variaciones de velocidad durante el crucero. Suele considerarse que volar más lento que la velocidad de máximo alcance (MRC) no es eficiente. En esta tesis se presenta una nueva aproximación. Cuando las aerolíneas planifican sus vuelos consideran el coste del tiempo junto con el del combustible. Por consiguiente, es una práctica habitual seleccionar velocidades mas rápidas que MRC. Así es posible volar mas lento que la velocidad de MRC manteniendo el mismo consumo que el inicialmente planificado. Este retraso realizable en el aire puede ser considerado en la fase pre-táctica para dividir el retraso asignado entre retraso en tierra y retraso durante el crucero. Con esta estrategia, el retraso es absorbido de manera gradual durante todo el vuelo utilizando el mismo combustible que el planificado inicialmente por la compañía. Esta estrategia presenta la ventaja de que los vuelos que están en el aire se encuentran en una situación mas favorable para recuperar parte del retraso que tenían asignado si la regulación se cancela. En primer lugar se ha realizado un estudio de la relación existente entre el combustible usado y el tiempo de vuelo cuando la velocidad de crucero es modificada. A continuación, se ha definido y analizado el retraso que se puede realizar sin repercutir en el consumo en la ausencia y en la presencia de viento. También se ha considerado la influencia de elegir un nivel de vuelo diferente al planificado y el uso de combustible extra para incrementar el retraso. Los resultados muestran que para vuelos de corto y medio alcance, la cantidad de retraso es de en torno a 5 minutos, esta cantidad aumenta a unos 25 minutos para vuelos de largo recorrido. El nivel de vuelo se ha identificado como uno de los parámetros principales que afectan a la cantidad de retraso que puede ser absorbido. Seguidamente se presenta la aplicación de esta técnica en regulaciones de ATFM realistas, y en particular de ground delay programs (GDP). Con el objetivo de mostrar resultados significativos, los GDPs definidos en 2006 en el espacio aéreo norteamericano han sido analizados. Han sido estudiados en detalle escenarios en los aeropuertos de San Francico, Newark y Chicago. Estos tres aeropuertos fueron los aeropuertos que implementaron m´as GDPs en 2006 y por su situación geográfica presentan tráficos con diferentes características. Para considerar el tráfico se han utilizado datos de la Federal Aviation Administration y características aerodinámicas y de consumo provenientes de Airbus. Finalmente, se presenta el efecto de usar radios de exención en los GDPs y el uso de políticas de priorización de vuelos diferentes a la utilizada actualmente (ration-by-schedule). Para concluir se ha realizado una breve discusión sobre el impacto de esta estrategia en la gestión del tráfico aéreo.
192

Reputation systems and secure communication in vehicular networks

Antolino Rivas, David 03 May 2013 (has links)
A thorough review of the state of the art will reveal that most VANET applications rely on Public Key Infrastructure (PKI), which uses user certificates managed by a Certification Authority (CA) to handle security. By doing so, they constrain the ad-hoc nature of the VANET imposing a frequent connection to the CA to retrieve the Certificate Revocation List (CRL) and requiring some degree of roadside infrastructure to achieve that connection. Other solutions propose the usage of group signatures where users organize in groups and elect a group manager. The group manager will need to ensure that group members do not misbehave, i.e., do not spread false information, and if they do punish them, evict them from the group and report them to the CA; thus suffering from the same CRL retrieval problem. In this thesis we present a fourfold contribution to improve security in VANETs. First and foremost, Chains of Trust describes a reputation system where users disseminate Points of Interest (POIs) information over the network while their privacy remains protected. It uses asymmetric cryptography and users are responsible for the generation of their own pair of public and private keys. There is no central entity which stores the information users input into the system; instead, that information is kept distributed among the vehicles that make up the network. On top of that, this system requires no roadside infrastructure. Precisely, our main objective with Chains of Trust was to show that just by relying on people¿s driving habits and the sporadic nature of their encounters with other drivers a successful reputation system could be built. The second contribution of this thesis is the application simulator poiSim. Many¿s the time a new VANET application is presented and its authors back their findings using simulation results from renowned networks simulators like ns-2. The major issue with network simulators is that they were not designed with that purpose in mind and handling simulations with hundreds of nodes requires a massive processing power. As a result, authors run small simulations (between 50 and 100 nodes) with vehicles that move randomly in a squared area instead of using real maps, which rend unrealistic results. We show that by building tailored application simulators we can obtain more realistic results. The application simulator poiSim processes a realistic mobility trace produced by a Multi-agent Microscopic Traffic Simulator developed at ETH Zurich, which accurately describes the mobility patterns of 259,977 vehicles over regional maps of Switzerland for 24 hours. This simulation runs on a desktop PC and lasts approximately 120 minutes. In our third contribution we took Chains of Trust one step further in the protection of user privacy to develop Anonymous Chains of Trust. In this system users can temporarily exchange their identity with other users they trust, thus making it impossible for an attacker to know in all certainty who input a particular piece of information into the system. To the best of our knowledge, this is the first time this technique has been used in a reputation system. Finally, in our last contribution we explore a different form of communication for VANETs. The vast majority of VANET applications rely on the IEEE 802.11p/Wireless Access in Vehicular Environments (WAVE) standard or some other form of radio communication. This poses a security risk if we consider how vulnerable radio transmission is to intentional jamming and natural interferences: an attacker could easily block all radio communication in a certain area if his transmitter is powerful enough. Visual Light Communication (VLC), on the other hand, is resilient to jamming over a wide area because it relies on visible light to transmit information and ,unlike WAVE, it has no scalability problems. In this thesis we show that VLC is a secure and valuable form of communication in VANETs.
193

Proposal and evaluation of channel assignment algorithms for wireless local area networks with opportunistic spectrum acces capabilities

Novillo Parales, Francisco Vicente 04 June 2013 (has links)
The growing need for wireless connectivity is pushing the massive adoption and usage of Wireless Local Area Networks (WLANs) based on the IEEE 802.11 standard (Wi-Fi), leading to dense deployments of individual, uncoordinated access points (AP) in highly populated areas. By 2016, over half of the world's Internet traffic is expected to come from WLAN connections, according to the latest Cisco® Visual Networking Index (VNI) Forecast (2011-2016). The proliferation of dense deployments causes high interference levels in the unlicensed bands (i.e. ISM bands) available for WLAN operation, which, ultimately, may result in both an unpredictable degradation in network performance and unfairness among APs. Channel assignment mechanisms are the central tool used nowadays for mitigating the interference problems in the ISM band caused by neighboring APs. However, regardless of the ability of different channel assignment algorithms to improve WLAN performance, the amount of available spectrum in unlicensed bands for WLAN use may still constitute a key limiting factor in high dense deployments. In this context, the exploitation of additional portions of the radio spectrum bands that are assigned to a particular application or service but remain unused or unoccupied at specific locations and times can help to further improve the performance of WLANs networks. This spectrum usage concept is known in the literature as Opportunistic Spectrum Access (OSA), where secondary users are allowed to share the same frequencies used by some primary users whenever these primary services are not disturbed. This thesis work has addressed a novel study for OSA-enabled WLANs in which the possibilities and benefits offered by WLANs using OSA capabilities are discussed and quantified. This thesis provides two main contributions. The first contribution is the development of the formulation and assessment of the spatial availability of a certain spectrum segment within indoor locations in dense urban areas in order for it to be opportunistically reused by WLANs. To this end, the interference conditions between primary and secondary users have been established along with the necessary propagation models accounting for outdoor, indoor and outdoor-to-indoor losses. Considering the service area of a primary system devoted to providing outdoor coverage, the proposed model has been used to compute the percentage of indoor locations where the secondary users can actually reuse the primary frequency band without interfering with the primary system. The second contribution is the proposal, development and evaluation of a set of channel assignment algorithms that allow WLANs to operate on available channels in both unlicensed ISM and OSA-enabled spectrum bands. Unlike the classical schemes for legacy WLANs, the proposed algorithms cope with two distinguishing issues arising in the OSA-enabled WLAN channel assignment problem: channel prioritization and spectrum heterogeneity. To that end, a system model is developed to describe and represent the main components involved in an OSA-enabled WLAN scenario. The model allows setting up a network scenario with primary and secondary systems, determining the list of available primary channels for each WLAN and defining the channel assignment constraints for WLANs. From this basis, the thesis has first formulated the channel assignment problem for OSA-enabled WLANs as a Binary Linear Programming (BLP) problem, which has been optimally solved by means of branch-and bound (BB) algorithms and used as a benchmark. Motivated by the need to have more computationally efficient solutions than that offered by the BB algorithm, a number of centralized and distributed heuristic algorithms have been proposed, encompassing simulated annealing (SA) techniques and the construction of minimum spanning tree (MST) graphs to reduce the level of coupling between neighboring APs. The algorithms have been evaluated under different conditions of AP density and spectrum availability and compared to the optimal solution as well as classical algorithms proposed for legacy WLANs.
194

An i*-based Reengineering Framework for Requirements Engineering

Grau Colom, Gemma 07 July 2008 (has links)
Avui en dia, els sistemes d'informació són un actiu clau en les organitzacions i sovint els proporcionen un avantatges competitiu. Per a que això segueixi així, han de ser mantinguts i evolucionats d'acord amb els objectius estratègics de la organització. Aquesta evolució inclou els requeriments del sistema d'informació, la tecnologia emprada i els processos suportats. L'impacte dels canvis pot anar des de petites modificacions al desenvolupament d'un nou sistema d'informació i, per aquest motiu, l'evolució dels sistemes d'informació s'analitza durant la fase de requeriments, on es possible avaluar-ne la magnitud utilitzant menys recursos. Des d'aquest punt de vista, els mètodes de l'enginyeria de requeriments i els de la reenginyeria de processos sovint comparteixen els mateixos objectius i es pot considerar que la reenginyeria de processos es adequada tant per al desenvolupament com per al manteniment dels sistemes d'informació. El llenguatge i* està orientat a objectius i permet modelar els sistemes d'informació en termes d'actors i dependencies entre ells. El llenguatge i* s'utilitza en l'enginyeria de requeriments i en la reenginyeria de processos de negoci, però no existeixen gaires propostes comunes a ambdues disciplines. Amb l'objectiu d'utilitzar el llenguatge i* en la reenginyeria de processos, s'ha definit PRiM, un mètode basat en i* per a la reenginyeria de processos (Proces Reenginieering i*-based Method). PRiM assumeix que ja existeix un procés que s'utilitzarà com a punt de partida per l'especificació o l'evolució del nou sistema d'informació. El mètode PRiM consta de sis fases: 1) l'anàlisi dels processos i dels sistemes d'informació actuals, 2) la construcció del model i*, 3) la reenginyeria dels processos actuals, 4) la generació de models i* representant les diferents alternatives, 5) l'avaluació de les alternatives utilitzant mètriques estructurals i 6) l'especificació del nou sistema d'informació a partir del model i* escollit. En les sis fases de PRiM, s'utilitzen diferents mètodes i tècniques algunes creades expressament pel mètode i d'altres provinents de l'enginyeria de requeriments i la reenginyeria de processos. Tot i això, hi ha altres mètodes i tècniques que poden ser utilitzades enlloc d'aquestes i que poden ser mes convenients quan les condicions d'aplicació del mètode canvien. Per tal de permetre la selecció i inclusió d'altres tècniques, es proposa l'aplicació de l'enginyeria de mètodes (Method Engineering). Aquesta disciplina permet construir nous mètodes a partir de parts de mètodes ja existents, i s'ha utilitzat per definir un mètode marc per a la reenginyeria anomenat ReeF (Reengineering Framework). A ReeF, les sis fases de PRiM es presenten de forma genèrica per tal de permetre la selecció de la tècnica més apropiada per cada una de les fases, a partir de l'experiència de l'usuari com dels seus coneixements de l'aplicació. Com a exemple d'aplicació de ReeF, s'ha definit el mètode SARiM.Les contribucions principals de la tesis son dues. En primer lloc, els dos mètodes basats en i* definits (PRiM per a la reenginyeria de processos, i SARiM, per a la reenginyeria d'arquitectures software). En segon lloc, les diferents tècniques i* definides en PRiM i que poden ser utilitzades per construir models i*, generar alternatives i avaluar-les amb mètriques estructurals. Aquestes tècniques i mètodes s'han obtingut a partir de l'estudi de l'estat de l'art i s'han validat en diferents casos d'estudi formatius i en un cas d'estudi industrial. Com a suport, s'han desenvolupat dues eines: 1) REDEPEND-REACT, que permet la modelització gràfica de models i*, la generació d'alternatives i la definició de mètriques estructurals, i 2) J-PRiM, que dóna suport a les fases de PRiM mitjançant el tractament textual dels models i*. / Information Systems are a crucial asset of the organizations and can provide competitive advantages to them. However, once the Information System is built, it has to be maintained and evolved, which includes changes on the requirements, the technology used, or the business processes supported. All these changes are diverse in nature and may require different treatments according to their impact, ranging from small improvements to the deployment of a new Information System. In both situations, changes are addressed at the requirements level, where decisions are analysed involving less resources. Because Requirements Engineering and Business Process Reengineering methods share common activities, and the design of the Information System with the business strategy has to be maintained during its evolution, a Business Process Reengineering approach is adequate for addressing Information Systems Development when there is an existing Information System to be used as starting point. The i* framework is a well-consolidated goal-oriented approach that allows to model Information Systems in a graphical way, in terms of actors and dependencies among them. The i* framework addresses Requirements Engineering and Business Process Reengineering but none of the i*-based existing approaches provides a complete framework for reengineering. In order to explore the applicability of i* for a reengineering framework, we have defined PRiM: a Process Reengineering i* Method, which assumes that there is an existing process that is the basis for the specification of the new Information System. PRiM is a six-phase method that combines techniques from the fields of Business Process Reengineering and Requirements Engineering and defines new techniques when needed. As a result PRiM addresses: 1) the analysis of the current process using socio-technical analysis techniques; 2) the construction of the i* model by differentiating the operationalization of the process form the strategic intentionality behind it; 3) the reengineering of the current process based on its analysis for improvements using goal acquisition techniques; 4) the generation of alternatives based on heuristics and patterns; 5) the evaluation of alternatives by defining structural metrics; and, 6) the specification of the new Information System from the selected i* model.There are several techniques from the Requirements Engineering and Business Process Reengineering fields, that can be used instead the ones selected in PRiM. Therefore, in order to not enforce the application of a certain technique we propose a more generic framework where to use and combine them. Method Engineering is the discipline that constructs new methods from parts of existing ones and, so, it is the approach adopted to define ReeF: a Reengineering Framework. In ReeF the six phases of PRiM are abstracted and generalized in order to allow selecting the most appropriate techniques for each of the phases, depending on the user expertise and the domain of application. As an example of the applicability of ReeF, the new method SARiM is defined. The main contributions of this work are twofold. On the one hand, two i*-based methods are defined: the PRiM method, which addresses process reengineering, and SARiM, which addresses software architecture reengineering. On the other hand, we provide several i*-based techniques to be used for constructing i* models, generating alternatives, and evaluating them using Structural Metrics. These methods and techniques are based on exhaustive review of existing work and their validation is done by means of several formative case studies and an industrial case study. Tool support has been developed for the approach: REDEPEND-REACT supporting the graphical modelling of i*, the generation of alternatives and the definition of Structural Metrics; and J-PRiM supporting all the phases of the PRiM method using a textual visualization of the i* models.
195

Consumer Acceptance, Choice and Attitudes towards Genetically Modified (GM) Food

Costa Font, Monserrat 27 April 2009 (has links)
La introducció de noves tecnologies en l'àmbit agroalimentari ha revolucionat la eficiència pel que fa al sector productiu, si bé també ha tingut efectes rellevants pel que fa a la demanda, que cal analitzar amb profunditat. Aquest és el cas dels productes modificats genèticament, que solen ser productes de consum habitual, per la qual cosa han creat una important polèmica.Hi ha diferents agents del mercat que participen en aquest debat, com és el cas dels productors, els quals en poden obtenir benefici pel que fa a millores en eficiència i reducció de costos. Tanmateix, és essencial tenir en compte l'opinió dels consumidors alhora d'analitzar els límits comercials de les noves tecnologies.Per a conèixer l'opinió dels consumidors cal entendre el seu procés d'elecció i de valoració dels productes agroalimentaris, com també el seu comportament a l'hora de prendre decisions en el mercat alimentari.Aquesta tesis comença amb una extensa revisió bibliogràfica en relació a les actituds dels consumidors vers els productes modificats genèticament.Seguidament s'analitza la intenció de compra dels consumidors utilitzant experiments d'elecció. L'objectiu principal d'aquesta tesi s'ha assolit amb els subsegüents capítols on s'han analitzat els diferents elements cognitius que porten a l'individu a la intenció final de compra. La metodologia emprada ha estat principalment equacions estructurals i experiments d'elecció. S'han emprat diferents bases de dades per a poder contrastar totes les hipòtesis plantejades en l'estudi.La principal contribució d'aquesta tesi ha estat determinar quins son els elements que cal considerar per entendre el procés de decisió del consumidors vers els aliments modificats genèticament, com també determinar que existeix un clar escepticisme en la societat pel que fa a aquests productes. Les conclusions d'aquesta tesi posen en manifest la necessitat de una millor estratègia de comunicació que permeti als consumidors una percepció de millor i major qualitat d'informació en relació a aquests productes. / The introduction of new technologies in food production not only has revolutioned its productive efficiency but has exerted important demand side effects that cannot be dismissed and require careful analysis. This is especially the case of genetically modified (GM) food, typical daily consumed products (e.g. GM milk, tomato, maize, etc) given its considerable interest and worldwide public controversy. Several stakeholders are place, on the one hand, farmers and manufactures perceive potential benefits from efficiency improvements as well as costs, mainly resulting from the need to reimburse intellectual property rights for new foods. From a demand side, GM food brings new products in the food chain and ultimately fulfils to an extent a latent consumer's preference for diversity. Hence, in order to determine the limits of technology dissemination and transfer it becomes a key issue to examine and disentangle which demand side factors stand behind technology acceptance. This calls for a better understanding of consumer choice, its valuation and the behavioural decision making process.The valuation of a new technology good implies the provision of information from several sources - public and private, formal and informal, etc - while conditioning on the credibility and trustworthiness of each relevant information source. Given the information available, a further issue concerns attitude expression and formation, which ultimately leads to the final question regarding product valuation and consumer preference. Interestingly, attitude formation for the case of new food generations is found to be explained by a combination of risk and benefit perceptions, based on different elements such as a general attitude towards science, knowledge, trust, education and values, among others.This thesis begins with an extensive review of the literature on attitudes towards GM agro-food products- chapter 2- by means of a literature review. Next it conducts a study on consumers' final intentions towards agro - food products, entailing the application of choice experiments - chapter 3. moreover, the main core of this dissertation is aiming at examining what gives rise to the final choice (chapters 4 to 6). The methodologically employed relies on structural equation modelling, although in each chapter different databases have been used. The relative strengths of each database allow us taking into account the information required to test specific hypotheses. Finally, some conclusions are drawn in chapter 7 which summarises the main findings of each chapter and put them in context of the main discussion questions examined in this thesis.The main contribution of this thesis has been to point out a set of features that condition choice, intentions and revealed purchase intentions regarding GM food. Our wok is innovative in that: 1) it contains an innovative literature review; 2) develops choice modelling of scenarios that includes, apart from methodological features, the choice between GM processed and organic food; and 3) unlike most of behavioural analysis it exploits using structural equation modelling, several theoretical structures that explain decision making and, particularly, the role of broader attitudes towards science and technology in influencing purchase intentions alongside the effect of both risks attitudes and risk perceptions in determining consumer acceptance.The sequence and findings of the thesis can be summarized as follows: drawing from an exhaustive review of published finding regarding public intentions towards GM food we conclude that there is consumer's scepticism explaining a negative valuation towards GM food. However, the most important outcome has been to find that final purchasing intention is the result of a complex decision process which only has been partially explained in the literature. Therefore, upon the definition of a general theoretical model this thesis has tried to explain in the different chapters some specific issues of such model as well as to validate it in a croos - country exercise in the last chapter. Results from this study rises a key policy implication: the need of a well defined communication stralegy to provide information in such a way that allows individuals to feel adequately informed.
196

Efficient multiprocessing architectures for spiking neural network emulation based on configurable devices

Sánchez Rivera, Giovanny 12 June 2014 (has links)
The exploration of the dynamics of bioinspired neural networks has allowed neuroscientists to understand some clues and structures of the brain. Electronic neural network implementations are useful tools for this exploration. However, appropriate architectures are necessary due to the extremely high complexity of those networks. There has been an extraordinary development in reconfigurable computing devices within a short period of time especially in their resource availability, speed, and reconfigurability (FPGAs), which makes these devices suitable to emulate those networks. Reconfigurable parallel hardware architecture is proposed in this thesis in order to emulate in real time complex and biologically realistic spiking neural networks (SNNs). Some relevant SNN models and their hardware approaches have been studied, and analyzed in order to create an architecture that supports the implementation of these SNN models efficiently. The key factors, which involve flexibility in algorithm programmability, high performance processing, low area and power consumption, have been taken into account. In order to boost the performance of the proposed architecture, several techniques have been developed: time to space mapping, neural virtualization, flexible synapse-neuron mapping, specific learning and execution modes, among others. Besides this, an interface unit has been developed in order to build a bio-inspired system, which can process sensory information from the environment. The spiking-neuron-based system combines analog and digital multi-processor implementations. Several applications have been developed as a proof-of-concept in order to show the capabilities of the proposed architecture for processing this type of information. / L'estudi de la dinàmica de les xarxes neuronals bio-inspirades ha permès als neurocientífics entendre alguns processos i estructures del cervell. Les implementacions electròniques d'aquestes xarxes neuronals són eines útils per dur a terme aquest tipus d'estudi. No obstant això, l'alta complexitat de les xarxes neuronals requereix d'una arquitectura apropiada que pugui simular aquest tipus de xarxes. Emular aquest tipus de xarxes en dispositius configurables és possible a causa del seu extraordinari desenvolupament respecte a la seva disponibilitat de recursos, velocitat i capacitat de reconfiguració (FPGAs ). En aquesta tesi es proposa una arquitectura maquinari paral·lela i configurable per emular les complexes i realistes xarxes neuronals tipus spiking en temps real. S'han estudiat i analitzat alguns models de neurones tipus spiking rellevants i les seves implementacions en maquinari , amb la finalitat de crear una arquitectura que suporti la implementació d'aquests models de manera eficient . S'han tingut en compte diversos factors clau, incloent flexibilitat en la programació d'algorismes, processament d'alt rendiment, baix consum d'energia i àrea. S'han aplicat diverses tècniques en l'arquitectura desenvolupada amb el propòsit d'augmentar la seva capacitat de processament. Aquestes tècniques són: mapejat de temps a espai, virtualització de les neurones, mapeig flexible de neurones i sinapsis, modes d'execució, i aprenentatge específic, entre d'altres. A més, s'ha desenvolupat una unitat d'interfície de dades per tal de construir un sistema bio-inspirat, que pot processar informació sensorial del medi ambient. Aquest sistema basat en neurones tipus spiking combina implementacions analògiques i digitals. S'han desenvolupat diverses aplicacions usant aquest sistema com a prova de concepte, per tal de mostrar les capacitats de l'arquitectura proposada per al processament d'aquest tipus d'informació.
197

Desarrollo de un nuevo ensayo experimental para la evaluación de la calidad de uniones adhesivas entre componentes estructurales de composite para la indústria aeronáutica

Renart Canalias, Jordi 10 September 2010 (has links)
El uso de los composites en la industria aeronáutica ha experimentado un fuerte crecimiento en los últimos años debido a la utilización de componentes de composite que realizan funciones estructurales. A menudo, para disminuir los costes de producción, las partes esbeltas del fuselaje se unen con elementos rigidizadores mediante uniones adhesivas. Para asegurar que las uniones adhesivas cumplirán la función estructural para la cual se han diseñado se realizan ensayos a nivel de probeta. En el presente trabajo se realiza un análisis de los métodos de ensayo experimental que se llevan a cabo para determinar la calidad de las uniones adhesivas (las cuales dependen principalmente de la calidad de la preparación superficial, las propiedades del adhesivo y la compatibilidad entre el adhesivo y los adherentes). La tesis se enfoca a dos objetivos: la propuesta de mejoras del ensayo de doble viga en voladizo y el desarrollo de un método alternativo de propagación de grieta por avance forzado de una cuña (Wedge Driven Test, WDT). En cuanto al ensayo de doble viga en voladizo, se han diseñado unos utillajes de sujeción mecánica de la probeta a la máquina de ensayo y se ha propuesto una metodología experimental adaptada a la propagación discontinua del frente de grieta. En relación al nuevo método de ensayo, se ha desarrollado un procedimiento dirigido, al igual que el DCB actual, a determinar la tenacidad a la fractura en modo I de la unión adhesiva, mediante la introducción forzada de una cuña. Las ventajas que ofrece el ensayo WDT respecto el DCB es que es más rápido, económico, no se necesita ningún tipo de preparación previa de la probeta y no hace falta realizar mediciones de la longitud de grieta. Para poner a prueba la sensibilidad del ensayo WDT a la calidad de la unión se ha realizado una serie de campañas experimentales, en las cuales se han analizado 4 configuraciones de unión adhesiva distintas (como resultado de la combinación de dos adherentes y dos adhesivos). Así mismo se han ensayado preparaciones intencionadamente defectuosas. De los resultados de las campañas experimentales se ha observado que el ensayo de propagación de grieta por avance forzado de cuña presenta unos resultados equivalentes a los del ensayo DCB y es sensible a la calidad de la preparación superficial. / The use of composite materials in the aircraft industry has been increasing in recent years due to their application in structural parts. To reduce the production costs of these components the join between skins and stiffeners is made by means of an adhesive. In order to guarantee that the bonded joint fulfils the structural requirements, experimental tests on specimens are done from the first development tasks and throughout the production stages. In the present work, an analysis of the experimental test methods to determine the quality of bonded joints has been performed - the quality of bonded joints depends on the quality of the surface preparation, the adhesive properties and the compatibility between the adhesive and the adherents. The work focuses on two objectives: the improvement of the double cantilever beam test, and the development of an alternative method of bonded joint characterization based on driving a wedge into the adhesive layer (Wedge Driven Test, WDT). In the double cantilever beam test, a mechanical fixture tool has been designed and a data reduction method for stick-slip crack propagation has been developed. On the other hand, the alternative test method such as the DCB, focuses on determining the fracture toughness in mode I of the adhesive joint, by means of introducing a wedge inside the specimen at a constant speed rate. To prove the sensitivity of the WDT to the quality of the adhesive joint, a series of testing campaigns has been performed over 4 adhesive joint configurations (combining 2 adhesives and 2 adherents). Moreover, deliberately produced bad surface preparations have been tested. From the test results, it has been observed that the driven wedge test exhibits an equivalent behaviour to the double cantilever beam test and has a similar level of sensitivity to the quality of the bonded joint.
198

Statistical methods in Kansei engineering studies

Marco Almagro, Lluís 15 December 2011 (has links)
Aquesta tesi doctoral tracta sobre Enginyeria Kansei (EK), una tècnica per traslladar emocions transmeses per productes en paràmetres tècnics, i sobre mètodes estadístics que poden beneficiar la disciplina. El propòsit bàsic de l'EK és descobrir de quina manera algunes propietats d'un producte transmeten certes emocions als seus usuaris. És un mètode quantitatiu, i les dades es recullen típicament fent servir qüestionaris. S'extreuen conclusions en analitzar les dades recollides, normalment usant algun tipus d'anàlisi de regressió. L'EK es pot situar en l'àrea de recerca del disseny emocional. La tesi comença justificant la importància del disseny emocional. Com que el rang de tècniques usades sota el nom d'EK és extens i no massa clar, la tesi proposa una definició d'EK que serveix per delimitar el seu abast. A continuació, es suggereix un model per desenvolupar estudis d'EK. El model inclou el desenvolupament de l'espai semàntic – el rang d'emocions que el producte pot transmetre – i l'espai de propietats – les variables tècniques que es poden modificar en la fase de disseny. Després de la recollida de dades, l'etapa de síntesi enllaça ambdós espais (descobreix com diferents propietats del producte transmeten certes emocions). Cada pas del model s'explica detalladament usant un estudi d'EK realitzat per aquesta tesi: l'experiment dels sucs de fruites. El model inicial es va millorant progressivament durant la tesi i les dades de l'experiment es van reanalitzant usant noves propostes.Moltes inquietuds pràctiques apareixen quan s'estudia el model per a estudis d'EK esmentat anteriorment (entre d'altres, quants participants són necessaris i com es desenvolupa la sessió de recollida de dades). S'ha realitzat una extensa revisió bibliogràfica amb l'objectiu de respondre aquestes i altres preguntes. Es descriuen també les aplicacions d'EK més habituals, juntament amb comentaris sobre idees particularment interessants de diferents articles. La revisió bibliogràfica serveix també per llistar quines són les eines més comunament utilitzades en la fase de síntesi.La part central de la tesi se centra precisament en les eines per a la fase de síntesi. Eines estadístiques com la teoria de quantificació tipus I o la regressió logística ordinal s'estudien amb detall, i es proposen diverses millores. En particular, es proposa una nova forma gràfica de representar els resultats d'una regressió logística ordinal. S'introdueix una tècnica d'aprenentatge automàtic, els conjunts difusos (rough sets), i s'inclou una discussió sobre la seva idoneïtat per a estudis d'EK. S'usen conjunts de dades simulades per avaluar el comportament de les eines estadístiques suggerides, la qual cosa dóna peu a proposar algunes recomanacions.Independentment de les eines d'anàlisi utilitzades en la fase de síntesi, les conclusions seran probablement errònies quan la matriu del disseny no és adequada. Es proposa un mètode per avaluar la idoneïtat de matrius de disseny basat en l'ús de dos nous indicadors: un índex d'ortogonalitat i un índex de confusió. S'estudia l'habitualment oblidat rol de les interaccions en els estudis d'EK i es proposa un mètode per incloure una interacció, juntament amb una forma gràfica de representar-la. Finalment, l'última part de la tesi es dedica a l'escassament tractat tema de la variabilitat en els estudis d'EK. Es proposen un mètode (basat en l'anàlisi clúster) per segmentar els participants segons les seves respostes emocionals i una forma d'ordenar els participants segons la seva coherència en valorar els productes (usant un coeficient de correlació intraclasse). Com que molts usuaris d'EK no són especialistes en la interpretació de sortides numèriques, s'inclouen representacions visuals per a aquests dos nous mètodes que faciliten el processament de les conclusions. / Esta tesis doctoral trata sobre Ingeniería Kansei (IK), una técnica para trasladar emociones transmitidas por productos en parámetros técnicos, y sobre métodos estadísticos que pueden beneficiar la disciplina. El propósito básico de la IK es descubrir de qué manera algunas propiedades de un producto transmiten ciertas emociones a sus usuarios. Es un método cuantitativo, y los datos se recogen típicamente usando cuestionarios. Se extraen conclusiones al analizar los datos recogidos, normalmente usando algún tipo de análisis de regresión.La IK se puede situar en el área de investigación del diseño emocional. La tesis empieza justificando la importancia del diseño emocional. Como que el rango de técnicas usadas bajo el nombre de IK es extenso y no demasiado claro, la tesis propone una definición de IK que sirve para delimitar su alcance. A continuación, se sugiere un modelo para desarrollar estudios de IK. El modelo incluye el desarrollo del espacio semántico – el rango de emociones que el producto puede transmitir – y el espacio de propiedades – las variables técnicas que se pueden modificar en la fase de diseño. Después de la recogida de datos, la etapa de síntesis enlaza ambos espacios (descubre cómo distintas propiedades del producto transmiten ciertas emociones). Cada paso del modelo se explica detalladamente usando un estudio de IK realizado para esta tesis: el experimento de los zumos de frutas. El modelo inicial se va mejorando progresivamente durante la tesis y los datos del experimento se reanalizan usando nuevas propuestas. Muchas inquietudes prácticas aparecen cuando se estudia el modelo para estudios de IK mencionado anteriormente (entre otras, cuántos participantes son necesarios y cómo se desarrolla la sesión de recogida de datos). Se ha realizado una extensa revisión bibliográfica con el objetivo de responder éstas y otras preguntas. Se describen también las aplicaciones de IK más habituales, junto con comentarios sobre ideas particularmente interesantes de distintos artículos. La revisión bibliográfica sirve también para listar cuáles son las herramientas más comúnmente utilizadas en la fase de síntesis. La parte central de la tesis se centra precisamente en las herramientas para la fase de síntesis. Herramientas estadísticas como la teoría de cuantificación tipo I o la regresión logística ordinal se estudian con detalle, y se proponen varias mejoras. En particular, se propone una nueva forma gráfica de representar los resultados de una regresión logística ordinal. Se introduce una técnica de aprendizaje automático, los conjuntos difusos (rough sets), y se incluye una discusión sobre su idoneidad para estudios de IK. Se usan conjuntos de datos simulados para evaluar el comportamiento de las herramientas estadísticas sugeridas, lo que da pie a proponer algunas recomendaciones. Independientemente de las herramientas de análisis utilizadas en la fase de síntesis, las conclusiones serán probablemente erróneas cuando la matriz del diseño no es adecuada. Se propone un método para evaluar la idoneidad de matrices de diseño basado en el uso de dos nuevos indicadores: un índice de ortogonalidad y un índice de confusión. Se estudia el habitualmente olvidado rol de las interacciones en los estudios de IK y se propone un método para incluir una interacción, juntamente con una forma gráfica de representarla. Finalmente, la última parte de la tesis se dedica al escasamente tratado tema de la variabilidad en los estudios de IK. Se proponen un método (basado en el análisis clúster) para segmentar los participantes según sus respuestas emocionales y una forma de ordenar los participantes según su coherencia al valorar los productos (usando un coeficiente de correlación intraclase). Puesto que muchos usuarios de IK no son especialistas en la interpretación de salidas numéricas, se incluyen representaciones visuales para estos dos nuevos métodos que facilitan el procesamiento de las conclusiones. / This PhD thesis deals with Kansei Engineering (KE), a technique for translating emotions elicited by products into technical parameters, and statistical methods that can benefit the discipline. The basic purpose of KE is discovering in which way some properties of a product convey certain emotions in its users. It is a quantitative method, and data are typically collected using questionnaires. Conclusions are reached when analyzing the collected data, normally using some kind of regression analysis. Kansei Engineering can be placed under the more general area of research of emotional design. The thesis starts justifying the importance of emotional design. As the range of techniques used under the name of Kansei Engineering is rather vast and not very clear, the thesis develops a detailed definition of KE that serves the purpose of delimiting its scope. A model for conducting KE studies is then suggested. The model includes spanning the semantic space – the whole range of emotions the product can elicit – and the space of properties – the technical variables that can be modified in the design phase. After the data collection, the synthesis phase links both spaces; that is, discovers how several properties of the product elicit certain emotions. Each step of the model is explained in detail using a KE study specially performed for this thesis: the fruit juice experiment. The initial model is progressively improved during the thesis and data from the experiment are reanalyzed using the new proposals. Many practical concerns arise when looking at the above mentioned model for KE studies (among many others, how many participants are used and how the data collection session is conducted). An extensive literature review is done with the aim of answering these and other questions. The most common applications of KE are also depicted, together with comments on particular interesting ideas from several papers. The literature review also serves to list which are the most common tools used in the synthesis phase. The central part of the thesis focuses precisely in tools for the synthesis phase. Statistical tools such as quantification theory type I and ordinal logistic regression are studied in detail, and several improvements are suggested. In particular, a new graphical way to represent results from an ordinal logistic regression is proposed. An automatic learning technique, rough sets, is introduced and a discussion is included on its adequacy for KE studies. Several sets of simulated data are used to assess the behavior of the suggested statistical techniques, leading to some useful recommendations. No matter the analysis tools used in the synthesis phase, conclusions are likely to be flawed when the design matrix is not appropriate. A method to evaluate the suitability of design matrices used in KE studies is proposed, based on the use of two new indicators: an orthogonality index and a confusion index. The commonly forgotten role of interactions in KE studies is studied and a method to include an interaction in KE studies is suggested, together with a way to represent it graphically. Finally, the untreated topic of variability in KE studies is tackled in the last part of the thesis. A method (based in cluster analysis) for finding segments among subjects according to their emotional responses and a way to rank subjects based on their coherence when rating products (using an intraclass correlation coefficient) are proposed. As many users of Kansei Engineering are not specialists in the interpretation of the numerical output from statistical techniques, visual representations for these two new proposals are included to aid understanding.
199

Bimodal waveguide interferometer device based on silicon photonics technology for label-free and high sensitive biosensing

González Guerrero, Ana Belén 13 December 2012 (has links)
Els dispositius òptics biosensors basats en la detecció d’ona evanescent podrien superar les limitacions dels tests de diagnòstic actuals (que són lents i cars) degut a la possibilitat de realitzar les deteccions a temps reals i fent servir un esquema sense la necessitat de marcatges. Entre els diferents transductors òptics, els interferomètrics són els que posseeixen els millors límits de detecció (LOD) deguts a canvis en el índex de refracció de dissolucions (10-7-10-8 Unitats d’Índex de Refracció, RIU) així com per sensibilitat superficial (en el rang dels pg/ml) i un rang lineal més gran. No obstant, les configuracions interferomètriques (l’interferòmetre Mach-Zehnder o el Young) més usuals fan servir un divisor amb forma de Y, que és essencial per dividir o recombinar la llum, lo qual, degut a les toleràncies de les actuals tècniques de fabricació es una gran desavantatge per la reproduibilitat d’aquests dispositius. Per evitar aquests problemes, hem desenvolupat una configuració interferomètrica més simple basada en un guia de ones recte on dos modes de llum de la mateixa polarització interfereixen entre si. Aquesta configuració elimina la complexitat dels interferòmetres més utilitzats i conseqüentment, el biosensors que s’obtenen són més fiables i reproduïbles. Aquesta tesis esta dirigida al desenvolupament i la caracterització d’un nou transductor fotònic per biosensat d’alta sensibilitat i sense marcatges, el dispositiu de guia d’ona bimodal (BiMW). Amb aquest propòsit, els següents punts han estat plantejats: 1. Disseny, fabricació i caracterització òptica del transductor que opera segons el principi de la interferència de dos modes de llum. 2. Desenvolupament i optimització de les estratègies de funcionalització de la superfície transductora fent servir processos de silanització. 3. Estudi de l’aplicabilitat del biosensor amb la demostració del diagnosis analític de problemes clínics rellevants. El transductor es fabrica a nivell d’oblea a la Sala Blanca, lo qual garanteix la producció en massa del dispositiu així com un preu baix del mateix. El dispositiu és molt sensible a variacions en l’índex de refracció de dissolucions, obtenint un límit de detecció de 2×10-7 RIU. La biofuncionalització de l’àrea sensora es un dels aspectes més importants d’aquest treball. Diferents protocols per immobilitzar els diferents bioreceptor en la superfície del dispositiu (cadenes d’ADN, proteïnes i anticossos) han estat desenvolupats. Aquests protocols s’han fet servir per la demostració de diferents bioaplicacions; la detecció d’hormones, bactèries o seqüències d´ADN complementàries. Els resultats presentats en aquesta tesis han destacat pel superior funcionament d’aquest dispositiu en comparació amb els tests de diagnosis convencionals degut a: i) la possibilitat de monitoritzar les interaccions biomoleculars en temps real i fent servir un esquema sense marcadors reduint el temps i el cost de l’assaig, ii) la fabricació del dispositiu fent servir microtecnologia de silici, possibilitant la producció en massa, iii) l’alta sensibilitat (pg/ml, femtomolar) demostrada per les diferents bioaplicacions avaluades i iv) el dispositiu reuneix els requeriments específics per ser miniaturitzat e integrat en una plataforma de sensat multiplexada. Aquest treball obre la porta a la integració d’aquest transductor en un dispositiu lab-on-a -chip, una feina que inclou l’acoblament/detecció de la llum, un sistema capaç de modular la senyal interferomètrica i la incorporació de canals microfluídics per anàlisis multiplexats. Cadascun d’aquests temes afegeix molta complexitat al dispositiu final, han de ser individualment desenvolupades i optimitzades per ser integrades en un biosensor lab-on-a-chip. Finalment, la possibilitat de detectar simultàniament múltiples analits involucra el desenvolupament de noves tècniques per recollir les múltiples senyals així com desenvolupar noves estratègies de biofuncionalització. / Optical biosensor devices based on evanescent wave detection could overcome the limitations of conventional diagnostic tests (expensive and time-consuming) due to the possibility of carrying out the detection in real-time and using a label-free scheme. Among the different optical transducers, interferometric devices have evidenced the best limit of detection (LOD) for refractive index changes of bulk solutions (10-7-10-8 Refractive Index Units, RIU) and for surface sensing (in the pg/ml range) and a wider linear range. However, usual interferometric transducers (Mach-Zehnder or Young interferometers) employ the Y-junction to split or recombine light, a drawback for the coherence and performance of the device due to standard tolerances of microfabrication techniques. To overcome these problems, we have developed a simple configuration based on a single straight waveguide where two modes of the light of the same polarization are interfering between them. This simple approach avoids the complexity of the usual interferometric transducers and as a consequence, more reliable and reproducible biosensors can be obtained. This thesis is focused on the development and characterization of a new photonic transducer, the Bimodal Waveguide device (BiMW), for label- free and high sensitive biosensing. To achieve this, the following steps have been pursued: 1. Design, fabrication, and optical characterization of an optical transducer operating by two-mode interference principle. 2. Development and optimization of biofunctionalization strategies on the transducer surface using silanization techniques. 3. Study of the applicability of the biosensor with the demonstration of bioanalytical diagnosis of relevant problems. The transducers are fabricated at wafer level in Clean Room facilities, which warrants a cost-effective and mass-production of the sensor chips. The device is highly sensitive to small changes in the refractive index occurring on the sensor area, leading to a detection limit of 2.5×10-7 RIU for bulk changes in refractive index solutions. The biofunctionalization of the sensor area is one of the most crucial aspects of this work. Optimized functionalization procedures have been achieved, which has been employed to immobilize different types of bioreceptors (DNA strands, proteins, and antibodies) on the surface. The optimized protocols have been used for the demonstration of different bioapplications such as the detection of hormones, bacteria, or complementary DNA sequences. The results presented in this work have highlighted the superior performance of this device in comparison with conventional diagnostics tests due to: i) the possibility of monitoring biomolecular interactions in real-time and by using a label-free scheme which reduce the time and cost of the assay , ii) the fabrication of the device using standard silicon microelectronics technology opening the possibility for mass-production, iii) the high sensitivity demonstrated for the different bioapplications assessed achieving detection limits in the pg/ml range (femtomolar), and iv) the device meets the specific requirements to be miniaturized and integrated in a multiplexed platform. This work opens the door for the integration of this transducer in a lab-on-a-chip device, including the in-coupling/out-coupling of light, a system able to modulate the interferometric signal, and the incorporation of microfluidics channels for multiplexing. Each of these subjects adds a great complexity to the final device, and must be independently developed and optimized in order to be successfully integrated at the final lab-on-a-chip biosensor. Finally, the possibility to detect simultaneously multiple analytes will involve further efforts in developing new optical in and outcoupling as well as new biofunctionalization strategies.
200

Separación de dióxido de carbono utilizando membranas soportadas con líquidos iónicos. Carbon dioxide separation by means of supported ionic liquid membranes

Santos Santamaría, Esther 21 February 2014 (has links)
Las últimas décadas han puesto de manifiesto la imposibilidad de trasladar la intensidad del consumo energético del mundo desarrollado a la totalidad del planeta y en consecuencia, la necesidad de un cambio global hacia una economía baja en carbono y por tanto a un modelo energético más eficiente y sostenible. Se requiere de un esfuerzo tecnológico dirigido a la reducción de las emisiones de gases de efecto invernadero, lo que implica el desarrollo de tecnologías para capturar y almacenar o valorizar dióxido de carbono (CO₂). La presente Tesis Doctoral estudia el desarrollo de nuevas membranas soportadas con líquidos iónicos para separación de CO₂ a través de un doble enfoque: desarrollo de membranas estímulo-respuesta basadas en líquidos iónicos magnéticos que presentan respuesta ante la aplicación de un campo magnético externo y membranas soportadas con líquidos iónicos basados en el anión acetato con una elevada solubilidad de CO₂, que pueden alcanzar mejores prestaciones en la separación/concentración. / The last decades have shown the impossibility of transferring the energy intensity of the developed world to the entire planet and thus, the need for a global shift towards a low carbon economy and therefore, to a more efficient and sustainable energy model. A technological effort is required aimed at reducing greenhouse gas emissions, which necessarily involves the development of carbon dioxide (CO₂) capture and storage or valorization technologies. In this context, this Thesis studies the development of new supported ionic liquid membranes for CO₂ separation aiming for a dual approach: development of novel stimuli-responsive magnetic ionic liquids based membranes showing a response to the application of an external magnetic field and acetate based supported ionic liquid membranes with a high CO₂ solubility, which can achieve a better performance in its separation/concentration

Page generated in 0.0354 seconds