Spelling suggestions: "subject:"tecnologies"" "subject:"thecnologies""
1 |
Development of conductive SPM probes for applications in BiologyMulugeta Birhane, Yigezu 19 June 2014 (has links)
Se han desarrollado sondas de SPM conductoras y aisladas para la caracterización por microscopía de impedancia de barrido en medio ambiente líquido. Las sondas se han desarrollado debido a la necesidad de caracterizar dispositivos biosensores olfativos en el proyecto Europeo BOND. Hemos realizado desarrollos separados para sondas DC (para medidas eléctricas en corriente continua en modo de contacto) y sondas AC (para la medida de la respuesta alterna en modo dinámico).
Hemos demostrado la fabricación mediante procesos de microfabricación estándar de sondas de SPM (vigas en voladizo con puntas tetraédricas integradas) conductoras y eléctricamente aisladas excepto en el extremo de la punta y en la zona de contacto eléctrico. El radio de la punta se ha medido a partir de la resolución de las imágenes topográficas y de técnicas de calibración eléctricas, mostrando ambas medidas un muy buen acuerdo, con valores en el rango de 30-50nm. Estos valores están de acuerdo con la especificación requerida por el proyecto BOND (radio de la punta menor que 100nm). La constante de fuerza de las sondas se ha calibrado mediante la técnica de la sintonización térmica. Los valores medidos están de acuerdo con las especificaciones requeridas en el proyecto BOND.
Se ha medido el gradiente de capacidad entre las sondas y un substrajo conductor (grafito HOPG) en función de la distancia punta-substrato, utilizando un montaje con resolución de attofaradios. Estas medidas demostraron que la capacidad parásita entre las distintas partes de la sonda (viga, cono de la punta y sustrato de la sonda) y el substrato conductor se redujo a un valor no detectable tanto para las sondas DC como para las AC. Se ha medido también la deflexión estática de la viga de una sonda AC debida al acoplamiento capacitivo entre la sonda y el substrato, en función del voltaje DC aplicado manteniendo constante la distancia (500 nm). Las medidas mostraron que el acoplamiento capacitivo entre la sonda y el substrato conductor es mucho menor que el correspondiente a una sonda con la viga totalmente cubierta por metal, resultado que está de acuerdo con el diseño de las sondas. Hasta donde sabemos, estas son las primeras sondas de SPM conductoras y aisladas que se han fabricado con contribuciones de capacidad parásita muy reducidas respecto a las sondas convencionales. Se han realizado además experimentos de EFM y AFM túnel (TUNA) con las sondas AC. Se observó un muy buen acuerdo entre las imágenes de EFM y topográficas tomadas simultáneamente de nanoestructuras de óxido de silicio en silicio altamente dopado. Se observó una relación lineal entre la corriente TUNA y el voltaje DC aplicado entre la sonda y el substrato conductor. Estos resultados muestran el buen comportamiento eléctrico de las sondas. Se espera que la capa dieléctrica de las sondas minimice la conductancia parásita entre la viga de la sonda y las muestras en un medio líquido. Por ello se espera que las sondas AC puedan ser utilizadas para la caracterización eléctrica local de muestras con pequeña señal en ambiente líquido.
En las sondas DC, al ser silicio el material de la punta, el óxido nativo bloqueó el contacto eléctrico entre la punta y el substrato conductor en las medidas de la corriente TUNA. Para abordar este problema se realizaron pruebas con siliciuros de titanio y de tántalo como capas conductoras en las sondas. Sin embargo las condiciones de grabado del nitruro de silicio (la capa dieléctrica usada en las sondas) disponibles tienen poca selectividad con estas capas de siliciuro. Se requerirían por tanto estudios adicionales para resolver este problema y poder fabricar sondas DC óptimas para la caracterización topográfica y eléctrica de muestras en ambiente líquido. / We have developed insulated conductive SPM probes for scanning impedance microscopy characterization in liquid environment. The probes have been developed due to the need of characterizing olfactory biosensor devices within the European project BOND. We have made separate developments for DC probes (for DC electrical measurements in contact mode) and AC probes (to measure the AC response in dynamic mode).
We have demonstrated the batch fabrication of conductive SPM probes (cantilevers integrated with sharp tetrahedral tips) insulated except at the very tip apex and the contact pad area with standard microfabrication processes. The tip radius of the fabricated probes obtained from topographic image resolution and electrical calibration techniques show very good agreement and gave tip radius values in the range of 30-50nm. These tip radius values satisfy the specification for the probes tips as required by the BOND project (which was tip radius value of less than 100nm). The force constant of the fabricated probes was calibrated using the thermal tuning technique. The force constant values of the characterized probes were found to satisfy the specification values for the probe cantilevers as required by the BOND project.
Capacitance gradient between the fabricated probes and a conductive substrate (HOPG) as a function of tip-substrate distance was measured by a setup with attofarad resolution. These measurements demonstrated that the stray capacitance between the different parts of the probes (cantilever, tip cone and probe substrate) and the conductive substrate was reduced to a non-detectable limit for both DC and AC probes. Static deflection of an AC probe cantilever due to the probe substrate capacitance coupling was measured as a function of DC applied voltage at constant tip-substrate distance (500 nm). Capacitance coupling between the fabricated AC probe cantilever and the conductive substrate was highly reduced compared to what will be between the conductive substrate and a probe cantilever with full metallic coating. These results are consistent with the design of the probes. We claim, to the best of our knowledge, that we are the 1st in fabricating insulated conductive SPM probes with much reduced stray capacitance contributions. Further EFM and tunneling AFM (TUNA) experiments were made with AC probes. Very good agreement between simultaneously taken EFM and topography images of silicon oxide nanostructures on highly doped silicon was observed. And linear relationship between TUNA current and DC applied voltage (between the probe and a conductive substrate) was observed. These results show the good electrical behavior of the probes. The dielectric coating is expected to minimize the parasitic conductance between the probe cantilever and samples in liquid media. Therefore, it is expected that the AC probes can be utilized for local electrical characterization of small signal samples in liquid environment.
In the DC probes, as the tip material is silicon, the native oxide on the tip blocked electrical contact between the probe tip and the conductive substrate in TUNA current measurement. To address the issue of native oxide, we performed titanium and tantalum silicide (as probe conducting layers) test runs. But we found that the silicon nitride (the dielectric layer used on the probes) etching conditions which are available at IMB-CNM clean room facility have poor selectivity to titanium and tantalum silicide layers. We believe that further test is needed to address the titanium or tantalum silicide selectivity problem to fabricate optimum DC probes for topographic and electrical characterization of samples in liquid environment.
|
2 |
Smart Opto-mechanical actuators for tactile applicationsTorras Andrés, Núria 03 December 2014 (has links)
La discapacitat visual és una greu amenaça que limita la capacitat de les persones per comunicar-se. Amb els anys, s’han explorat diverses propostes tecnològiques basades tan en estímuls auditius com tàctils per aportar solucions reals a la gent que pateix aquest tipus de discapacitat. Entre les més rellevants destaquen les tècniques d’audiodescripció i els dispositius Braille basats en actuació piezoelèctrica, que són els que actualment es troben al mercat.
A dia d’avui, al vell mig de la cursa tecnològica, hi ha una demanda creixent de comunicació rica i fluida mitjançant el tacte. Tan és així que la majoria interruptors, botons i tecles de gran part dels dispositius electrònics del nostre entorn estan essent substituïts per pantalles tàctils, afegint barreres físiques i augmentant les dificultats de comunicació de les persones cegues.
Noves generacions de materials, principalment els polímers, han despertat un gran interès en els darrers anys gràcies a les seves atractives propietats, que poden adaptar-se a la carta en funció de les necessitats. De tots ells, els elastòmers de cristalls líquids, LCE, en són un clar exemple. Els LCE tenen la capacitat intrínseca d’auto-organitzar-se a nivell molecular, desencadenant canvis controlats i totalment reversibles en les seves dimensions a escala macroscòpica, en resposta a diversos tipus d’estímuls externs; canvis que poden adaptar-se per desenvolupar actuadors capaços de produir tan esforços mecànics de tracció com d’empenta.
La recerca presentada en aquesta tesi descriu les principals característiques dels LCE des del punt de vista de l’enginyeria i discuteix les seves possibles aplicacions com a actuadors, amb el principal objectiu d’aportar solucions innovadores als actuals sistemes tàctils, a partir del disseny, fabricació i caracterització de diferents actuadors basats en aquests materials i la seva foto-actuació a partir de llum visible. Propostes que combinen tècniques de processament de materials i tecnologia de microsistemes per aportar solucions tecnològiques innovadores cap a una nova generació d’actuadors intel·ligents. / La discapacidad visual es una grave amenaza que limita la capacidad de las personas para comunicarse. Con los años. Se han explorado diversas propuestas tecnológicas basadas tanto en estímulos auditivas como en estímulos táctiles para aportar soluciones reales al colectivo que sufre este tipo de discapacidad. Entre las más relevantes destacan las técnicas de audio descripción y los dispositivos Braille basados en actuación piezoeléctrica, que son los que actualmente se encuentran en el mercado.
A día de hoy, en medio de la carrera tecnológica, hay una demanda creciente de comunicación rica y fluida a través del tacto. Tanto es así que la mayoría de los interruptores, botones y teclas de gran parte de los dispositivos electrónicos a nuestro alcance están siendo reemplazados por pantallas táctiles, añadiendo barreras físicas y aumentando las dificultades de comunicación de las personas ciegas.
Nuevas generaciones de materiales, principalmente los polímeros, han despertado un gran interés en los últimos años gracias a sus atractivas propiedades, que pueden adaptarse a la carta en función de las necesidades. De todos ellos, los elastómeros de cristales líquidos, LCE, son un claro ejemplo. Los LCE tienen la capacidad intrínseca de auto-organizarse a nivel molecular, produciendo cambios controlados y totalmente reversibles de sus dimensiones a escala macroscópica, en respuesta a varios tipos de estímulos externos; cambios que pueden adaptarse a demanda para desarrollar actuadores capaces de producir distintos tipos de esfuerzos mecánicos de tracción.
La investigación recogida y presentada en este documento de tesis describe las principales características de los LCE desde el punto de vista de la ingeniería y discute sus posibles aplicaciones cómo actuadores, con el principal objetivo de aportar soluciones innovadoras a los actuales sistemas táctiles, a partir del diseño, fabricación y caracterización de distintos actuadores basados en estos materiales y su foto-actuación a partir de luz visible. Propuestas que combinan técnicas de procesado de materiales y tecnología de microsistemas para aportar soluciones tecnológicas innovadoras hacia una nueva generación de actuadores inteligentes. / Visual disability is a serious threat that limits the persons’ ability to communicate. Over the years several attempts for the development of technologies based on audio and tactile stimuli have been explored to provide real solutions to individuals with this disability. Among them, audio description techniques and Braille devices based on piezoelectric actuation are the most relevant solutions on the market.
Nowadays, with all the technological improvements, there is a growing demand for rich communication through touch. Thus switches, buttons and keyboards of most commonly used electrical devices are being replaced by tactile displays, adding new physical barriers and increasing communications difficulties of blind people.
New generation of materials, especially soft polymer composites, have been of increased interest in the last few years due to their many attractive properties, which can be tailored on demand to achieve a broad range of requirements. Liquid-crystalline elastomers, LCE, are a clear example. Such materials possess the intrinsic ability to self-organize at molecular level resulting in a controllable and fully reversible change on their dimensions at macroscale in response to applied external stimuli, which can be easily adapted to make actuators producing pulling or pushing forces.
The research presented in this thesis describes the main characteristics of LCE materials from engineering point of view and discusses their potential applications as actuators with the main objective to provide innovative solutions towards current tactile available systems, through the design, fabrication and characterization of different actuator approaches based on these interesting elastomeric materials and their photo-induced actuation using visible light. Novel approaches combining material processing techniques and microsystems technology to provide original solutions towards a new generation of smart actuators.
|
3 |
Modeling performance degradation in OpenMP memory bound applications on multicore multisocket systemsAllande Álvarez, César 18 December 2015 (has links)
L'evolució dels processadors multicore ha canviat completament l'evolució dels actuals sistemes de HPC. Les arquitectures multicore han estat dissenyades principalment per evitar tres barreres de disseny: el paral·lelisme a escala d'instrucció, el consum energètic i la contenció a memòria. La darrera és deguda a la creixent diferència de velocitat entre el processador i la memòria.
Les prestacions de les aplicacions intensives a memòria executades en entorns multicore multisocket estan directament relacionades a la utilització dels recursos compartits a la jerarquia de memòria. La utilització dels recursos compartits pot portar a una degradació de les prestacions significativa. L'exploració de diferents configuracions d'afinitat de threads permet la selecció de configuracions que poden arribar a equilibrar la millora de prestacions obtinguda deguda a l'increment del paral·lelisme amb la degradació deguda a la contenció a memòria.
Les principals contribucions d'aquesta tesi és la definició d'una metodologia pel desenvolupament d'estratègies de sintonització en entorns multicore multisocket que ha proporcionat la definició de dos models de rendiment per aplicacions intensives a memòria.
El primer model de rendiment, basat en una caracterització en temps d'execució, estima el temps d'execució per diferents configuracions de número i distribució de threads en entorns multicore multisocket. Per aquesta finalitat, el model requereix una caracterització exhaustiva en temps d'execució en un únic processador amb l'objectiu de determinar la contenció a memòria.
El segon model de rendiment, basat en la pre-caracterització de l'aplicació, estima el temps d'execució i l'impacte de la contenció a memòria per execucions concurrents basat en el perfil del memory footprint extret de traces de la mateixa aplicació executada amb petites càrregues de treball. / La evolución de los procesadores multicore ha cambiado completamente la evolución de los actuales sistemas de HPC. Las arquitecturas multicore han sido diseñadas principalmente para evitar tres barreras de diseño, el paralelismo a nivel de instrucción, el consumo energético y la contención de memoria. La última debido a la creciente diferencia de velocidad entre el procesador y la memoria.
El rendimiento de aplicaciones intensivas en memoria ejecutadas en entornos multicore multisocket está relacionado directamente a la utilización de los recursos compartidos en la jerarquía de memoria. La utilización de recursos compartidos puede llevar a una degradación de rendimiento significativa. La exploración de diferentes configuraciones de afinidad de threads permite la selección de configuraciones que pueden llegar a equilibrar la mejora de rendimiento obtenido por el incremento de paralelismo con la degradación debida a la contención de memoria.
La principales contribuciones de esta tesis es la definición de una metodología para el desarrollo de estrategias de sintonización en entornos multicore multisocket que ha proporcionado la definición de dos modelos de rendimiento para aplicaciones intensivas en memoria.El primer modelo de rendimiento, basado en una caracterización en tiempo de ejecución, estima el tiempo de ejecución para diferentes configuraciones de numero y distribución de threads para entornos multicore multisocket. Para ello, el modelo requiere de una caracterización exhaustiva en tiempo de ejecución sobre un solo procesador con el objetivo de determinar la contención de memoria.
El segundo modelo de rendimiento, basado en la pre-caracterización de la aplicación, estima en tiempo de ejecución el impacto de la contención de memoria para ejecuciones concurrentes basado en un perfil del memory footprint extraído de trazas de la aplicación ejecutada con pequeñas cargas de trabajo. / The evolution of multicore processors has completely changed the evolution of current HPC systems. The multicore architectures were mainly designed to avoid three design walls, instruction level parallelism, power wall, and finally the memory wall. The last because of the increasingly gap between processor and memory speeds.
Performance of memory intensive applications executed on multi-core multi-socket environments is closely related to the utilization of shared resources in the memory hierarchy. The shared resources utilization can lead to a significant performance degradation. The exploration of different thread affinity configurations allows the selection of a proper configuration that balances the performance improvement obtained by increasing parallelism with the performance degradation due to memory contention.
The main contributions of this thesis is the definition of a methodology for developing dynamic tuning strategies in multicore multisocket environment which has provided the definition of two performance models for memory intensive applications.
The first performance model, based on runtime characterization, estimates the execution time for different configurations of threads and thread distributions in a multicore multisocket system. To do that, the model requires a runtime characterization from the exhaustive execution on a single socket to determine the memory contention.
The second performance model, based on pre-characterization of the application, estimates at runtime the impact of the memory contention for concurrent executions based on profiling the memory footprint from traces of the application using small workloads.
|
4 |
Viewpoint invariant features and robust monocular Camera pose estimationFerraz Colomina, Luis 01 February 2016 (has links)
La pose de la càmera respecte a una escena del món real determina la projecció perspectiva de l'escena sobre el pla imatge. L'anàlisi de les deformacions entre parelles d'imatges degudes a la perspectiva i la pose de la càmera han portat a molts investigadors en Visió per Computador a tractar amb problemes com, la capacitat per detectar i buscar coincidències de les mateixes característiques locals a diferents imatges o recuperar per cada imatge la pose original de la càmera. La diferencia entre els dos problemes recau en la localitat de la informació que es mostra a la imatge, mentre en el cas de les característiques es busca la invariància local, per al cas de la pose de la càmera es busquen fonts d'informació més global, com ara conjunts de característiques locals.
La detecció de característiques locals és una peça clau per un ampli rang d'aplicacions de Visió per Computador donat que permet buscar coincidències i localitzar regions específiques de la imatge. A la primera part d'aquest treball la invariància de les característiques és abordada proposant algoritmes per millorar la robustesa a les pertorbacions de la imatge, canvis de perspectiva i poder de discriminació des de dos punts de vista: (i) detecció precisa de cantonades i taques a les imatges evitant redundàncies mitjançant el seu moviment a través de diferents escales, i (ii) aprenentatge de descriptors robustos. Concretament, proposem tres detectors invariants a escala on un d'ells detecta cantonades i taques simultàniament amb un increment de la càrrega computacional insignificant. També proposem un detector invariant afí de taques. Sobre descriptors, proposem aprendre'ls mitjançant xarxes neurals de convolució i grans conjunts de regions d'imatges anotades sota diferents condicions.
Malgrat que és un tema investigat durant dècades, l'estimació de la pose de la càmera encara és un repte. L'objectiu dels algorismes de Perspective-n-Point (PnP) és estimar la localització i orientació d'una càmera calibrada a partir de n correspondències 3D-a-2D conegudes entre un prèviament conegut model 3D d'una escena real i característiques 2D obtingudes d'una única imatge. A la segona part d'aquesta tesi l'estimació de la pose de la càmera és adreçada amb nous mètodes de PnP, els quals redueixen dràsticament el cost computacional permetent aplicacions en temps real independentment del nombre de correspondències. A més, proporcionem un mecanisme integrat de rebuig de correspondències incorrectes amb una càrrega computacional insignificant i un nou mètode per incrementar la precisió que modela l'error de reprojecció de cada correspondència.
A escenaris complexos i grans, amb potser centenars de milers de característiques, és difícil i computacionalment car trobar correspondències correctes. En aquest cas, proposem un mètode robust i precís per estimar la pose de la càmera. El nostre mètode s'aprofita de classificadors d'alt nivell, que estimen la pose de la càmera de manera poc precisa, per tal de restringir les correspondències a ser utilitzades pels nostres precisos algorismes de PnP. / Camera pose with respect to a real world scene determines the perspective projection of the scene on the image plane. The analysis of the deformations between pairs of images due to perspective and camera pose have led many Computer Vision researchers to deal with problems such as, the ability to detect and match the same local features in different images or recovering for each image its original camera pose. The difference between both problems lie in the locality of the image information, while for local features we look for local invariance, for camera pose we look for more global information sources, like sets of local features.
Local feature detection is a cornerstone of a wide range of Computer Vision applications since it allows to match and localize specific image regions. In the first part of this work local invariance of features is tackled proposing algorithms to improve the robustness to image perturbations, perspective changes and discriminative power from two points of view: (i) accurate detection of non-redundant corner and blob image structures based on their movement along different scales, and (ii) learning robust descriptors. Concretely, we propose three scale invariant detectors, detecting one of them corners and blobs simultaneously with a negligible computational overhead. We also propose one blob affine invariant detector. In terms of descriptors, we propose to learn them using Convolutional Neural Networks and large datasets of annotated image regions under different image conditions.
Despite being a topic researched for decades camera pose estimation is still an open challenge. The goal of the Perspective-n-Point (PnP) problem is to estimate the location and orientation of a calibrated camera from n known 3D-to-2D point correspondences between a previously known 3D model of a real scene and 2D features obtained from a single image. In the second part of this thesis camera pose estimation is addressed with novel PnP approaches, which reduces drastically the computational cost allowing real-time applications independently of the number of correspondences. In addition, we provide an integrated outlier rejection mechanism with a negligible computational overhead and a novel method to increase the accuracy by modelling the reprojection error of each correspondence.
Finally in the case of complex and huge scenarios, with maybe hundreds of thousands of features, is difficult and computationally expensive to be able to find correct 3D-to-2D correspondences. In this case, a robust and accurate top-down approach for camera pose estimation is proposed. Our approach takes advantage of high-level classifiers, which estimates a rough camera pose, in order to constrain the 3D-to-2D correspondences to be used by our accurate and robust to outliers PnP method.
|
5 |
A Mobile Code-based Multi-Routing Protocol Architecture for Delay and Disruption Tolerant NetworkingBorrego Iglesias, Carlos 11 March 2013 (has links)
En aquesta tesi, s’introdueix el codi per millorar les Xarxes DTN. Els protocols DTN Store-and-carry-forward ofereixen noves possibilitats en escenaris on hi ha connectivitat intermitent, amples de banda asimètrics, latències prolongades i variables i patrons ambigus de mobilitat. No obstant això, hi ha escenaris on mecanismes actuals DTN no són prou eficaços, per exemple, quan diverses aplicacions han de coexistir. En aquest treball presentem una arquitectura de propòsit general per a aquest tipus d’escenaris basats en la idea de deixar que l’aplicació, per mitjà dels seus missatges, determini el comportament de cada node intermedi. La pedra angular d’aquesta proposta és portar el codi d’algorisme d’enrutament al llarg de cada missatge. La xarxa DTN resultant pot ser utilitzada per diferents aplicacions a la vegada. Aquesta tesi utilitza tres exemples de tres escenaris diferents per mostrar com la nostra arquitectura es pot utilitzar. En primer lloc, una xarxa de propòsit general, multi-aplicació, de nodes mòbil basat en codi mòbil es presenta. Aquest sistema intel·ligent pot treballar en escenaris de DTN. Els nodes mòbils acollen codi mòbil amb les missions de fer tasques i actuen com routers DTN seguint el paradigma store-carry-and-forward. En segon lloc, un nou paradigma - store-carry-procés-and-forward - basat en codi mòbil per millorar la integració de les xarxes de sensors sense fils i computació grid es introduit. En tercer lloc, un escenari d’emergència en què els diferents usuaris, com policies, bombers, metges, infermeres, enginyers o els equips de rescat, entre d’altres, juntament amb els dispositius portàtils, com telèfons mòbils o tauletes, creuen la xarxa interconnectada. Contactes oportunistes permeten que diferents usuaris utilitzar les diferents aplicacions a la xarxa per a fins molt diferents. A més, la proposta es complementa amb una integració basada en extensions de codi del protocol Bundle Protocol. La viabilitat i la usabilitat de l’aplicació de les diferents propostes s’han demostrat i avaluat en comparació amb altres propostes del seu estat de l’art. / In this thesis, we include code in the messages to improve Delay and Disruption Tolerant Networking (DTN) performance. Store-carry-and-forward DTN protocols offer new possibilities in scenarios where there are intermittent connectivity, asymmetric bandwidths, long and variable latency and ambiguous mobility patterns. However, there are scenarios where current DTN mechanisms are not efficient enough, for example when several applications need to coexist. In this study we present a general purpose architecture for this type of scenarios based upon the idea of letting the application, by means of its messages, decide the behavior of every intermediate node. The keystone of this proposal is to carry the routing algorithm code along with every single message. The resulting DTN can be used by different heterogeneous applications simultaneously. This thesis uses three examples of three different scenarios to show how our architecture can be used. Firstly, it presents a general purpose, multi-application mobile node sensor network based on mobile code. This intelligent system can work in DTN scenarios. Mobile nodes host software mobile code with task missions and act as DTN routers following the store-carry-and-forward model. Secondly, it introduces a new paradigm -- \textit{store-carry-process-and-forward} -- based on mobile code to improve the integration of wireless sensor networks and grid computing infrastructures. Thirdly, it describes an emergency scenario in which different users such as policemen, firemen, doctors, paramedics, engineers or rescue teams, among others, along with portable devices such as smart phones or tablets, create the interconnected network. Opportunistic contacts among the different users permit the different applications to employ the network for very different purposes. Additionally, the proposal is complemented by an integration based on code block bundle extensions of the proposed architecture with the DTN Bundle Protocol. The feasibility and usability of the different application proposals are proved and evaluated by comparing its performance with state-of-the-art proposals.
|
6 |
Planificación y gestión de recursos en la ejecución de workflows científicos en entornos híbridos GPGPUDelgado Mengual, Jordi 29 January 2016 (has links)
Els workflows han esdevingut un esquema d’organització de les tasques àmpliament utilitzat per al processament de dades científiques. Aquesta tesis presenta varies tècniques de planificació i de gestió de recursos per a l'execució de workflows científics en entorns de computació híbrids.
En els darrers anys, els processadors de les targetes gràfiques (GPUs) han esdevingut un recurs programable que s'ha introduït en els sistemes de còmput com a acceleradors per a executar, a un cost econòmic baix, altres tasques que no sigui el processament gràfic. Un àmbit on s'han introduït ha estat el camp del processament d'imatges mèdiques, degut a que l'alta ressolució i tamany de les imatges suposen un alt cost en recursos i temps de computació. Aquest cas es dóna amb FreeSurfer, que és un conjunt d'eines que defineixen workflows de processament de ressonàncies magnètiques.
La introducció d'algunes implementacions en GPU en les etapes del workflow de processament de ressonàncies estructurals des de les versions 5 i 5.3, ha suposat una important reducció del temps d'execució per una sola instància (execució serial) del workflow, al voltant d'un 60-70% en funció de la ressonància d'entrada. Quan volem executar múltiples instàncies del workflow en un mateix node de còmput ens trobem que les GPUs resulten ser coll d'ampolla per la saturació de la memòria de la targeta. Per superar aquestes limitacions s'introdueixen al llarg d'aquest treball vàries tècniques de planificació i gestió dels recursos compartits, en especial la GPU.
En el primer estudi es presenta la proposta de planificació que denominem inter-workflow, amb una taula de restriccions que defineix un percentatge d’utilització de recursos per cada etapa i que serveix per prendre les decisions de planificació. Aquesta planificació s’aplica en la gestió de les dependències de dades i d’accés als recursos per al cas d’us definit pel workflow complet d’anàlisi estructural de FreeSurfer. En l’execució de múltiples instancies, aplicant aquesta planificació obtenim una millora de 6,79x respecte l'execució serial.
Per altra banda, en el segon estudi realitzat, el cas d’us és el subflow de FreeSurfer per a la reconstrucció volumètrica. Amb la planificació que denominem per lots s'introdueixen mecanismes de control de combinacions de les tasques de les diferents instàncies a executar, i obtenim un guany de 10,48x respecte l'execució serial. Aquesta millora suposa un 27% respecte la planificació inter-workflow aplicada en el mateix workflow i les mateixes dades d’entrada. / Scientific workflows have become a framework of working arrangements, widely used for scientific data processing. This thesis presents several scheduling and resource management techniques for the execution of scientific workflows on hybrid computing environments.
In recent years, the processors of the graphics cards (GPU) have become a programmable resource that has been introduced into computer systems as accelerators to run, in a low cost way, other tasks than graphics processing. One area where they have been introduced is the medical imaging field, because the high resolution and image size represent a high cost in terms of resources and computation time. This is the case of FreeSurfer, which is a set of tools which define Magnetic Resonance (MRIs) processing workflows.
The introduction of some implementations on the GPU in stages the of the processing workflow from structural resonances from versions 5 and 5.3, has resulted in a major reduction of the execution time in one workflow instance (serial execution), representing about 60-70% based on the input resonance. When we run multiple instances of the FreeSurfer workflow in the same computing node we find that GPUs become a bottleneck for the saturation of the GPU memory. To overcome these limitations several techniques are introduced throughout this work for planning and management of shared resources, especially the GPU.
We call the first proposal inter-workflow scheduling. It uses a list of restrictions that define the utilization rate of resources for each stage and is used to make planning decisions. This planning is applied in the management of data dependencies and resource access for the use case defined by the full FreeSurfer structural analysis workflow . In the execution of multiple instances, applying this planning achieves 6,79x speedup with respect to the serial execution.
Moreover, in the second study, the use case is the FreeSurfer volumetric reconstruction workflow. The batch scheduling that we propose, introduce control mechanisms for combining the execution of tasks from different instances. It obtains a speedup of 10,48x versus the serial exeuction This represents a 27% improvement compared to the inter-worklfow planning applied in the same workflow and to the same input data.
|
7 |
Development of Pichia pastoris for the production of human α-galactosidase A as a model lysosomal enzymeBarreiro Vázquez, Antonio 03 February 2016 (has links)
L’α-galactosidasa A humana (GLA) pertany a la família d’hidrolases lisosomals involucrades en malalties d’emmagatzemat enzimàtic (MEEs). Les teràpies de reemplaçament enzimàtic (TREs), basades en l’administració de l’enzim disfuncional, són una mesura eficient per alentir l’avanç d’algunes MEEs. Tanmateix, el cost de les TREs disponibles actualment es extremadament elevat. Per tant, es proposa com a solució l’ús de sistemes de producció alternatius. P. pastoris és un sistema prometedor per la producció de productes terapèutic biològics, tot i que el seu patró de glicosilació ha de ser adaptat per a aquest ús. GLA, involucrat en la malaltia de Fabry, és l’enzim seleccionat per Bioingenium per avaluar la viabilitat del llevat per produir hidrolases lisosomals, i en tal cas, per al seu ús com a proteïna model per a la modificació del patró de glicosilació P. pastoris.
En primer lloc, es va avaluar l’expressió GLA recombinant (rhGLA) en diferents soques de P. pastoris. Un cop seleccionada la més adient, els nivells d’expressió és van millorar mitjançant la sobreexpressió de HAC1p, un activador transcripcional. A continuació, es va optimitzar la productivitat específica de rhGLA mitjançant el clonatge de múltiples còpies del gen codificant. En conjunt, es va aconseguir millorar 7 vegades la productivitat comparat amb els valors inicials. Addicionalment, es van expressar amb èxit variants de l’enzim amb tag, amb un domini d’internalització cel·lular, o mancat d’una seqüència C-terminal. En darrer lloc, es va obtenir un clon lliure de marcadors de resistència per al seu ús com a soca base per la modificació del patró de glicosilació.
Es va establir un procés escalable de producció en bioreactor basat en condicions d’O2 limitant, permetent la producció d’elevades quantitats d’enzim. A més, es van desenvolupar mètodes cromatogràfics per a l’aïllament de rhGLA. En concret, s’ha descrit un procés basat en 3 passos cromatogràfics per la purificació de quantitats significants d’enzim lliure de tag, així com procediments de cromatografia d’afinitat per la purificació de petites quantitats de variants de rhGLA destinades a ser caracteritzades.
Finalment, s’ha implementat un conjunt de tècniques per la caracterització de l’enzim, incloent anàlisis de glicans i assajos in vitro. Mitjançant l’ús de fibroblasts provinents d’un pacient de Fabry, s’ha pogut valorar amb simplicitat la eficiència d’internalització de l’enzim recombinant. Tal i com s’esperava, la rhGLA amb estructures de glicosilació pròpies de llevat va mostrar nivells d’internalització pobres.
En general, s’ha demostrat que P. pastoris és un sistema d’expressió adequat per a la producció de rhGLA. Els mètodes desenvolupats en aquest treball són de gran valor per futures investigacions relacionades amb la humanització dels patrons de glicosilació de P. pastoris. A més, els resultats són d’utilitat per l’escalat dels processos de producció, que habilitaran el llevat per la producció de diferents enzims lisosomals destinats a l’ús en TREs. / Human α-galactosidase A (GLA) belongs to the family of lysosomal hydrolases involved in lysosomal storage diseases (LSDs). Enzyme replacement therapies (ERTs), based on the administration of the recombinant missing enzyme, are an efficient measure to slow the advance of some LSDs. However, the cost of currently available ERTs is extraordinarily high. Therefore, the use of alternative production systems is proposed as a solution. P. pastoris is a promising system for the production of biopharmaceuticals, even though its glycosylation pattern needs to be engineered for such purpose. GLA, involved in Fabry disease, is the enzyme selected by Bioingenium to evaluate the feasibility of the yeast to produce human lysosomal hydrolases and, if so, to use it as the model protein in strain glycoengineering.
First, the expression of recombinant human GLA (rhGLA) in P. pastoris was evaluated in different strains. Once selected the most suitable one, the expression levels were significantly improved by overexpression of HAC1p, a transcriptional activator. Then, the specific productivity of rhGLA was optimized by cloning multiple copies of the coding gene. Overall, the productivity was improved about 7-fold compared to the initial. Additionally, variants of the enzyme containing a tag, a cell internalization motif or lacking a C-terminal sequence were successfully expressed. Lastly, a markerless clone expressing rhGLA was generated for its use as a base strain for glycan modification.
A scalable bioreactor process based on O2-limiting conditions has been established for the production of high quantities of the enzyme. Moreover, purification methods have been developed for the isolation rhGLA. Specifically, a 3-step chromatography process is described for the purification of significant amounts of untagged enzyme, while affinity-chromatography procedures were defined for the fast isolation of small amounts of rhGLA variants aimed for product characterization.
Finally, a set of analytical methods have been implemented for the characterization of rhGLA, including glycan analysis and in vitro assays. By using fibroblasts from a Fabry patient, the uptake efficiency of the recombinant enzyme could be easily assessed. As expected, the rhGLA having yeast-like glycans showed poor internalization levels.
Overall, P. pastoris has been shown as a suitable production system for rhGLA. The methods developed in this work are of great value for future strain glycoengineering and production scale-up, which will ultimately qualify the yeast for the production of different lysosomal enzymes for ERTs.
|
8 |
Studies on the oxidative ability of horse liver alcohol dehydrogenase and its cofactor regenerationRodríguez Hinestroza, Rossmery Anaid 18 July 2014 (has links)
El estudio del uso de las enzimas como catalizadores industriales se ha incrementado en las últimas décadas debido a que éstas ofrecen muchas ventajas, tales como: su capacidad para aceptar un amplio rango de sustratos, su alta especificidad y selectividad y permiten el uso de condiciones suaves de operación. Uno de los campos de aplicación más prometedores es la producción de compuestos con actividad biológica para fines terapéuticos.
Esta tesis doctoral es una contribución en la investigación de la enzima alcohol deshidrogenasa de hígado de caballo (HLADH) como biocatalizador, específicamente su capacidad de oxidar Cbz-aminoalcoholes para obtener compuestos de interés como Cbz-aminoaldehídos para producir Cbz-aminopolioles, y Cbz-β-aminoácidos. Asimismo, se seleccionó la Cbz-etanolamina y el Cbz-β-aminopropanol como compuestos modelos.
Primero, se realizó un estudio de la enzima alcohol deshidrogenasa de diferente origen, como la de levadura e hígado de caballo (comercial y purificada en el laboratorio), en la oxidación de Cbz-etanolamina. Se eligió la enzima purificada en el laboratorio extraída a partir de un hígado de caballo como el mejor biocatalizador, en términos de actividad específica y parámetros cinéticos. Además, se llevó a cabo la oxidación de Cbz-etanolamina catalizada por HLADH y se observó la formación directa del ácido, Cbz-glicina. Se evaluaron diferentes métodos para promover la producción del producto intermedio (el aldehído, Cbz-glicinal), mas solamente el empleo de clorhidrato de semicarbazida permitió la obtención de Cbz-glicinal por medio de su captura como Cbz-glicinal semicarbazona, obteniéndose un rendimiento de hasta 84%, con menos de 12% de rendimiento de Cbz-glicina. La hidrólisis ácida del Cbz-glicinal semicarbazona con formaldehido proporcionó una recuperación de Cbz-glicinal de 48.5%. Sin embargo, debido a la cantidad de impurezas, principalmente formaldehido, éste no pudo ser considerado como un buen candidato para la posterior adición aldólica con dihidroxiacetona fosfato (DHAP) catalizada por aldolasas para obtener Cbz-aminopolioles (Capítulo 4).
Por otra parte, no se produjeron Cbz-aminopolioles mediante el acoplamiento de la reacción de oxidación de Cbz-etanolamina por HLADH y la adición aldólica de DHAP catalizada por ramnulosa-1-fosfato aldolasa (RhuA) con pulsos de DHAP, obteniéndose solamente Cbz-glicina, con un rendimiento de 64.1% (capítulo 5).
Posteriormente, se aprovechó la alta capacidad oxidativa de la enzima HLADH para producir Cbz-β-alanina a partir de Cbz-β-aminopropanol; se obtuvo una conversión completa del sustrato a las 72 h empleando una operación tipo batch. De manera de aumentar la productividad, se propuso la adición de pulsos de sustrato, el cual proporcionó un rendimiento de Cbz-alanina de 88.4% a las 96 h y permitió el incremento de la productividad en 2.3 veces, comparado con la operación tipo batch (capítulo 6).
Finalmente, se realizó un estudio de la regeneración del cofactor NAD+ empleando métodos enzimáticos y electroquímicos. Se evaluó la regeneración enzimática por acoplamiento de sustratos utilizando acetaldehído como segundo sustrato, el cual proporcionó una conversión completa hacia β-alanina en las primeras dos horas de reacción, con una operación tipo batch. Sin embargo, ésta no fue tan eficiente al añadir pulsos de sustrato (se obtuvo 65% de conversión a las 2 h y solamente pudo añadirse un pulso) y la reacción se detuvo a las 2 h (capítulo 6). Se realizó una regeneración electroquímica directa del cofactor NAD+ empleando un microreactor tipo filtro prensa, mediante el acoplamiento con la reacción de oxidación de Cbz-β-aminopropanol para la producción de Cbz-β-alanina. Se obtuvo una conversión de Cbz-β-aminopropanol de 77.1% y una regeneración completa del cofactor a las 24 h con una operación tipo batch. Mientras tanto, se observó una conversión de alrededor 80% y una regeneración de la mitad de la cantidad inicial de cofactor a las 51 h, empleando una operación tipo batch con pulsos de Cbz-β-aminopropanol (capítulo 7). / The study of the use of enzymes as industrial biocatalysts has been increased in the last decades, since they offer several advantages as their ability to accept a wide range of substrates, high specificity and selectivity, allowing mild reaction conditions. One of the most promising fields of their application is the production of compounds with biological activity for therapeutical purposes.
This doctoral thesis is a contribution to the research of horse liver alcohol dehydrogenase (HLADH) as biocatalyst, particularly its ability to oxidize Cbz-amino alcohols to obtain valuable compounds as Cbz-amino aldehydes to produce Cbz-aminopolyols, and Cbz-β-aminoacids. Therefore, Cbz-ethanolamine and Cbz-β-amino propanol were selected as model compounds.
First, alcohol dehydrogenases from different origins as yeast and horse liver (commercial and in house) were tested for the oxidation of Cbz-ethanolamine. In house HLADH was selected as the best biocatalyst, in terms of specific activity and kinetic parameters. Moreover, HLADH catalyzed oxidation of Cbz-ethanolamine was performed and the direct formation of the acid, Cbz-glycine, was observed. Several methods were tested to promote the production of the intermediate product (aldehyde, Cbz-glycinal), but only the use of semicarbazide hydrochloride allowed obtaining Cbz-glycinal by its capture as Cbz-glycinal semicarbazone, yielding up to 84% with less than 12% Cbz-glycine yield. Cbz-glycinal semicarbazone acid hydrolysis with formaldehyde provided 48.5% of Cbz-glycinal recovery. Nevertheless, the amount of impurities, mostly formaldehyde, made it not such a good substrate for a further aldol addition to dihydroxyacetone phosphate (DHAP) catalyzed by aldolases in order to obtain aminopolyols (chapter 4).
On the other hand, coupling the oxidation of Cbz-ethanolamine by HLADH and the aldol addition of DHAP catalyzed with rhamnulose-1-phosphate aldolase (RhuA) with DHAP pulses addition did not produce Cbz-aminopolyols, forming only 64.1% yield of Cbz-glycine (chapter 5).
Next, the high oxidative ability of HLADH was also exploited to produce Cbz-β-alanine from Cbz-β-amino propanol; a complete conversion was obtained at 72 h in a batch mode. In order to enhance the productivity, a fed-batch operation was proposed providing 88.4% Cbz-β-alanine yield at 96 h with 2.3-fold improved productivity compared to the batch operation (chapter 6).
Finally, the study of NAD+ cofactor regeneration was carried out by enzymatic and electrochemical methods. Enzymatic substrate-coupled regeneration of NAD+ was studied using acetaldehyde as second substrate with an almost complete conversion to Cbz-β-alanine in the first 2 h of reaction in a batch operation. However, fed-bach mode was not so efficient (65% conversion at 2 h, only one pulse addition of substrate), and the reaction was stopped at 2 h (chapter 6). Direct electrochemical regeneration of NAD+ using a filter-press microreactor was performed by coupling it with the HLADH catalyzed oxidation of Cbz-β-amino propanol for the production of Cbz-β-alanine. Employing a batch operation 77.1% Cbz-β-amino propanol conversion and a complete regeneration was obtained at 24 h. Meanwhile, the fed-bach operation increased the production maintaining 80.0% conversion and one half of complete cofactor regeneration conversion at 51 h (chapter 7).
|
9 |
Towards understanding privacy risks in online social networksPérez-Solà, Cristina 17 May 2016 (has links)
Les xarxes socials en línia (en anglès, Online Social Networks o OSNs) són avui en dia un dels serveis més populars a Internet. En el moment d’escriure aquestes línies, quatre de les deu primeres pàgines del rànquing global Alexa corresponien a xarxes socials i les xarxes més utilitzades tenien centenars de milions d’usuaris actius cada dia.
Les persones fem servir xarxes socials per compartir tot tipus de continguts: des d’atributs personals (com noms, edat o sexe), a ubicacions, fotos o comentaris. D’altra banda, les xarxes socials es caracteritzen per permetre que els usuaris puguin crear relacions de manera explícita (per exemple, relacions d’amistat). A més, les xarxes socials inclouen no només la informació que els usuaris publiquen conscientment sobre si mateixos, sinó també la informació que es genera a partir de la interacció dels usuaris de la plataforma.
Tant el nombre d’usuaris com el volum de dades compartides fan que la privacitat en xarxes socials sigui crítica. Aquesta tesi se centra en l’estudi de la privacitat en xarxes socials en dos contextos diferents: l’adquisició de dades de manera automatitzada (crawling) i l’aprenentatge. En primer lloc, s’estudia la relació entre crawling i privacitat, un tema que fins al moment ha rebut una atenció limitada. Aquest escenari és interessant ja que és assequible fins i tot per a un atacant de baix pressupost. En segon lloc, s’estudia com extreure informació de les relacions que formen els usuaris de xarxes socials. Les tècniques desenvolupades s’estenen després al tractament d’altres problemes que, com les xarxes socials, es poden modelar en forma de grafs. / Online Social Networks (OSNs) are now one of the most popular services on the Internet. When these lines were written, there were four OSN sites in the Alexa's top ten global ranking and the most used OSNs were having hundreds of millions of daily active users.
People use OSNs to share all kinds of contents: from personal attributes (like names, age, or gender), to location data, photos, or comments. Moreover, OSNs are characterized by allowing its users to explictly form relationships (e.g. friendship). Additionally, OSNs include not only information the users conscientiously post about themselves, but also information that is generated from the interaction of users in the platform.
Both the number of users and the volume of data shared make privacy in OSNs critical. This thesis is focused on studying privacy related to OSNs in two different contexts: crawling and learning. First, we study the relation between OSN crawling and privacy, a topic that so far received limited attention. We find this scenario interesting because it is affordable for even a low-budget attacker. Second, we study how to extract information from the relationships OSN users form. We then expand our findings to other graph-modeled problems.
|
10 |
Beyond the Structure of SAT FormulasGiráldez Crú, Jesús 25 May 2016 (has links)
Hoy en día, muchos problemas del mundo real son codificados en instancias SAT y resueltos eficientemente por modernos SAT solvers. Estos solvers, usualmente conocidos como Conflict-Driven Clause Learning (CDCL: Aprendizaje de cláusulas guiado por conflictos) SAT solvers, incluyen una variedad de sofisticadas técnicas, como el aprendizaje de cláusulas, estructuras de datos perezosas, heurísticas de ramificación adaptativas basadas en los conflictos, o reinicios aleatorios, entre otros. Sin embargo, las razones de su eficiencia resolviendo problemas SAT del mundo real, o industriales, son todavía desconocidas. La creencia común en la comunidad SAT es que estas técnicas explotan alguna estructura oculta de los problemas del mundo real.
En esta tesis, primeramente se caracteriza algunas importantes características de la estructura subyacente de las instancias SAT industriales. Específicamente, estas son la estructura de comunidades y la estructura auto-similar. Se observa que la mayoría de las fórmulas SAT industriales, vistas como grafos, tienen estas dos propiedades. Esto significa que (i) en un grafo con una estructura de comunidades clara; es decir, alta modularidad, se puede encontrar una partición de sus nodos en comunidades de tal forma que la mayoría de las aristas conectan nodos de la misma comunidad; y (ii) en un grafo con el patrón de auto-similitud; es decir, siendo fractal, su forma se mantiene después de re-escalados (agrupando conjuntos de nodos en uno). Se analiza también cómo estas estructuras están afectadas por los efectos de las técnicas CDCL durante la búsqueda.
Usando los estudios estructurales previos, se proponen tres aplicaciones. Primero, se aborda el problema de la generación aleatoria de instancias SAT pseudo-industriales usando la noción de modularidad. Nuestro modelo genera instancias similares a las (clásicas) fórmulas SAT aleatorias cuando la modularidad es baja, pero cuando este valor es alto, nuestro modelo también es adecuado para modelar problemas pseudo-industriales realísticamente. Segundo, se propone un método basado en la estructura en comunidades de la instancia para detectar cláusulas aprendidas relevantes. Nuestra técnica aumenta la instancia original con un conjunto de cláusulas relevantes, y esto resulta en una mejora general de la eficiencia de varios CDCL SAT solvers. Finalmente, se analiza la clasificación de instancias SAT industrial en familias usando las características estructurales previamente analizadas, y se comparan con otros clasificadores comúnmente usados en aproximaciones SAT portfolio.
En resumen, esta disertación extiende nuestro conocimiento sobre la estructura de las instancias SAT, con el objetivo de explicar mejor el éxito de las técnicas CDCL, con la posibilidad de mejorarlas; y propone una serie de aplicaciones basadas en este análisis de la estructura subyacente de las fórmulas SAT. / Nowadays, many real-world problems are encoded into SAT instances and efficiently solved by modern SAT solvers. These solvers, usually known as Conflict-Driven Clause Learning (CDCL) SAT solvers, include a variety of sophisticated techniques, such as clause learning, lazy data structures, conflict-based adaptive branching heuristics, or random restarts, among others. However, the reasons of their efficiency in solving real-world, or industrial, SAT instances are still unknown. The common wisdom in the SAT community is that these technique exploit some hidden structure of real-world problems.
In this thesis, we characterize some important features of the underlying structure of industrial SAT instances. Namely, they are the community structure and the self-similar structure. We observe that most industrial SAT formulas, viewed as graphs, have these two properties. This means that~(i) in a graph with a clear community structure, i.e. having high modularity, we can find a partition of its nodes into communities such that most edges connect nodes of the same community; and~(ii) in a graph with a self-similar pattern, i.e. being fractal, its shape is kept after re-scalings, i.e., grouping sets of nodes into a single node. We also analyze how these structures are affected by the effects of CDCL techniques during the search.
Using the previous structural studies, we propose three applications. First, we face the problem of generating pseudo-industrial random SAT instances using the notion of modularity. Our model generates instances similar to (classical) random SAT formulas when the modularity is low, but when this value is high, our model is also adequate to model realistic pseudo-industrial problems. Second, we propose a method based on the community structure of the instance to detect relevant learnt clauses. Our technique augments the original instance with this set of relevant clauses, and this results into an overall improvement of the efficiency of several state-of-the-art CDCL SAT solvers. Finally, we analyze the classification of industrial SAT instances into families using the previously analyzed structure features, and we compare them to other classifiers commonly used in portfolio SAT approaches.
In summary, this \dissertation extends the understandings of the structure of SAT instances, with the aim of better explaining the success of CDCL techniques and possibly improve them, and propose a number of applications based on this analysis of the underlying structure of SAT formulas.
|
Page generated in 0.0809 seconds