Spelling suggestions: "subject:"tecnologia"" "subject:"ecnologia""
151 |
Biased behavior in web activities: from understanding to unbiased visual explorationGraells-Garrido, Eduardo 25 May 2015 (has links)
Las tendencias actuales en la Web apuntan hacia la personalización de contenido, lo que no sería un
problema en un mundo uniforme y sin sesgos, pero nuestro mundo no es ni uniforme ni libre de
sesgos. En esta tesis planteamos la hipótesis de que los sesgos sistémicos y cognitivos que afectan a
las personas en el mundo físico también afectan el comportamiento de éstas al explorar contenido en
la Web. Proponemos que es posible fomentar una disminución en el comportamiento sesgado a
través de una mirada holística que incluye cuantificación de sesgos, formulación de algoritmos, y
diseño de interfaces de usuario. Estas tres partes del proceso propuesto son implementadas
utilizando técnicas de Minería de la Web. A su vez, son guiadas por las Ciencias Sociales, y
presentadas a través de sistemas Casuales de Visualización de Información. Seguimos un enfoque
transversal en el cual se aplica este proceso con diferentes niveles de profundidad a lo largo de tres
casos de estudio en Wikipedia y Twitter.
Como resultado, observamos que los sesgos presentes en el mundo físico efectivamente se ven
reflejados en plataformas Web, afectando el contenido, la percepción y el comportamiento de las
personas.
A través del análisis transversal de los casos de estudio, se presentan las siguientes conclusiones:
1) las herramientas de Minería de la Web son efectivas para medir y detectar comportamiento
sesgado;
2) las técnicas de Visualización de Información enfocadas en personas no expertas fomentan el
comportamiento no sesgado;
y 3) no existen soluciones universales, y en adición a los contextos sociales y culturales, los sesgos
deben ser considerados a la hora de diseñar sistemas.
Para alcanzar estas conclusiones se implementaron sistemas "en la selva", evaluados de manera
cuantitativa en un entorno no controlado, con un enfoque en métricas de participación y
compromiso. El uso de dichas métricas es una contribución de la tesis, ya que probaron ser efectivas
al medir diferencias en el comportamiento en sistemas exploratorios.
|
152 |
Force sensors based on piezoresistive and MOSFET cantilevers for biomolecular sensingTosolini, Giordano 31 October 2013 (has links)
Los procesos de reconocimiento biomolecular entre receptores y ligandos son muy importantes en biología. Estas biomoléculas pueden desarrollar complejos muy específicos y tener una variedad de funciones como replicación y transcripción genómica, actividad enzimática, respuesta inmune, señalamiento celular, etc. La complementariedad inequívoca mostrada por estos componentes biológicos es ampliamente utilizada para desarrollar biosensores. Dependiendo de la naturaleza de las señales que se convierten, los biosensores pueden ser clasificados en ópticos, eléctricos o mecánicos.
Entre los sensores mecánicos, los microcantilevers son los más comunes. Han sido utilizados como sensores de estrés superficial o como sensores de masa en detección de biomoléculas, desde hace más de 10 años. El enlace de las moléculas a sus superficies funcionalizadas se puede detectar midiendo la deflexión en modo estático o la variación de la frecuencia de resonancia en modo dinámico. Para lograr la máxima resolución, la deflexión es medida por un láser y un fotodetector. Este método limita las medidas en fluidos transparentes, la portabilidad del instrumento, e incrementa la complejidad de medición multiplexada. El desarrollo de cantilevers sensibles a la deflexión mediante la integración de piezoresistores o transistores de efecto de campo (MOSFET) implementados en el mismo voladizo, resuelve este problema. Sin embargo, simultáneamente se disminuye la resolución del sensor debido al incremento del ruido electrónico.
Por otro lado, se puede detectar moléculas midiendo la fuerza de enlace entre una molécula y su receptor, estirando el complejo molecular, mediante espectroscopia de fuerza atómica (AFS), técnica basada en el microscopio de fuerza atómica (AFM). A pesar de la elevada resolución en fuerza, el AFM no ha logrado aún convertirse en instrumento analítico debido principalmente a la complejidad del mismo y de su uso. Un biosensor basado en cantilevers que puedan detectar su propia deflexión y que emplee la AFS, tendría resolución de una molécula, podría ser utilizado en fluidos opacos, tendría potencial de multiplexado y su integración a una celda microfluídica sería viable.
Considerando esto, se desarrollaron cantilevers dotados de resolución de pN y compatibles con líquidos. Se diseñaron y modelaron cantilevers basados en silicio cristalino y se ha optimizado el proceso de fabricación para aumentar la sensibilidad y el rendimiento. Asímismo, se ha trabajado sobre el modelo, el desarrollo y la fabricación de cantilevers con un MOSFET integrado. Se concluye que el primer sensor ofrece una solución tecnológica más directa, aunque el segundo puede ser una buena alternativa.
Simultáneo a la fabricación de sensores, se desarrollaron también nuevas técnicas y montajes para la rápida caracterización eléctrica y electromecánica de los sensores de manera precisa y fiable. Esto fue crucial a la hora de validar el proceso de producción y los dispositivos finales.
Después de obtener muy alta resolución (<10 pN en líquido) con elevado rendimiento en la producción, los sensores fueron utilizados para el estudio de procesos de reconocimiento molecular entre avidina y biotina. Para lograr este objetivo, los sensores fueron integrados en un AFM comercial para aprovechar su elevada estabilidad mecánica y el desplazamiento nanométrico del piezoactuador. Se detectaron con éxito las fuerzas de enlace relacionadas a la formación del complejo molecular biotina-avidina, resaltando de esta manera, la posibilidad de detección label-free de biomoléculas en condiciones cuasi fisiológicas con resolución de una molécula. Además de la elevada sensibilidad, estos sensores pueden utilizarse sin restricciones en fluidos opacos, se pueden integrar fácilmente en celdas microfluídicas y demuestran capacidad para el multiplexado. Este resultado abre nuevas perspectivas en detectores de marcadores biológicos con elevada sensibilidad y que puedan trabajar en condiciones fisiológicas. / Biorecognition processes between receptors and their conjugate ligands are very important in biology. These biomolecules can build up very specific complexes displaying a variety of functions such as genome replication and transcription, enzymatic activity, immune response, cellular signaling, etc. The unambiguous one-to-one complementarity exhibited by these biological partners is widely exploited also in biotechnology to develop biosensors. Depending on the nature of the transduction signals, biosensors can be classified in optical, electrical and mechanical.
Among mechanical biosensors, the microcantilevers play a prominent role. They have been used as stress or mass transducers in biomolecules detection for already more than a decade. The binding of molecules to their functionalized surface is detected by measuring either the deflection in static mode or the resonant frequency shift in dynamic mode. The deflection of the cantilever is converted optically by a laser and a photodetector in order to have the highest possible resolution. This limits the measurements in transparent liquids, the portability of the instrument and increases the complexity for multiplexing. The development of self-sensing cantilevers by integrating piezoresistors or metal-oxide-semiconductor field effect transistors (MOSFET) into the cantilever solves this issue. However, at the same time, this decreases the bending and frequency shift resolution due to the higher transducer noise.
On the other hand, the detection of a single molecule can be attained measuring the unbinding force between two molecules of a complex pulling them apart, using the atomic force spectroscopy (AFS) measuring approach. This technique is based on the atomic force microscope (AFM). Despite the high force resolution, AFM has still not become an analytical instrument and it is mainly due to the complexity of the instrument and of its use. A biosensor based on AFS and on self-sensing cantilever would allow single molecule resolution, working in opaque fluids, easy multiplexing capability, and relatively easy integration in microfluidics cells.
In this perspective, we worked to obtain self sensing-probes endowed with pN resolution and compatible with liquid media. Cantilevers based on single crystalline silicon have been modeled and the fabrication process has been optimized to improve the force sensitivity and to obtain high fabrication yield. At the same time we worked also on the modeling, development and fabrication of cantilevers with embedded MOSFET piezoresistive transducers. It turned out that the probes with integrated piezoresistor offer a more straightforward solution, but also the MOSFET cantilever can offer a good alternative.
Alongside the force sensors fabrication, new high-throughput set-ups and techniques have been developed and optimized to measure the electrical and electromechanical characteristics of micro-electro-mechanical systems (MEMS) in a precise and reliable way. This was of key importance to correctly validate the new technological processes involved in production as well as characterize the final devices.
After achieving very good sensor performances (resolution < 10 pN in liquid environment) with high production yield, we used the force probes to investigate the biorecognition processes in the avidin-biotin complex. For this purpose we integrated the sensor into a commercial AFM to take advantage of the high mechanical stability of this equipment and the highly reliable displacement of the piezo actuator. We detected the forces related to the avidin-biotin complex formation, highlighting the possibility of biomolecule label-free recognition in nearly physiological conditions and at single molecule resolution. Beside the very high sensitivity attained, the sensor can be used with no restrictions in opaque media; it can be easily integrated in microfluidic cells and it displays a high multiplexing potentiality. This result opens new perspectives in highly sensitive label free biomarkers detectors in nearly physiological conditions.
|
153 |
Finding relevant people in online social networksSáez-Trumper, Diego 05 December 2013 (has links)
The objective of this thesis is to develop novel techniques to find relevant people in Online Social Networks (OSN). To that end, we consider different notions of relevance, taking the point of view of the OSN providers (like Facebook) and advertisers, as well as considering the people who are trying to push new ideas and topics on the network. We go beyond people's popularity, showing that the users with a lot of followers are not necessarily the most relevant. Specifically, we develop three algorithms that allow to: (i) compute the monetary value that each user produces for OSN provider; (ii) find users that push new ideas and create trends; and (iii) a recommender system that allows advertisers (focusing in local shops, like restaurants or pubs) to find potential customers. Furthermore, we also provide useful insights about users' behavior according to their relevance and popularity, showing - among other things - that most active users are usually more relevant than the popular ones. Moreover, we show that usually very popular users arrive late to the new trends, and that there are less popular, but very active users that generate value and push new ideas in the network. / L'objectiu d'aquesta tesi és desenvolupar noves tècniques per trobar persones rellevants en les Xarxes Socials a Internet. Així doncs, considerem diferents nocions de rellevància, tenint en compte el punt de vista dels prove ïdors del servei (com Facebook) i dels anunciants, però també de persones que intenten proposar noves idees i temes a la xarxa. La nostra investigació va més enllà de la popularitat de les persones, mostra que els usuaris amb molts seguidors no són necessàriament els més rellevants. Específicament, desenvolupem tres algorismes que permeten: (i) calcular el valor (monetari) que cada usuari produeix per al prove ïdor del servei; (ii) trobar usuaris que proposen noves idees i creen tendències; i (iii) un sistema de recomanació que permet als anunciants (centrant-nos en botigues locals, com ara un restaurant o un pub) trobar clients potencials. Addicionalment, lliurem informació útil sobre el comportament dels usuaris segons la seva rellevància i popularitat, mostrant, entre altres coses, que els usuaris més actius solen ser més rellevants que els populars. A més a més, mostrem que normalment els usuaris molt populars arriben tard a les noves tendències, mentre que usuaris de menor popularitat, però molt actius, generen valor i fomenten noves idees a la xarxa . / El objetivo de esta tesis es desarrollar nuevas técnicas para encontrar personas relevantes en las Redes Sociales en Internet. Para ello, consideramos diferentes nociones de relevancia, tomando el punto de vista de los proveedores del servicio (como Facebook) y de los anunciantes, pero también de las personas que intentan proponer nuevas ideas y temas en la red. Nuestra investigación va más allá de la popularidad de las personas, mostrando que los usuarios con muchos seguidores no son necesariamente los más relevantes. Espeficamente, desarollamos tres algoritmos que permiten: (i) calcular el valor (monetario) que cada usuario produce para el proveedor del servicio; (ii) encontrar usuarios que proponen nuevas ideas y crean tendencias; y (iii) un sistema de recomendación que permite a los anunciantes (centrándonos en tiendas locales, tales como un restaurant o un pub) encontrar potenciales clientes. Adicionalmente, proporcionamos información útil sobre el comportamiento de los usuarios según su relevancia y popularidad, mostrando - entre otras cosas - que los usuarios más activos suelen ser más relevantes que los populares. Más aún, mostramos que normalmente los usuarios muy populares llegan tarde a las nuevas tendencias, y que existen usuarios menos populares, pero muy activos que generan valor y fomentan nuevas ideas en la red.
|
154 |
Generating ideas for pictorial advertisements : starting with pictorial metaphorsXiao, Ping 08 July 2014 (has links)
Behind every good advertisement there is a creative concept, a Big Idea. In contrast to the countless number of ads, a small number of patterns of effective communication (idea templates) have been uncovered, which are invariant across content and context. In this thesis, we investigate the formalization of idea templates and use it as the basis for building computational means of generating ideas. We present a computational approach of generating one type of ideas, pictorial metaphor. A two-stage approach is proposed and implemented: Stage 1 finds concepts that are salient in a given property; Stage 2 evaluates the aptness of the concepts found as metaphor vehicles. The ideas generated by our approach were evaluated against past successful ads. / Detrás de cada buen anuncio publicitario hay un concepto creativo, una “Gran Idea”. En contraste con la innumerable cantidad de anuncios, se ha identificado un número limitado de patrones de comunicación efectiva (plantillas de ideas), invariantes respecto a los posibles contenidos y contextos.
En esta tesis investigamos la formalización de las plantillas de ideas, y la usamos como base para construir herramientas computacionales de generación de ideas. Presentamos una estrategia computacional para generar un tipo de ideas, metáforas pictóricas. Se propone e implementa una estrategia en dos pasos: en el paso 1 se encuentran los conceptos que son prominentes en una propiedad dada; el paso 2 evalúa la idoneidad de los conceptos encontrados como vehículos de la metáfora. Las ideas generadas con nuestro método han sido evaluadas en comparación con anteriores anuncios exitosos. / Al darrere de cada bon anunci publicitari hi ha un concepte creatiu, una "Idea Excel•lent". En contrast amb la gran quantitat d'anuncis, s’ han identificat un nombre limitat de patrons d'idees de comunicació efectiva (plantilles d’idees), invariants respecte als possibles continguts i contextos.
En aquesta tesi hem investigat la formalització de les plantilles d'idees i la utilitzem com a base per construir eines computacionals per a la generació d'idees. Presentem una estratègia computacional per generar un tipus d'idees, les metàfores pictòriques. Es proposa i implementa una estratègia en dos passos: al pas 1 es troben els conceptes que són prominents en una propietat determinada; al pas 2 s’avalua l'adequació dels conceptes trobats com a vehicles de la metàfora. Les idees generades pel nostre mètode han estat avaluades comparant-les amb les d’anuncis d’èxit anteriors.
|
155 |
DysWebxia : a text accessibility model for people with dyslexiaRello, Luz 27 June 2014 (has links)
Worldwide, 10% of the population has dyslexia, a cognitive disability that reduces readability and comprehension of written information. The goal of this thesis is to make text more accessible for people with dyslexia by combining human computer interaction validation methods and natural language processing techniques. In the initial phase of this study we examined how people with dyslexia identify errors in written text. Their written errors were analyzed and used to estimate the presence of text written by individuals with dyslexia in the Web. After concluding that dyslexic errors relate to presentation and content features of text, we carried out a set of experiments using eye tracking to determine the conditions that led to improved readability and comprehension. After finding the relevant parameters for text presentation and content modification, we implemented a lexical simplification system. Finally, the results of the investigation and the resources created, lead to a model, DysWebxia, that proposes a set of recommendations that have been successfully integrated in four applications. / Un 10% de la població mundial té dislèxia, una dificultat cognitiva que redueix la llegibilitat i la comprensió de la informació escrita. L’objectiu de la tesiés millorar l’accessibilitat textual de les persones amb dislèxia, combinant mètodes de validació de la interacció persona-ordinador i tècniques de processament del llenguatge natural. Vam estudiar com identifiquen els errors d’un text les persones amb dislèxia i vam analitzar els seus errors d’escriptura; això va servir per a estimar la presència a la web de textos escrits per persones amb dislèxia. Un cop establert que els errors dislèctics responen a trets relacionats amb la presentació i el contingut del text, vam realitzar experiments mitjan ̧cant el seguiment de la mirada per a descobrir quines condicions milloren la llegibilitat i la comprensió. Havent determinat els paràmetres rellevants per a la presentació del text i la modificació dels continguts, vam implementar un sistema de simplificació lèxica. Els resultats obtinguts i els recursos creats han donat lloc a un model, DysWebxia, en el qual es proposen recomanacions que s’han integrat satisfacto`riament en quatre aplicacions. / Un 10% de la población mundial tiene dislexia, una dificultad de aprendizaje de origen cognitivo que reduce la legibilidad y la comprensión de la información escrita. El objetivo de esta tesis es mejorar la accesibilidad textual de las personas con dislexia, combinando métodos de validación de interacción persona-ordenador y técnicas de procesamiento del lenguaje natural. Primero estudiamos como las personas con dislexia identifican los errores en un texto y analizamos sus errores escritos. Esto permitió estimar la presencia en la Web de textos escritos por personas con dislexia. Al descubrir que los errores disléxicos están relacionados tanto con la presentación como con el contenido del texto, llevamos a cabo una serie de experimentos utilizando seguimiento automático de la vista (eye tracking) para averiguar qué condiciones mejoraban la legibilidad y la comprensión. Después de determinar los parámetros relevantes para la presentación del texto y la modificación de su contenido, implementamos un sistema de simplificación léxica. Los resultados obtenidos y los recursos generados han dado lugar a un modelo, DysWebxia, que propone recomendaciones que ya han sido integradas satisfactoriamente en cuatro aplicaciones.
|
156 |
Designing wearable and playful accessories to encourage free-play amongst school aged children : conception, participatory design and evaluationRosales, Andrea 03 September 2014 (has links)
De acuerdo a los estudios sociales, la vida cotidiana ha reducido las oportunidades de que los niños puedan disfrutar del juego libre, lo cual a largo plazo, puede perjudicar su desarrollo social y físico. La investigación en Interacción Persona Ordenador, ha abordado ésta cuestión de como usar sensores y reactores para estimular el juego libre, por ejemplo interviniendo los parques infantitles u objetos de uso compartido con estas tecnologías. Esta disertación explora el proceso de diseño y evaluación the accesorios digitales para ponerse, diseñados para motivar el juego libre entre los niños de edad escolar, en contextos alternativos. Esto se ha hecho para aprovechar las oportunidades de juego libre que pueden surgir cuando los niños estan en camino a algun lugar, asi como para motivar retos corporales y experiencias socials a partir de experiencias individuales. En este contexto la tesis discute (a) tres casso de estudios de accesorios juguetones, (b) una evaluacion cuantitativa y cualitativa sobre la capacidad de los accesorios para motivar el jugo libre, (c) el proceso de diseño de las experiencias jugables con la participación de niños y personas mayores (60+). Además, esta disertación presenta un conjunto de oportunidades de diseño que pueden ser tenidas en cuenta en la investigación de futuros objetos para motivar el juego libre. / According to social studies, everyday life has reduced children’s opportunities for free-play, which, in the long term, can compromise their social and physical development. Previous HCI studies have been addressing the question of how to apply sensing and reactive technologies to encourage free-play by, for example, augmenting playgrounds and shared objects with these technologies. This dissertation explores the design process and evaluation of wearable digital accessories to encourage and facilitate free-play amongst school-aged children in alternative free-play settings. This is done in order to take advantage of free-play opportunities that arise on the move and to encourage body challenges and social experiences through individual exploration. In this context, the thesis discusses (a) three design cases of playful accessories, (b) a quantitative and qualitative evaluation to assess the ability of the accessories to encourage free-play, (c) the design process of playful experiences with the participation of children and older people (60+). This thesis also provides a set of design opportunities that can be taken into account in the research of future digitally-augmented objects to encourage free-play.
|
157 |
Estudio comparativo de la eficiencia energética y el confort de sistemas de hvac en edificios de oficinas en diversas zonas climaticas de ColombiaTovar Ospino, Ivan Rafael 10 September 2014 (has links)
En la presente tesis doctoral se realiza un estudio comparativo de la eficiencia energética de los sistemas de climatización en edificios de oficinas en ciudades de Colombia. En el que se aborda los procedimientos para el desarrollo de una base de comportamiento del rendimiento de dos tipos de edificios de oficinas y variantes tecnológicas típicas de sistemas de climatización para diferentes ciudades en Colombia. A través de la identificación de zonas de demandas térmicas y la simulación dinámica del escenario, se generaron datos de comportamiento energético por medio de factores importantes en el uso de la energía, mediante el empleo de parámetros físicos y operacionales de las edificaciones. Llegando a comprobar la influencia que presenta el clima y el tipo de construcción en el comportamiento energético del edificio y sistemas de climatización de forma detallada.
Finalmente, se obtienen modelos de regresión lineal múltiple que posibilitan no solo la determinación de la intensidad energética de las edificaciones y sistemas de climatización en función de factores constructivos, de sistemas y planta, sino que también permiten establecer líneas bases para la eficiencia energética, que actúan como instrumento para la interpretación de la evaluación comparativa como primer paso para la estimación de la eficiencia energética. / A comparative study of the energy efficiency of air-conditioning systems installed in office buildings located in Colombian cities is performed in this thesis. In order to perform this comparison, a comparative basis of the energy performance for two types of office buildings and the different typical air-conditioning alternatives is developed. By means of the identification of the different thermal demand zones and the dynamic simulation of the resulting scenarios, an energy performance database is generated for different important energy use factors, through different physical parameters and operation of the buildings. The influence of the weather and type of construction on the building energy behavior and air-conditioning systems is assessed in detail.
Finally, multiple lineal regression models are obtained. These models allow determining the energy intensity of the building and air-conditioning systems in terms of the building construction factors, systems and plant. Also, these models allow establishing basic guidelines for energy efficiency which act as instruments for the interpretation of the comparative evaluation as a first step for the estimation of the energy efficiency.
|
158 |
Polyp Localization and Segmentation in Colonoscopy Images by Means of a Model of Appearance for PolypsBernal del Nozal, Jorge 17 December 2012 (has links)
El càncer de còlon és la quarta causa més comuna de mort per càncer en el món,
havent al voltant de 143.460 nous casos el 2012, segons dades de l’American Cancer
Society. La taxa de mortalitat d’aquest càncer depèn de l’etapa en què sigui detectat,
decreixent des de taxes majors del 95% en les primeres etapes a taxes inferiors al 35%
en les etapes quarta i cinquena, la qual cosa demostra la necessitat d’una exploració
preco¸c del còlon. Durant l’exploració, el metge busca creixements adenomatosos, que
es coneixen sota el nom de pòlips, per tal d’esbrinar el seu nivell de desenvolupament.
Hi ha diverses tècniques per a l’exloració del còlon, però la colonoscòpia és considerada
encara avui com estàndard de facto, encara que presenta alguns inconvenients com
una elevada taxa de errors.
La nostra contribució està enquadrada dins del camp de sistemes intel·ligents per
a la colonoscòpia [13] i té com a objectiu el desenvolupament de mètodes de localització
i segmentació de pòlips basant-se en models d’aparen¸ca. Definim la localització de
pòlips com el mètode pel qual donada una imatge d’entrada es proporciona com a
sortida una altra imatge on es assenyalen les àrees de la imatge on és més probable
trobar un pòlip. Per altra banda, la segmentació té com a objectiu definir la regió
concreta de la imatge on es troba el pòlip.
Per tal de desenvolupar ambdós mètodes s’ha comen¸cat desenvolupant un model
d’aparen¸ca per a pòlips, el qual defineix un pòlip com una estructura limitada per valls
en la imatge de escala de gris. La novetat de la nostra contribució rau en el fet que
incloem en el nostre model altres elements de l’escena endoluminal, com els reflexos
especulars o els gots sanguinis, que demostren tenir un impacte en el rendiment global
dels nostres mètodes i en elements derivats del procés de formació de la imatge com
l’interlacing. Tenint això en compte, definim una imatge de profunditat de valls que
integra la sortida del detector de valls amb un gradient morfològic, afegint-hi els altres
elements de l’escena endoluminal. Per desenvolupar el nostre mètode de localització
de pòlips capturem la informació de la imatge de profunditat de valls amb la finalitat
de crear mapes d’energia. Per obtenir la segmentació del pòlip també fem servir
aquests mapes de energia per guiar el procés.
Els nostres mètodes arriben resultats prometedors tant en localització com a segmentació de pòlips.
Per a validar la metodologia emprada, presentem un experiment
que compara el nostre mètode amb observacions fetes per metges obtingudes mitjan
¸cant un dispositiu de eye-tracking. Els resultats mostren que el rendiment de la
contribució d’aquesta Tesi és comparable a l’obtingut a partir de les observacions
dels metges, la qual cosa indica el potencial de la nostra proposta en futurs sistemes
intel·ligents de colonoscòpia. / El cáncer de colon es la cuarta causa más común de muerte por cáncer en el mundo,
presentando alrededor de 143.460 nuevos casos en 2012, según datos estimados por
la American Cancer Society. La tasa de mortalidad del cancer de colon depende de
la etapa en que éste es detectado, decreciendo desde tasas mayores del 95% en las
primeras etapas a tasas inferiores al 35% en las etapas cuarta y quinta, lo cual es muestra
de la necesidad de una exploración temprana del colon. Durante la exploración el
médico busca crecimientos adenomatosos que se conocen bajo el nombre de pólipos,
con el fin de averiguar su nivel de desarrollo. Existen varias técnicas para la exloración
del colon pero la colonoscopia está considerada aún hoy en d´ıa como estandar
de facto, aunque presenta algunos inconvenientes como la tasa de fallos. Nuestra contribución,
encuadrada dentro del campo de sistemas inteligentes para la colonoscopia,
tiene como objetivo el desarrollo de métodos de localización y segmentación de
pólipos basándose en un model de apariencia para los pólipos. Definimos localización
de pólipos como el método por el cual dada una imagen de entrada se proporciona
como salida donde se se˜nalan las áreas de la imagen donde es más probable encontrar
un pólipo. La segmentación de pólipos tiene como objetivo definir la región concreta
de la imagen donde está el pólipo. Con el fin de desarrollar ambos métodos se
ha comenzado desarrollando un modelo de apariencia para pólipos, el cual define un
pólipo como una estructura limitada por valles en la imagen de escala de gris.
Lo novedoso de nuestra contribución radica en el hecho de que incluimos en nuestro
modelo otros elementos de la escena endoluminal tales como los reflejos especulares
o los vasos sangu´ıneos que tienen un impacto en el rendimiento global de nuestros
métodos as´ı como elementos derivados del proceso de formación de la imagen, como
el interlacing. Teniendo esto en cuenta definimos nuestra imagen de profundidad
de valles que integra la salida del detector de valles con el gradiente morfológico,
a˜nadiendo asimismo la presencia de los ya mencionados otros elementos de la escena
endoluminal.
Para desarrollar nuestro método de localización de pólipos acumulamos la información
que la imagen de profundidad de valles proporciona con el fin de crear mapas
de energ´ıa. Para obtener la segmentación del pólipo también usamos información
de los mapas de energ´ıa para guiar el proceso. Nuestros métodos alcanzan resultados
prometedores tanto en localización como en segmentación de pólipos. Con el
fin de valdiar nuestros métodos presentamos también un experimento que compara
nuestro método con las observaciones de los médicos, obtenidas mediante un dispositivo eye-tracker.
Los resultados muestran que nuestros m´etodos son cercanos a las
observaciones de los médicos, lo cual indica el potencial de los mismos de cara a ser
incluidos en futuros sistemas inteligentes para la colonoscopia. / Colorectal cancer is the fourth most common cause of cancer death worldwide, with
about 143.460 new cases expected in 2012 by recent estimates of the American Cancer
Society. Colon cancerís survival rate depends on the stage in which it is detected,
decreasing from rates higher than 95% in the first stages to rates lower than 35%
in stages IV and V, hence the necessity for a early colon screening. In this process
physicians search for adenomatous growths known as polyps, in order to assess their
degree of development. There are several screening techniques but colonoscopy is
still nowadays the gold standard, although it has some drawbacks such as the miss
rate. Our contribution, in the field of intelligent system for colonoscopy, aims at
providing a polyp localization and a polyp segmentation system based on a model of
appearance for polyps. In this sense we define polyp localization as a method which
given an input image identifies which areas of the image are more likely to contain
a polyp. Polyp segmentation aims at selecting the region of the image that contains
a polyp. In order to develop both methods we have started by defining a model of
appearance for polyps, which defines a polyp as enclosed by intensity valleys.
The novelty of our contribution resides on the fact that we include in our model other
elements from the endoluminal scene such as specular highlights and blood vessels,
which have an impact on the performance of our methods and also other elements
that appear as a result of image formation, such as interlacing. Considering this we
define our novel Depth of Valleys image which integrates valley information with the
output of the morphological gradient and also takes into account the presence of the
before mentioned elements of the endoluminal scene. In order to develop our polyp
localization method we accumulate the information that the Depth of Valleys image
provides in order to generate accumulation energy maps. In order to obtain polyp
segmentation we also use information from the energy maps to guide the process. Our
methods achieve promising results in polyp localization and segmentation. In order
to validate our methods we also present an experiment which compares the output of
our method with physicianís observations captured via an eye-tracking device. The
results show to be close to physicianís observations which point out a potentially
inclusion of our methods as part of a future intelligent system for colonoscopy.
|
159 |
Contributions to the continuum modelling of strong discontinuities in two-dimensional solidsSamaniego Alvarado, Esteban 28 March 2003 (has links)
El estudio de la mecánica computacional de fallo ha ganado creciente popularidad en los últimos años. Modelizar el comportamiento poscrítico de estructuras puede alcanzar un grado elevado de complejidad, debido a la multiplicidad de aspectos que es necesario considerar.Desde el punto de vista de la mecánica de medios continuos, el fallo está estrechamente relacionado con la localización de deformaciones. Se dice que un sólido presenta localización de deformaciones cuando existen bandas en las cuales se producen modos de deformación intensos. Este fenómeno ha sido clasificado como una inestabilidad material, ya que está ligado a modelos constitutivos con ablandamiento o con reglas de flujo no asociadas. Un enfoque fenomenológico del problema de localización de deformaciones permite su estudio mediante saltos en el campo de desplazamientos, conocidos como discontinuidades fuertes.Este trabajo propone varias técnicas numéricas que contribuyen a la modelización de discontinuidades fuertes en sólidos bidimensionales dentro del marco de la mecánica de medios continuos. Con este objetivo, se hace una revisión sistemática de los fundamentos teóricos con los cuales se puede emprender el estudio del fallo en estructuras sin salir del ámbito de la mecánica de medios continuos clásica.En primer lugar, mediante el análisis de bifurcación discontinua, se establecen las condiciones necesarias para la aparición de discontinuidades en sólidos. A continuación, se analizan las implicaciones de adoptar la cinemática de discontinuidades fuertes en el contexto de la modelización constitutiva de medios continuos mediante el análisis de discontinuidades fuertes. Establecidas estas herramientas conceptuales, se procede a estudiar una serie de formulaciones de elementos finitos con discontinuidades internas que posibiliten la simulación numérica eficiente de la evolución de interfaces de discontinuidad en sólidos.El marco de trabajo escogido se basa en el planteamiento de las ecuaciones de gobierno del problema de valores de contorno mediante una formulación de varios campos. A partir de un análisis comparativo, se determina que el elemento más eficiente es el conocido como elemento asimétrico. Su uso implica la utilización de algoritmos de trazado del camino de la discontinuidad. Luego de estudiar este tipo de algoritmos, se propone uno que, basado en una analogía con el problema de conducción del calor, permite determinar todos las posibles líneas de discontinuidad para cada paso en un proceso de carga. Este algoritmo es especialmente eficiente para gestionar la evolución de varias líneas de discontinuidad.Se estudian, además, algunos posibles problemas de estabilidad que podrían surgir. La adición de un término viscoso a la ecuación de equilibrio se adopta como solución a las posibles inestabilidades. Finalmente, se presenta una serie de ejemplos que ponen de manifiesto la potencia de las técnicas propuestas. / The study of Computational Failure Mechanics has attracted increasing attention over the past years. Modelling the postcritical behaviour of structures is by no means trivial, due to high level of complexity that it can reach . From the continuum mechanics point of view, failure is tightly related to strain localization. When bands with modes of intense deformation are observed in a solid, it is said to undergo strain localization. It has been classified as a material instability due to its close relationship with constitutive models either equipped with strain softening or having non-associative flow rules. From a phenomenological standpoint, strain localization can be regarded as an interface where a jump in the displacement field develops. These jumps in the displacement field are termed strong discontinuities. In this work, several techniques that contribute to the continuum modelling of strong discontinuities in two-dimensional solids are proposed.To this end, a systematic review of the fundamentals of the study of failure in solids within the context of Classical Continuum Mechanics is made. First, the necessary conditions for the appearance of discontinuities in solids are established by using the socalled discontinuous bifurcation analysis. Then, the implications of adopting the strong discontinuity kinematics plus the use of continuum constitutive models are studied by means of the so-called strong discontinuity analysis. With these concepts on hand, the study of finite elements with embedded discontinuities is undertaken. A very general multi-field statement of the governing equations of the boundary value problem is used as the framework to formulate the different families of elements. The comparative analysis of all the formulations leads to the conclusion that the so-called non-symmetric element is the most efficient. However, the use of this element entails the necessity of a tracking algorithm. This kind of algorithms are also studied. A tracking algorithm based on a heat-conduction-like boundary value problem that gives all the possible discontinuity lines for a given time step in a loading process is proposed. This algorithm is specially suitable for managing multiple discontinuity interfaces. The problems of stability and uniqueness that can appear when simulating the evolution of discontinuity interfaces are analyzed and the addition of a regularizing damping term to the momentum balance equation was proposed. Finally, the proposed techniques were tested by means of some numerical examples.
|
160 |
Performance evaluation of applications for heterogeneous systems by means of performance probesOtto Strube, Alexandre 15 July 2011 (has links)
This doctoral Thesis describes a novel way to select the best computer node out of
a pool of available potentially heterogeneous computing nodes for the execution of
computational tasks. This is a very basic and dificult problem of computer science
and computing centres tried to get around it by using only homogeneous compute
clusters. Usually this fails as like any technical equipment, clusters get extended,
adapted or repaired over time, and you end up with a heterogeneous configuration.
So far, the solution for this, was:
• To leave it to the computer users to choose the right node(s) for execution, or
•To make extensive tests by executing and measuring all tasks on every type
of computing node available in the pool. In the typical case, where a large
number of tasks would need to be tested on many different types of nodes, this
could use a lot of computing resources, sometimes even more than the actual
execution one wants to optimize.
In a specific situation (hierarchical multi-clusters), the situation is worse, as
the configuration of the cluster changes over time, so that the execution tests would
have to be done over and over, every time the configuration of the cluster is changed.
I developed a novel and elegant solution for this problem, named "Performance
Probe", or just "Probe", for short. A probe is a striped-down version of a compu-
tational task which includes all important characteristics of the original task, but
can be executed in a much shorter time (seconds, instead of hours), is much smaller
than the original task (about 5% of the original size in the worst cases), but allows
to predict the execution time of the original within reasonable bounds (around 90%
accuracy).
These results are very important: as scheduling is a basic problem of computer
science, these results cannot only be used in the setting described by the thesis (of
setting the right compute node for tasks in a hierarchical multi-cluster), but can
also be applied in many diferent contexts every time scheduling and/or selection
decisions have to be made: selecting where a computational task would run most
efficiently (which cluster at which centre); picking the right execution nodes in a
large complex (grid, cloud), work
ows and many more.
|
Page generated in 0.228 seconds