• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 73
  • 14
  • Tagged with
  • 87
  • 87
  • 87
  • 83
  • 16
  • 14
  • 13
  • 12
  • 10
  • 9
  • 9
  • 9
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Modelo de integración de datos, metadatos y conocimiento geográficos

Olivia Santos, Rafael 22 February 2013 (has links)
La interoperabilidad semántica entre datos y servicios geográficos es una de las principales líneas de investigación en la actualidad dado el vertiginoso desarrollo de las tecnologías de la información y las comunicaciones. El logro de una verdadera integración entre los datos geográficos, los metadatos correspondientes y el conocimiento vinculado con ambos, así como las relaciones entre ellos, es una meta a alcanzar dentro de los esfuerzos por lograr la interoperabilidad semántica. En la presente investigación se propone un Modelo de Integración de Datos, Metadatos y Conocimiento Geográficos que hemos denominado MIGeo. A partir del estado del arte se establece un marco teórico general y se concibe un modelo abstracto que tiene su base semántica formal en el modelo ontológico. Asimismo, se propone una metodología para efectuar la integración basándose en el modelo abstracto, así como un modelo computacional que asegura la viabilidad del modelo abstracto y los requisitos no funcionales. La base semántica formal del modelo de integración garantiza la persistencia de los datos, los metadatos y el conocimiento geográficos y sus vínculos a un mismo nivel en ontologías. El modelo MIGeo incorpora ontologías de definición de relaciones topológicas y ontologías para la representación semántica de estructuras de datos, las cuales permiten el indexado de los objetos geográficos representados en los datos geográficos favoreciendo así la recuperación de los objetos a partir de criterios espaciales y la explicitación de los elementos necesarios para la comprobación de la consistencia de las relaciones topológicas. La metodología propuesta lleva a cabo el proceso de integración de los datos, los metadatos y el conocimiento geográficos mediante su enriquecimiento semántico. El modelo computacional se sustenta en el componente ontológico que garantiza la instrumentación de la base semántica formal del modelo de integración y en el componente de gestión que agrupa un conjunto de funcionalidades para la gestión del componente ontológico. El componente de gestión incluye una propuesta de razonador espacial que toma en consideración las relaciones topológicas entre los objetos geográficos. Los principales resultados de esta investigación consisten en la formalización del modelo MIGeo, la concepción de su base semántica formal y del modelo abstracto como fundamento teórico-conceptual y metodológico del modelo de integración, la metodología para efectuar la integración y el modelo computacional, así como la instrumentación de un prototipo funcional. Los experimentos efectuados utilizando el prototipo han permitido validar las hipótesis de partida. Los resultados de esta investigación tienen aplicación en las infraestructuras de datos espaciales y la Web Semántica Geoespacial puesto que MIGeo permite representar semánticamente los datos, los metadatos y el conocimiento geográficos, así como los vínculos entre ellos, mediante ontologías. Estos resultados han permitido abrir nuevas líneas de investigación como la extensión de MIGeo a la integración de abstracciones más complejas y el aumento de la eficiencia de los procesos de razonamiento espacial, las que serán objeto de nuestras futuras investigaciones.
72

Modelo no determinista para la auto-verificación de integridad de componentes de software

Nuñez Musa, Yulier 27 February 2013 (has links)
Las pérdidas monetarias por concepto de piratería de software alcanzan en la actualidad cifras millonarias. Por sólo citar un ejemplo, en el 2011 el valor comercial por este concepto ascendió a 63 billones de dólares, con un incremento de 4.2 billones con respecto al año anterior. En este ámbito, el software comercializado es sometido a ataques y como resultado, usuarios ilegítimos pueden hacer uso del mismo. Una vía para mitigar este problema desde el punto de vista tecnológico, es el empleo de técnicas de protección de software, entre las que se encuentran la ofuscación, el cifrado, las marcas de agua y la auto-verificación de integridad, entre otros. Dichas técnicas no son totalmente efectivas, debido principalmente a que la ejecución del software se realiza en una arquitectura insegura, sobre la que el atacante tiene un control total. La presente tesis se centra en las técnicas de protección dirigidas al control de integridad en ambientes de ejecución inseguros, específicamente la técnica de auto-verificación de integridad, que ofrece resistencia ante ataques dinámicos. Una limitante de esta técnica es que por sí sola no puede garantizar su privacidad, por lo que es necesario combinarla con otras técnicas para lograr dicho fin. Varias propuestas están dirigidas a complementar la auto-verificación de integridad con técnicas de ofuscación estructurales. Sin embargo, esto no es suficiente para ofrecer una alta resistencia ante ataques dinámicos, por lo que además es necesario incorporar una ofuscación funcional. En este contexto, se propone un modelo no determinista para la verificación de integridad de componentes de software. El modelo se basa en una red de auto-verificación, constituida por un componente de detección y un componente de respuesta. Ambos tienen un comportamiento no determinista, por lo que tanto las detecciones como las respuestas se ejecutan con cierta probabilidad. Igualmente, y ante la carencia de estrategias consensuadas para la estimación del grado de protección que ofrecen estos mecanismos, se ha optado por proponer un novedoso modelo de evaluación. En él se combina el concepto de Árbol de Ataque con aspectos de la Teoría de la Información, de forma que la estrategia es escalable y al mismo tiempo tiene en cuenta el no determinismo de la red. Por último, y como tercera contribución significativa del trabajo, se han establecido las directrices para el establecimiento de una Infraestructura de Protección de Software (Software Protection Infrastructure (SPI)). Dada la complejidad y el coste asociado a la incorporación de un mecanismo de protección en el proceso de desarrollo de software, la SPI permite simplificar y abaratar su integración mediante la aplicación automatizada de las mismas durante el proceso de compilación del software. La implementación de una SPI básica, permitió generar un prototipo de prueba del modelo no determinista y realizar un conjunto de evaluaciones experimentales aplicando para ello el modelo de evaluación propuesto. Los resultados indican una mejora de dos órdenes de magnitud en la resistencia y nivel de ofuscación funcional, respecto a un modelo equivalente de comportamiento determinista. Al respecto, se pudo concluir que un comportamiento no determinista es acertado tanto para retardar un ataque exitoso, como para minimizar el nivel de fuga de información. Este resultado es aplicable a la mejora de la resistencia ante ataques dinámicos y se presume que pueda ser extendido a otras técnicas de protección. Por otra parte, la infraestructura propuesta abre un espacio de investigación para la protección masiva de software, minimizando considerablemente el coste asociado a esta actividad y potenciando la especialización en las distintas disciplinas involucradas.
73

Impacto del subsistema de comunicación en el rendimiento de los computadores paralelos: desde el hardware hasta las aplicaciones

Puente Varona, Valentín 20 February 2000 (has links)
A pesar del explosivo crecimiento de la capacidad computacional de los ordenadores convencionales, alimentada fundamentalmente por la rápida evolución experimentada por los procesadores, existen multitud de problemas de notable importancia que aún no pueden ser abordados de forma satisfactoria. La solución más factible para abordar este tipo de problemas se basa en la utilización de computadores paralelos. Esta tesis se centra en el estudio de la red de interconexión de los computadores paralelos, aportando soluciones eficaces para mejorar su rendimiento. Se proponen mejoras de los elementos críticos de la red: los encaminadores y la propia topología. Las nuevas propuestas derivadas del trabajo son:· Un eficaz mecanismo de encaminamiento con un menor coste. Esta idea fue empleada por IBM en el supercomputador IBM BlueGene/L.· Se ha mejorado la gestión interna de los encaminadores con un coste acotado.· Se presentan arquitecturas de almacenamiento para los encaminadores con una relación coste-rendimiento favorable.· Se propone una nueva disposición de la red de interconexión que permite mejorar sus propiedades topológicas de forma notable frente a las empleadas usualmente.
74

Soporte arquitectónico a la sincronización imparcial de lectores y escritores en computadores paralelos

Vallejo Gutiérrez, Enrique 10 June 2010 (has links)
La evolución tecnológica en el diseño de microprocesadores ha conducido a sistemas paralelos con múltiples hilos de ejecución. Estos sistemas son más difíciles de programar y presentan overheads mayores que los sistemas uniprocesadores tradicionales, que pueden limitar su rendimiento y escalabilidad: sincronización, coherencia, consistencia y otros mecanismos requeridos para garantizar una ejecución correcta. La programación paralela tradicional se basa en primitivas de sincronización como barreras y locks de lectura/escritura, con alta tendencia a fallos de programación. La Memoria Transaccional (TM) oculta estos problemas de sincronización al programador; sin embargo, múltiples sistemas TM aún se basan en locks, y se beneficiarían de una implementación eficiente de los mismos.Esta tesis presenta nuevas técnicas hardware para acelerar la ejecución de estos programas paralelos. Proponemos un sistema TM híbrido basado en locks de lectura/escritura, que minimiza los overheads del software cuando la aceleración hardware está presente. Desarrollamos un mecanismo para garantizar fairness entre transacciones hardware y software. Introducimos un mecanismo distribuido de aceleración de locks de lectura/escritura, llamado Lock Control Unit. Finalmente, proponemos una organización de multiprocesadores basadas en Kilo-Instruction Processors que garantiza Consistencia Secuencial y permite especulación en secciones críticas. / Technological evolution in microprocessor design has led to parallel systems with multiple execution threads. These systems are more difficult to program and present higher performance overheads than the traditional uniprocessor systems, what may limit their performance and scalability: synchronization, coherence, consistency and other mechanisms required to guarantee a correct execution. Traditional parallel programming is based on synchronization primitives such as barriers, critical sections and reader/writer locks, highly prone to programming errors. Transactional Memory (TM) removes the synchronization problems from the programmer. However, many TM systems still rely on reader/writer locks, and would get benefited from an efficient implementation.This thesis presents new hardware techniques to accelerate the execution of such parallel programs. We propose a Hybrid TM system based on reader/writer locks, which minimizes the software overheads when acceleration hardware is present, still allowing for correct software-only execution. We propose a mechanism to guarantee fairness between hardware and software transactions is provided. We introduce a low-cost distributed mechanism named the Lock Control Unit to handle fine-grain reader-writer locks. Finally, we propose an organization of a mutiprocessor based on Kilo-Instruction Processors, which guarantees Sequential Consistency while allowing for speculation in critical sections.
75

Innovación disruptiva de las criptomonedas para la sociedad y el comercio electrónico

Mendoza-Tello, Julio C. 14 June 2019 (has links)
Las criptomonedas se han convertido en una innovación disruptiva para la sociedad debido a que definen un nuevo paradigma en las relaciones de los agentes económicos: la descentralización de la confianza para asegurar transacciones electrónicas sin la necesidad de una autoridad central de control. Las criptomonedas despiertan interés en la sociedad porque reformulan la generación y transferencia de dinero. Éstas son disruptivas porque representan un cambio radical en la forma de realizar transacciones, reemplazando la confianza de las entidades de control (o terceras partes) por la veracidad de una prueba criptográfica. En esta situación, las criptomonedas cambian el paradigma de confianza en el comercio electrónico y en los estándares definidos en la sociedad. De esta forma, ellas causan profundos cambios en la sociedad y proporcionan las bases para crear nuevas oportunidades y desarrollo de innovadores modelos de negocios. Desde esta perspectiva, el objetivo general de esta tesis es avanzar en el análisis de las criptomonedas para el comercio electrónico y de sus efectos como innovación disruptiva para la sociedad. Para ello, se propone el diseño de modelos de análisis que expliquen de una manera formal las implicaciones de esta tecnología en el comportamiento de los agentes sociales y en la naturaleza de los intercambios económicos. La investigación está centrada en cinco entornos que definen la aceptación y ámbito de implementación de las criptomonedas como tecnología disruptiva: comercio electrónico, comercio social, economía colaborativa, educación y desarrollo sostenible. Desde el punto de vista metodológico, el trabajo consta de tres fases: estudio teórico, desarrollo de modelos y resultados de investigación. Primero, el estudio teórico basado en el planteamiento y estado del arte de la investigación. Segundo, el desarrollo de modelos basados en variables claves como: intención de uso, utilidad, facilidad de uso, confianza, riesgo, comercio social y soporte social. Adicionalmente, basado en los cinco entornos mencionados, un caso de estudio es propuesto para analizar el rol de la educación en la creación de emprendimientos colaborativos y sostenibles que utilizan criptomonedas. Tercero, la discusión y validación de los resultados obtenidos en cada modelo permite proponer futuras investigaciones. En resumen, esta tesis proporciona un modelo válido y confiable para analizar el papel de la innovación disruptiva de las criptomonedas en la aceptación y la confianza percibida por los consumidores al realizar transacciones monetarias en el comercio electrónico. En adición, esta investigación provee una práctica herramienta para analizar como las relaciones colaborativas que surgen en los medios sociales pueden influenciar o mejorar la adopción de una nueva tecnología en términos de utilidad y confianza percibida. Finalmente, este trabajo proporciona un marco teórico que permite analizar el papel desempeñado por la educación en el desarrollo de nuevos modelos de intercambio económico que aprovechan las ventajas de las criptomonedas.
76

Investigación industrial orientada a la adecuación de los sistemas productivos actuales del sector calzado a tecnologías de reciente desarrollo

Hinojo-Pérez, Juan José 07 September 2018 (has links)
El desarrollo de las tecnologías de la información y nuevos canales comunicación están modificando las preferencias y actitudes de los compradores hacia los bienes de consumo que adquieren. Por un lado, gracias a la venta on-line, una localización geográfica distinta a la de la tienda física deja de ser un impedimento, y por otro, se demandan en mayor medida bienes dotados de características avanzadas que se adapten a sus necesidades. A su vez, la aparición de nuevas tecnologías de fabricación, como la fabricación aditiva o impresión 3D, hacen posible dar respuesta a esta demanda, ya que permiten el desarrollo de productos avanzados técnicamente, que además pueden ser personalizados, o al menos adaptarse en gran medida a las características propias de diferentes grupos de individuos, lo cual se conoce como personalización masiva. Sin embargo el calzado tiene la limitación, por una parte, de que la única forma de evaluar su confort y talla adecuada es mediante prueba presencial. Esto es debido a que los métodos de escalado de hormas que utilizan los fabricantes son de naturaleza heterogénea y están faltos de armonización, de forma que la talla adecuada para un usuario puede variar en función del fabricante y/o tipo de modelo en relación a unas mismas dimensiones del pie. Por otra parte, no existen metodologías específicas de diseño para impresión 3D orientadas a los diferentes elementos que integran el zapato. A través de esta investigación se ha buscado dar respuesta a estas dos consideraciones mediante el desarrollo de metodologías CAD que permitan, en primer lugar, la obtención de tallas correctas de calzado no sólo en el ámbito local de la fábrica de zapatos, sino también en términos de mercado globalizado. En segundo lugar, el diseño y obtención de elementos del calzado (en este caso plantillas anatómicas y elementos correctores de la pisada) dotados de propiedades funcionales avanzadas a través de fabricación aditiva. Gracias a estas nuevas técnicas de automatización del diseño y producción del calzado, la industria puede alinearse con los nuevos requerimientos de la industria 4.0 en relación a la automatización y digitalización de procesos; y de personalización del producto y aumento de la flexibilidad del flujo productivo. La investigación realizada ha tenido como resultado la publicación de dos artículos en revistas JCR de alto impacto.
77

Modelado y simulación para la predicción de explosiones en espacios confinados

Cortés, Daniel 03 March 2021 (has links)
Los incendios en recintos confinados son un tipo de emergencia que involucra a bomberos cuyas vidas a veces se ponen en peligro. En cualquier incendio confinado, el equipo de emergencia puede encontrar dos tipos de ambientes de combustión, ventilados o infra-ventilados. El comportamiento cambiante de este escenario depende de múltiples factores como el tamaño del recinto, la ventilación o el combustible involucrado, entre otros. Sin embargo, la dificultad de manejar este tipo de situaciones junto con el potencial error humano sigue siendo un desafío sin resolver para los bomberos en la actualidad. En ocasiones si se dan las condiciones adecuadas, pueden aparecer los fenómenos, extremadamente peligrosos, que son estudio de este trabajo (flashover y backdraft). Por lo tanto, existe una gran demanda de nuevas técnicas y tecnologías para abordar este tipo de emergencias que amenazan la vida y puede causar graves daños estructurales. A lo anterior hay que añadir que la incorporación de cámaras térmicas en los servicios de extinción de incendios y salvamentos, supone un gran avance que puede ayudar a prevenir estos tipos de fenómenos en tiempo real utilizando técnicas de inteligencia artificial.
78

Unveiling urban dynamics: An exploration of tools and methods using crowd-sourced data for the study of urban space

López Baeza, Jesús 28 February 2020 (has links)
The following work presents several trans-disciplinary resources for understanding cities beyond just their physical form and spatial processes. The conceptualization of cities from a top-down, modern and post- modern approach to the form-function duality lacks multiple dimensions, which need to be studied in order to gain a proper understanding of how contemporary urban societies perform nowadays. Instead, this work considers settlements as a set of an infinite number of individual perceptions and experiences, which construct overlapping layers of hidden and intangible information that shape cities as complex systems. Social relations that are moving progressively to the virtual realm are becoming major factors in decision-making and location choices by citizens. This definition of a city’s hidden image is developed through the study of data retrieved from online servers. To do so, this work focuses on spatial and temporal activity patterns, values of certain places and their quantitative weight within the urban fabric, the distribution and nature of places, the observation of people’s perception of certain places through the representation of activities captured by pictures posted online, or several other theoretical and methodological approaches under the umbrella of crowd-sourced data in the city.
79

A three-dimensional representation method for noisy point clouds based on growing self-organizing maps accelerated on GPUs

Orts-Escolano, Sergio 21 January 2014 (has links)
The research described in this thesis was motivated by the need of a robust model capable of representing 3D data obtained with 3D sensors, which are inherently noisy. In addition, time constraints have to be considered as these sensors are capable of providing a 3D data stream in real time. This thesis proposed the use of Self-Organizing Maps (SOMs) as a 3D representation model. In particular, we proposed the use of the Growing Neural Gas (GNG) network, which has been successfully used for clustering, pattern recognition and topology representation of multi-dimensional data. Until now, Self-Organizing Maps have been primarily computed offline and their application in 3D data has mainly focused on free noise models, without considering time constraints. It is proposed a hardware implementation leveraging the computing power of modern GPUs, which takes advantage of a new paradigm coined as General-Purpose Computing on Graphics Processing Units (GPGPU). The proposed methods were applied to different problem and applications in the area of computer vision such as the recognition and localization of objects, visual surveillance or 3D reconstruction.
80

Contributions to 3D Data Registration and Representation

Morell, Vicente 02 October 2014 (has links)
Nowadays, new computers generation provides a high performance that enables to build computationally expensive computer vision applications applied to mobile robotics. Building a map of the environment is a common task of a robot and is an essential part to allow the robots to move through these environments. Traditionally, mobile robots used a combination of several sensors from different technologies. Lasers, sonars and contact sensors have been typically used in any mobile robotic architecture, however color cameras are an important sensor due to we want the robots to use the same information that humans to sense and move through the different environments. Color cameras are cheap and flexible but a lot of work need to be done to give robots enough visual understanding of the scenes. Computer vision algorithms are computational complex problems but nowadays robots have access to different and powerful architectures that can be used for mobile robotics purposes. The advent of low-cost RGB-D sensors like Microsoft Kinect which provide 3D colored point clouds at high frame rates made the computer vision even more relevant in the mobile robotics field. The combination of visual and 3D data allows the systems to use both computer vision and 3D processing and therefore to be aware of more details of the surrounding environment. The research described in this thesis was motivated by the need of scene mapping. Being aware of the surrounding environment is a key feature in many mobile robotics applications from simple robotic navigation to complex surveillance applications. In addition, the acquisition of a 3D model of the scenes is useful in many areas as video games scene modeling where well-known places are reconstructed and added to game systems or advertising where once you get the 3D model of one room the system can add furniture pieces using augmented reality techniques. In this thesis we perform an experimental study of the state-of-the-art registration methods to find which one fits better to our scene mapping purposes. Different methods are tested and analyzed on different scene distributions of visual and geometry appearance. In addition, this thesis proposes two methods for 3d data compression and representation of 3D maps. Our 3D representation proposal is based on the use of Growing Neural Gas (GNG) method. This Self-Organizing Maps (SOMs) has been successfully used for clustering, pattern recognition and topology representation of various kind of data. Until now, Self-Organizing Maps have been primarily computed offline and their application in 3D data has mainly focused on free noise models without considering time constraints. Self-organising neural models have the ability to provide a good representation of the input space. In particular, the Growing Neural Gas (GNG) is a suitable model because of its flexibility, rapid adaptation and excellent quality of representation. However, this type of learning is time consuming, specially for high-dimensional input data. Since real applications often work under time constraints, it is necessary to adapt the learning process in order to complete it in a predefined time. This thesis proposes a hardware implementation leveraging the computing power of modern GPUs which takes advantage of a new paradigm coined as General-Purpose Computing on Graphics Processing Units (GPGPU). Our proposed geometrical 3D compression method seeks to reduce the 3D information using plane detection as basic structure to compress the data. This is due to our target environments are man-made and therefore there are a lot of points that belong to a plane surface. Our proposed method is able to get good compression results in those man-made scenarios. The detected and compressed planes can be also used in other applications as surface reconstruction or plane-based registration algorithms. Finally, we have also demonstrated the goodness of the GPU technologies getting a high performance implementation of a CAD/CAM common technique called Virtual Digitizing.

Page generated in 0.0683 seconds