• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 337
  • 308
  • 100
  • 2
  • 2
  • 1
  • Tagged with
  • 750
  • 750
  • 213
  • 142
  • 135
  • 113
  • 112
  • 112
  • 112
  • 112
  • 111
  • 99
  • 98
  • 96
  • 83
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

FSR-BAY: modelo probabilístico para la fusión sensorial robótica

Aznar Gregori, Fidel 13 June 2006 (has links)
Los humanos y los animales han evolucionado desarrollando la capacidad de utilizar sus sentidos para sobrevivir. La fusión sensorial, que es uno de los pilares de esta evolución, se realiza de forma natural por animales y humanos para conseguir una mejor interacción con el entorno circundante. La emergencia de nuevos sensores, técnicas de procesamiento avanzado, y hardware de proceso mejorado, han hecho viable la fusión de muchos tipos de datos. Actualmente los sistemas de fusión sensorial se han utilizado de manera extensiva para el seguimiento de objetos, identificación automática, razonamiento, etc. Aparte de otras muchas áreas de aplicación (como la monitorización de sistemas complejos, el control automático de fabricación industrial...) las técnicas de fusión también se utilizan en el campo de la inteligencia artificial y la robótica. Esta tesis aporta el modelo FSR-BAY, para la fusión sensorial robótica. Este modelo tiene en cuenta algunos aspectos que desde nuestro punto de vista han sido tratados de manera secundaria por la mayoría de las arquitecturas de fusión actuales: la información incompleta e incierta, las capacidades de aprendizaje y el utilizar una representación homogénea de la información, independiente del nivel de fusión. También se proporcionan dos casos de estudio del modelo propuesto aplicado a un agente autónomo. El primer caso trata la fusión cooperativa de la información utilizando para fusionar información proveniente de varios sensores de un mismo tipo. El segundo caso fusiona de manera competitiva información tanto heterogénea como homogénea. / Throughout their evolution, both humans and animals have developed the capacity to use their senses to help them to survive. One of the pillars of this evolution; sensory fusion, is achieved naturally by animals and humans to obtain the best possible interaction with the surrounding environment. In the field of computers the emergence of new sensors, advanced processing techniques, and improved hardware have made possible the fusion of many different types of data. Nowadays, sensory fusion systems have been used extensively to follow objects, for automatic identification, reasoning, etc. Apart from the many other areas of application (such as the motorization of complex systems, the automatic control of industrial fabrication processes.) fusion techniques are also being used in the fields of artificial intelligence and robotics. This thesis presents the FSR-BAY model for robotic sensory fusion. This model takes into consideration certain aspects that in our opinion have been treated in a secondary manner by the majority of today's fusion architects: Incomplete and uncertain information learning capacities and the use of a homogeneous representation of the information, independent of the level of fusion. Two studies of the proposed model applied to an autonomous agent are also described. The first case deals with cooperative fusion of the information using various sensors of the same type to provide the information, and the second case describes the situation of competitive fusion when the information is provided both homogeneously and heterogeneously.
92

Modelización robusta de entornos semi-estructurados: una aplicación al mapeado 6DoF en robótica móvil

Viejo Hernando, Diego 20 June 2008 (has links)
No description available.
93

Predicting market segmentation variables using Twitter following relations

Brossard Núñez, Ian Paul 03 December 2018 (has links)
From the beginning, social sciences have looked to categorize people into groups that share common characteristics, to better serve the population, giving a distinguished treatment to each group. Applying this approach to the planning of business activities, we can better understand people’s needs, choosing the most favorable marketing strategies for each stratum of customers (saving effort in advertising and distribution) and maximize the level of satisfaction of each of market segment. Social Media is not a stranger to this principle: a correct segmentation will allow companies to avoid bringing content to people that are not part of their target audience, and to better respond to comments and complaints about their products and brands. However, some Social Media like Twitter still haven’t included demographic markers about their users within their marketing platforms, rendering decision-making difficult. In this paper, we demonstrate that it is possible to estimate important demographic information in Social Media by analyzing the tastes and preferences of the users (represented through the Twitter accounts they follow). We present four predictive models that allowed us to estimate the gender, age, socio-economic level and LATIR Lifestyle of a Twitter user. These models were trained using machine learning algorithms / Trabajo de investigación
94

Caracterización y clasificación automática de ríos en imágenes satelitales

Brown Manrique, Kevin 16 June 2017 (has links)
En los últimos años, el fenómeno conocido como cambio climático se está volviendo cada vez más notorio. Como resultado de este fenómeno, uno de los sectores que se verá más afectado será el de los recursos hídricos debido al impacto que se tendrá sobre el ciclo hidrológico y en los sistemas de gestión de agua, y a través de estos, en los sistemas socioeconómicos. Uno de los impactos conocidos es el conjunto de modificaciones en los patrones de precipitación y caudal de los ríos que afectarán a todos sus usuarios. Los caudales de ríos se forman por sedimentos que han sido y están siendo transportados por agua que fluye y por lo general se pueden clasificar en 4 formas básicas: rectos, meandros, trenzados y anastomosados. Es importante el tener reconocidos los distintos ríos y para ello no basta con conocer su localización sino además tener mapeadas las características de estos según su canal aluvial. Uno de los métodos tradicionales para caracterizar la morfología de un río (anchura, sinuosidad, características de inundación, etc.) es a través de trabajo de campo, que es costoso y demanda tiempo. Estos métodos no sólo consumen tiempo, sino que además, son extremadamente difíciles de llevar a cabo debido a que están sujetos a factores como inundaciones, mareas y tormentas que pueden hacer el lugar inaccesible y peligroso para recolectar información. El presente proyecto de fin de carrera propone una solución ante el problema de la dificultad y alto costo que supone la realización del trabajo de campo que permita caracterizar la morfología de un río. La solución planteada es una nueva técnica computacional para la caracterización automática de la morfología de los ríos, Dimensión Fractal Multi-escala, el cual aprovecha las características fractales de formación de elementos naturales como los ríos. El proyecto inicia con un proceso de limpieza de ruido a los datos de entrada que son esqueletos de ríos, para luego, por cada uno, aplicar el método de Crossing Number para obtener la multiplicidad de canal. Seguidamente, se elaborará una Curva Fractal aplicando el método de Dimensión Fractal Multiescala y de la curva obtenida se extraerán puntos de interés para generar un vector de características necesario para la clasificación. A continuación, se entrenará un clasificador empleando los vectores de características para generar un modelo predictivo. Finalmente, el modelo será evaluado mediante la clasificación de un nuevo esqueleto de río. / Tesis
95

Desarrollo de la mecánica y dinámica de un videojuego serio 3D en tercera persona

Fernández Martínez, Luis Christian 17 March 2014 (has links)
Actualmente en nuestro país se manifiesta un resurgimiento de viejas ideologías violentistas que en un pasado dañaron gravemente a nuestra sociedad y dejaron terribles secuelas. Estas corrientes de pensamiento son impulsadas por movimientos pseudo-políticos que, obteniendo ventaja de la desinformación y de la carencia vivencial de la era del terror por parte de los grupos más jóvenes, preparan un relanzamiento de sus viejas propuestas. Por ello, se considera que, el uso de un videojuego serio en Internet para satisfacer la necesidad de informar a la población joven-adolescente sobre las consecuencias de estas ideologías, tendría un impacto positivo en este grupo social. El producto propuesto es un videojuego en tres dimensiones que permite al jugador ejecutarlo desde cualquiera de los navegadores web más populares. La inteligencia artificial de los personajes no controlados por el jugador incluye el diseño de comportamiento y el trazado de ruta. Por otro lado, la mecánica permite al jugador interactuar con el entorno, los objetos y los personajes. La inmersión en el videojuego, el impacto emocional del mismo y el compromiso del jugador es facilitado por el entorno 3D. La difusión de la información es realizada a través de la historia de fondo del juego, la cual puede ser revisada como texto escrito. Sin embargo, la riqueza del juego proviene de la interacción con un escenario plagado de enemigos controlados por el computador, cuyas acciones violentas son observadas por el jugador el cual asume el rol de observador imponente ante los maltratos perpetrados por los mismos; y que, además, posee recursos de acción muy limitados, a veces casi nulos —entre ellos completar pequeñas misiones antes de completar la misión principal. Esta mecánica recrea en cierta manera los sentimientos de impotencia generados en una situación real. Cumpliendo así el objetivo principal de informar a través de un juego de dichas experiencias de violencia. / Tesis
96

Implementación de un algoritmo genético para optimizar la distribución del agua en el riego de cultivos

Pizarro Rodríguez, Ángel Rolando 04 June 2015 (has links)
En la actualidad, existen diversas razones que generan un enorme problema de escasez de agua, entre las cuales se encuentra el incremento de su uso en el riego de cultivos debido a una ineficiente distribución; siendo esta una de las más alarmantes. La gestión del agua es un aspecto importante a considerar en las diversas actividades en las que se utiliza este recurso, particularmente, en la agricultura en donde gran parte del recurso hídrico está destinado a la irrigación de cultivos y terrenos. Debido a esto se requiere un uso eficiente del agua, que reduzca pérdidas o costos de producción, con una buena distribución del recurso de modo que reduzca los problemas de drenaje y salinidad, con adecuado requerimiento de agua para los cultivos y así se obtenga una calidad apropiada en los alimentos. De la misma manera, conseguir un buen uso del recurso hídrico con la finalidad de poseer suficiente agua para el riego de cultivos de modo que se eviten problemas de producción de cultivos o vedas por falta de un adecuado manejo de agua. Además, que se manejen aspectos y factores naturales que son importantes en la actividad agrícola en cuanto a la irrigación de cultivos, minimizando el despilfarro del recurso, pérdidas de cultivos y disminución de cosechas. Este manejo de factores naturales inclusive de acuerdo a las diversas y cambiantes temporadas de producción de cultivos. El presente proyecto presenta el desarrollo de un algoritmo genético que permita optimizar la distribución del recurso hídrico en el riego de cultivos en distintas áreas o terrenos tomando en cuenta los diferentes factores que condicionan la fase de crecimiento del sembrío hasta llegar a la etapa de cosecha. Esto de manera que se busque una mejor selección para el regado de plantaciones, logrando así organizar su desarrollo y el ahorro del consumo vital como es el agua. La importancia del desarrollo de este tema recae en el buen uso y manejo del recurso hídrico así como otras condiciones naturales que son importantes también. / Tesis
97

Sobre algunas construcciones de funciones bent

Requena Arévalo, Verónica 26 November 2010 (has links)
No description available.
98

Mapeado y localización topológicos mediante información visual

Romero Cortijo, Anna Maria 27 May 2013 (has links)
En los últimos años, la solución al problema del SLAM (Simultaneous Localization and Mapping, Localización y Mapeado Simultáneo) ha sido ampliamente tratado ya que es una de las tareas más importantes dentro del campo de la robótica móvil. El SLAM consiste en crear el mapa del entorno desconocido por el cual el robot se está moviendo y, al mismo tiempo, localizar a dicho robot dentro del mapa. La gran mayoría de las soluciones aportadas por la literatura actual permiten el uso de cualquier sensor que capture información del entorno. A pesar de no ofrecer la misma precisión que un láser 3D, las cámaras están siendo cada vez más utilizadas para la resolución de problemas de SLAM y navegación además, se está produciendo un auge en el uso de cámaras omnidireccionales (cámaras que capturan imágenes de 360#) ya que la información capturada (conocida como características visuales) es mucho mayor que la que ofrece una cámara normal. Aunque se puede utilizar visión para resolver el SLAM de tipo métrico (construye mapas donde se conoce la posición exacta de los obstáculos y del robot), las soluciones que utilizan visión para resolver el SLAM topológico son más comunes. El SLAM topológico se basa en la construcción del mapa de forma similar a la forma en que los humanos nos orientamos en nuestro entorno. En el SLAM topológico se construyen mapas topológicos que representan el entorno como una serie de puntos (zonas, regiones, localizaciones) donde es posible encontrar al robot y almacenan las relaciones de vecindad entre los distintos puntos del mapa, es decir, permite conocer cómo llegar de un punto a otro del entorno. En esta tesis proponemos el uso de imágenes omnidireccionales para resolver el problema del mapeado y la localización topológica a partir de dos aproximaciones distintas: la primera desde una perspectiva incremental y no supervisada y la segunda des del enfoque del aprendizaje supervisado. El primer método que proponemos es un algoritmo de localización y mapeado topológico incremental y no supervisado basado en información viii visual. El mapa creado por dicho algoritmo es un grafo donde los puntos (zonas) del entorno se representan por nodos y las relaciones de vecindad son las aristas del grafo. Puesto que el algoritmo utiliza imágenes omnidireccionales, los nodos agrupan todas aquellas imágenes que describen la misma escena y, por tanto, comparten características visuales parecidas. Así, para la construcción de mapas topológicos con información visual, el algoritmo de mapeado topológico necesita resolver en primer lugar el problema de reconocimiento de escenas o cierre de ciclo. Nuestro algoritmo de comparación de imágenes se basa en la estructura local que forman las características visuales para establecer cuáles son los emparejamientos de características válidos. Para eliminar los falsos positivos que aparecen al emparejar las características individualmente, planteamos la utilización de grafos como estructuras que proporcionan información útil sobre las relaciones de vecindad de las características o puntos invariantes. De este modo comprobamos la consistencia no solamente de un único emparejamiento, sino la de un conjunto de características que tienen algún tipo de relación. El segundo método propuesto es un algoritmo de aprendizaje supervisado que selecciona las mejores características que describen a cada nodo y un algoritmo de localización basado en el mapa topológico aprendido. En los mapas topológicos cada nodo está compuesto por varias imágenes que describen una zona del entorno. La selección de una única imagen para definir el nodo puede no ser suficiente para describirlo en su totalidad, mientras que el uso de todas las imágenes puede consumir un tiempo prohibitivo. Nuestro método de aprendizaje del mapa topológico selecciona las mejores características (entre todas las imágenes de cada nodo) que describen a los nodos. El algoritmo de localización utiliza las características seleccionadas para determinar cuál es el nodo del mapa al que pertenece la imagen capturada. Para conseguir los mejores resultados en los dos métodos propuestos, estudiaremos diferentes algoritmos de segmentación de la imagen en regiones además de los algoritmos de extracción de características visuales más utilizados en la literatura.
99

Estudio y mejora de métodos de registro 3D: aceleración sobre unidades de procesamiento gráfico y caracterización del espacio de transformaciones iniciales

Montoyo-Bojo, Javier 13 November 2015 (has links)
Durante los últimos años ha sido creciente el uso de las unidades de procesamiento gráfico, más conocidas como GPU (Graphic Processing Unit), en aplicaciones de propósito general, dejando a un lado el objetivo para el que fueron creadas y que no era otro que el renderizado de gráficos por computador. Este crecimiento se debe en parte a la evolución que han experimentado estos dispositivos durante este tiempo y que les ha dotado de gran potencia de cálculo, consiguiendo que su uso se extienda desde ordenadores personales a grandes cluster. Este hecho unido a la proliferación de sensores RGB-D de bajo coste ha hecho que crezca el número de aplicaciones de visión que hacen uso de esta tecnología para la resolución de problemas, así como también para el desarrollo de nuevas aplicaciones. Todas estas mejoras no solamente se han realizado en la parte hardware, es decir en los dispositivos, sino también en la parte software con la aparición de nuevas herramientas de desarrollo que facilitan la programación de estos dispositivos GPU. Este nuevo paradigma se acuñó como Computación de Propósito General sobre Unidades de Proceso Gráfico (General-Purpose computation on Graphics Processing Units, GPGPU). Los dispositivos GPU se clasifican en diferentes familias, en función de las distintas características hardware que poseen. Cada nueva familia que aparece incorpora nuevas mejoras tecnológicas que le permite conseguir mejor rendimiento que las anteriores. No obstante, para sacar un rendimiento óptimo a un dispositivo GPU es necesario configurarlo correctamente antes de usarlo. Esta configuración viene determinada por los valores asignados a una serie de parámetros del dispositivo. Por tanto, muchas de las implementaciones que hoy en día hacen uso de los dispositivos GPU para el registro denso de nubes de puntos 3D, podrían ver mejorado su rendimiento con una configuración óptima de dichos parámetros, en función del dispositivo utilizado. Es por ello que, ante la falta de un estudio detallado del grado de afectación de los parámetros GPU sobre el rendimiento final de una implementación, se consideró muy conveniente la realización de este estudio. Este estudio no sólo se realizó con distintas configuraciones de parámetros GPU, sino también con diferentes arquitecturas de dispositivos GPU. El objetivo de este estudio es proporcionar una herramienta de decisión que ayude a los desarrolladores a la hora implementar aplicaciones para dispositivos GPU. Uno de los campos de investigación en los que más prolifera el uso de estas tecnologías es el campo de la robótica ya que tradicionalmente en robótica, sobre todo en la robótica móvil, se utilizaban combinaciones de sensores de distinta naturaleza con un alto coste económico, como el láser, el sónar o el sensor de contacto, para obtener datos del entorno. Más tarde, estos datos eran utilizados en aplicaciones de visión por computador con un coste computacional muy alto. Todo este coste, tanto el económico de los sensores utilizados como el coste computacional, se ha visto reducido notablemente gracias a estas nuevas tecnologías. Dentro de las aplicaciones de visión por computador más utilizadas está el registro de nubes de puntos. Este proceso es, en general, la transformación de diferentes nubes de puntos a un sistema de coordenadas conocido. Los datos pueden proceder de fotografías, de diferentes sensores, etc. Se utiliza en diferentes campos como son la visión artificial, la imagen médica, el reconocimiento de objetos y el análisis de imágenes y datos de satélites. El registro se utiliza para poder comparar o integrar los datos obtenidos en diferentes mediciones. En este trabajo se realiza un repaso del estado del arte de los métodos de registro 3D. Al mismo tiempo, se presenta un profundo estudio sobre el método de registro 3D más utilizado, Iterative Closest Point (ICP), y una de sus variantes más conocidas, Expectation-Maximization ICP (EMICP). Este estudio contempla tanto su implementación secuencial como su implementación paralela en dispositivos GPU, centrándose en cómo afectan a su rendimiento las distintas configuraciones de parámetros GPU. Como consecuencia de este estudio, también se presenta una propuesta para mejorar el aprovechamiento de la memoria de los dispositivos GPU, permitiendo el trabajo con nubes de puntos más grandes, reduciendo el problema de la limitación de memoria impuesta por el dispositivo. El funcionamiento de los métodos de registro 3D utilizados en este trabajo depende en gran medida de la inicialización del problema. En este caso, esa inicialización del problema consiste en la correcta elección de la matriz de transformación con la que se iniciará el algoritmo. Debido a que este aspecto es muy importante en este tipo de algoritmos, ya que de él depende llegar antes o no a la solución o, incluso, no llegar nunca a la solución, en este trabajo se presenta un estudio sobre el espacio de transformaciones con el objetivo de caracterizarlo y facilitar la elección de la transformación inicial a utilizar en estos algoritmos.
100

Sistema predictivo progresivo de clasificación probabilística como guía para el aprendizaje

Villagrá-Arnedo, Carlos-José 22 January 2016 (has links)
El trabajo realizado en esta tesis está basado en el desarrollo de un modelo de predicción progresiva que mejora el proceso de enseñanza-aprendizaje a través del uso de las tecnologías de la información y, en particular, de las técnicas de inteligencia artificial. Este modelo tiene como base un sistema interactivo gamificado que gestiona las prácticas de la asignatura Matemáticas I, en las que se aprende razonamiento lógico a través de un videojuego llamado PLMan, muy similar al comecocos (PacMan). Los estudiantes acceden durante el curso a este sistema y van progresando y acumulando nota en las prácticas de la asignatura mediante la resolución de mapas del videojuego PLMan. Los datos procedentes de la interacción de los estudiantes con el sistema gamificado se registran en una base de datos. A partir de estos, se extraen unas características representativas del estado de los estudiantes, consistentes en datos de uso del sistema y resultados de aprendizaje. El modelo usa la técnica de Machine Learning SVM, y obtiene como resultado la clasificación semanal de los estudiantes en forma de probabilidad de que se encuentren en cada una de tres posibles clases: rendimiento alto, normal y bajo, acumulando los datos recogidos hasta la semana en curso. Se han realizado experimentos con los datos recogidos durante el curso 2014/15, correspondientes a 336 estudiantes, obteniendo buenos resultados en cuanto a la precisión del algoritmo SVM propuesto. A continuación, se ha realizado un análisis exhaustivo de la correlación de las características empleadas con la nota final, extrayendo las que presentan una mayor relación lineal con esta última. Después, se ha realizado un nuevo experimento empleando sólo estas características seleccionadas, obteniendo unos resultados similares aunque ligeramente inferiores a los de la experiencia inicial, lo que denota que pueden existir relaciones no lineales entre las variables que la técnica SVM puede detectar. Por último, el modelo planteado presenta los resultados obtenidos de forma que proporcionen información valiosa para profesores y estudiantes. Esta información se muestra en forma de gráficas fáciles de interpretar, constituyendo un mecanismo que permite detectar estudiantes que están en riesgo de fracasar y, en cualquier caso, permite guiarlos para que obtengan el máximo rendimiento. En definitiva, se trata de un modelo de predicción del rendimiento del estudiante con dos aportaciones principales: clasificación en tres clases con valores de probabilidad y de forma progresiva, y la información visual en forma de gráficas, que representan un mecanismo de guía para la mejora del proceso de enseñanza-aprendizaje.

Page generated in 0.1584 seconds