• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 147
  • 24
  • Tagged with
  • 171
  • 171
  • 81
  • 80
  • 55
  • 47
  • 29
  • 27
  • 18
  • 16
  • 14
  • 13
  • 13
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

MetaBlobs: avances en algoritmos eficientes para poligonalización

Puchol García, Juan Antonio 17 December 2001 (has links)
No description available.
32

Visión estéreo: multirresolución y modelo integrado

Satorre Cuerda, Rosana 29 July 2002 (has links)
No description available.
33

FSR-BAY: modelo probabilístico para la fusión sensorial robótica

Aznar Gregori, Fidel 13 June 2006 (has links)
Los humanos y los animales han evolucionado desarrollando la capacidad de utilizar sus sentidos para sobrevivir. La fusión sensorial, que es uno de los pilares de esta evolución, se realiza de forma natural por animales y humanos para conseguir una mejor interacción con el entorno circundante. La emergencia de nuevos sensores, técnicas de procesamiento avanzado, y hardware de proceso mejorado, han hecho viable la fusión de muchos tipos de datos. Actualmente los sistemas de fusión sensorial se han utilizado de manera extensiva para el seguimiento de objetos, identificación automática, razonamiento, etc. Aparte de otras muchas áreas de aplicación (como la monitorización de sistemas complejos, el control automático de fabricación industrial...) las técnicas de fusión también se utilizan en el campo de la inteligencia artificial y la robótica. Esta tesis aporta el modelo FSR-BAY, para la fusión sensorial robótica. Este modelo tiene en cuenta algunos aspectos que desde nuestro punto de vista han sido tratados de manera secundaria por la mayoría de las arquitecturas de fusión actuales: la información incompleta e incierta, las capacidades de aprendizaje y el utilizar una representación homogénea de la información, independiente del nivel de fusión. También se proporcionan dos casos de estudio del modelo propuesto aplicado a un agente autónomo. El primer caso trata la fusión cooperativa de la información utilizando para fusionar información proveniente de varios sensores de un mismo tipo. El segundo caso fusiona de manera competitiva información tanto heterogénea como homogénea. / Throughout their evolution, both humans and animals have developed the capacity to use their senses to help them to survive. One of the pillars of this evolution; sensory fusion, is achieved naturally by animals and humans to obtain the best possible interaction with the surrounding environment. In the field of computers the emergence of new sensors, advanced processing techniques, and improved hardware have made possible the fusion of many different types of data. Nowadays, sensory fusion systems have been used extensively to follow objects, for automatic identification, reasoning, etc. Apart from the many other areas of application (such as the motorization of complex systems, the automatic control of industrial fabrication processes.) fusion techniques are also being used in the fields of artificial intelligence and robotics. This thesis presents the FSR-BAY model for robotic sensory fusion. This model takes into consideration certain aspects that in our opinion have been treated in a secondary manner by the majority of today's fusion architects: Incomplete and uncertain information learning capacities and the use of a homogeneous representation of the information, independent of the level of fusion. Two studies of the proposed model applied to an autonomous agent are also described. The first case deals with cooperative fusion of the information using various sensors of the same type to provide the information, and the second case describes the situation of competitive fusion when the information is provided both homogeneously and heterogeneously.
34

Modelización robusta de entornos semi-estructurados: una aplicación al mapeado 6DoF en robótica móvil

Viejo Hernando, Diego 20 June 2008 (has links)
No description available.
35

Sobre algunas construcciones de funciones bent

Requena Arévalo, Verónica 26 November 2010 (has links)
No description available.
36

Mapeado y localización topológicos mediante información visual

Romero Cortijo, Anna Maria 27 May 2013 (has links)
En los últimos años, la solución al problema del SLAM (Simultaneous Localization and Mapping, Localización y Mapeado Simultáneo) ha sido ampliamente tratado ya que es una de las tareas más importantes dentro del campo de la robótica móvil. El SLAM consiste en crear el mapa del entorno desconocido por el cual el robot se está moviendo y, al mismo tiempo, localizar a dicho robot dentro del mapa. La gran mayoría de las soluciones aportadas por la literatura actual permiten el uso de cualquier sensor que capture información del entorno. A pesar de no ofrecer la misma precisión que un láser 3D, las cámaras están siendo cada vez más utilizadas para la resolución de problemas de SLAM y navegación además, se está produciendo un auge en el uso de cámaras omnidireccionales (cámaras que capturan imágenes de 360#) ya que la información capturada (conocida como características visuales) es mucho mayor que la que ofrece una cámara normal. Aunque se puede utilizar visión para resolver el SLAM de tipo métrico (construye mapas donde se conoce la posición exacta de los obstáculos y del robot), las soluciones que utilizan visión para resolver el SLAM topológico son más comunes. El SLAM topológico se basa en la construcción del mapa de forma similar a la forma en que los humanos nos orientamos en nuestro entorno. En el SLAM topológico se construyen mapas topológicos que representan el entorno como una serie de puntos (zonas, regiones, localizaciones) donde es posible encontrar al robot y almacenan las relaciones de vecindad entre los distintos puntos del mapa, es decir, permite conocer cómo llegar de un punto a otro del entorno. En esta tesis proponemos el uso de imágenes omnidireccionales para resolver el problema del mapeado y la localización topológica a partir de dos aproximaciones distintas: la primera desde una perspectiva incremental y no supervisada y la segunda des del enfoque del aprendizaje supervisado. El primer método que proponemos es un algoritmo de localización y mapeado topológico incremental y no supervisado basado en información viii visual. El mapa creado por dicho algoritmo es un grafo donde los puntos (zonas) del entorno se representan por nodos y las relaciones de vecindad son las aristas del grafo. Puesto que el algoritmo utiliza imágenes omnidireccionales, los nodos agrupan todas aquellas imágenes que describen la misma escena y, por tanto, comparten características visuales parecidas. Así, para la construcción de mapas topológicos con información visual, el algoritmo de mapeado topológico necesita resolver en primer lugar el problema de reconocimiento de escenas o cierre de ciclo. Nuestro algoritmo de comparación de imágenes se basa en la estructura local que forman las características visuales para establecer cuáles son los emparejamientos de características válidos. Para eliminar los falsos positivos que aparecen al emparejar las características individualmente, planteamos la utilización de grafos como estructuras que proporcionan información útil sobre las relaciones de vecindad de las características o puntos invariantes. De este modo comprobamos la consistencia no solamente de un único emparejamiento, sino la de un conjunto de características que tienen algún tipo de relación. El segundo método propuesto es un algoritmo de aprendizaje supervisado que selecciona las mejores características que describen a cada nodo y un algoritmo de localización basado en el mapa topológico aprendido. En los mapas topológicos cada nodo está compuesto por varias imágenes que describen una zona del entorno. La selección de una única imagen para definir el nodo puede no ser suficiente para describirlo en su totalidad, mientras que el uso de todas las imágenes puede consumir un tiempo prohibitivo. Nuestro método de aprendizaje del mapa topológico selecciona las mejores características (entre todas las imágenes de cada nodo) que describen a los nodos. El algoritmo de localización utiliza las características seleccionadas para determinar cuál es el nodo del mapa al que pertenece la imagen capturada. Para conseguir los mejores resultados en los dos métodos propuestos, estudiaremos diferentes algoritmos de segmentación de la imagen en regiones además de los algoritmos de extracción de características visuales más utilizados en la literatura.
37

Estudio y mejora de métodos de registro 3D: aceleración sobre unidades de procesamiento gráfico y caracterización del espacio de transformaciones iniciales

Montoyo-Bojo, Javier 13 November 2015 (has links)
Durante los últimos años ha sido creciente el uso de las unidades de procesamiento gráfico, más conocidas como GPU (Graphic Processing Unit), en aplicaciones de propósito general, dejando a un lado el objetivo para el que fueron creadas y que no era otro que el renderizado de gráficos por computador. Este crecimiento se debe en parte a la evolución que han experimentado estos dispositivos durante este tiempo y que les ha dotado de gran potencia de cálculo, consiguiendo que su uso se extienda desde ordenadores personales a grandes cluster. Este hecho unido a la proliferación de sensores RGB-D de bajo coste ha hecho que crezca el número de aplicaciones de visión que hacen uso de esta tecnología para la resolución de problemas, así como también para el desarrollo de nuevas aplicaciones. Todas estas mejoras no solamente se han realizado en la parte hardware, es decir en los dispositivos, sino también en la parte software con la aparición de nuevas herramientas de desarrollo que facilitan la programación de estos dispositivos GPU. Este nuevo paradigma se acuñó como Computación de Propósito General sobre Unidades de Proceso Gráfico (General-Purpose computation on Graphics Processing Units, GPGPU). Los dispositivos GPU se clasifican en diferentes familias, en función de las distintas características hardware que poseen. Cada nueva familia que aparece incorpora nuevas mejoras tecnológicas que le permite conseguir mejor rendimiento que las anteriores. No obstante, para sacar un rendimiento óptimo a un dispositivo GPU es necesario configurarlo correctamente antes de usarlo. Esta configuración viene determinada por los valores asignados a una serie de parámetros del dispositivo. Por tanto, muchas de las implementaciones que hoy en día hacen uso de los dispositivos GPU para el registro denso de nubes de puntos 3D, podrían ver mejorado su rendimiento con una configuración óptima de dichos parámetros, en función del dispositivo utilizado. Es por ello que, ante la falta de un estudio detallado del grado de afectación de los parámetros GPU sobre el rendimiento final de una implementación, se consideró muy conveniente la realización de este estudio. Este estudio no sólo se realizó con distintas configuraciones de parámetros GPU, sino también con diferentes arquitecturas de dispositivos GPU. El objetivo de este estudio es proporcionar una herramienta de decisión que ayude a los desarrolladores a la hora implementar aplicaciones para dispositivos GPU. Uno de los campos de investigación en los que más prolifera el uso de estas tecnologías es el campo de la robótica ya que tradicionalmente en robótica, sobre todo en la robótica móvil, se utilizaban combinaciones de sensores de distinta naturaleza con un alto coste económico, como el láser, el sónar o el sensor de contacto, para obtener datos del entorno. Más tarde, estos datos eran utilizados en aplicaciones de visión por computador con un coste computacional muy alto. Todo este coste, tanto el económico de los sensores utilizados como el coste computacional, se ha visto reducido notablemente gracias a estas nuevas tecnologías. Dentro de las aplicaciones de visión por computador más utilizadas está el registro de nubes de puntos. Este proceso es, en general, la transformación de diferentes nubes de puntos a un sistema de coordenadas conocido. Los datos pueden proceder de fotografías, de diferentes sensores, etc. Se utiliza en diferentes campos como son la visión artificial, la imagen médica, el reconocimiento de objetos y el análisis de imágenes y datos de satélites. El registro se utiliza para poder comparar o integrar los datos obtenidos en diferentes mediciones. En este trabajo se realiza un repaso del estado del arte de los métodos de registro 3D. Al mismo tiempo, se presenta un profundo estudio sobre el método de registro 3D más utilizado, Iterative Closest Point (ICP), y una de sus variantes más conocidas, Expectation-Maximization ICP (EMICP). Este estudio contempla tanto su implementación secuencial como su implementación paralela en dispositivos GPU, centrándose en cómo afectan a su rendimiento las distintas configuraciones de parámetros GPU. Como consecuencia de este estudio, también se presenta una propuesta para mejorar el aprovechamiento de la memoria de los dispositivos GPU, permitiendo el trabajo con nubes de puntos más grandes, reduciendo el problema de la limitación de memoria impuesta por el dispositivo. El funcionamiento de los métodos de registro 3D utilizados en este trabajo depende en gran medida de la inicialización del problema. En este caso, esa inicialización del problema consiste en la correcta elección de la matriz de transformación con la que se iniciará el algoritmo. Debido a que este aspecto es muy importante en este tipo de algoritmos, ya que de él depende llegar antes o no a la solución o, incluso, no llegar nunca a la solución, en este trabajo se presenta un estudio sobre el espacio de transformaciones con el objetivo de caracterizarlo y facilitar la elección de la transformación inicial a utilizar en estos algoritmos.
38

Sistema predictivo progresivo de clasificación probabilística como guía para el aprendizaje

Villagrá-Arnedo, Carlos-José 22 January 2016 (has links)
El trabajo realizado en esta tesis está basado en el desarrollo de un modelo de predicción progresiva que mejora el proceso de enseñanza-aprendizaje a través del uso de las tecnologías de la información y, en particular, de las técnicas de inteligencia artificial. Este modelo tiene como base un sistema interactivo gamificado que gestiona las prácticas de la asignatura Matemáticas I, en las que se aprende razonamiento lógico a través de un videojuego llamado PLMan, muy similar al comecocos (PacMan). Los estudiantes acceden durante el curso a este sistema y van progresando y acumulando nota en las prácticas de la asignatura mediante la resolución de mapas del videojuego PLMan. Los datos procedentes de la interacción de los estudiantes con el sistema gamificado se registran en una base de datos. A partir de estos, se extraen unas características representativas del estado de los estudiantes, consistentes en datos de uso del sistema y resultados de aprendizaje. El modelo usa la técnica de Machine Learning SVM, y obtiene como resultado la clasificación semanal de los estudiantes en forma de probabilidad de que se encuentren en cada una de tres posibles clases: rendimiento alto, normal y bajo, acumulando los datos recogidos hasta la semana en curso. Se han realizado experimentos con los datos recogidos durante el curso 2014/15, correspondientes a 336 estudiantes, obteniendo buenos resultados en cuanto a la precisión del algoritmo SVM propuesto. A continuación, se ha realizado un análisis exhaustivo de la correlación de las características empleadas con la nota final, extrayendo las que presentan una mayor relación lineal con esta última. Después, se ha realizado un nuevo experimento empleando sólo estas características seleccionadas, obteniendo unos resultados similares aunque ligeramente inferiores a los de la experiencia inicial, lo que denota que pueden existir relaciones no lineales entre las variables que la técnica SVM puede detectar. Por último, el modelo planteado presenta los resultados obtenidos de forma que proporcionen información valiosa para profesores y estudiantes. Esta información se muestra en forma de gráficas fáciles de interpretar, constituyendo un mecanismo que permite detectar estudiantes que están en riesgo de fracasar y, en cualquier caso, permite guiarlos para que obtengan el máximo rendimiento. En definitiva, se trata de un modelo de predicción del rendimiento del estudiante con dos aportaciones principales: clasificación en tres clases con valores de probabilidad y de forma progresiva, y la información visual en forma de gráficas, que representan un mecanismo de guía para la mejora del proceso de enseñanza-aprendizaje.
39

Computación como disciplina en la Educación Media Técnico Profesional crítica, fundamentos y propuesta

Augsburger Becerra, Marcel André January 2017 (has links)
Magíster en Ciencias, Mención Computación / La enseñanza de los fundamentos de la computación ha comenzado a ser incorporada como parte del currículum escolar obligatorio en todo el mundo. En Chile se está reflejando ese proceso con la incorporación reciente de las especialidades de Programación, y Conectividad y Redes en la Educación Media Técnico Profesional (EMTP). El Ministerio de Educación de Chile (MINEDUC) publicó documentos con los lineamientos de estas especialidades. Estos lineamientos muestran un sesgo funcional, dando escasa importancia a la enseñanza de los fundamentos de la computación como ciencia. Esta forma de aprendizaje impide al estudiante adaptarse a nuevos escenarios y continuar perfeccionándose. En este contexto, esta tesis aborda el estudio y análisis de cómo se está abordando en Chile la enseñanza de la especialidad de Programación en la EMTP en perspectiva comparativa con la experiencia internacional. La metodología contempló el levantamiento del estado del arte nacional e internacional de la enseñanza de la disciplina de computación en la educación, particularmente en la EMTP y en sus niveles educativos equivalentes internacionales; el delineamiento de un marco teórico que argumenta la computación en la EMTP como disciplina científica y no sólo como herramienta técnica; y el desarrollo de una propuesta general de plan y programa para formación de alumnos y profesores de EMTP en el área. Se desprende de esta investigación que hay un gran déficit de personas con habilidades computacionales, particularmente en el área de programación; que las habilidades técnicas que se están requiriendo en el área de programación no están en los programas educativos para la especialidad de Programación en la EMTP; y que la enseñanza de los fundamentos de la computación como ciencia ha comenzado a ser incorporada a nivel mundial. La principal conclusión es que en este contexto es muy relevante reformar los programas de educación para lograr formar buenos programadores, y darles una base para que puedan seguir desarrollándose. Se proponen y desarrollan sugerencias en metodologías de enseñanza, objetivos de aprendizaje alternativos, herramientas y contenidos, las que podrían ser incorporadas de acuerdo a las realidades locales de infraestructura, profesorado y alumnado.
40

Visual Vertical profiling: Evaluar la performance y optimizar capas arquitectónicas

Sanfurgo Bauer, Cristóbal Felipe January 2015 (has links)
Magíster en Tecnologías de la Información / Un problema recurrente en un sistema es la degradación del rendimiento a través del tiempo, las variaciones suelen ser en un principio casi imperceptibles hasta que llega un punto de inflexión donde el aumento de los tiempos de respuesta se hace cada vez mayor. En este punto la identificación y corrección de las desviaciones en el comportamiento esperado del sistema, se vuelve crítico ya que dado el comportamiento exponencial en el aumento de los tiempos de respuesta, nos pone contra el tiempo para evitar el colapso del sistema. Lo anterior pone en riesgo la continuidad operacional de la organización, la posible disrupción del servicio puede traer consecuencias económicas para la compañía y nuestros clientes, dada esta situación se hace crítico corregir las desviaciones de manera oportuna, rápida y a un bajo costo, sin embargo, no contamos con una forma de identificar que piezas de software son las responsables de los problemas de performance detectados. Se propone el concepto de Vertical Profiling, la cual es una técnica y metodología que fue definida en la Universidad de Lugano, la cual utilizaremos para generar una representación del comportamiento de una aplicación basado en un set de métricas, donde cada métrica se representa como una serie de tiempo, esto nos permite entender el comportamiento a través del tiempo en cada capa del sistema, independiente de su nivel de abstracción y/o tipo de componente. Esto implica 2 etapas, la primera que consiste en un proceso de recolección de datos a través de todas las capas que componen el software y la segunda etapa que consiste en poder hacer un análisis que considere la variación en el tiempo del comportamiento del sistema. Para poder realizar el análisis del comportamiento, se propone una visualización gráfica, multidimensional, de fácil lectura y oportuna, con el fin de poder identificar los cuellos de botella. Para este estudio en particular, se utilizará la orientación a aspectos para la captura de datos, y el análisis se realizará utilizando Moose, la cual es una plataforma de análisis de datos, en este caso lo emplearemos para el análisis de Software, y para la visualización utilizaremos Mondrian que nos permite crear el meta-modelo y así realizar un análisis visual del rendimiento del aplicativo. Con la implementación de nuestro Vertical Profiling, se redujeron considerable los tiempos de respuesta de nuestra aplicación de forma rápida, algo que con un profiler tradicional no fue posible.

Page generated in 0.0675 seconds