• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 338
  • 309
  • 101
  • 2
  • 2
  • 1
  • Tagged with
  • 753
  • 753
  • 213
  • 142
  • 137
  • 114
  • 113
  • 113
  • 113
  • 113
  • 111
  • 99
  • 98
  • 96
  • 84
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Robotics semantic localization using deep learning techniques

Cruz, Edmanuel 20 March 2020 (has links)
The tremendous technological advance experienced in recent years has allowed the development and implementation of algorithms capable of performing different tasks that help humans in their daily lives. Scene recognition is one of the fields most benefited by these advances. Scene recognition gives different systems the ability to define a context for the identification or recognition of objects or places. In this same line of research, semantic localization allows a robot to identify a place semantically. Semantic classification is currently an exciting topic and it is the main goal of a large number of works. Within this context, it is a challenge for a system or for a mobile robot to identify semantically an environment either because the environment is visually different or has been gradually modified. Changing environments are challenging scenarios because, in real-world applications, the system must be able to adapt to these environments. This research focuses on recent techniques for categorizing places that take advantage of DL to produce a semantic definition for a zone. As a contribution to the solution of this problem, in this work, a method capable of updating a previously trained model is designed. This method was used as a module of an agenda system to help people with cognitive problems in their daily tasks. An augmented reality mobile phone application was designed which uses DL techniques to locate a customer’s location and provide useful information, thus improving their shopping experience. These solutions will be described and explained in detail throughout the following document.
202

Inteligencia artificial aplicada en la música: una revisión sistemática de la literatura

Lujan Piscoya, Jesus Fernando January 2020 (has links)
Hoy en día, la inteligencia artificial es más común de lo que pensamos, cada vez son más las áreas donde se aplica la misma y la música no es la excepción. A raíz de este interés surgen investigaciones, las cuales proponen múltiples maneras de poder emplear los principios de la inteligencia artificial en la música. Por lo cual, la presente revisión sistemática de la literatura pretende reunir dichas investigaciones, en base a una serie de preguntas. El proceso de búsqueda se llevó a cabo en las bases de datos ProQuest Central e IEEE Xplore; la cantidad de trabajos se acotó a partir de filtros, los mismos que recuperaron los resultados automáticamente, además se hizo uso de criterios de inclusión, exclusión y calidad, los cuales demandaron un análisis para su aplicación y posterior selección de documentos. Luego de ello, se pudo contestar las preguntas de investigación planteadas. Las respuestas fueron muy interesantes, ya que, las aplicaciones de la inteligencia artificial en la música son diversas, llegándose a identificar un total de 11. Asimismo, el Machine learning presentó una mayor incidencia en las investigaciones. Finalmente, se llega a la conclusión que, a pesar, de que la música no es el área más popular donde se extrapola la inteligencia artificial, existen investigadores trabajando en proyectos que sirvan de aporte al mundo musical.
203

Efectos de la inteligencia artificial y la automatización empresarial: una revisión sistemática de literatura

Ruiz Valdez, Raibran Anthony January 2020 (has links)
La inteligencia artificial aplicada a la automatización de procesos en las empresas busca generar beneficios como: Reducción de los porcentajes de error, reducción de costos de operación, aumentar la eficiencia de los procesos empresariales y la mejora en la productividad, lo que se ve reflejado finalmente en un mejor servicio al cliente. Sin embrago, desde la perspectiva del trabajador no constituye un beneficio, sino una amenaza para la continuidad laboral en las empresas. El objetivo del artículo fue la revisión sistemática de la literatura sobre el impacto de la inteligencia artificial tanto en los procesos de las empresas como en la situación laborar del empleado en los últimos 10 años, empleando la metodología propuesta por Kitchenham y como fuente de la información la base de datos ProQuest. Los resultados del estudio destacan que la inteligencia artificial aplicada a la automatización de los procesos empresariales tiene efectos tanto en la productividad de la empresa, como a nivel de empleado en su susceptibilidad a la automatización, en su salario y la restructuración de los mercados laborales.
204

Inteligencia artificial aplicada en la odontología: revisión sistemática de la literatura

Cieza Bances, Paola Elizabeth January 2020 (has links)
La presente revisión sistemática de la literatura tiene como objetivo recopilar los principales trabajos de investigación que hayan aplicado la inteligencia artificial en la odontología. Para cumplir con este objetivo, se realizó una búsqueda en tres bases de datos: ProQuest Central, IEEE Xplore y ScienceDirect, dónde se utilizó la cadena de búsqueda “Inteligencia artificial en la odontología” limitando los resultados a las publicaciones hechas desde el año 2017 al año 2020. Posteriormente, se aplicaron criterios de inclusión y exclusión, para finalmente evaluar la calidad de forma manual. Se inició con 180 artículos, de los cuales fueron seleccionados 15, siendo estos, las fuentes de información primaria. Los documentos se agruparon por: países, logrando de esta manera saber cuál de ellos mostraba un mayor interés en la aplicación de la inteligencia artificial en la odontología; por año, y así dar a conocer en cual hubo más productividad de investigaciones y por revistas, con el propósito de notar en cuál se publica más sobre la inteligencia artificial aplicada en la odontología. Finalmente, se concluyó que los países de Estados Unidos y Reino Unido son los que tienen mayor interés en estos estudios, con mayor acogida en el año 2020. Además, la revista IEEE Access fue la que obtuvo el mayor porcentaje de publicaciones con un 27%.
205

Contributions to 3D data processing and social robotics

Escalona, Félix 30 September 2021 (has links)
In this thesis, a study of artificial intelligence applied to 3D data and social robotics is carried out. The first part of the present document is dedicated to 3D object recognition. Object recognition consists on the automatic detection and categorisation of the objects that appear in a scene. This capability is an important need for social robots, as it allows them to understand and interact with their environment. Image-based methods have been largely studied with great results, but they only rely on visual features and can confuse different objects with similar appearances (picture with the object depicted in it), so 3D data can help to improve these systems using topological features. For this part, we present different novel techniques that use pure 3D data. The second part of the thesis is about the mapping of the environment. Mapping of the environment consists on constructing a map that can be used by a robot to locate itself. This capability enables them to perform a more elaborated navigation strategy, which is tremendously usable by a social robot to interact with the different rooms of a house and its objects. In this section, we will explore 2D and 3D maps and their refinement with object recognition. Finally, the third part of this work is about social robotics. Social robotics is focused on serving people in a caring interaction rather than to perform a mechanical task. Previous sections are related to two main capabilities of a social robot, and this final section contains a survey about this kind of robots and other projects that explore other aspects of them.
206

Un Algoritmo GRASP para resolver el problema de la programación de tareas dependientes en máquinas diferentes (task scheduling)

Tupia Anticona, Manuel Francisco January 2005 (has links)
La planificación de las operaciones involucradas en un proyecto de desarrollo de software ha sido un problema a superar, desde el auge del uso de metodologías que guían dicho proceso. Tanto la eficiencia como la sofisticación de los algoritmos que buscan resolver los estos ordenamientos, han ido evolucionando durante la segunda mitad del siglo XX. Al mencionado problema de ordenar tareas con dependencias se le conoce en la algorítmica como programación de tareas o task scheduling y es definido de la siguiente forma: dado un conjunto de tareas a ser programadas en determinado grupo de máquinas (o recursos hombre-máquina como podrían ser programadores, analistas, etc.), encontrar un orden adecuado de ejecución. Es un problema de complejidad NP-difícil por lo que se justifica el uso de métodos heurísticos para obtener soluciones aproximadas. El presente trabajo de tesis presenta una meta heurística GRASP para resolver la variante en donde las tareas son dependientes y los organismos ejecutores son diferentes entre sí: con esto se podrían planificar las tareas de las etapas iniciales de un proceso particular de desarrollo de software. En la tesis, se incide en la metodología RUP, y en particular en sus disciplinas de modelamiento de negocios (business modeling) y captación de requerimientos (requirement). Se han desarrollado tanto un algoritmo voraz como una meta heurística GRASP con dos parámetros de relajación, planteamiento novedoso pues hasta el momento no se había intentado resolver el problema de esta forma. Igualmente se muestra un modelo matemático para la variante específica del problema a tratar. Para demostrar la corrección de los algoritmos, se desarrolló un prototipo que los implementa obteniéndose como resultado que el algoritmo GRASP mejora casi en un 6% los resultados del algoritmo voraz, para instancias de hasta 12500 variables involucradas. Palabras clave: Programación de tareas, algoritmos GRASP, Desarrollo de Software, planificación de recursos en proyectos de desarrollo software, RUP. / --- Operation’s planning for Software Development has been a complicated by-solve problem experienced since the golden age of the use methodologies whose rule those process. In which it is used, as well as in the efficiency and sophistication of the algorithms that try to solve the problems that appear in a software project, since its origin in the middle of the 20th century. The previously mentioned problem is known within algorithmic as task scheduling and it is defined as follows: given a group of tasks (operations) to be scheduled within a group of machines (or human resources, or human-machine resources), find an appropriate execution order. It is a NP-difficult complexity problem, so it justifies the usage of heuristic methods to obtain approximate solutions. This thesis presents a GRASP heuristic goal to solve the variant in which tasks are dependent and executing entities are different one from the other: now it could be possible the planning of the operation s from the inception’s RUP phase. We are remarking in particular, two disciplines of RUP methodology: business modeling and requirement. Both a greedy algorithm and a GRASP heuristic goal with two relaxation parameters have been developed. Innovative proposition because until now nobody has tried to solve the problem this way. Likewise a mathematical model for the specific variant of the problem to be considered is shown. To show efficiency of the GRASP algorithm, we developed a prototype program that executes and compares the results obtained by greedy and GRASP algorithms. The GRASP algorithm improves by 6% the results of the greedy algorithm, for instances with up to 12500 variables involved. Finally we measured the quality of these results with those of the mathematical model which would obtain the exact solution for smaller instances, taking advantage of software that solves linear programming problems: the GRASP algorithm got close to the exact result within a range of 95 to 99%, and even equaled it in some tests. Keywords: Task scheduling, GRASP algorithm, Software development, resource planning in software projects, RUP. / Tesis
207

Sistema de arquitectura multisensorial para supervisión y seguridad industrial aplicando tecnología de inteligencia artificial /

Utrilla Salazar, Dario January 2014 (has links)
La presente investigación responde al siguiente problema principal ¿Cómo formular el modelo de un sistema multisensorial para la supervisión y seguridad industrial aplicando tecnología de inteligencia artificial para las empresas de nuestro país, considerando las variables más importantes del sistema? El diseño del proyecto, fue desarrollado en una empresa de manufactura, en donde no existia un ambiente de seguridad industrial, lo cual aumentó la probabilidad en los trabajadores de sufrir riesgos y accidentes en el trabajo. El objetivo del presente proyecto fue diseñar un modelo del sistema multisensorial de seguridad industrial, para lo cual se aplicaron conceptos de redes industriales RS-485 por las múltiples ventajas que representa, así como dispositivos programables con características de inteligencia artificial y elementos sensores de diversas señales físicas. Para obtener un diagnóstico luego de un periodo de observación, y como estrategia para probar la utilidad del modelo electrónico planteado se consideró implementar en una empresa piloto, específicamente en el departamento de producción considerando las instalaciones, la maquinaria, los trabajadores. Para las evaluaciones fueron elaborados recopilación de información con el objeto de analizar las informaciones obtenidas. Se realizaron evaluaciones técnicas para determinar las zonas de riesgos de accidentalidad en la empresa piloto en mención. Se pretende que éste modelo de seguridad industrial sea desarrollado en diversas empresas, como recurso para reducir el índice de accidentalidad laboral así como mejorar el factor costo-beneficio. / Tesis
208

Gestión de infraestructuras virtuales configuradas dinámicamente

Caballer Fernández, Miguel 12 May 2014 (has links)
En los últimos años y con el auge las tecnologías de virtualización y de las infraestructuras cloud, se abre un nuevo abanico de posibilidades para acceso de recursos de cómputo para el ámbito científico. Estas tecnologías permiten "acceso ubicuo, adaptado y bajo demanda en red a un conjunto compartido de recursos de computación". Estas tecnologías permiten que el acceso a grandes cantidades de recursos virtualizados sea mucho más sencillo para el científico. Si bien la adaptación de aplicaciones a un entorno distribuido sigue requiriendo de una experiencia importante, es posible utilizar de forma eficiente software adaptado a sistemas de colas e incluso computación paralela de memoria distribuida. A pesar de todo, en la actualidad existen diferentes proveedores cloud, diferente software para el despliegue de plataformas cloud, diferentes gestores de máquinas virtuales, y otros componentes que complican el acceso de forma sencilla y homogénea. Por tanto el objetivo principal de esta tesis es la de proporcionar a la comunidad científica el acceso a las tecnologías de virtualización y cloud de manera sencilla. De tal manera que sea muy sencillo el despliegue y gestión de sus infraestructuras virtuales, para que los investigadores solo tengan que centrarse en las tareas propias de su aplicación. Una plataforma Cloud para investigación debe contemplar todos los aspectos necesarios para creación y gestión de las infraestructuras, partiendo de que el investigador debe poder expresar sus requerimientos, tanto hardware como software, sobre los recursos que va a necesitar para la ejecución de su aplicación. En base a los requerimientos definidos por el usuario el sistema debe crear la infraestructura del usuario, teniendo en cuenta aspectos como la selección de despliegues cloud, de imágenes de máquinas virtuales, procesos de contextualización, etc. El sistema también debe permitir que el usuario modifique la cantidad de recursos (elasticidad horizontal) así como las características de los mismos (elasticidad vertical). Por último la plataforma debe proporcionar interfaces tanto a nivel de usuario, mediante aplicaciones de comandos o interfaces gráficas, como a nivel programático para que capas de mayor nivel puedan hacer uso de la funcionalidad mediante un API. La tesis pretende tanto avanzar en las especificaciones y arquitecturas software como desarrollar y testear un prototipo. / Caballer Fernández, M. (2014). Gestión de infraestructuras virtuales configuradas dinámicamente [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/37376 / TESIS / Premios Extraordinarios de tesis doctorales
209

Image-Based Biomarker Localization from Regression Networks

Cano Espinosa, Carlos 26 September 2019 (has links)
La inteligencia artificial, y en concreto la desarrollada mediante aprendizaje profundo, se ha instaurado firmemente en nuestra sociedad en la última década. Los avances tecnológicos han hecho posible su uso en todos los ámbitos, lo que ha impulsado la investigación y el desarrollo de nuevos métodos que superan enormemente a lo que hasta hace poco era lo que se consideraba más avanzado. Las técnicas tradicionales han sido sustituidas por redes neuronales que permiten obtener resultados de mejor calidad de una forma mucho más rápida. Esto ha sido posible principalmente por dos factores: Primero, el avance en la tecnología de procesadores gráficos, que permiten una alta paralelización, ha permitido el desarrollo de técnicas que hasta la fecha eran completamente inviables debido a su coste temporal. Segundo, la proliferación de la ``cultura de los datos'' en la que estos son tratados como un recurso imprescindible, sumado al abaratamiento de la capacidad de almacenamiento digital, ha propiciado la aparición de grandes bases de datos de todo tipo y para todo propósito, creciendo exponencialmente con el tiempo y con una calidad cada vez superior debido a que se diseñan con el propósito específico de servir como base a estos tipos de sistemas inteligentes. Uno de los ámbitos que más se han beneficiado por estas técnicas es el entorno médico. La era de la digitalización ha hecho posible la recopilación de datos con información de pacientes, enfermedades, tratamientos, etc. No obstante, algo que diferencia al entorno médico de muchos otros ámbitos es que para poder atender correctamente a un paciente y valorar su estado es necesario la opinión de un experto, lo que provoca cierta inseguridad en el uso de los sistemas inteligentes, ya que estos hasta la fecha tienen una gran falta de explicabilidad. Es decir, pueden por ejemplo predecir, categorizar o localizar una enfermedad, pero no es fácilmente interpretable el cómo ha llegado a esa conclusión, cosa que es imprescindible conocer antes de tomar una decisión que puede ser crítica para el paciente. Además, este tipo de técnicas aplicadas al entorno médico tienen un problema añadido. Puesto que las bases de datos suelen provenir de diferentes instituciones, con una diversidad importante en cuanto a los modelos de máquinas empleadas para la obtención de estos datos, cada una con unas propiedades y características diferentes. Por ejemplo, suele existir una diferencia importante en los resultados al aplicar un método que se entrenó con datos provenientes de un hospital, en datos de otro diferente. Para hacer uso de estas bases de datos se requiere que sean lo suficientemente grandes como para poder generalizar de manera adecuada este hecho. Por otro lado, nos encontramos con que las bases de datos suelen estar etiquetadas por varios especialistas, por lo que se introduce cierto grado de diversidad subjetiva e incluso algunos errores que han de tenerse en cuenta. No obstante, en los últimos años se está haciendo un esfuerzo importante en solventar todos estos problemas. Concretamente en el campo de la interpretabilidad, aunque aún es un tema que está en sus fases más tempranas, surgen muchas propuestas que lo abordan desde diferentes perspectivas. Con ello en mente, esta investigación hace su aporte centrándose en redes neuronales para la regresión de biomarcadores, proponiendo un método capaz de indicar la localización de aquellas estructuras, órganos, tejidos o fluidos a partir de los cuales se infieren. Para ello, únicamente se dispone del valor agregado final de dichos biomarcadores y se pretende obtener una localización que explique dicho valor. En esta tesis se analizarán las redes de regresión directa, proponiendo una arquitectura para el cálculo de la Enfermedad de las Arterias Coronarias (CAD), haciendo un estudio de los diferentes elementos que la compone, incluyendo la función de coste empleada y cómo afecta al resultado dependiendo de las propiedades de los datos utilizados para su entrenamiento. Los resultados se validan en otros dos problemas de regresión, Área del Musculo Pectoral (PMA) y Área de Grasa Subcutánea (SFA). Como resultado de esta tesis podemos concluir que la regresión directa de los biomarcadores es una tarea totalmente viable, obteniendo altos índices de correlación entre los resultados calculados por este tipo de redes y la referencia real obtenida de la evaluación de un especialista en el campo al cual se aplica. En segundo lugar, la percepción de este tipo de sistemas en el entorno médico puede mejorarse si, junto con el resultado de la regresión, se proporciona una localización que guíe al especialista para inferir de dónde proviene este valor, centrando su atención en una región específica de la imagen. En esta tesis se profundiza en las redes de regresión de biomarcadores y permitiéndoles localizar las estructuras utilizadas para inferir el valor del biomarcador.
210

Caracterización formal y análisis empírico de mecanismos incrementales de búsqueda basados en contexto

Lorenzetti, Carlos M. 18 March 2011 (has links)
LaWeb se ha vuelto un recurso potencialmente infinito de información, transformándose además en una herramienta imprescindible para muchas tareas de la vida diaria. Esto provocó un aumento en la cantidad de información existente en el contexto de los usuarios, que no es tenida en cuenta por los sistemas de recuperación de información actuales. En esta tesis se propone una técnica semisupervisada de recupe-ración de información que ayuda al usuario a recuperar infor-mación relevante para su contexto actual. El objetivo de la misma es contrarrestar la diferencia de vocabulario que pudiera existir entre el conocimiento que tiene el usuario sobre un tema y los documentos relevantes que se encuen-tran en la Web. Esta tesis presenta un método de aprendizaje de nuevos términos asociados a un contexto temático, a través de la identificación de términos que sean buenos descriptores y términos que sean buenos discriminadores del tópico del contexto actual del usuario. Para la evaluación del método propuesto se desarrolló un marco teórico de eva-luación de mecanismos de búsqueda y se implementó una plataforma de evaluación, que además permitió comparar las técnicas desarrolladas en esta tesis con otras técnicas existentes en la literatura. La evidencia experimental muestra que las mejoras alcanzadas son significativas respecto de otros trabajos publicados. Dentro de este marco se desarrolla-ron asimismo nuevas métricas de evaluación que favorecen la exploración de material novedoso y que incorporan una medida de relación semántica entre documentos. Los algorit-mos desarrollados a la largo de esta tesis evolucionan con-sultas de alta calidad, permitiendo recuperar recursos relevan-tes al contexto del usuario, e impactan positivamente en la forma en la que éste interactúa con los recursos que tiene disponibles. / The Web has become a potentially infinite information resour-ce, turning into an essential tool for many daily activities. This resulted in an increase in the amount of information available in users contexts that is not taken into account by current information retrieval systems. This thesis proposes a semisupervised information retrieval technique that helps users to recover context relevant information. The objective of the proposed technique is to reduce the vocabulary gap existing between the knowledge a user has about a specific topic and the relevant documents available in the Web. This thesis presents a method for learning novel terms associated with a thematic context. This is achieved by identifying those terms that are good descriptors and good discriminators of the users current thematic context. In order to evaluate the proposed method, a theoretical framework for the evalua-tion of search mechanisms was developed. This served as a guide for the implementation of an evaluation framework that allowed to compare the techniques proposed in this thesis with other techniques existing in the literature. The experimental evidence indicates that the methods proposed in this thesis present significant improvements over previously published techniques. In addition the evaluation framework was equipped with novel evaluation metrics that favor the exploration of novel material and incorporates a semantic relationship metric between documents. The algorithms developed in this thesis evolve high quality queries, which have the capability of retrieving results that are relevant to the user context. These results have a positive impact on the way users interact with available resources.

Page generated in 0.0723 seconds