• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 82
  • 39
  • Tagged with
  • 121
  • 121
  • 60
  • 57
  • 50
  • 47
  • 47
  • 47
  • 47
  • 47
  • 47
  • 40
  • 33
  • 28
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Desarrollo de un software para la gestión de proyectos de desarrollo PM4R que permita automatizar la etapa de planificación para estimar tiempos a través de algoritmos de aprendizaje automático

Espinoza Muñoz, Jorge Enrique 20 June 2019 (has links)
La gestión de proyectos es un trabajo arduo que demanda de experiencia en el sector para la correcta definición de actividades y estimación de costos y tiempos de los proyectos. Es por ello que PM4R o gestión para resultados propone 7 etapas integradas. En este contexto, esta metodología es potente al permitir tener una ruta en cómo realizar una buena gestión, pero la habilidad de estimación aún queda definida por los gestores de proyectos, los que en base a su experiencia definen los tiempos de los proyectos y en consecuencia los costos. ¿Qué pasaría si este proceso estuviera automatizado? Ante esta pregunta, en la presente tesis se desarrolla un software para esta metodología. Sin embargo, como componente adicional se integran algoritmos de Machine Learning para permitir una estimación de la duración de los proyectos (tiempos) haciendo uso de la data histórica, para lo cual se procede a generar data en base a un conjunto de datos público del Banco Mundial. Además de que el diseño del software se basa en los lineamientos de Nielsen, lo que permitió la publicación de un artículo en el rubro de Interacción Humano-Computador. En base a lo anterior, los resultados muestran una herramienta potente que ha integrado la metodología en su totalidad (7 pasos) y además los resultados de la integración con Machine Learning son prometedores ya que tanto la clasificación como la regresión presentan valores de error acorde a la revisión del estado del arte y quedan pendientes trabajos como el tuneo de los algoritmos para la obtención de mejores resultados. Además de que a partir de la evaluación del incremento de los datos se observan resultados en los que, si bien es cierto se incrementa la precisión, también se incluye ruido o desbalanceo. Es un trade-off que el gestor de proyectos puede utilizar a su favor, ya que el software en cuestión es una herramienta de apoyo para los gestores, de tal manera que estos puedan tomar mejores decisiones en la etapa de planificación de nuevos proyectos.
62

Desarrollo de un sistema inteligente web basado en redes neuronales artificiales para la predicción del riesgo de mortalidad del COVID-19

Mondragon Silva, Sergio Alexander January 2023 (has links)
El presente trabajo de investigación surge ante el problema mundial de la pandemia del COVID-19, de tal manera, esta investigación tiene como objetivo general el implementar una solución basada en redes neuronales artificiales para predecir el riesgo de mortalidad de la COVID-19 en pacientes infectados, utilizando datos de una clínica de la ciudad de Chiclayo. Así, se decidió utilizar la metodología Scrum para la gestión del proyecto de investigación y para el modelado de la red neuronal artificial (RNA) se siguió la metodología de desarrollo utilizada en la investigación de I. Kaastra y M. Boyd incluyendo ciertas mejoras de la metodología utilizada en la investigación de Abdulaal A et al. En consecuencia, este proyecto generó una herramienta médica la cual es accesible a través de cualquier navegador web y cuenta con dos RNA implementadas las cuales tienen la capacidad de aprender de nuevos registros clínicos ingresados. La mejor RNA implementada tiene una exactitud del 82.72%, AUROC de 88.48%, desviación estándar de 0.0848 y un F1Score de 83.72%; además, este sistema web fue validado para el diagnóstico con las siguientes métricas médicas: 85.71% de sensibilidad. 79.48% de especificidad y un AUROC del 88.48%. Así pues, del desarrollo de esta herramienta se concluye que para identificar la correcta arquitectura e hiperparámetros se deben generar diferentes iteraciones de entrenamiento de la RNA; asimismo, en cada iteración se debe utilizar diferentes combinaciones de arquitectura e hiperparámetros calculando las métricas de exactitud, F-measure, AUROC y desviación estándar. Finalmente, se podrá elegir a la combinación con las mejores métricas.
63

Implementación de un sistema de información para la gestión del proceso de reclutamiento y selección de personal orientado a la asignación de puestos en pymes

Alvarez Rojas, Dominick Patricia 21 September 2023 (has links)
En la actualidad, las empresas buscan obtener el personal más idóneo para los puestos de trabajo a través del proceso de reclutamiento y selección. Esto debido a que una elección adecuada tiene un impacto positivo en las organizaciones para la consecución de sus objetivos. Además, en muchas ocasiones, se cuestionan si el personal ya existente dentro de la organización también puede calificar como potencial candidato. Ante ello, surge una necesidad por llevar el proceso de reclutamiento y selección de la manera más efectiva y eficiente posible; sin embargo, en la mayoría de medianas y pequeñas empresas carecen de herramientas tecnológicas que les permita hacer el uso adecuado de la información. Es por ello que, actualmente, el proceso de reclutamiento y selección en la mayoría de las pymes se gestiona con actividades manuales o con herramientas que almacenan la información del personal, pero no permiten estructurarla y obtener información necesaria y accesible para la organización. Esto se da porque la mayoría de herramientas actuales son utilizadas como un repositorio para los documentos e información del trabajador sin aprovecharla para la toma de decisiones dentro del proceso de reclutamiento y selección. Así mismo, se evidencia que en la mayoría de pymes no existen lineamientos formales para llevar a cabo el proceso de reclutamiento y selección, es por ello que procedimientos como la selección del personal se ejecutan en base a un conocimiento tácito. Como consecuencia, la data no se utiliza en su totalidad para obtener información enriquecedora para este proceso, además que genera un sentimiento de desconfianza por parte de los postulantes internos o externos sobre la objetividad de las actividades llevadas a cabo en el proceso. Es por todo lo expuesto que se evidencian los problemas y necesidades que surgen en el proceso reclutamiento y selección en las pequeñas y medianas empresas, por lo que se presenta en el presente documento el proyecto de tesis acerca la de implementación de un sistema de información para la gestión del proceso de reclutamiento y selección en pymes, la cual sigue lineamientos para el diseño centrado en el usuario así como la automatización de la selección personal implementando un algoritmo de machine learning basado en la experiencia, cursos y habilidades del personal o potencial candidato.
64

Arquitectura de IoT para la implementación de servicios cognitivos

Valero López, Clara Isabel 12 February 2024 (has links)
[ES] Internet of Things (IoT) se ha convertido en una realidad omnipresente que está transformando la forma en la que interactuamos con el entorno y cómo los dispositivos y objetos se conectan, comunican e intercambian información, abriendo un abanico de posibilidades y oportunidades sin precedentes. Sus aplicaciones son casi infinitas y gracias a su gran potencial, hoy en día está presente en todo tipo de ámbitos. Artificial Internet of Things (AIoT) se considera la siguiente etapa de Internet. Se trata de un nuevo paradigma de red que combina IoT con la inteligencia artificial (IA) dando lugar a sistemas altamente inteligentes y autónomos, capaces de comprender, razonar y aprender de manera similar a los seres humanos. Sin embargo, a pesar de su potencial, uno de los desafíos clave que enfrenta AIoT desde sus inicios es la falta de una arquitectura de referencia estandarizada que proporcione un conjunto de funcionalidades básicas, estructuras de información y mecanismos que sirvan de modelo para desarrollar e implementar estos sistemas. Esta falta de estandarización está dando lugar a una serie de problemas y desafíos en su implementación y adopción generalizada. En primer lugar, la falta de estándares comunes dificulta la interoperabilidad entre diferentes dispositivos y sistemas AIoT. Además, la ausencia de una arquitectura de referencia complica el desarrollo coherente y eficiente. Por último, se observan dificultades para escalar los sistemas. Sin una estructura común y estándares interoperables, resulta más complicado integrar y administrar grandes cantidades de dispositivos y datos. En esta tesis se presenta una arquitectura de referencia AIoT multidominio. El diseño de la arquitectura considera las recomendaciones de la ITU propuestas en UIT-T Y.2066. Además, la arquitectura propuesta se alinea a su vez con otras dos arquitecturas de referencia: IIRA y RAMI 4.0. Como consecuencia, la arquitectura presenta una naturaleza versátil y adaptable, lo que le permite ajustarse a las necesidades y requerimientos de diferentes contextos y dominios. La arquitectura presentada ha sido implementada y validada en cuatro casos de uso desarrollados en el contexto de cuatro proyectos de investigación. En los proyectos ACTIVAGE - H2020 LSP y DIATOMIC Open Call nº2 - H2020 la arquitectura facilita la implementación de servicios cognitivos de asistencia para personas mayores. En el proyecto COSIBAS - Programa Internacional ITEA3 incorpora a un sistema IoT heredado capacidades cognitivas para mejorar la gestión del tráfico marino. Por último, en OPTIMAI - H2020 se incorporan capacidades cognitivas a una línea de producción de antenas para detectar anomalías. / [CA] Internet of Things (IoT) s'ha convertit en una realitat omnipresent que està transformant la manera com interactuem amb l'entorn i com els dispositius i objectes es connecten, comuniquen i intercanvien informació, obrint un ventall de possibilitats i oportunitats sense precedents. Les seves aplicacions són quasi infinites i gràcies al seu gran potencial, avui dia és present en tot tipus d'àmbits. Artificial Internet of Things (AIoT) es considera la següent etapa de la Internet. Es tracta d'un nou paradigma de xarxa que combina IoT amb la intel·ligència artificial (IA) donant lloc a sistemes altament intel·ligents i autònoms, capaços de comprendre, raonar i aprendre de manera similar a els éssers humans. Tot i això, malgrat el seu potencial, un dels desafiaments clau que enfronta AIoT des dels seus inicis és la manca d'una arquitectura de referència estandarditzada que proporcioni un conjunt de funcionalitats bàsiques, estructures d'informació i mecanismes que serveixin de model per desenvolupar implementar aquests sistemes. Aquesta manca d'estandardització dona lloc a una sèrie de problemes i desafiaments en la seva implementació i adopció generalitzada. En primer lloc, la manca d'estàndards comuns dificulta la interoperabilitat entre diferents dispositius i sistemes AIoT. A més a més, l'absència d'una arquitectura de referència complica el desenvolupament coherent i eficient. Per acabar, s'observen dificultats per escalar els sistemes. Sense una estructura comuna i estàndards interoperables, és més complicat integrar i administrar grans quantitats de dispositius i dades. En aquesta tesi es presenta una arquitectura de referència AIoT multidomini. El disseny de l'arquitectura considera les recomanacions de la ITU proposades a UIT-T Y.2066. A més, l'arquitectura proposada s'alinea alhora amb dues arquitectures de referència més: IIRA i RAMI 4.0. Com a conseqüència, l'arquitectura presenta una naturalesa versàtil i adaptable, cosa que permet ajustar-se a les necessitats i requeriments de diferents contextos i dominis de la IoT. L'arquitectura presentada ha estat implementada i validada en quatre casos d'ús desenvolupats en el context de quatre projectes de recerca. Als projectes ACTIVAGE - H2020 LSP i DIATOMIC Open Call nº2 - H2020 l'arquitectura facilita la implementació de serveis cognitius d'assistència per a gent gran. Al projecte COSIBAS - Programa Internacional ITEA3 incorpora a un sistema IoT heretat capacitats cognitives per millorar la gestió del trànsit marí. Per acabar, a OPTIMAI - H2020 s'incorporen capacitats cognitives a una línia de producció d'antenes per detectar anomalies. / [EN] Internet of Things (IoT) has become an omnipresent reality that is transforming the way we interact with the environment and how devices and objects connect, communicate, and exchange information, opening a range of unprecedented possibilities and opportunities. Its applications are almost infinite, and thanks to its tremendous potential, it is now present in all kinds of fields. Artificial Internet of Things (AIoT) is considered the next stage of the Internet. It is a new network paradigm that combines IoT with Artificial Intelligence (AI), resulting in highly intelligent and autonomous systems capable of understanding, reasoning, and learning similar to humans. However, despite its potential, one of the key challenges that AIoT has faced since its inception is the lack of a standardized reference architecture that provides a set of basic functionalities, information structures, and mechanisms to serve as a model for developing and implementing these systems. This lack of standardization has led to a series of problems and challenges in its implementation and widespread adoption. Firstly, the lack of common standards hinders interoperability between different AIoT devices and systems. Additionally, the absence of a reference architecture complicates coherent and efficient development. Lastly, scaling the systems poses difficulties. Without a common structure and interoperable standards, integrating and managing large amounts of devices and data becomes more complex. This thesis presents a multidomain AIoT reference architecture that incorporates recommendations from the ITU, as proposed in UIT-T Y.2066. Furthermore, the proposed architecture aligns with two other reference architectures: IIRA and RAMI 4.0. As a result, the architecture exhibits versatility and adaptability, allowing it to meet the needs and requirements of different IoT contexts and domains. The presented architecture has been implemented and validated in four use cases developed in the context of four research projects. In the ACTIVAGE - H2020 LSP and DIATOMIC Open Call nº2 - H2020 projects, the architecture facilitates the implementation of cognitive assistance services for the elderly. In the COSIBAS - International ITEA3 Program, it incorporates cognitive capabilities into a legacy IoT system to improve maritime traffic management. Finally, in OPTIMAI - H2020, cognitive capabilities are integrated into an antenna production line to detect anomalies. / La arquitectura presentada en esta tesis ha sido implementada y validada en cuatro casos de uso desarrollados en el contexto de cuatro proyectos de investigación. En los proyectos ACTIVAGE - H2020 LSP y DIATOMIC Open Call nº2 - H2020 la arquitectura facilita la implementación de servicios cognitivos de asistencia para personas mayores. En el proyecto COSIBAS - Programa Internacional ITEA3 incorpora a un sistema IoT heredado capacidades cognitivas para mejorar la gestión del tráfico marino. Por último, en OPTIMAI - H2020 se incorporan capacidades cognitivas a una línea de producción de antenas para detectar anomalías. / Valero López, CI. (2024). Arquitectura de IoT para la implementación de servicios cognitivos [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/202613
65

Identificación de múltiples intenciones y sus dependencias subsumidas en múltiples utterances para el desarrollo de Chatbots

Pariasca Trevejo, Emanuel Eduardo Franco 29 March 2023 (has links)
Los chatbots son sistemas de procesamiento de lenguaje natural con los que se puede interactuar mediante una interfaz de texto o voz, y han sido adoptados en muchas industrias para responder las preguntas y solicitudes de los usuarios a través de interfaces de chat. Por ende, los chatbots tienen un valor comercial como asistentes virtuales. Tanto es así que se está trabajando en que los chatbots puedan comunicarse con los usuarios de manera similar a la comunicación que hay entre dos humanos; en otras palabras, un usuario debe experimentar la sensación de comunicarse con una persona. A su vez, dado que los chatbots eliminan los factores humanos y están disponibles las 24 horas del día, hay un incremento en la demanda de las capacidades de inteligencia artificial para interactuar con los clientes. En este aspecto, la sensación de comunicarse con una persona puede ser lograda mediante la inclusión de técnicas de comprensión del lenguaje natural, procesamiento del lenguaje natural, generación del lenguaje natural y aprendizaje automático. De este modo, los chatbots son capaces de interpretar una o varias intenciones comunicativas en cada “utterance” de un usuario, siendo que un “utterance” es todo lo que el usuario o chatbot mencionan mientras es su turno de hablar o escribir. Así mismo, los chatbots pueden asociar una o varias intenciones comunicativas a un identificador de “utterances” que contiene varios “utterances”. Por ende, a partir del “utterance” de un usuario, un chatbot es capaz de interpretar una o varias intenciones comunicativas asociadas a un identificador de “utterances”, a través del cual usa los “utterances” contenidos para escoger o generar un “utterance” como respuesta al usuario. No obstante, si bien un chatbot puede identificar múltiples intenciones comunicativas en un enunciado, de un usuario, con un “utterance”, no puede identificar múltiples intenciones comunicativas en un enunciado, de un usuario, que contenga múltiples “utterances”. En consecuencia, tampoco se ha investigado como encontrar los “utterances” de respuesta del chatbot cuando se tiene múltiples “utterances”. Por lo descrito previamente, en este proyecto se propone la implementación de una herramienta para: identificar múltiples intenciones comunicativas en múltiples “utterances”, identificar las dependencias entre intenciones, agrupar las intenciones a partir de sus dependencias, identificar las dependencias entre los grupos de intenciones respecto de los identificadores de “utterances” y los identificadores de “utterances” respecto de los “utterances”. Además, para facilitar el uso de la herramienta, se elabora una interfaz de programación de aplicaciones que recibe múltiples “utterances” en forma de texto, y devuelve los “utterances” segmentados, las intenciones identificadas, los grupos entre intenciones y los “utterances” de respuesta del chatbot para cada grupo de intenciones. Los resultados obtenidos evidencian que los enfoques utilizados son exitosos. Por último, se espera mejorar los resultados con técnicas de inteligencia artificial y computación lingüística.
66

Implementación de un software de apoyo a la escritura de resúmenes de textos científicos en español

Vargas Campos, Irvin Rosendo 18 August 2014 (has links)
Desde hace tiempo se viene comentando que los estudiantes universitarios presentan serios problemas de expresión escrita. En diversas fuentes de información, tales como artículos de investigación científica, tesis, u otros medios académicos y profesionales, se puede apreciar diversos errores de redacción. Ésta es una situación que se considera inadmisible en personas con un alto nivel de instrucción formal, especialmente porque todas ellas ya han pasado alrededor de once años de escolarización en la que aprobaron diversas materias relativas a la enseñanza de su lengua materna. Como medida para solucionar este problema, se busca promover la enseñanza de la organización de las ideas. Existen varias técnicas que ayudan a organizar las ideas y preparar la información antes de la redacción del ensayo, monografía o artículo científico. Una de las técnicas más básicas es la redacción del resumen. Se sabe que la redacción del resumen de los textos científicos es una técnica básica y fundamental para la organización de ideas y preparación de información para redactar correctamente textos científicos más complejos. Por tal motivo, el presente proyecto de fin de carrera presenta la implementación de un software de apoyo a la escritura de resúmenes de textos científicos en español, el cual ayudará al escritor a redactar resúmenes de sus textos científicos con una estructura adecuada. Para poder llevarlo a cabo, primero se formó un corpus de 44 resúmenes de textos científicos en español, que sirven para el entrenamiento y prueba del modelo clasificador AZEsp. Para formar el corpus, se tuvo como estructura óptima de los textos la presencia de 6 categorías: Contexto, Brecha, Propósito, Metodología, Resultado y Conclusión. Luego, se procedió a determinar un conjunto de 7 características (atributos), las cuales serían utilizadas para identificar cada una de las categorías. Posteriormente, se implementaron una serie de algoritmos para la extracción de los valores de dichos atributos de cada oración de los resúmenes de textos científicos para que sean utilizadas por el modelo. Una vez obtenidos dichos valores, éstos fueron utilizados para la implementación del modelo clasificador AZEsp y evaluación de su desempeño utilizando métricas tales como Precision, Recall y F-Measure. Finalmente, se implementó el ambiente de ayuda SciEsp, el cual utiliza el modelo clasificador AZEsp para clasificar automáticamente las oraciones de los resúmenes de textos científicos en español ingresados por el usuario, siguiendo una estructura predefinida. Se hizo una serie de experimentos para evaluar el desempeño del modelo clasificador AZEsp. Se obtuvo diferentes resultados; sin embargo, el más resaltante fue que el modelo logró un desempeño de 65.4%. Esto demuestra que la herramienta informática propuesta (SciEsp) está apta para su utilización. En conclusión, los estudiantes universitarios podrán emplear esta herramienta para la redacción de sus resúmenes; ellos podrán identificar sus errores y deficiencias en la redacción, y serán capaces de mejorar de forma autodidacta.
67

Clasificación de cultivos de quinua orgánica mediante el uso de imágenes aéreas multiespectrales y técnicas de aprendizaje automático / Classification of organic quinoa crops using multispectral aerial imagery and machine learning techniques

Flores Espinoza, Donato Andrés 10 November 2021 (has links)
Según datos de la FAO, la planta de la quinua se originó en los alrededores del lago Titicaca que comparten Perú y Bolivia, destaca por la calidad nutricional que posee, así también los requerimientos del cultivo en cuanto a la poca exigencia en la cantidad de agua, lo cual lo hace un cultivo ideal para contrarrestar el cambio climático. La producción mundial de quinua se encuentra liderada primordialmente por los países de Perú y Bolivia, quienes concentran entre el 83% (año 2015) al 67% (año 2016). En ambos países dicha actividad involucra a no menos de 150,000 familias de pequeños productores. La producción de dicho cultivo es mayoritariamente orgánica con promedios bajos de producción. Como consecuencia del escaso uso de tecnologías productivas, el incremento de plagas, así como de la variabilidad cada vez más impredecible de las condiciones climáticas, los agricultores familiares de ambas regiones continúan presentando niveles de pobreza de 42.9% y extrema pobreza de 21.3% en promedio. (INEI-Perú, INE Bolivia). El presente trabajo de investigación contribuye al mapeo de cultivos el cual constituye una herramienta esencial para la gestión agrícola y la seguridad alimentaria. El objetivo del trabajo de investigación es la evaluación de diversos métodos de clasificación del cultivo de la quinua que permitirá realizar el mapeo automático. El estudio se centra en el uso de técnicas de aprendizaje automático para clasificar cultivos de quinua a partir de imágenes aéreas multiespectrales tomadas desde un sistema aéreo no tripulado. La reflectancia espectral de cinco bandas ópticas se utiliza para determinar modelos de clasificación que se evalúan en las diferentes etapas fenológicas de la quinua. Se exploraron estrategias de aprendizaje automático a las imágenes obtenidas, tales como árboles de decisión, análisis discriminatorio, máquinas de vectores de soporte, K vecino más cercano, conjunto de clasificadores, métodos de aprendizaje profundo de Segnet y Unet. Los conjuntos de datos de entrenamiento se obtuvieron de las ubicaciones de los campos de quinua en Cabana en la región Puno de Perú. Los resultados muestran que las técnicas de aprendizaje profundo superan a otras técnicas en la tarea de clasificación. Se muestran las pruebas realizadas sobre las diversas etapas fenológicas en donde las técnicas de aprendizaje profundo obtienen una precisión de entre 81% y 95%, mientras que las demás técnicas su precisión fueron entre 58% y 87%. / Crop mapping is an essential tool for agricultural management and food security for which remote sensing data can be used. This study focuses on the use of machine learning techniques to classify quinoa crops from multispectral aerial images. Spectral reflectance of five optical bands are used for determining classification models which are evaluated for different phenological stages of quinoa. Decision Trees, Discriminant Analysis, Support Vector Machines, K nearest Neighbor, Ensemble Classifiers, deep learning methods Segnet and Unet were explored. Training datasets were obtained from quinoa crop fields locations at Cabana in the Puno region of Peru. An unmanned aircraft system (UAS) was used to acquire the multispectral images from an altitude of 50 meters. Results show that deep learning techniques outperform the other techniques in the classification task.
68

Diseño de una arquitectura de aprendizaje automático que brinde soporte para la detección de mentiras mediante el análisis de video

Salas Guillén, Diego Andrés 30 July 2019 (has links)
La justicia y la búsqueda de la verdad en la investigación criminal requiere del uso de una herramienta fundamental para su éxito, el interrogatorio. En un interrogatorio, un experto hace uso de su experiencia y su juicio para, mediante el cuestionamiento del acusado, obtener una verdad explícita o implícita de parte de este sobre el hecho a investigar. El presente proyecto de investigación apunta a diseñar un modelo de aprendizaje automático que brinde soporte para la detección de mentiras en interrogatorios mediante el análisis de video. Es una contribución a los trabajos de investigación realizados por el grupo IA-PUCP (Grupo de Investigación en Inteligencia Artificial) de la Pontificia Universidad Católica del Perú. Se utilizó un conjunto de datos puesto a disponibilidad por Rada Mihalcea del grupo “Language and Information Technologies” de la Universidad de Michigan. La propuesta de arquitectura para el modelo consiste en una capa de preprocesamiento de datos que utiliza un algoritmo de reconocimiento facial para extraer los rostros del video, limitando el espacio de características. Luego, se utiliza una red convolucional preentrenada para realizar la extracción de características. Finalmente, se utiliza una red recurrente LSTM para procesar las características y luego una red neuronal para clasificar los videos. Se experimentó con cinco redes convolucionales (Resnet, InceptionV3, Xception, VGG16 y VGG19), el mejor fue InceptionV3. Este obtuvo una exactitud de 78.6 %, valor que supera varios de los resultados obtenidos por los modelos, presentados en la publicación “A Multi-View Learning Approach to Deception Detection” de N. Carissimi, que no aplicaron entrenamiento en la extracción convolucional. Esto, utilizando menos información y automatizando la extracción de la misma. / Tesis
69

Control of autonomous multibody vehicles using artificial intelligence

Roder, Benedikt 26 March 2021 (has links)
The field of autonomous driving has been evolving rapidly within the last few years and a lot of research has been dedicated towards the control of autonomous vehicles, especially car-like ones. Due to the recent successes of artificial intelligence techniques, even more complex problems can be solved, such as the control of autonomous multibody vehicles. Multibody vehicles can accomplish transportation tasks in a faster and cheaper way compared to multiple individual mobile vehicles or robots. But even for a human, driving a truck-trailer is a challenging task. This is because of the complex structure of the vehicle and the maneuvers that it has to perform, such as reverse parking to a loading dock. In addition, the detailed technical solution for an autonomous truck is challenging and even though many single-domain solutions are available, e.g. for pathplanning, no holistic framework exists. Also, from the control point of view, designing such a controller is a high complexity problem, which makes it a widely used benchmark. In this thesis, a concept for a plurality of tasks is presented. In contrast to most of the existing literature, a holistic approach is developed which combines many stand-alone systems to one entire framework. The framework consists of a plurality of modules, such as modeling, pathplanning, training for neural networks, controlling, jack-knife avoidance, direction switching, simulation, visualization and testing. There are model-based and model-free control approaches and the system comprises various pathplanning methods and target types. It also accounts for noisy sensors and the simulation of whole environments. To achieve superior performance, several modules had to be developed, redesigned and interlinked with each other. A pathplanning module with multiple available methods optimizes the desired position by also providing an efficient implementation for trajectory following. Classical approaches, such as optimal control (LQR) and model predictive control (MPC) can safely control a truck with a given model. Machine learning based approaches, such as deep reinforcement learning, are designed, implemented, trained and tested successfully. Furthermore, the switching of the driving direction is enabled by continuous analysis of a cost function to avoid collisions and improve driving behavior. This thesis introduces a working system of all integrated modules. The system proposed can complete complex scenarios, including situations with buildings and partial trajectories. In thousands of simulations, the system using the LQR controller or the reinforcement learning agent had a success rate of >95 % in steering a truck with one trailer, even with added noise. For the development of autonomous vehicles, the implementation of AI at scale is important. This is why a digital twin of the truck-trailer is used to simulate the full system at a much higher speed than one can collect data in real life. / Tesis
70

Estudio de la segmentación semántica para la navegación autónoma de un vehículo que circula en las calles de la provincia de Huamanga

Pasapera Huamán, Lui Gustavo 02 February 2021 (has links)
La detección de objetos y geolocalización son puntos clave en los sistemas de visión por computadora y su aplicación para la conducción autónoma. Le permite a la computadora el análisis de entorno en la medida que detecta objetos que podrían obstaculizar una determinada ruta, trayectorias a través del reconocimiento de carriles y mayor exactitud para la geolocalización a través de la detección de objetos relevantes en un determinado entorno. Una de las herramientas para la visión por computadora es la implementación de las redes de aprendizaje profundo. En los últimos años han tenido mayor acogida por su capacidad en el poco esfuerzo en cuanto a su clasificación manual o métodos clásicos. Si bien es cierto que necesita millones de imágenes para obtener un resultado aceptable, esto se ha ido mejorando a través de la transferencia de aprendizaje ya que reduce los millones de imágenes a miles. Estos miles de imágenes se consideran como los datos locales las cuales se analizan, clasifican y re-entrenan con una arquitectura de red pre-entrada. El presente trabajo de investigación se basa en el estudio del uso de los aprendizajes adquiridos por cada red de aprendizaje profundo tales como Resnet-18, Resnet-50, Mobilenetv2 y Xception con el fin de aprovechar su acceso e implementación en estructuras de segmentación semántica basadas en redes convolucionales tales como Segnet y Deeplab.

Page generated in 0.1275 seconds