• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 19
  • 4
  • Tagged with
  • 23
  • 23
  • 21
  • 21
  • 21
  • 21
  • 21
  • 15
  • 9
  • 6
  • 6
  • 6
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Design of a DVB-S2 compliant LDPC decoder for FPGA

Montaño Gamarra, Guillermo Daniel 19 February 2020 (has links)
Low Density Parity Check codes presents itself as the dominant FEC code in terms of performance, having the nearest performance to the Shannon limit and proving its usefulness in the increasing range of applications and standards that already used it. Low power devices are not except of this rapid development, where it emerges the necessity of decoders of low power without totally sacrificing performance or resource usage. The present work details research for a LDPC decoder compliant with the DVB-S2 standard for digital television, motivated for its already established use in uplink and downlink satellite applications and its great performance at large code lengths. Specifically, this research presents the study of the min-sum algorithm and the elements that conform the core decoder, including both functional units (variable and check nodes), memory blocks and routing network. In the context of DVB-S2, it is focused in the inner LDPC decoder and targets FPGA as platform. Furthermore, a variety of design strategies are considered as part of the scope of this work, including the optimal selection of the architecture and the schedule policy, the basis of the design characteristics of the control unit as a Algorithmic State Machine and the introduction of specialized modules to reduce the number of clock cycles per decoding process, such as early stopping. Under these constrains, it has been selected a set of features for a core design derived from work, such as code length of 64800 bits and code rate equal to 1/2. The proposed architecture is partially parallel with flooding schedule and operation over binary symbols (Galois field GF(2)). It takes the assumption of a channel with AWGN and BPSK modulation, so the demodulator feeds soft decision information of each symbol based on both assumptions.
12

Aprendizaje estadístico supervisado con máquina de soporte vectorial

Falcón Cisneros, Sergio Daniel 26 February 2024 (has links)
Actualmente las organizaciones recolectan datos en grandes volúmenes y de fuentes muy variadas. Para dar sentido y convertir los datos en información útil es necesario utilizar técnicas que permitan encontrar y entender las relaciones ocultas en los datos. Generalmente, la relación que nos interesa estudiar es cómo predecir un evento utilizando un conjunto de variables. Sin embargo, muchas veces la relación entre los datos es muy compleja y no puede ser analizada adecuadamente usando las técnicas más conocidas, dado que éstas suelen tener supuestos que no necesariamente se cumplen. Por ello, es importante conocer técnicas de análisis más complejas y flexibles. Esta tesis busca ser un instrumento de ayuda en el aprendizaje y uso de nuevas técnicas para estudiar los datos, lo cual es relevante sobre todo en el medio local en el que este tema es poco conocido. Con este objetivo, presenta una revisión introductoria de la teoría del aprendizaje estadístico, la cual provee del marco teórico para que distintos métodos utilicen los datos para aprender, y usando este conocimiento puedan hacer predicciones sobre datos nuevos o diferentes. Luego se centra en un estudio exhaustivo del método de aprendizaje de Máquinas de Soporte Vectorial (SVM por sus siglas en inglés), introduciendo y aplicando las funciones Kernel. Este método se puede entender como una representación de los datos como puntos en el espacio, asignados de tal forma que exista una brecha grande que separe a los elementos diferentes. Finalmente se pone en práctica la teoría estudiada aplicando el método SVM a datos de clientes de una entidad financiera. Esta entidad financiera usa predominantemente técnicas de aprendizaje estadístico simples y con varios supuestos; particularmente usa una de estas técnicas en un modelo que predice la propensión a la compra y persistencia del producto Seguro de Protección de Tarjetas. Por ello, la presente tesis se centra en aplicar el método SVM para construir una alternativa a este modelo.
13

Caracterización del canal móvil para aplicaciones V2V en el marco de 5G-NR

Tuesta Castro, Anderson 05 March 2024 (has links)
Las comunicaciones entre vehículos se perfilan a ser ampliamente utilizadas en el futuro; es por ello que en el presente trabajo se estudió y caracterizó de forma teórica y mediante simulaciones el canal móvil para aplicaciones V2V. Para lograrlo, se empleó un modelo de canal multitrayecto variante en el tiempo en el cual las amplitudes de cada uno de los trayectos existentes fueron representadas con la distribución de probabilidad de Weibull y su respectivo efecto doppler asociado; asimismo, se modeló la no estacionariedad en el dominio del tiempo empleando un proceso de prendido y apagado de cada trayecto en un determinado instante de tiempo usando la distribución de probabilidad uniforme y se garantizó la correlación de cada uno de ellos empelando un algoritmo publicado en la literatura existente. Con todo esto, se implementó el modelo usando Matlab y se validó su correcto funcionamiento realizando simulaciones con datos reales obtenidos de mediciones. Finalmente, se realizó el análisis de la numerología para cada escenario simulado, teniendo en cuenta el marco de 5G-NR. / Vehicle-to-vehicle communications are set to be widely used in the future; that is why in the present work the mobile channel for V2V applications was studied and characterized theoretically and through simulations. To achieve this, a time-varying multipath channel model was used in which the amplitudes of each of the existing paths were represented with the Weibull probability distribution and its respective associated Doppler effect; likewise, the non-stationarity in the time domain was modeled using a process of turning each path on and off at a given instant of time using the uniform probability distribution and the correlation of each one of them was guaranteed using an algorithm published in the existing literature. With all this, the model was implemented using Matlab and its correct functioning was validated by carrying out simulations with real data obtained from measurements. Finally, the numerology analysis was performed for each simulated scenario, considering the 5G-NR framework.
14

Implementación de un sistema de información orientado a la captación y permanencia de afiliados para una administradora de fondos de pensiones basada en un histórico de traspasos: Una revisión de la literatura

Caro Hijar, Martín Arnulfo 15 October 2020 (has links)
En el desarrollo del presente trabajo de investigación se tiene por objetivo identificar estudios en los que se describan sistemas de información orientados a la permanencia o captación de afiliados para una administradora de fondo de pensiones o similares, los cuales utilicen algoritmos de predicción basados en información histórica de traspasos que permitan tomar decisiones a las áreas de comerciales. Para realizar esta búsqueda, se realiza una revisión sistemática basada en la metodología definida por Kitchenham y Charters, que incluye el uso de la técnica PICOC para la definición de criterios a utilizar en la búsqueda. Además, se formularon las preguntas de investigación a responder y las cadenas de búsqueda que se utilizaron en las bases de datos a consultar para obtener la información para responder las preguntas antes formuladas. Para la elección de los artículos obtenidos para las respuestas se utilizó los criterios de inclusión y exclusión definidos dentro de este trabajo de investigación.
15

Diseño de un sistema registrador del tráfico vehicular con implementación de un algoritmo de análisis predictivo

Zinanyuca Yábar, Miguel Andrés 19 November 2020 (has links)
En la actualidad existe gran congestionamiento en las principales avenidas de Lima, ello se debe a diversos factores entre los que se incluyen la falta de coordinación entre los semáforos, y al exceso de vehículos presentes en las pistas. Es ante esta problemática que se plantea el diseño de un sistema capaz de registrar el volumen del tráfico vehicular para que en base a la data recopilada se pueda elaborar un algoritmo que ajuste los tiempos de los semáforos acorde al volumen vehicular esperado. Este sistema forma parte del concepto de ciudades inteligentes, puesto que, el sistema ajustará los tiempos acorde al tráfico esperado, al mismo tiempo que el sistema se conectará a la nube para la recopilación de resultados y calibración del sistema de captura. En el presente trabajo se realizó la detección de los vehículos, que se encuentran en una vía a los cuales se clasificó según su tipo, mediante la aplicación de procesamiento de imágenes utilizando Deep learning. Dicha información servirá para poder obtener los parámetros de tráfico respecto al nivel de congestionamiento de una vía. Adicional a ello, se realiza una simulación utilizando 5 cruces viales, con lo cual se evidencia una reducción en los tiempos de tráfico mediante la aplicación del algoritmo presentado.
16

Modelo algorítmico para la clasificación de una hoja de planta en base a sus características de forma y textura

Malca Bulnes, Susana Milagros 05 June 2015 (has links)
A lo largo de los años, las plantas han sido consideradas parte vital e indispensable del ecosistema, ya que están presentes en todos los lugares donde vivimos y también donde no lo hacemos. Su estudio es realizado por la ciencia de la botánica, la cual se encargar del estudio de la diversidad y estructura de las mismas. La disminución y extinción de la variedad de las plantas es un tema serio, por lo cual ante el descubrimiento de nuevas especies, se propone una rápida identificación y clasificación a fin de poder monitorearlas, protegerlas y usarlas en el futuro. El problema de la clasificación de hojas es una tarea que siempre ha estado presente en la labor diaria de los botánicos, debido al gran volumen de familias y clases que existen en el ecosistema y a las nuevas especies que van apareciendo. En las últimas décadas, se han desarrollado disciplinas que necesitan de esta tarea. Por ejemplo, en la realización de estudios de impacto ambiental y en el establecimiento de niveles de biodiversidad, es de gran importancia el inventariado de las especies encontradas. Por este motivo, el presente proyecto de fin de carrera pretende obtener un modelo algorítmico mediante la comparación de cuatro modelos de clasificación de Minería de Datos, J48 Árbol de Decisión, Red Neuronal, K-Vecino más cercano y Naive Bayes o Red Bayesiana, los cuales fueron adaptados y evaluados para obtener valores de precisión. Estos valores son necesarios para realizar la comparación de los modelos mediante el método de Área bajo la curva ROC (AUC), resultando la Red Bayesiana como el modelo más apto para solucionar el problema de la Clasificación de Hojas.
17

Desarrollo de un modelo algorítmico basado en árboles de decisión para la predicción de la permanencia de un paciente en un proceso psicoterapéutico

Leon Atiquipa, Heli Eliaquin 11 April 2018 (has links)
En la actualidad existe una creciente necesidad de atención psicológica en nuestro país, por lo que existen muchas instituciones públicas y privadas que ofrecen esto servicios profesionales. La psicoterapia es parte de estos servicios y quienes lo brindan son profesionales especializados en la materia, los cuales atienden a pacientes de diferentes edades y estratos socioeconómicos. Estos tratamientos suelen durar mucho tiempo, por lo que muchos pacientes, por diferentes circunstancias, abandonan el proceso al poco tiempo de haberlo iniciado. La institución, el cual es el caso de estudio, maneja ciertos niveles de deserción medibles durante el tiempo. Estos niveles son manejables en el grado en el que se dan, sin embargo, un creciente aumento del mismo podría generar costos para mantener el equilibrio, el cual deberá ser aplicado a los pacientes, los cuales podrían sentir incomodidad y afectar el proceso terapéutico. La necesidad de tener un mayor control sobre los niveles de deserción y reducirlos ayudaría en gran medida a mejorar la calidad de los servicios que se brindan en la institución. Para la institución, la incertidumbre del abandono en el proceso no permite aplicar medidas correctivas que permitan mejorar los niveles de deserción, sin embargo, la información contenida en la base de datos institucional permite, por cuestiones de investigación, estudiar y analizar los patrones que conllevan al abandono del proceso. Realizar este tipo de análisis sobre una gran cantidad de información implica utilizar métodos computacionales que permitan ayudar a analizar la información de una forma rápida y eficiente. Es por ello, que surge la necesidad de apoyarnos en las ciencias de la computación, específicamente en la minería de datos, para identificar los patrones que permitan predecir y determinar la permanencia de los pacientes durante el proceso. El presente proyecto de fin de carrera pretende entender las causales de la deserción en un proceso psicoterapéutico con el fin de poder predecir, desde el primer contacto entre el paciente y la institución, la permanencia del paciente. Para esto, se plantea el desarrollo de un prototipo funcional que permita predecir la permanencia de los pacientes haciendo uso de algoritmos de árboles de decisión para la predicción. Para la elaboración del prototipo funcional y el cumplimiento de los objetivos, se hizo uso de la herramienta Weka, el cual permitió analizar y seleccionar el algoritmo a usar para la implementación del prototipo. El desbalanceo de clases dificulto el proceso de análisis algorítmico, por tal motivo, se aplicaron métodos de minería de datos para analizar los conjuntos de datos desbalanceados. El lenguaje de programación usado fue Java y los algoritmos que permitieron la predicción fueron incorporados desde las librerías del API de Weka. Los resultados obtenidos fueron satisfactorios, en base a los datos que fueron extraídos de la base de datos institucional.
18

Sistema de medición de la fluidez del habla en personas con tartamudez utilizando procesamiento de voz

Porras Ramírez, Diego José 20 October 2020 (has links)
En esta época, se han desarrollado diversas aplicaciones y sistemas que permiten mejorar la vida de las personas que han nacido u adquirido algún tipo de discapacidad con el paso de los años. En el caso de las personas cuyas discapacidades están relacionadas a la incapacidad de hablar fluidamente, las aplicaciones de entrenamiento que actualmente existen buscan hacer que el usuario practique ciertas lecturas y situaciones reales a fin de evaluar el nivel de fluidez mediante la práctica constante. Sin embargo, no todas ellas proporcionan información concisa sobre la ubicación de distorsiones y disfluencias en las cuales el tartamudo debe entrenarse. El presente trabajo comprende el diseño de un sistema de medición de la fluidez del habla mediante procesamiento de voz que, aplicando diversos algoritmos, permite a un usuario practicar, retroalimentar e identificar vocales críticas en las cuales se debe prestar mayor atención al momento de hablar. Finalmente, se analizan resultados cuantitativos provenientes de los usuarios para poder clasificar el nivel de gravedad de su tartamudez. / Tesis
19

Análisis de algoritmos de predicción y optimización para la mejora de la cadena de suministro del efectivo

Pinedo Pinedo, Alessandra Lily, Ramirez Guzmán, Johao Antony 02 June 2022 (has links)
El presente trabajo de investigación tiene como principal objetivo el análisis y evaluación de los algoritmos que permiten la solución de problemáticas presentes en la cadena de suministro del efectivo, con referencia al proceso de abastecimiento de caudales, donde existe la necesidad de pronosticar los requerimientos de efectivo de clientes, así como definir y diseñar rutas que permitan abastecer y equilibrar los caudales en las sucursales presentes en el nivel final de la cadena de suministro del efectivo (CSC). Por un lado, se realiza un determinado análisis de métodos de pronóstico y algoritmos predictivos que se encuentran presentes dentro del campo de Data Mining. De esta manera, se observa el nivel de diversificación de herramientas para el pronóstico de requerimientos de efectivo de la cadena de suministro y, finalmente, se determina las técnicas más adecuadas para tratar este tipo de información. Por otro lado, se realiza un análisis de los algoritmos, heurísticas y metaheurísticas presentes en la disciplina de Investigación de Operaciones, que son de gran utilidad para la solución de modelos matemáticos que expresan una problemática organizacional. En este caso, se hace hincapié en las técnicas de solución para problemas de tipo Traveling Salesman Problem (TSP) y Vehicle Routing Problem (VRP), que son vitales para formular un problema de enrutamiento de vehículos para suministro de efectivo en la cadena. Finalmente, se contrasta la teoría analizada gracias al estudio de casos, donde los autores solucionan ciertas problemáticas presentes en la cadena de suministro del efectivo haciendo uso de técnicas y algoritmos específicos, que permiten ajustar el análisis teórico hacia una visión real de cómo se debería abordar una propuesta de mejora en la administración del efectivo.
20

Diseño conceptual de un vehículo submarino de apoyo para el mantenimiento preventivo de los cordones de soldadura en la carena de los buques

Bañón Espinoza, Martín Antonio 07 April 2021 (has links)
En la actualidad, la inspección de los cordones soldados ubicados en la obra viva (carena) de los buques es un proceso raramente realizado debido al tiempo y costo que este implica. En respuesta a esto se han postulado distintas soluciones como el uso de buzos experimentados o desplazar el buque a un dique seco, pero estos siguen siendo poco eficientes. Por esta razón, en el presente trabajo de investigación se expone el diseño conceptual de un vehículo submarino capaz de sumergirse a aguas poco profundas; y de un algoritmo de visión con la capacidad de funcionar en un entorno tan variable como es el entorno marino. El vehículo constará de una serie de propulsores y sensores IMU, que le permitirán desplazarse en el agua, y mantenerse estable, o en una posición fija cuando se encuentre detenido. Además, contará con sensores de humedad, temperatura y profundidad, que permitirán monitorear al vehículo desde la interfaz, la cual será una laptop. Esta tendrá, un software que podrá procesar la imagen y clasificar los defectos de la imagen. Adicionalmente, el software permitirá comandar todas las acciones del vehículo. Para este trabajo de investigación, se realizó un análisis de los antecedentes, lo cual incluye definir los objetivos, la metodología y el alcance del trabajo de investigación. Además, de investigar acerca de las tecnologías existentes. Luego, se procedió a realizar el diseño conceptual del sistema. Y se finalizó, describiendo los diagramas que conforman el diseño preliminar del mismo.

Page generated in 0.1013 seconds