Spelling suggestions: "subject:"inteligência artificial."" "subject:"inteligentes artificial.""
471 |
Evaluación de método para la detección automática de puntos de referencia (landmark detection) en imágenes en dos dimensiones de huellas plantares para el diseño de una plantilla ortopédicaDonayre Gamboa, Gustavo Miguel 28 August 2024 (has links)
El presente trabajo de investigación evalúa la técnica de regresión de mapas de
calor (heatmap regression - HR) para la detección automática de puntos de
referencia (landmark detection) en imágenes médicas, específicamente en las
imágenes de huellas plantares en dos dimensiones. El estudio se basa en la
regresión de mapas de calor con aprendizaje profundo, una técnica que ha
demostrado ser efectiva en la detección de puntos en rostros y en la estimación de
la pose humana. Se propone un método automático para la detección de 8 puntos
en las imágenes digitalizadas de huellas plantares que servirán de referencia para el
diseño base de una plantilla ortopédica bidimensional, buscando así mejorar el
proceso de fabricación de plantillas ortopédicas, que actualmente se realiza de
forma manual y artesanal en la mayoría de los países de América Latina. La
detección automática de estos puntos de referencia en las huellas plantares tiene el
potencial de agilizar este proceso y mejorar la precisión de las plantillas.
Los resultados del estudio mostraron un error absoluto promedio normalizado de
0.01017 en el conjunto de validación. Estas evaluaciones se llevaron a cabo
utilizando una red convolucional U-Net, la cual consta de una ruta de codificación y
compresión de imágenes para capturar el contexto, y una ruta de expansión
simétrica que permite una localización precisa de puntos de interés en un tiempo
razonable gracias al uso de los procesadores GPU actuales. / This paper evaluates the heatmap regression (HR) technique for landmark detection
in medical images, specifically in two- dimensional footprint images. The study is
based on heatmap regression with deep learning, a technique that has proven to be
effective in face landmark detection and human pose estimation. We propose the
evaluation of an automatic method for the detection of 8 points in the digitized
images of plantar footprints that will serve as a reference for the base design of a
two-dimensional orthopedic insole, thus seeking to improve the orthopedic insole
manufacturing process, which is currently handmade and handcrafted in most Latin
American countries. The automatic detection of reference points in the plantar
footprints would speed up this process and improve the accuracy of the insoles.
The results of the study showed an average normalized mean absolute error of
0.01017 in the validation set. These evaluations were carried out using a U-Net
convolutional network, which consists of an image encoding and compression path
to capture the context, and a symmetric expansion path that allows accurate
localization of points of interest in a reasonable amount of time with current GPU
processors.
|
472 |
Automatización del proceso de gestión de órdenes de compra con clientes B2B en una empresa de pinturas usando RPAAlpiste Sarmiento, Daniel Mijail 05 September 2022 (has links)
Desde el inicio del siglo XXI y con el desarrollo de la cuarta revolución industrial, en
conjunto con la aplicación de la inteligencia artificial y el aprendizaje automático en los
negocios, se ha desarrollado también una mejora de los procesos de negocio, pues ahora su
ejecución se compone también de tareas automatizadas. Sin embargo, al intentar implementar
estas se presentan problemas que son un común derivado en las corporaciones de todos los
rubros: inversión de tiempo elevado y recursos para desarrollar nuevos programas que
automaticen los procesos de negocio, necesidad de conocimiento técnico para aplicar
soluciones de software convencionales, la no documentación de los procesos ni una correcta
Administración de Procesos de Negocio (BPM), y, por último, la interacción de múltiples
sistemas de información que pertenecen a una misma infraestructura de tecnologías de
información durante la ejecución de los procesos de negocio.
Las empresas de nuestro país, Perú, no son ajenas a dichos problemas. Por lo que
mediante el presente proyecto se busca encontrar una solución a estos utilizando la tecnología
de automatización robótica de procesos y una correcta administración de procesos de negocio
en un proceso B2B, en específico, en una empresa de pinturas.
Dentro de este proyecto se analizó la problemática descrita, el estado del arte de las
tecnologías y metodologías que son usadas en el proyecto y también se desarrolló este último.
Se realizó un análisis del estado actual del proceso de negocio y se propuso la nueva forma de
ejecución. Luego se preparó la arquitectura de tecnologías de información que soportará la
nueva ejecución. Después, se desarrolló las tareas automatizadas aplicando las metodologías
propuestas. Por último, se preparó reportes gráficos sobre los resultados de esta ejecución y, a
su vez, se realizó una medición de tiempos e indicadores seleccionados para evaluar el
rendimiento del nuevo proceso de negocio.
Con este proyecto se logró demostrar la eficiencia que se puede obtener en la ejecución
de los procesos de negocio gracias a la automatización robótica de procesos y la solución a
los problemas antes mencionados, incluyendo el aumento del nivel de satisfacción de los
empleados y la interacción de los múltiples sistemas de información sin modificar la
infraestructura tecnológica de la empresa.
|
473 |
Agrupamiento de textos basado en la generación de EmbeddingsCachay Guivin, Anthony Wainer 19 August 2022 (has links)
Actualmente, gracias a los avances tecnológicos, principalmente en el mundo de la
informática se logra disponer de una gran cantidad de información, que en su mayoría son
una composición de signos codificados a nivel computacional que forman una unidad de
sentido, como son los textos. Debido a la variabilidad y alta volumetría de información
navegable en internet hace que poder agrupar información veraz sea una tarea complicada.
El avance computacional del lenguaje de procesamiento natural está creciendo cada día
para solucionar estos problemas.
El presente trabajo de investigación estudia la forma como se agrupan los textos con
la generación de Embeddings. En particular, se centra en usar diferentes métodos para
aplicar modelos supervisados y no supervisados para que se puedan obtener resultados
eficientes al momento de toparse con tareas de agrupamiento automático.
Se trabajó con cinco Datasets, y como resultado de la implementación de los modelos
supervisados se pudo determinar que el mejor Embedding es FastText implementado con
Gensim y aplicado en modelos basados en boosting. Para los modelos no supervisados el
mejor Embedding es Glove aplicado en modelos de redes neuronales con AutoEncoder y
capa K-means. / Nowadays, thanks to technological advances, mainly in the world of information
technology, a large amount of information is available, most of which is a composition of
signs encoded at a computational level that form a unit of meaning, such as texts. Due to
the variability and high volume of navigable information on the Internet, grouping truthful
information is a complicated task. The computational advance of natural language
processing is growing every day to solve these problems.
The present research work studies the way texts are clustered with the generation of
Embeddings. In particular, it focuses on using different methods to apply supervised and
unsupervised models so that efficient results can be obtained when encountering automatic
clustering tasks.
Five Datasets were worked with, and as a result of the implementation of the
supervised models it was determined that the best Embedding is FastText implemented
with Gensim and applied in models based on boosting. For the unsupervised models the
best Embedding is Glove applied in neural network models with AutoEncoder and K-means
layer.
|
474 |
Predicting market segmentation variables using Twitter following relationsBrossard Núñez, Ian Paul 03 December 2018 (has links)
From the beginning, social sciences have looked to categorize people into groups that share common characteristics, to better serve the population, giving a distinguished treatment to each group. Applying this approach to the planning of business activities, we can better understand people’s needs, choosing the most favorable marketing strategies for each stratum of customers (saving effort in advertising and distribution) and maximize the level of satisfaction of each of market segment. Social Media is not a stranger to this principle: a correct segmentation will allow companies to avoid bringing content to people that are not part of their target audience, and to better respond to comments and complaints about their products and brands. However, some Social Media like Twitter still haven’t included demographic markers about their users within their marketing platforms, rendering decision-making difficult. In this paper, we demonstrate that it is possible to estimate important demographic information in Social Media by analyzing the tastes and preferences of the users (represented through the Twitter accounts they follow). We present four predictive models that allowed us to estimate the gender, age, socio-economic level and LATIR Lifestyle of a Twitter user. These models were trained using machine learning algorithms / Trabajo de investigación
|
475 |
Minería web de textos en lenguas indígenas para desarrollar tecnologías de lenguaje. Caso de estudio: quechua sureñoUbaldo Gamarra, Victoria Alejandra 09 November 2022 (has links)
En la actualidad, para los más de 30 millones de peruanos, la información a la que accedemos
se encuentra mayormente en el idioma español. Sin embargo Perú es un país multilingüe,
posee una gran riqueza cultural y lingüística con alrededor de 47 lenguas originarias. Para
esta población encontrar textos, noticias y contenido en internet en su lengua nativa es una
tarea complicada. Existe un limitado acceso a información como lecturas, textos, noticias u
otros contenidos que en modalidad digital es muy escaso. Esto se debe a que los pocos
ciudadanos que se comunican en lenguas nativas son de manera oral y algunos hacen uso del
español sobre sus lenguas nativas.
De ese modo, existen investigaciones en el campo de la inteligencia artificial donde a partir
del poco material digital recolectado de lenguas nativas se construyeron corpus digitales para
tareas de traducción automática y detección del lenguaje. Sin embargo, aún son corpus
pequeños para elaborar traductores de calidad, presentan complicaciones en traducir textos
completos, y además díficil el aprendizaje con algoritmos complejos, como redes neuronales
profundas.
Por este motivo se propone realizar una minería web de textos en la lengua originaria
quechua sureño para incrementar la cantidad de oraciones y diversidad de dominios, evaluar
la calidad de los nuevos textos en un modelo de traducción automática de quechua a español,
y desarrollar una web de libre acceso de consulta al corpus creado.
|
476 |
Exploración de métodos de clasificación de proteínas repetidas basado en su información estructural utilizando aprendizaje de máquinaTenorio Ku, Luiggi Gianpiere 04 September 2020 (has links)
En la actualidad, existen métodos complejos para la clasificación e identificación de proteínas repetidas a partir de su estructura, los cuales implican un uso intenso y costoso de recursos computacionales. Debido a ello, en el presente trabajo de investigación se busca explorar soluciones alternativas y complementarias a otros sistemas en la etapa de clasificación de proteínas repetidas con técnicas del área de estudio de aprendizaje de máquina. Estas técnicas son conocidas por ser efectivas y rápidas para la sistematización de varios procedimientos de clasificación, segmentación y transformación de datos con la condición de que se disponga de una cantidad considerable de datos. De esa forma, en consecuencia de la cantidad de datos estructurales que se han generado en los últimos años en el ambito de las proteínas y las proteínas repetidas, es posible utilizar técnicas de aprendizaje de máquina para la clasificación de las mismas. Por ello, en este trabajo, a partir de un análisis a los datos que se poseen en la actualidad y una revisión sistemática de la literatura, se proponen posibles soluciones que utilizan aprendizaje de máquina para la clasificación automatizada y rápida de proteínas repetidas a partir de su estructura. De estas posibles soluciones, se concluye que es posible la implementación de un clasificador con múltiples entradas utilizando información de los ángulos de torsión y distancia entre aminoácidos de una proteína, la cual va a ser implementada y evaluada en un trabajo futuro.
|
477 |
Aprendizaje profundo para transcripción de textos históricos manuscritos en españolChoque Dextre, Gustavo Jorge 16 July 2024 (has links)
El reconocimiento de textos historicos es considerado un problema desafiante debido a los muchos factores que ´
alteran el estado de los manuscritos y la complejidad de los diferentes estilos de escritura involucrados en este tipo
de documentos; en los anos recientes se han creado muchos modelos de Reconocimiento de textos manuscritos ˜
enfocados en diversos idiomas como el ingles, chino, ´ arabe y japon ´ es entre otros, sin embargo no se han ´
encontrado muchas iniciativas de reconocimiento de texto orientadas al idioma espanol debido fundamentalmente ˜
a un escasez de datasets publicos disponibles para ayudar a solucionar la problem ´ atica en dicho idioma. ´
En esta publicacion se presenta la aplicaci ´ on de t ´ ecnicas de Deep Learning basadas en una arquitectura de ´
red neuronal encoder-decoder y convoluciones compuerta Gated-CNN las cuales en los ultimos ha demostrado ´
resultados sobresalientes para resolver dicha problematica, as ´ ´ı mismo se propone la aplicacion de mecanismos de ´
Transferencia de Aprendizaje para el reconocimiento de textos historicos en espa ´ nol. Los experimentos demuestran ˜
que la aplicacion de estos m ´ etodos puede brindar resultados sobresalientes, adem ´ as la aplicaci ´ on de otras t ´ ecnicas ´
tales como Aumentacion de Datos y Modelos de Lenguaje conllevan a mejoras significativas en los resultados finales. ´
Se propone ademas el uso de un nuevo dataset de textos hist ´ oricos en espa ´ nol conformado por 1000 elementos ˜
tomados de textos historicos peruanos referentes al siglo XVIII.
|
478 |
Estimación del consumo de combustible y emisiones de co2 de un motor a gasolina de 130 hp mediante técnicas de Machine LearningHuancapaza Machuca, José 16 July 2024 (has links)
En el presente trabajo se estima el consumo de gasolina y las emisiones de
CO2 en un motor vehicular de 130 HP, instalado en un banco de pruebas,
usando técnicas de aprendizaje automático (Machine Learning). Para obtener
datos de los parámetros de funcionamiento del motor, se realizaron pruebas en
condiciones estacionarias de carga (torque) y régimen de giro del cigüeñal; se
registraron las lecturas de sensores originalmente instalados en el motor,
mediante un scanner conectado al puerto OBD2 del módulo de control
electrónico del motor. Además, se instalaron equipos de laboratorio para
registrar otras variables necesarias para el estudio. Con los datos disponibles,
se utilizaron tres técnicas de Machine Learning: Regresión Múltiple, Máquina
de Soporte Vectorial y Redes Neuronales.
En la aplicación de los modelos se utilizaron datos en grupos, separados de la
siguiente forma: 90% para el desarrollo de los modelos y 10 % para la prueba
de los modelos. Adicionalmente, para los modelos de Máquina de Soporte
Vectorial y de Redes Neuronales se realizó otra partición de los datos: 75%
para entrenamiento, 15% para validación, y 15% para el test. Durante el
proceso se evaluaron los datos sin estandarización y, posteriormente,
estandarizados en el rango de 0 a 1; este último paso buscó asegurar la
convergencia del modelo.
Las variables estudiadas fueron las siguientes: i) 5 predictoras o variables
independientes (presión absoluta en el colector de admisión, temperatura del
aire en el colector de admisión, régimen de giro, flujo másico de aire de
v
admisión al motor y el torque efectivo); ii) 2 variables objetivo o dependientes
(emisiones de CO2 y consumo de gasolina).
Los resultados del presente trabajo de tesis muestran que el mejor método, y
con menos intervención, es el de Redes Neuronales. Para la estimación del
flujo másico instantáneo del CO2 se obtuvo un error máximo de 7.85%, siendo
que el error obtenido para el 75% de los resultados corresponde a 0.10%. Para
la estimación del consumo másico de gasolina, se obtuvo un error máximo de
9.72%, pero, en este caso, el 75% de los resultados tienen un error de 0.67%.
|
479 |
Revisión de la literatura del comercio electrónico, el aprendizaje automático y sus aplicaciones en la industria y tiendas por departamento en líneaAgama Espinoza, Aymar Sandro 25 October 2021 (has links)
Este trabajo de investigación reseña los hallazgos más recientes acerca del comercio
electrónico y el aprendizaje automático aplicado a ese ámbito. En los últimos años, el comercio
electrónico se ha expandido, en particular, en el contexto de la pandemia del COVID-19 ha
tenido un importante rol para mitigar las restricciones de las ventas de los negocios que han
tenido que enfrentar en varios periodos de tiempo la suspensión de sus operaciones
presenciales. Al respecto, la United Nations Conference on Trade and Develpment (UNCTAD,
2020) informa que en el año 2020, si bien los resultados de las empresas líderes a nivel mundial
de ventas online B2C ha sido diverso, el resultado global en ese grupo fue un incremento del
20.5%; asimismo, en un grupo de países seleccionados el aumento fue 22% a pesar de la caída
de 1% en el total de ventas del año 2020. En dicho escenario, se observa el crecimiento de esta
nueva industria que ofrece la digitalización de los mercados en toda forma de actividad
económica, facilitando la compraventa de bienes, servicios e información a través de canales
online.
De acuerdo con la literatura, el comercio electrónico brinda diversas ventajas a las empresas
tales como la reducción de costos operativos, el incremento del intercambio de información,
reducción del tiempo de comercialización, aumento de la eficiencia en la cadena de suministro,
mejora de la retención de cliente, creación de canales eficientes de bajo costo, entre otras. Las
ventajas también se observan en el ámbito de los consumidores, como la facilidad de acceso a
bienes y servicios, interacción social para validar sus preferencias y alta disponibilidad para
escoger vendedores, productos e información. Asimismo, la investigación sobre el comercio
electrónico revela que sus ventajas se pueden reforzar con las cualidades tecnológicas de la
industria 4.0 y en particular, con las que ofrece la aplicación del aprendizaje automático.
Uno de los hallazgos de la literatura es la necesidad de que los negocios se enfoquen en el
cliente, y que construyan relaciones sostenibles y de largo plazo. De esta manera, se puede
obtener información relevante sobre sus hábitos de consumo, preferencias y el comportamiento
mediante algoritmos y programas de aprendizaje automático.
Sobre el aprendizaje automático, diversos estudios han revelado un incremento de las
aplicaciones predictivas y prescriptivas que buscan la optimización en la toma de decisiones.
Asimismo, para implementarlas, la industria está invirtiendo vastamente en inteligencia
artificial teniendo como impulsor a la gran cantidad de información que recopilan. Esto es
visible en muchos campos de aplicación de la vida diaria desde el cuidado de la salud, turismo y fabricación hasta el comercio electrónico con el potencial de impactar favorablemente y de
manera significativa en la economía.
Finalmente, en relación con lo expuesto, la revisión de la literatura revela que las ventajas que
ofrece el comercio electrónico pueden generar posibilidades de crear nuevas oportunidades
comerciales y así contribuir a fortalecer la ventaja competitiva del negocio en un entorno
cambiante
|
480 |
Identificación del nivel de complejidad de texto para el entrenamiento de chatbots basado en Machine Learning: una revisión de literatura|Matos Ríos, Hans 16 February 2021 (has links)
El nivel de complejidad textual puede ser un inconveniente para algunas personas al momento de usar
Chatbots, debido a que estos programas podrían dar respuestas cuyo nivel de complejidad no sea el
que entienda el usuario. Entonces, aquellos Chatbots deberían ser entrenados con un conjunto de
datos cuya complejidad textual sea la deseada, para evitar confusiones con los usuarios. Para ello, se
define una revisión sistemática, en la cual se usan las bases de datos de Google Scholar, ACM Digital
Library e IEEE Xplore, de las cuáles se obtiene la información necesaria empleando las palabras
claves definidas por el método PICOC, obteniendo un total de treinta y ocho documentos que
evidencian la existencia de distintas métricas para analizar la complejidad textual de textos, así como
experimentos de entrenamiento con Chatbots y los correspondientes resultados de sus interacciones
con los usuarios. Además, analizando documentos de tesis asociadas al tema de investigación, se
refuerzan los conceptos de que la complejidad textual puede ser analizado mediante conjunto de
métricas. Finalmente, en base a lo desarrollado en la revisión de la literatura y documentos de tesis,
se presentan las conclusiones deducidas.
|
Page generated in 0.1117 seconds