Spelling suggestions: "subject:"procesamiento dde datos"" "subject:"procesamiento dee datos""
331 |
Análisis y diseño de un Data Mart para el PRONABEC utilizando la Metodología Hefesto 2.0Garaundo Rodriguez, Carlos Andrés January 2015 (has links)
Publicación a texto completo no autorizada por el autor / Implementa un DataMart, como una herramienta que permitirá desarrollar inteligencia de negocios en PRONABEC; logrando la simplificación de los procedimientos de extracción, transformación y procesamiento de datos, y con esto brindar apoyo en la toma de decisiones. / Trabajo de suficiencia profesional
|
332 |
Automatización de la gestión de planillas integrando en el sistema integral empresarial (SIE) aplicando SCRUMZegarra Contreras, Paúl Angel January 2018 (has links)
Publicación a texto completo no autorizada por el autor / Busca dar solución al problema de demora en los procesos manuales en la elaboración de la planilla, debido al uso de varios sistemas independientes de las empresas tercerizadas (Clean Force, Dynamic Force, Lima Force), generando de esta forma la duplicidad de tareas en los procesos, demoras en el ingreso de datos, e incrementando los costos de mano de obra en la empresa Comercial del Acero S.A (COMASA). Para ello mediante la metodología ágil SRUM integra los diversos softwares utilizados en la empresa tales como Sistema Control de Asistencia (CONASI), Sistema para Comedor Empresarial, Sistema de Planillas de terceros, Sistema de Marcaciones con el Software ERP (Sistema Integral Empresarial - SIE) donde SIE es la fuente de datos principal para realizar un único proceso y replicar los datos calculados para la planilla en cada uno de los sistemas de las empresas tercerizadas (Software de Planilla de terceros). Logra la eficiencia en la parte operativa del área de recursos humanos con la obtención de forma inmediata de los cálculos de la planilla, la optimización de los tiempos de entrega de reportes, la reducción de los costos de mano de obra y evitar errores en el ingreso de datos y por ende errores en cálculos manuales. / Trabajo de suficiencia profesional
|
333 |
Implementación de una herramienta de análisis de riesgo de crédito basado en el modelo de rating de crédito, algoritmos genéticos y clustering jerárquico aglomerativoRamos Martinez, Henry Marcos January 2017 (has links)
Propone un método para generar modelos de clasificación de riesgo de crédito de acuerdo a la metodología de rating de crédito. La implementación de esta metodología requiere construir dos grandes bloques de análisis: (1) la construcción de un modelo de puntuaciones, y (2) la construcción de un modelo de agrupación de clases de riesgo. Para construir el modelo de rating, este trabajo propone el uso de dos técnicas de la inteligencia artificial: (1) el uso de algoritmos genéticos para determinar el modelo de puntuaciones óptimo, y (2) el uso de clustering jerárquico aglomerativo para la segmentación de los grupos de riesgo. Los resultados de la experimentación mostraron que la presente propuesta obtiene un buen indicador de poder de predicción (58.9%). Además, se comparó este modelo con el modelo de regresión logística (un conocido método de estimación estadística), teniendo la propuesta actual un mejor desempeño que el modelo logístico. Se concluye que las técnicas de inteligencia artificial usadas en este trabajo muestran un buen resultado para generar un modelo de rating, y tienen como ventaja la fácil interpretación de sus resultados por un experto humano. / Tesis
|
334 |
IMGPEDIA: A large-scale knowledge-base to perform visuo-semantic queries over Wikimedia Commons imagesFerrada Aliaga, Sebastián Camilo January 2017 (has links)
Magíster en Ciencias, Mención Computación / Motivación. Los estándares de la Web Semántica son útiles para poder organizar la información de la Web de forma que los computadores puedan procesarla y comprenderla de mejor manera, pudiendo así los usuarios realizar búsquedas más sofisticadas y contar con un lenguaje más expresivo para realizarlas. Sin embargo, la mayoría de las bases de conocimiento disponibles utilizan solamente la información textual en desmedro del contenido multimedia, el cual ha aumentado enormemente los últimos años y ya es parte fundamental de la Web.
Objetivo. Dado lo anterior, nuestro objetivo en este trabajo es construir una base de conocimientos que nos permita combinar consultas semánticas con consultas sobre el contenido visual de las imágenes de la Web, que llamaremos IMGpedia. Concretamente, se trabajará utilizando las imágenes de Wikimedia Commons.
Contribución. Una vez completado, este trabajo pretende ser un puente entre el mundo del análisis multimedia y el de la Web de Datos. En este sentido, todas las rutinas de descripción de contenido visual serán publicadas como implementaciones de referencia en diferentes lenguajes de programación. Además, la base de conocimientos será una fuente de Datos Enlazados Abiertos de alta calidad, puesto que proveerá enlaces a diferentes fuentes de conocimiento para proveer contexto. Finalmente, estos datos podrán ser consultados a través del SPARQL endpoint público provisto para tal efecto. Esta base de conocimientos es pionera en combinar información del contenido visual de imágenes de la Web con datos semánticos extraídos de DBpedia.
Metodología. Se propone y desarrolla una metodología, dadas las 15 millones de imágenes extraídas de Wikimedia Commons, estas se analicen y procesen para formar una completa base de conocimiento. Primeramente, se calculan sus descriptores visuales; luego se computan sus vecinos más cercanos para establecer enlaces de similitud entre ellas; posteriormente, se propone una estrategia para enlazar las imágenes con recursos de DBpedia si es que las imágenes son utilizadas en el respectivo artículo de Wikipedia; y, finalmente, los datos se publican como un grafo RDF, listos para ser consultados a través de un terminal de consulta SPARQL.
Valor. El valor de este trabajo está en que es el inicio de un proyecto a largo plazo, el cual busca incluir el contenido multimedia dentro de la Web de Datos de una forma automatizada, sin necesidad de etiquetar los medios manualmente, sino que los hechos puedan ser extraídos de fuentes complementarias. De esta forma se hace que el hecho de realizar consultas sobre similitud visual e incluyendo filtros semánticos sea una tarea cada vez más común. / Este trabajo ha sido parcialmente financiado por el Núcleo Milenio Centro de Investigación
para la Web Semántica
|
335 |
Base de datos de fichas de seguridad química de las sustancias químicas de la sección de carbohidratos del Instituto de Investigación en Ciencias Farmacéuticas y Recursos Naturales “Juan de Dios Guevara”Bastidas Peralta, Jhon January 2016 (has links)
Elabora una base de datos de fichas de seguridad química de las sustancias químicas inventariadas y las clasifica según su categoría de peligrosidad debido a que durante el inventario en la Sección de Carbohidratos del Instituto de Investigación en Ciencias Farmacéuticas y Recursos Naturales “Juan de Dios Guevara” no se encontró fichas de datos de seguridad. Para esta clasificación se ha usado como método la Matriz guía de almacenamiento mixto. El resultado obtenido fue una base de datos de fichas de seguridad de estas sustancias y clasificación según su categoría de peligrosidad. La conclusión más significativa fue identificar sustancias químicas incompatibles en una misma ubicación. / Tesis
|
336 |
Análisis y diseño de un aplicativo móvil para el control de finanzas personales usando servicios web RESTFUL en la nubeQuezada Silva, Talia Mónica, Rosales Alva, Rocío January 2012 (has links)
Analiza y diseña un aplicativo móvil basado en el uso de servicios web Restful en la nube que permita mostrar información sobre las finanzas personales de una persona estándar en tiempo real. Mediante este aplicativo se pretende que el usuario tendrá un mayor control de sus ingresos y egresos evitando así excesos innecesarios, además podrá estar al tanto de las fechas de vencimientos de sus recibos. Lo resaltable es que el usuario podrá acceder a toda su información desde cualquier lugar, en cualquier momento por medio de un dispositivo móvil que esté conectado a internet. / Trabajo de suficiencia profesional
|
337 |
Modelamiento del proceso de difusión de productos editoriales basado en árboles de decisiónFarfan Jimenes, Luis Carlos January 2012 (has links)
Realiza el modelado de un proceso de difusión de productos editoriales utilizando métodos de Inteligencia artificial como son los árboles de decisión, para poder ajustar con la mayor precisión el reparto de los productos entre los distintos Puntos de Ventas distribuidos geográficamente por todo el territorio Nacional. El análisis se basa en la identificación de los principales indicadores que influyen positiva o negativamente en comportamiento de su la venta. El objetivo es que al modelar el proceso este permita automatizar y optimizar el reparto de productos a cada punto de venta, poder predecir con más precisión el comportamiento de ventas de cada Punto de venta y con ello poder tomar mejores tomas de decisión a la hora de realizar una difusión de productos. Se utiliza el método de árboles binarios porque es un método de predicción que nos ayuda en base a atributos que componen una situación descrita y que a partir de esta nos da una respuesta la cual traducimos en una toma de decisión. / Trabajo de suficiencia profesional
|
338 |
Machine Learning para predecir la morosidad en créditos MYPEs de la Caja Metropolitana de LimaAlva Ranilla, Mayra Yessica, Tamashiro Wong, Keiko Cecilia January 2012 (has links)
Publicación a texto completo no autorizada por el autor / Propone el uso de una red neuronal (Perceptrón multicapa) para predecir el comportamiento de una MYPE respecto a la morosidad en el pago de sus créditos, permitiendo así anticipar y minimizar los efectos desfavorables en la eco nomía y gestión de la Caja Metropolitana de Lima. Se aplicó la metodología CRISP-DM para elaborar el modelo de la red neuronal. La implementación de la red se realizó utilizando el software WEKA como herramienta de análisis y procesamiento de datos. El sistema se desarrolló bajo la plataforma Java. En el software Weka se realizó el entrenamiento y validación de los datos, obteniéndose como resultado final de la validación del modelo de red neuronal una tasa de error de 1.25% / Tesis
|
339 |
Sistema experto web para apoyar a los psicólogos en la evaluación y diagnóstico de pruebas de inteligencia utilizando la metodología Common KADS caso: I.E. 6038 OllantayVega Ucharima, Manuel Jesús January 2015 (has links)
Publicación a texto completo no autorizada por el autor. / Toma como referencia la situación del Perú, quien ocupa el último puesto en evaluación académica de estudiantes en etapa escolar según el informe del Programa Internacional para la Evaluación de Estudiantes del año 2012 realizada a 65 países a nivel mundial en el que se evalúan las áreas de Habilidad Lectora, Matemáticas y Ciencias en estudiantes de 15 años. El Perú ha participado en esta evaluación en los años 2001, 2009 y 2012 ocupando el antepenúltimo, penúltimo y último puesto respectivamente, lo cual indica que entre los años 2001 y 2012 las cifras de desempeño académico estudiantil han empeorado.
Las causas de este pobre desempeño académico en los estudiantes de educación básica se deben a factores sociales, económicos, psicológicos, políticos y otros. Como punto de referencia se tomaron las causas relacionadas al diagnóstico cognitivo, tomando como premisa que si este diagnóstico de los estudiantes de educación básica fuera más acertado se podrían tomar las medidas correctivas correspondientes para apoyarlos en su desarrollo académico. Para poder lograrlo se realizó el uso de pruebas de inteligencia que ayudaron al diagnóstico cognitivo de los estudiantes; además fue necesario comprender la forma en que los psicólogos evalúan y diagnostican estas pruebas. Con el uso de la metodología CommonKADS se obtuvo y organizó el conocimiento del psicólogo para saber la forma en cómo se llega a realizar el diagnóstico de cada prueba. El sistema desarrollado, denominado PsicoExperto, usa el conocimiento del psicólogo para evaluar y diagnosticar las pruebas de forma más rápida y precisa que el experto humano. La validación del sistema y de los resultados se realizó con dos psicólogos quienes confirmaron la eficiencia de la herramienta desarrollada con la que se obtuvo más de un 93% de acierto en el diagnóstico cognitivo. / Tesis
|
340 |
Propuesta de modelo CRM para la gestión centralizada del cumplimiento tributarioMaza Carlin, Jenny Jessica January 2016 (has links)
Diseña una propuesta de modelo CRM (Customer Relationship Management) para una adecuada gestión centralizada del cumplimiento tributario por parte de una empresa de recaudación tributaria. El objetivo es conseguir mejores formas de relacionamiento con los contribuyentes, lograr la eficiencia y eficacia de los procesos de recaudación buscando el cumplimiento voluntario de las obligaciones tributarias y reducir la brecha de presentación de la declaración y la brecha de pago. / Trabajo de suficiencia profesional
|
Page generated in 0.1116 seconds