• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1458
  • 93
  • 31
  • 11
  • 3
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 1603
  • 521
  • 488
  • 379
  • 369
  • 369
  • 369
  • 369
  • 333
  • 313
  • 297
  • 231
  • 211
  • 195
  • 192
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

Soluciones eficientes para Rank y Select en secuencias binarias

Providel Godoy, Eliana Paz January 2012 (has links)
Magíster en Ciencias, Mención Computación / Las estructuras de datos compactas ofrecen funcionalidad y acceso a los datos usando poco espacio. En una estructura de datos plana se conservan los datos en su forma original y se busca minimizar el espacio extra usado para proveer la funcionalidad, mientras que en una estructura comprimida además se recodifican los datos para comprimirlos. En esta tesis se estudian estructuras de datos compactas para secuencias de bits (bitmaps) que proveen las operaciones rank y select: rankb(B,i) cuenta el número de bits b ∈ {0,1} en B[1..i] y selectb(B,i) retorna la posición de la i-ésima ocurrencia de b en B. En teoría ambas consultas se pueden responder en tiempo constante, pero la implementación práctica de estas soluciones no siempre es directa o con buenos resultados empíricos. Las estructuras de datos con un enfoque más práctico, usualmente no óptimas en teoría, pueden tener mejor desempeño que implementaciones directas de soluciones teóricamente óptimas. Esto es particularmente notorio para la operación select. Además, las implementaciones más eficientes para rank son deficientes para select, y viceversa. En esta tesis se definen nuevas estructuras de datos prácticas para mejorar el desempeño de las operaciones de rank y select, basadas en dos ideas principales. La primera consiste en, a diferencia de las técnicas actuales, que usan estructuras separadas para rank y select, reutilizar cada estructura también para acelerar la otra operación. La segunda idea es simular en tiempo de consulta una tabla de resultados precomputados en vez de almacenarla, lo que permite utilizar tablas universales mucho mayores que las que sería posible almacenar. Los resultados experimentales muestran que la primera idea, aplicada a estructuras planas, utiliza sólo 3% de espacio sobre el bitmap y ofrece tiempos similares a estructuras que usan mucho más espacio, para ambas operaciones. En estructuras de datos comprimidas se pueden combinar ambas ideas, obteniendo un espacio extra de menos de 7 % sobre el bitmap comprimido y manteniendo, para ambas operaciones, tiempos similares o mejores que las estructuras actuales (que usan 27 % de espacio extra).
272

Sistema integral de historias clínicas electrónicas utilizando tecnología clúster para la especialidad de pediatría

Zumaeta Rivera, Luis Alejandro January 2012 (has links)
Publicación a texto completo no autorizada por el autor / Describe la implementación de un sistema de información el cual permitirá gestionar historias clínicas electrónicas para la especialidad de pediatría garantizando la integridad, confidencialidad y disponibilidad de la información de salud del niño. Este sistema permitió a los profesionales de salud tener el rápido acceso de la información histórica del niño en el momento preciso y así asegurar una atención personalizada y de calidad. Para la implementación de este sistema, el cual integrará las historias clínicas pediátricas se utilizará tecnología clúster por su alto rendimiento, escalabilidad y economía. En este sentido, el modelo establecido permitirá consolidar y optimizar un conjunto de circuitos de comunicación entre la Atención Primaria y Especializada, como son: citas previas, informe de interconsulta de alguna especialidad, solicitud y resultados de pruebas de laboratorio e imagen, transferencias a distintos centros hospitalarios, logrando así obtener la información necesaria para garantizar la calidad de atención de salud del niño. / Trabajo de suficiencia profesional
273

Análisis del crédito de consumo basado en el costeo ABC para optimizar la toma de decisiones en los canales comercializadores de una entidad financiera

Guerra Robalino, Axel January 2019 (has links)
Analiza el costo del crédito de consumo PLD basado en el costeo ABC para optimizar la toma de decisiones en los canales comercializadores de una entidad financiera. El sistema de costeo ABC no es una técnica totalmente original y novedosa ya que se fundamenta en los principios de la Teoría General de Costo en la cual su objetivo principal es el costo indirecto para minimizar los costos de producción y sin dejar de responder pertinentemente a las necesidades específicas del cliente. De esta manera, su foco en las actividades permite la mejora de los procesos y obtener los resultados esperados. En tal sentido, el objetivo de la investigación fue analizar el costo del crédito de consumo basado en el sistema de costeo ABC para determinar la eficiencia de los canales comercializadores en una entidad financiera. Posterior a la implementación de dicho sistema, se determinaron los costos en la red de agencias por puestos para los créditos de consumo PLD en la entidad financiera a través del costo directo por medio de los gastos operativos (gastos del personal y gastos administrativos) y el costo indirecto mediante las comisiones totales asignadas. Asimismo, se determinaron los costos de la banca telefónica estableciendo como costo directo el gasto del personal (remuneración variable) y el costo indirecto, las comisiones. Por último, se determinaron los costos de la fuerza de venta externa, considerando el gasto del personal (remuneraciones variables) como costo directo y las comisiones como el costo indirecto. En síntesis, la implementación del sistema de costeo ABC en la institución financiera permitió establecer los costos (directos e indirectos) a través de la representación gráfica de las actividades y evaluar los recursos para direccionarlos de forma efectiva para las mismas. Paralelamente, analizar el flujo de ingresos de acuerdo a cada colocación de un producto. / Tesis
274

Selección de conjuntos de datos a publicar en abierto basada en el Método Delphi Difuso

Enríquez-Reyes, Robert 20 November 2019 (has links)
Este trabajo de investigación se enfoca inicialmente en la realización de un mapeo sistemático para clasificar y analizar la investigación de datos abiertos realizada en la comunidad científica desde un punto de vista tecnológico, proporcionando una categorización de los trabajos de investigación basada en cinco facetas clave: impacto, tema, dominio, fases y tipo de investigación. Por lo tanto, este documento proporciona una visión general del área de datos abiertos que permite a los lectores identificar temas bien establecidos, tendencias y líneas de investigación abiertas. Además, se ofrece una extensa discusión cuantitativa y cualitativa que puede ser de utilidad para futuras investigaciones. La primera fase de identificación resultó en 671 artículos relevantes revisados por pares, publicados entre 2006 y 2017 en una amplia variedad de lugares. Se observa que el debate actual de la apertura de datos se centra en abrir los datos, especialmente públicos, teniendo en cuenta la ley de transparencia y la de protección de datos de cada país. Sin embargo, el mero cumpliendo de estas leyes no asegura la generación de valor a partir de los datos abiertos, ya que uno de sus beneficios más importantes se consigue cuando se reutilizan para crear productos y servicios TI de valor agregado. Uno de los problemas que necesariamente deben abordar las organizaciones que emprenden procesos de apertura es la selección de los conjuntos de datos a abrir. Se debe conocer qué datos de origen de la institución serían los más usados para generar valor a la sociedad con el fin de seleccionarlos para su apertura. Sin embargo, conocer los conjuntos de datos solicitados por la comunidad reutilizadora no es suficiente, pues publicar los datos tiene un costo en cuanto a hardware, software y recursos humanos que es necesario valorar. Por tanto, es necesario encontrar un equilibrio entre el interés reutilizador de los conjuntos de datos y su coste de publicación. Las propuestas estudiadas no combinan el criterio de los reutilizadores y el de los publicadores, ni utilizan un método formal conduciendo a resultados poco objetivos. En este trabajo de tesis doctoral se propone paliar esta problemática mediante la aplicación del Método Delphi Difuso con el fin de determinar qué conjuntos de datos son más susceptibles de ser reutilizados y qué conjuntos de datos tendrán un costo asumible para su publicación para proceder a su apertura. Se establece, además, a lo largo del trabajo de investigación un caso concreto de aplicación en el ámbito de las universidades ecuatorianas. Estas se encuentran en un proceso constante de innovación y buscan la participación y colaboración de los estudiantes y la comunidad universitaria en general, para generar productos y servicios TI de valor agregado a través de la apertura de sus conjuntos de datos. / Tesis doctoral realizada en el seno del proyecto de investigación "Publi@City: plataforma para la publicación y consumo de datos abiertos para una ciudad inteligente" (TIN2016-78103-C2-2-R) financiado por el Ministerio de Economía, Industria y Competitividad de España.
275

Implementación del proceso de emisión electrónica del SOAT para la mejora de la productividad del área de operaciones en una compañía de seguros

Chávez León, Alex Florentino January 2020 (has links)
La compañía de seguros en estudio es una empresa autorizada por la Superintendencia de Banca, Seguros y AFP (SBS), para comercializar seguros de vida y generales. Hoy en día, la cartera de sus productos cuenta con coberturas para diversos riesgos técnicos, tales como: Desgravamen, Sepelio Corto Plazo, Accidentes Personales, Seguro Obligatorio de Accidentes de Tránsito (SOAT), Vida Ley, Vida Grupo, Misceláneos, entre otros. El proceso de emisión física del SOAT que realiza la compañía ha incrementado considerablemente la carga operativa; pues, para llevarse a cabo, requiere del abastecimiento de especies valoradas, la distribución hacia los puntos de venta (Lima y provincia), el posterior recojo de las copias certificadas y la declaración de los vehículos asegurados en la base de datos de la Asociación Peruana de Empresas de Seguros (APESEG). La presente investigación busca implementar el proceso de emisión electrónica del SOAT para mejorar la productividad del área de operaciones de una compañía de seguros, a través de la aplicación de técnicas Lean, que permitan diagnosticar la situación inicial del proceso e identificar oportunidades de mejora, para luego, con las lecciones aprendidas, implementar el nuevo proceso de emisión. Puesto en funcionamiento la emisión electrónica y luego del análisis de los resultados obtenidos, se concluye que, implementar el proceso de emisión electrónica del SOAT, impacta significativamente en la productividad, siendo esto crucial para el crecimiento de la organización. / Tesis
276

Implementación de un sistema de información para la explotación de datos y apoyo para la mejora de la toma de decisiones basada en tecnologías de inteligencia empresarial - almacén de datos del censo y encuestas

Maguiña Huerta, Ciro Daniel January 2018 (has links)
Describe la implementación de un sistema de información para la explotación de datos y apoyo a la mejora en la toma de decisiones en base a sistemas de inteligencia de negocios, Data Warehouse de censos y encuestas para el Instituto Nacional de Estadística e Informática (INEI), adecuando los estándares de desarrollo internacional de la ISO/NTP 12207, PMBOK, RUP y de los protocolos internaciones de SMMX y de los tipos de meta data indicados por el sistema estadístico internacional establecido por las convenciones de Ginebra, Suiza, los cuales rigen para todos los institutos de estadística de la región. El problema que se identificó fue que el INEI en el año 2008, detecta en sus procesos de explotación de los datos y de la necesidad de brindar información de la información a los tomadores de forma ágil y versátil. Ante eso, básicamente los objetivos que se plantearon y alcanzaron fueron: diseñar, desarrollar e implementar un sistema de gestión de la información con el uso de las metodologías y tecnologías de inteligencia de negocios para el INEI de todas las fuentes de base de datos, específicamente para los datos del Censo de Población y Vivienda del 2007 y de los demás censos como Económico y Agropecuario, relacionando información de forma trasversal a todos ellos. Para ello, se identificaron procesos de desarrollo de software, adecuándolos a las buenas prácticas descritas en el modelo. / Trabajo de Suficiencia Profesional
277

Un sistema web para la gestión de cartera en garantía de créditos a largo plazo para una entidad bancaria

De la Cruz Aurelio, Ricardo William January 2013 (has links)
Publicación a texto completo no autorizada por el autor / Señala que en el mundo del sistema bancario, las operaciones requieren un alto grado de seguridad en sus procesos, esto incluye también a los procesos informáticos que dan soporte a dichas operaciones. Generalmente las entidades bancarias cuentan con un sistema especializado en Banca que administra las principales áreas y requerimientos que toda entidad de esa naturaleza debe poseer, incluyendo un alto grado de seguridad. Sin embargo, como en muchos casos hay nuevos procesos y funcionalidades requeridas por las organizaciones que actualmente no pueden ser cubiertas por dichos sistemas, y desarrollarlos sobre la misma plataforma supondrían una gran inversión en costos y tiempo. Tal es el caso de la gestión de cartera que tratamos en el presente trabajo, donde nos orientaremos a gestionar los créditos a largo plazo de la cartera bancaria proponiendo un sistema web especializado, basándose para ello de tecnologías más difundidas en el mercado de desarrollo de software que permiten realizar una menor inversión, asimismo valiéndose de una arquitectura web que facilite la integración de sistemas y propicie la consistencia de información. / Trabajo de suficiencia profesional
278

Aplicación de Data Science Specialist

Ccora Camarena, Yuli, Jeri De La Cruz, Nélida, Enriquez Yance, Rosario Grace 14 January 2020 (has links)
El trabajo de investigación que se presenta a continuación constituye el análisis de la problemática planteada sobre la empresa Travico Perú S.A.C, la cual ha reportado un descenso en sus ventas de sus diferentes servicios que ofrece. Para este desarrollo de este trabajo se ha aplicado la metodología de la ciencia de datos, con la cual se logró identificar las variables que influyeron en las ventas de todos los servicios durante los años 2016 al 2018, el conjunto de datos se obtuvo a través de plataformas con las que la empresa trabaja y los reportes de control interno, con ello, se identificaron 12 variables con 6429 datos. Así mismo, se empleó la técnica de aprendizaje automático no supervisado, basado en particiones: K means, las cual permitió segmentar y agrupar las variables que fueron seleccionadas. Finalmente, para el análisis, se presentaron distintas gráficas con los resultados de las ventas de la empresa y se hicieron comparaciones con los resultados de los clústeres. / The research work presented below constitutes the analysis of the problem raised about the company Travico Perú S.A.C, which has reported a decrease in its sales of its different services offered. For this development of this work, the methodology of data science has been applied, with which it has been identified to identify the variables that influenced the sales of all services during the years 2016 to 2018, the data set was achieved through of platforms with which the company works and internal control reports, thereby identifying 12 variables with 6429 data. Furthermore, we use a technique machine learning without supervised, based on partitions: K means the qualified segment and group the variables that were selected. Finally, for the analysis, different graphs are shown with the results of the company's sales and comparisons were made with the results of the clusters. / Trabajo de investigación
279

Implementación de modelos de inteligencia de negocios 2.0 para la automatización del proceso de cierre contable y reportes para el control de gestión de ventas

Durand Collantes, Giancarlo Martin January 2017 (has links)
Publicación a texto completo no autorizada por el autor / Presenta el modelo de inteligencia de negocios 2.0 como alternativa para mejorar las eficiencias de los procesos del control de gestión de ventas dentro de la empresa Telecel, a través de automatizaciones, lo que permite obtener ventaja competitiva. Se hace énfasis en la generación y gestión de información de calidad en los tiempos oportunos, automatizaciones y optimizaciones de costos y tiempos. Busca simplificar y automatizar la creación y análisis de reportes, a través de la implementación de un Datamart específico para cada necesidad de negocio, que permita visualizar dashboards dinámicos con acceso a información histórica. Optimiza los tiempos de los procesos y generación de ahorros en las áreas del control de gestión de ventas. Reduce la cantidad de errores que impacten en los tiempos de los procesos y/o funciones dentro de la empresa. Proporciona el modelamiento dimensional de los datos internos de un área. / Tesis
280

Detección de fraudes usando técnicas de clustering

Cruz Quispe, Lizbeth María, Rantes García, Mónica Tahiz January 2010 (has links)
El fraude con tarjetas de crédito es uno de los problemas más importantes a los que se enfrentan actualmente las entidades financieras. Si bien la tecnología ha permitido aumentar la seguridad en las tarjetas de crédito con el uso de claves PIN, la introducción de chips en las tarjetas, el uso de claves adicionales como tokens y mejoras en la reglamentación de su uso, también es una necesidad para las entidades bancarias, actuar de manera preventiva frente a este crimen. Para actuar de manera preventiva es necesario monitorear en tiempo real las operaciones que se realizan y tener la capacidad de reaccionar oportunamente frente a alguna operación dudosa que se realice. La técnica de Clustering frente a esta problemática es un método muy utilizado puesto que permite la agrupación de datos lo que permitiría clasificarlos por su similitud de acuerdo a alguna métrica, esta medida de similaridad está basada en los atributos que describen a los objetos. Además esta técnica es muy sensible a la herramienta Outlier que se caracteriza por el impacto que causa sobre el estadístico cuando va a analizar los datos. / ---The credit card fraud is one of the most important problems currently facing financial institutions. While technology has enhanced security in credit cards with the use of PINs, the introduction of chips on the cards, the use of additional keys as tokens and improvements in the regulation of their use, is also a need for banks, act preemptively against this crime. To act proactively need real-time monitoring operations are carried out and have the ability to react promptly against any questionable transaction that takes place. Clustering technique tackle this problem is a common method since it allows the grouping of data allowing classifying them by their similarity according to some metric, this measure of similarity is based on the attributes that describe the objects. Moreover, this technique is very sensitive to Outlier tool that is characterized by the impact they cause on the statistic when going to analyze the data. / Tesis

Page generated in 0.0532 seconds