• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 182
  • 9
  • 1
  • 1
  • Tagged with
  • 193
  • 193
  • 76
  • 69
  • 60
  • 52
  • 46
  • 46
  • 46
  • 46
  • 40
  • 39
  • 31
  • 31
  • 28
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Proceso de descubrimiento de conocimiento para predecir el abandono de tratamiento en una entidad de salud pública

Candela Cáceres, Julio Christians 04 June 2015 (has links)
El presente proyecto académico de fin de carrera tiene como objetivo mostrar el proceso automatizado de cada etapa del proceso de descubrimiento con el fin de predecir el abandono en los tratamientos de cáncer de una entidad de salud pública con una precisión eficiente basándose en características o factores determinados en la etapa de análisis junto con los miembros de la institución. La información resultante servirá de apoyo para que los administradores de la entidad de salud puedan plantear las políticas y estrategias personalizadas de retención de pacientes. Como se mencionó anteriormente, se tomaron en cuenta todas las etapas del proceso de descubrimiento de conocimiento - análisis, extracción, pre-procesamiento, estimación del modelo e interpretación - para que la información resultante pueda ser confiable y oportuna para la toma de decisiones. Adicionalmente, como parte de la etapa de extracción de datos, se encontró la necesidad de diseñar un DataMart que organice y facilite el análisis de información, no solo para el proyecto actual, sino para otras necesidades que puedan surgir en el futuro. Cada etapa tuvo apoyo de herramientas de software y metodologías que han sido ampliamente usadas con éxito en este tipo de proyectos. Se escogieron herramientas gratuitas que tendrían mayor apoyo a los requerimientos del proyecto como la automatización de los procesos, diseño del DataMart y el proceso general de Minería de Datos. En conclusión, el proyecto culminó con éxito cumpliendo los estipulado en cada uno de los resultados esperados, por lo cual, se puede determinar que el proceso automatizado podrá ser útil para determinar que pacientes abandonan su tratamiento y brindar la información oportuna a los encargados de tomar las decisiones. / Tesis
52

Diseño e implementación de una interfaz para el control de un módulo educativo utilizando una PC para un laboratorio remoto-virtual de comunicaciones

Ramírez Campos, Patricia Noemí 09 June 2011 (has links)
En diversas ocasiones se ha podido observar que para aprender un curso o una materia resulta más efectivo en cuanto a retención y comprensión si además de la teoría se puede ver o relacionar los sucesos en un experimento de laboratorio. Estos lugares son de gran utilidad tanto para el entendimiento como para la investigación. Sin embargo, a pesar de su importancia no es un beneficio del que cualquiera y en cualquier momento pueda gozar. Por esta razón y con la tecnología desarrollada hasta la actualidad varios laboratorios están evolucionando. De esta manera hoy en día se puede tener la experiencia del laboratorio de manera remota utilizando el internet. Esto está ocurriendo en muchas materias en diferentes áreas académicas. En el caso del curso de la teoría de las comunicaciones el laboratorio es una herramienta muy útil para el entendimiento de los temas por lo que el poder realizarlo remotamente resulta beneficioso. Para lograr este objetivo en la PUCP es necesaria la creación de una interfaz que permita controlar los módulos educativos promax EC-696 por el computador. Tomando en cuenta lo antes mencionado, este trabajo de tesis tuvo como principal objetivo el diseño e implementación de una interfaz que permita el manejo de los módulos sin necesidad de manipularlos directamente. También se diseñó una interfaz gráfica utilizando la herramienta del GUI de Matlab para poder controlarlos y tener una visualización de los estados en que se encuentran en la pantalla de una PC. / Tesis
53

Análisis y diseño de una herramienta de desarrollo de soluciones para inteligencia de negocios módulo de extracción

Infantas Asunción, Pilar Eliana, Mendoza Suárez, César Manuel, Uribe Uribe, María Magdalena 09 May 2011 (has links)
La Tecnología de Información (TI) es, en la actualidad, un componente de gran importancia para cualquier organización. Sin embargo, son los datos y su adecuado manejo como transformaciones, búsqueda de patrones, y consolidaciones; lo que le da un carácter estratégico a la TI en la organización. En este contexto es donde aparecen conceptos como el de Inteligencia de Negocios, que apoyados en técnicas, estrategias, metodologías y herramientas buscan ofrecer información más adecuada para la toma de decisiones. Una solución de Inteligencia de Negocios puede, con gran posibilidad, cambiar el rumbo de una organización. La implementación de soluciones de Inteligencia de Negocios se apoya necesariamente en un conjunto de herramientas informáticas que tienen que cubrir un ciclo de trabajo que comienza con la definición de un almacén de datos o Data Warehouse, la extracción y transformación de los datos desde diversas fuentes de información, y finalmente, la explotación de la información a través de diversos reportes tabulares y gráficos que permitan a la alta dirección de una organización la toma de decisiones. El presente proyecto de tesis busca realizar el análisis y diseño del módulo de extracción de una herramienta básica para Soluciones de Inteligencia de Negocios que cubra todos los procesos del ciclo de trabajo. La arquitectura permitirá que una organización provea el servicio de Inteligencia de Negocios a múltiples organizaciones. Además, se toma en cuenta la escalabilidad del producto para soportar mayor número de fuentes de datos en futuras versiones. / Tesis
54

Monitoreo en tiempo real de DNS utilizando herramientas open source

Espinoza Rosales, Felipe Alejandro January 2018 (has links)
Ingeniero Civil en Computación / El sistema de nombres de dominio (DNS, por sus siglas en inglés, Domain Name System) ha pasado a ser una parte fundamental en la infraestructura de Internet, permitiendo el acceso a los diferentes recursos disponibles de manera fácil y rápida. Este sistema es utilizado para localizar los diferentes sistemas críticos encontrados en internet, permitiendo traducir nombres de dominio memorables en una dirección IP numérica. Dada la gran importancia que este sistema ha obtenido, asegurar su correcto funcionamiento ha pasado a ser un punto fundamental, lo cual ha llevado a implementar sistemas de monitoreo que permitan detectar anormalidades en los servidores DNS. Las herramientas de monitoreo actuales son de carácter privado, o no aprovechan los avances que se han generado para realizar un análisis y alertas más detalladas sobre el estado de estos. Esta memoria describe el análisis, desarrollo e integración de diferentes herramientas open source para realizar el monitoreo de servidores DNS, permitiendo visualizar su estado actual y detectar anormalidades, activando alertas para notificar a los administradores. Además, se busca permitir el análisis de eventos pasados a través del almacenamiento de la información desagregada, permitiendo una visión detallada para el desarrollo de medidas de prevención y mitigación de eventos futuros. La utilización de herramientas open source permite facilitar el acceso al proceso de monitoreo a los administradores de los servidores DNS, y así mejorar la velocidad de reacción ante eventos producidos en esta crítica pieza de internet. Elprocesodemonitoreosedividióenlascapasdecaptura,almacenamientoyvisualización, en las cuales se establecieron los diferentes requisitos que debe cumplir cada una de estas, además de las métricas a medir basándose en trabajos relacionados. Los softwares públicamente disponibles analizados en la capa de captura no lograron satisfacer todos los requisitos planteados, por lo cual, basándose en software similares, se realizó el desarrollo del software DnsZeppelin, el cual logro presentar una mejora en la velocidad de procesamiento de paquetes DNS en comparación a las otras herramientas analizadas. La capa de captura presento ser el punto más complejo de esta arquitectura, dado el gran volumendedatosquedebeseralmacenadoyagregadoparasuvisualización.Pararealizaruna selección que se adecue a los requerimientos definidos, se procedió a realizar un benchmark de los diferentes sistemas, realizando una simulación de los datos que se generarán y las consultas a realizar, con lo cual finalmente se seleccionó el software ClickHouse. En la capa de visualización se realizó la selección del software según el cumplimiento de los requerimientos y su compatibilidad con el sistema de almacenamiento seleccionado, lo cual llevo a seleccionar el software Grafana, en el cual se implementó la compatibilidad con el sistema de alertas que este posee. Finalmente, utilizando los softwares DnsZeppelin, ClickHouse y Grafana, se desarrolló su integración y se realizaron pruebas con datos simulados y reales provistos por el laboratorio de investigación de NIC Chile NICLabs, validando el correcto funcionamiento de este sistema sobre cargas mayores a diez veces a las hoy generadas.
55

Una Metodología para sectorizar pacientes en el consumo de medicamentos aplicando Datamart y Datamining en un hospital nacional

Tapia Rivas, Iván Gildo January 2006 (has links)
La Minería de Datos (Data Mining) es la búsqueda de patrones interesantes y de regularidades importantes en grandes bases de datos. La minería de datos inteligente utiliza métodos de aprendizaje automático para descubrir y enumerar patrones presentes en los datos. Una forma para describir los atributos de una entidad de una base de datos es utilizar algoritmos de segmentación o clasificación. El presente trabajo, propone un método para el análisis de datos, para evaluar la forma con la que se consumen los medicamentos en un hospital peruano, poder identificar algunas realidades o características no observables que producirían desabastecimiento o insatisfacción del paciente, y para que sirva como una herramienta en la toma de decisión sobre el abastecimiento de medicamentos en el hospital. En esta investigación, se utilizan técnicas para la Extracción, Transformación y Carga de datos, y para la construcción de un Datamart, para finalmente un algoritmo de minería de datos adecuado para el tipo de información que se encuentra contenida. / The Mining of Data (Mining Data) is the search of interesting patterns and important regularities in great data bases. The intelligent mining of data uses methods of automatic learning to discover and to enumerate present patterns in the data. A form to describe the attributes of an organization of a data base is to use algorithms of segmentation or classification. The present work, proposes a method for the analysis of data, to evaluate the form with which the medicines in a Peruvian hospital are consumed, to be able to identify some non-observable realities or characteristics which they would produce shortage of supplies or dissatisfaction of the patient, and so that it serves as a tool in the decision making on the medicine supplying in the hospital. In this investigation, techniques for the Extraction, Transformation and Load of data are used, and for the construction of a Datamart, finally an algorithm of mining of data adapted for the type of information that is contained.
56

Construcción de una base de datos para el desarrollo de sistemas de conversión de texto a habla

Rodriguez, Hernán Gonzalo January 2000 (has links)
No description available.
57

Implementación de una metodología para el diseño físico de un Data Warehouse

Erhardt, Juan Carlos January 2003 (has links)
No description available.
58

Integración de mecanismos activos en un MBDOO

Avendaño, Guillermo, Eleno, Fabián January 1995 (has links)
No description available.
59

Consultas en aplicaciones hipermediales

Dvoskin, Marcos January 1996 (has links)
No description available.
60

Procesamiento de transacciones sobre una base de datos

Asad Elías, María, Horak, Andrea January 1998 (has links)
No description available.

Page generated in 0.083 seconds