• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1450
  • 92
  • 31
  • 11
  • 3
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 1594
  • 516
  • 487
  • 370
  • 360
  • 360
  • 360
  • 360
  • 332
  • 304
  • 294
  • 227
  • 211
  • 195
  • 192
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

Sistema de historias clínicas digital para enfrentar la inoportunidad de entrega de los informes de las pruebas de ayuda diagnóstica para la atención médica en el Hospital Central de la Fuerza Aérea del Perú y los establecimientos de salud del nivel II de la FAP

Balletta Nastasi, Carlos Alberto, Cabellos Gárate, Juan Antonio 29 January 2021 (has links)
Siendo la salud pilar fundamental para el desarrollo sostenido de la persona esta debe ser tratada de forma célere a fin de que no se agrave su situación para lo cual se debiera diseñar una estructura de atención que centre con diferentes medios de ayuda que permita su realización en este caso una historia clínica digitalizada e interconectada con ayudas al diagnóstico a la mano y precisa que ayudaría a su atención pertinente. El presente proyecto tiene como problema público la inoportunidad de entrega de los informes de las pruebas de ayuda diagnóstica (tomografía, ecografía y resonancia magnética) para la atención médica en el Hospital Central de la Fuerza Aérea del Perú (FAP) en el periodo 2018-2019. El concepto final de innovación el proyecto en su totalidad pretende lograr un sistema informático que permita el alta de historias clínicas y la actualización de los datos, como resultado de la relación entre médico/servicio y paciente en los distintos establecimientos de salud FAP. El Sistema de Historia Clínica Digitalizada (SHCD), es el adecuado para solucionar la inoportunidad con respecto al tratamiento del paciente en el Hospital Central de la FAP, se presenta como el método más eficiente para manejar el volumen creciente acerca de la información del paciente y que se integre de forma natural con el trabajo del personal médico a nivel nacional y bajo los niveles de atención hospitalaria II y III del Sistema de Salud de la Fuerza Aérea del Perú. / Since fundamental health is fundamental for the sustained development of the person, it must be treated in a timely manner so that their situation does not worsen, for which a care structure should be designed that centers with different means of help that allow its realization in This case is a digitalized and interconnected medical history with diagnostic aids at hand and precise that helps your pertinent care. The present project has as its public problem the untimely delivery of reports of diagnostic aid tests (tomography, ultrasound and magnetic resonance) for medical care at the Central Hospital of the Peruvian Air Force (FAP) in the period 2018 -2019. The final concept of innovation, the project in its entirety, aims to achieve a computer system that allows the registration of medical records and the updating of data, as a result of the relationship between doctor / service and patient in the different FAP health devices. The Digitized Medical Record System (SHCD), is the adequate one to solve the inconvenience regarding the treatment of the patient in the Central Hospital of the FAP, it is presented as the most efficient method to handle the increasing volume about the patient information and that it is naturally integrated with the work of the personal physician at the national level and below the levels of hospital care II and III of the Health System of the Peruvian Air Force. / Trabajo de investigación
302

Aplicación de un sistema de alerta temprana basada en la minería de datos para identificar patrones delictivos en la ciudad de Chiclayo

Jiménez Berríos, Lesly Haymet January 2015 (has links)
La investigación surgió como alternativa de solución a las deficiencias encontradas en el proceso de registro de denuncias y caracterización de perfiles delictivos. El análisis de la información delictiva es vital para los fines de prevención delictiva, por ello se analizó los registros de los delitos cometidos en el pasado involucrando a los autores materiales, el delincuente. Tomando como base la metodología CRISP-DM. Tuvo como hipótesis que el desarrollo de un modelo de minería de datos como herramienta de apoyo podría contribuir a la caracterización de perfiles delictivos. Teniendo como objetivo principal identificar patrones delictivos de la ciudad de Chiclayo apoyado por la implementación del sistema de alerta temprana basada en la minería de datos, ya que cada vez este proceso es más tedioso pues la información obtenida de cada denuncia respecto al delincuente está desligada, generando pérdidas de tiempo al momento de analizar dicha información, conllevando a crear perfiles delictivos deficientes. Los resultados de la investigación indicaron que se logró identificar 12 perfiles delictivos diferenciados demostrando que el sistema de alerta temprana es aplicable pues consiguió reducir considerablemente el tiempo dedicado al proceso de registro de denuncias y búsquedas de perfiles delictivos. En conclusión la implementación del sistema alcanzó su objetivo, permitió a los policías acceder a la información de forma organizada y sistematizada, además logró minimizar la búsqueda de posibles personas sospechosas ante una denuncia.
303

Diseño y Construcción de un Sistema de Unificación de Señales de Video

Castillo Durán, Nelson Javier January 2010 (has links)
Este proyecto nace de una propuesta del profesor guía de esta memoria, que plantea la realización de un multiviewer, dispositivo capaz de mostrar varias entradas de video a través de una sola pantalla, para ser utilizado en televisoras y compañías de televisión por cable para la administración, verificación y edición de la señales de transmisión de TV. Además el mercado de este producto es mucho mayor teniendo un gran uso en sistemas de seguridad, monitoreo de transito, eventos y posibles usos en comercialización de dispositivos de video. El objetivo general del presente trabajo consiste en diseñar e implementar el software y hardware de un prototipo básico del sistema multiviewer, que permita sentar las bases de un futuro producto comercial. Este trabajo parte con la recopilación de información, investigando características de multiviewers comerciales de las cuales se elijen para implementar: el soporte de múltiples estándares, el control de tamaño y posición de sub-imágenes. La implementación del dispositivo requiere indagar en tecnologías de procesamiento lo que lleva a comparar las tecnologías Digital Signal Processor (DSP) y Field Programmable Gate Array (FPGA), llegando a la conclusión de la superioridad de la segunda por sus atributos de procesamiento paralelo. Luego de esto se define el diseño del dispositivo asignándole las funciones de control a la FPGA y el manejo de estándares a dispositivos externos. Las funciones de control son diseñadas como manejo de memoria para el control de posición, como interpolación y filtrado de señales en dos dimensiones para el control de tamaño, esto es implementado a través de Verilog un Lenguaje de Descripción de Hardware (HDL, Hardware Description Language) que permite la configuración de una FPGA. Por otra parte, el hardware del sistema se diseña para utilizar la plataforma de desarrollo Spartan-3A Starter Kit, con la cual se reduce el tiempo de desarrollo, y se limita el diseño a una placa de circuito impreso (PCB, Printed Circuit Board) con conexión a la plataforma de desarrollo. La PCB diseñada contiene los chips encargados de los estándares y los conectores necesarios para capturar las entradas y emitir la salida de video. El objetivo de diseñar e implementar el software del sistema fue completado, obteniendo la codificación en HDL de un sistema de dos entradas y una salida de video en formato YCbCr con muestreo 4:2:2 acorde a la recomendación UIT-R BT.601 de la Unión Internacional de Telecomunicaciones (UIT) y con una interfaz acorde a la recomendación UIT-R BT.656. La salida de video contiene la imagen de un máximo de dos sub-pantallas de tamaño y posición seleccionable por el configurador, las cuales pueden contener una de las entradas del sistema. El segundo objetivo de esta memoria se alcanzó parcialmente, logrando obtener los planos de la placa de circuito impreso, pero no así su construcción, la cual se plantea como un trabajo futuro. El sistema diseñado permite la proyección de dos posibles sistemas comerciales a futuro, uno de bajo costo y prestaciones básicas para usos domiciliarios en seguridad y otro profesional para tareas de mayor envergadura que necesiten más entradas de video por monitor, una mejor calidad de imagen y mayor control sobre ellas.
304

Editor de Documentos XML Usando Plantillas y Transformaciones

Hernández Hernández, Daniel Ricardo January 2011 (has links)
La edición de datos semi-estructurados, en particular de documentos XML, es habitualmente abordada con formularios e interfaces de edición para tablas (scaffolds), herramientas diseñadas para trabajar con datos estructurados. Otras herramientas que sí pueden abordar modelos semi-estructurados (como XForms y XTiger) no poseen un lenguaje completamente declarativo y están limitadas a modelos no recursivos. Estas limitaciones implican un mayor costo en el desarrollo de aplicaciones que trabajan con datos semi-estructurados. En esta memoria se propone un lenguaje de plantillas, que bautizamos Queule, basado en XTiger, para la edición de datos semi-estructurados. Queule reduce los costos de implementar interfaces de edición al permitir la definición declarativa de interfaces para los modelos y al incluir el soporte a modelos recursivos. Las plantillas, al igual que los esquemas de datos (DTD, XML Schema, Schematron, RELAX NG, etc.), permiten delimitar el universo de las instancias que satisfacen un modelo. A diferencia de los esquemas, en los que se habitualmente se provee de algoritmos para decidir si se satisface un esquema, las plantillas proveen mecanismos para editar los datos definiendo de manera constructiva las restricciones del modelo. La idea de usar transformaciones, unidireccionales o bidireccionales, mencionada en el título de esta memoria, estaba motivada por el almacenamiento de los datos en un documento distinto al usado como plantilla. Al inicio del desarrollo de esta memoria, las transformaciones cumplían un rol central en el sistema que, no obstante, perdió relevancia cuando se descubrió la posibilidad, y conveniencia, de que una plantilla no estuviera reflejada necesariamente en un sólo documento de una base documental, si no más bien, en una vista de una base de datos cualquiera. De este modo, los cambios no esperarían al término de la edición para ser enviados en la forma del documento editado, sino que podrían enviarse de manera asíncrona a medida que se edita. En el desarrollo de esta memoria se implementó un intérprete para la versión 1.0 del lenguaje Queule que se limita a la definición de estructuras de árbol que consideran el orden entre los nodos hermanos. Futuras versiones de Queule, podrían extender la edición a un modelo de grafos más general. El funcionamiento de Queule 1.0 es ejemplificado con varias plantillas que pueden ser editadas usando los navegadores Web más populares debido a que el intérprete fue programado como una biblioteca JavaScript.
305

Mejoramiento de una Metodología para la Identificación de Website Keyobjects mediante la Aplicación de Tecnologías Eye Tracking y Algoritmos de Web Mining

González González, Larry Javier January 2011 (has links)
El objetivo general de esta memoria es mejorar la metodología para identi car Website Keyobjects diseñada por Velásquez y Dujovne mediante el uso de herramientas Eye Tracking y algoritmos de Web Mining. Dado un sitio web, esta metodología toma como entrada el registro de peticiones (web log) del sitio, las páginas que lo componen y el interés de los usuarios en los objetos web de cada página, el cual es cuanti ficado a partir de una encuesta que permite medir la atención prestada por los usuarios sobre los objetos. Luego los datos son transformados y pre-procesados para finalmente aplicar algoritmos de Web Mining que permiten extraer los Website Keyobjects. Considerando lo anterior, en este trabajo de memoria se sugiere una forma distinta de cuanti ficar el interés de los usuarios sobre los objetos web, utilizando una tecnología de rastreo ocular (Eye Tracking), con el objetivo de prescindir de la encuesta, ocupar una herramienta de mayor precisión y así mejorar la clasi cación de los Website Keyobjects. Para comenzar, se investigaron las distintas técnicas y herramientas de rastreo ocular. Se optó por ocupar un Eye Tracker que ocupa la técnica más avanzada en su campo, la que ilumina los ojos con luces infrarojas y captura sus movimientos según el brillo de la pupila y el reflejo de la córnea, todo esto basado en vídeo. Luego se diseñó un experimento que permitiera establecer si se produce una mejora en la clasi cación de los objetos al ocupar distintos valores del interés de los usuarios: medido según una encuesta o un Eye Tracker. Se concluyó que la tecnología Eye Tracking es sumamente útil y precisa a la hora de conocer que es lo que mira un usuario y, por lo tanto, que es lo que más captura su atención. Además que el integrar esta tecnología a la metodología permite no realizar una encuesta, con lo que se evitan situaciones donde es altamente posible ingresar errores de forma involuntaria. Finalmente se estableció se produce una leve mejora, entre un 5 % y 6 %, en la metodología al ocupar la información generada por el Eye Tracker.
306

Análisis Cuantitativo de la Efectividad en los Programas de Sename Bajo la Nueva Legislación Penal Adolescente

Miranda Sáez, Rodrigo Alejandro January 2011 (has links)
No description available.
307

Diseño y construcción de un Data Mart para el análisis de preferencias del usuario en la web a partir de datos originados en el portal Educarchile

Arias Cuevas, Jaime Mijail January 2012 (has links)
Ingeniero Civil Industrial / El objetivo general del trabajo de título es diseñar y construir un Data Mart que permita obtener indicadores de uso de los escritorios del portal educarchile. Educarchile es un portal administrado por la Fundación Chile, y que fue creado por esta última en conjunto con el Ministerio de Educación. Su misión es contribuir al mejoramiento de la calidad de la educación en todos sus niveles, para lo cual cuenta con un sitio dirigido a todos los miembros de la comunidad educativa nacional. Para esto, el diseño del sitio se basa en un Home y 4 escritorios enfocados en cada segmento de usuarios, los que constan de secciones que sirven de enlace al contenido del portal. Educarchile, con el objetivo de obtener información acerca del comportamiento de sus usuarios, trabaja con dos herramientas de pago, Certifica y Google Analytics. Sin embargo, debido al tamaño del portal y el dinamismo del contenido publicado en sus escritorios, no obtiene de estas herramientas información acerca de las preferencias que tienen los usuarios respecto a las secciones de aquellas páginas, y las llamadas viñetas que las componen, que son recursos que permiten la publicación de contenido bajo la restricción que algunas sean visualizadas solo si se hace un click sobre ellas. Adicionalmente, el sitio permite la emisión de opiniones en los artículos, sin embargo, no existe ningún tipo de alerta o filtro para las publicaciones que no se ajustan al clima y objetivo del portal. La hipótesis del trabajo plantea que a través de la creación de indicadores limpios y consolidados respecto del uso de las secciones y viñetas que componen el portal, y que se almacenarán en un Data Mart, el equipo de administración del sitio podrá acceder a información detallada acerca del comportamiento de sus visitantes, la que no ha sido obtenida hasta hoy. Para llevar a cabo el trabajo, se diseñó una arquitectura que permite la extracción y el procesamiento de los datos, además de su posterior carga en un repositorio multidimensional, el que funciona como fuente de datos para consultas OLAP. La arquitectura consta de 3 elementos principales: los modelos de datos; el proceso de extracción, transformación y carga de los datos; y un modelo para clasificar y filtrar opiniones, basado en el algoritmo Naive Bayes. Para cada elemento se optó por la utilización de herramientas gratuitas. Los indicadores obtenidos a través del procesamiento de los archivos weblog entregaron información desconocida y valiosa al equipo del portal. Uno de los principales resultados fue: comprobar que las viñetas que componen las secciones de los escritorios producen un alto sesgo en el comportamiento de los usuarios, principalmente en aquellas secciones que contienen información de actualidad. En ellas los usuarios no visualizan los recursos que son publicados en las viñetas que se encuentran ocultas por defecto, lo que se traduce en una política ineficiente de edición y publicación de artículos. Por su parte, el algoritmo Naive Bayes obtuvo un alto índice de recall para aquellas clases que se deseaba predecir (ayuda y planificación), que en ambos casos supera el 85%. Sin embargo, la clase que representa el resto de los comentarios tiene un menor recall, habiendo un 30% de las opiniones clasificadas erróneamente. Como conclusión, el modelo propuesto es capaz de satisfacer las necesidades de información de la organización, entregando conocimiento útil a la hora de evaluar y definir nuevas políticas de publicación de contenidos que se ajusten a las reales preferencias de los usuarios. A pesar de aquello, se recomienda realizar una nueva medición de los indicadores una vez efectuados cambios en el diseño de las páginas, para así obtener resultados contundentes que permitan identificar las preferencias de diseño y contenido por parte de los usuarios. Además, se recomienda implementar en el sitio el modelo obtenido para las opiniones, y así detener la publicación de comentarios que no aportan valor al sitio.
308

Desarrollo y evaluación de metodologías para la aplicación de regresiones logísticas en modelos de comportamiento bajo supuesto de independencia

Biron Lattes, Miguel Ignacio January 2012 (has links)
Ingeniero Civil Industrial / El presente documento tiene por objetivo desarrollar y evaluar una metodología de construcción de regresiones logísticas para scorings de comportamiento, que se haga cargo del supuesto de independencia de las observaciones inherente al método de estimación de máxima verosimilitud. Las regresiones logísticas, debido a su facilidad de interpretación y a sus buen desempeño, son ampliamente utilizadas para la estimación de modelos de probabilidad de incumplimiento en la industria financiera, los que a su vez sirven múltiples objetivos: desde la originación de créditos, pasando por la provisión de deuda, hasta la pre aprobación de créditos y cupos de líneas y tarjetas. Es por esta amplia utilización que se considera necesario estudiar si el no cumplimiento de supuestos teóricos de construcción puede afectar la calidad de los scorings creados. Se generaron cuatro mecanismos de selección de datos que aseguran la independencia de observaciones para ser comparados contra el método que utiliza todas las observaciones de los clientes (algoritmo base), los que posteriormente fueron implementados en una base de datos de una cartera de consumo de una institución financiera, en el marco de la metodología KDD de minería de datos. Los resultados muestran que los modelos implementados tienen un buen poder de discriminación, llegando a superar el 74% de KS en la base de validación. Sin embargo, ninguno de los métodos propuestos logra superar el desempeño del algoritmo base, lo que posiblemente se debe a que los métodos de selección de datos reducen la disponibilidad de observaciones para el entrenamiento, lo que a su vez disminuye la posibilidad de poder construir modelos más complejos (mayor cantidad de variables) que finalmente entreguen un mejor desempeño.
309

Propuesta y aplicación de un modelo que permita identificar los factores que influyen en el nivel de eficiencia de la red de sucursales de la banca personas del BBVA

Farías Gutiérrez, Karina Solange January 2013 (has links)
Ingeniera Civil Industrial / El objetivo del presente trabajo de título es proponer y aplicar un modelo que permita identificar los factores que influyen en el nivel de eficiencia de las sucursales del BBVA, entendiendo eficiencia como cuán bien una sucursal transforma sus recursos en productos . Para llevar a cabo el objetivo, se investigó sobre las técnicas que se utilizan para medir eficiencia en la industria de servicios, y se decidió aplicar la herramienta Data Envelopment Analysis (DEA). El DEA es uno de los métodos más utilizados para evaluar el desempeño de unidades organizacionales homogéneas como las oficinas de los bancos. Mediante la aplicación del DEA se obtiene un puntaje de eficiencia para cada sucursal, información con la cual se deriva un análisis de los factores que influyen en el nivel de eficiencia. Los factores considerados en el estudio son: el formato, el número de ejecutivos, el diseño de metas del sistema de incentivos, la gestión del agente y el número de cajeros automáticos. Los resultados del análisis indican que existen importantes diferencias en el nivel de eficiencia de un formato y otro, por lo que se concluye que el formato influye en el nivel de eficiencia de las sucursales. Por su parte, el estudio del número de ejecutivos, permite afirmar que este factor influye en el nivel de eficiencia, ya que existen combinaciones de ejecutivos que son más eficientes según el formato de la sucursal. El número de cajeros automáticos por oficina, no resulta ser un factor relevante en el nivel de eficiencia. El diseño de metas del sistema de incentivos, es el mayor factor de ineficiencia, porque el estándar dispuesto por el sistema de incentivos, difiere del nivel de eficiencia óptimo según DEA. Una situación similar, resulta del análisis del índice de desempeño del agente de cada sucursal, que permite concluir que las metas según formato están mal diseñadas, ya que existen diferencias entre el nivel de eficiencia de DEA y el establecido por el sistema de incentivos. Finalmente, en base a los resultados del DEA, se establecen las recomendaciones sobre los productos que deben mejorar las sucursales, para obtener un mejor nivel de eficiencia. El modelo propuesto permite tener una medida de eficiencia, que apoya el estudio de los factores que afectan su nivel y entrega una guía de recomendaciones para a mejorar la eficiencia.
310

Design and implementation of an algorithm for the screening of obstructive sleep apnea in childrean under 15 years old

Erazo Gajardo, Lili Valentina January 2014 (has links)
Los Trastornos Respiratorios del Sueño (TRS) son un grupo de enfermedades que afectan la funci ón respiratoria durante la noche, desde el ronquido primario a la apnea del sueño -la más grave de ellas-. Los niños que padecen apnea del sueño pueden desarrollar desde trastornos de crecimiento hasta de ficiencias cognitivas de largo plazo. Sin embargo, una vez que han sido diagnosticados, el tratamiento es efectivo en la mayor ía de los casos, mejorando su calidad de vida y evitando consecuencias en su desarrollo cognitivo. El gold-standard (mejor prueba cl í nica) para el diagn óstico de TRS es la polisomnografí a, que consiste en la recolecci ón de señales biom édicas durante el sueño. El problema es que este examen es invasivo, costoso y difí cil de practicar en niños pequeños. Por lo tanto existe la necesidad de una forma de prediagnosticar TRS, específi camente apnea para aumentar el n úmero de niños diagnosticados, y, como resultado, el n úmero de niños tratados. Para esto, el objetivo general planteado es prediagnosticar apnea obstructiva del sueño a partir de señales recogidas por polisomnografí a en niños menores de 15 años usando t écnicas de minerí a de datos. El resultado esperado de este trabajo es un algoritmo capaz de clasi ficar infantes, usando menos informaci ón que la polisomnografí a, en dos grupos: poblaci ón en riesgo de padecer apnea y poblaci ón fuera de riesgo (o muy bajo riesgo). El trabajo est á dividido en dos etapas, la primera de ellas son modelos basados en una señal, la segunda consta de modelos basados en m ás de una señal. Los resultados de la primera etapa muestran modelos de buena calidad aunque s ólo est án basados en una señal; algunos con sensibilidad y especi ficidad por sobre el 85% y podrí an sentar las bases de un modelo v álido de prediagn óstico. En la segunda etapa se identi ficaron, mediante t écnicas de reducci ón de informaci ón, las señales que tienen mayor poder predictivo para realizar el prediagn óstico, los modelos basados en estas señales alcanzaron hasta el 100% de precisi ón.

Page generated in 0.0563 seconds