• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1078
  • 99
  • 7
  • 1
  • Tagged with
  • 1186
  • 512
  • 367
  • 367
  • 367
  • 367
  • 367
  • 327
  • 324
  • 310
  • 264
  • 233
  • 169
  • 145
  • 130
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Estetoscopio digital aplicado a la docencia médica

Lume Aguilar, Diego Arturo, Mayaute Gutty, José Alberto 05 January 2017 (has links)
Propone el desarrollo de un prototipo de estetoscopio digital con el objetivo de innovar la manera en la que los estudiantes de medicina aprenden a usar el estetoscopio tradicional, es decir a auscultar a un paciente. Para ello este trabajo se centra en el estudio del estetoscopio tradicional y en el de las señales acústicas que este proporciona. El primer paso que se debe realizar es el de la adquisición de la señal acústica que proporciona el estetoscopio, para ello se utiliza un micrófono que transforma esta señal en analógica. Luego, este micrófono es conectado a la entrada de audio de un Smarthphone o Tablet con la finalidad de digitalizar la señal y poder acentuar las bandas de frecuencias de los sonidos del corazón, pulmón y abdomen. Con las bandas de frecuencias acentuadas, se procede a enviar la señal vía WiFi a los alumnos que estén conectados dentro de la misma red del profesor logrando así que la señal se escuche en tiempo real. Con la finalidad de poder validar los resultados del prototipo, se realizaron pruebas en distintos hospitales, contando con la ayuda de doctores. Donde, conocieron los beneficios de la señal con y sin filtrar, y los beneficios que también se tiene al guardar el sonido para un posterior estudio del mismo. Los resultados obtenidos pudieron demostrar que el prototipo tiene una calidad de audio de igual o mayor calidad que el estetoscopio tradicional. Asimismo, se comprobó que los filtros eran ´útiles, ya que los doctores se pueden centrar en escuchar el ´órgano del paciente que se está auscultando, sin interferencia de los aledaños.
182

Sistema de Solicitudes On-Line para Mejorar Gestión y Calidad de Servicio a los Alumnos de un Instituto de Educación Superior

Ramírez Quezada, Ricardo Darwin January 2010 (has links)
Este trabajo tuvo como finalidad revisar la forma de atender y gestionar trámites que estudiantes realizan al interior de un Instituto Profesional, para luego desarrollar un proyecto de optimización, que redujera los tiempos de respuesta y las actividades necesarias para solicitudes académicas, financieras, de beneficios y otras. El Instituto Profesional de Chile (en adelante IPChile) nace en el año 2004 y ha estado desde entonces preocupado de mejorar todas las áreas de servicio junto con velar por la calidad académica. Actualmente el IPChile cuenta con tres sedes siendo Santiago la más grande en infraestructura y cantidad de alumnos, por esto el levantamiento y desarrollo fue realizado en esta sede y posteriormente puesto en funcionamiento para todas. La implementación de la solución, significó el desarrollo de un sistema de Solicitudes On-Line, el cual debió integrarse con los sistemas informáticos ya existentes. También se incorporó tecnología de apoyo como lectores láser y scanner de documentos, lo que permitió la eliminación de buena parte de formularios de papel.
183

Análisis de archivos Logs semi-estructurados de ambientes Web usando tecnologías Big-Data

Villalobos Luengo, César Alexis January 2016 (has links)
Magíster en Tecnologías de la Información / Actualmente el volumen de datos que las empresas generan es mucho más grande del que realmente pueden procesar, por ende existe un gran universo de información que se pierde implícito en estos datos. Este proyecto de tesis logró implementar tecnologías Big Data capaces de extraer información de estos grandes volúmenes de datos existentes en la organización y que no eran utilizados, de tal forma de transformarlos en valor para el negocio. La empresa elegida para este proyecto se dedicada al pago de cotizaciones previsionales de forma electrónica por internet. Su función es ser el medio por el cual se recaudan las cotizaciones de los trabajadores del país. Cada una de estas cotizaciones es informada, rendida y publicada a las instituciones previsionales correspondientes (Mutuales, Cajas de Compensación, AFPs, etc.). Para realizar su función, la organización ha implementado a lo largo de sus 15 años una gran infraestructura de alto rendimiento orientada a servicios web. Actualmente esta arquitectura de servicios genera una gran cantidad de archivos logs que registran los sucesos de las distintas aplicaciones y portales web. Los archivos logs tienen la característica de poseer un gran tamaño y a la vez no tener una estructura rigurosamente definida. Esto ha causado que la organización no realice un eficiente procesamiento de estos datos, ya que las actuales tecnologías de bases de datos relaciones que posee no lo permiten. Por consiguiente, en este proyecto de tesis se buscó diseñar, desarrollar, implementar y validar métodos que sean capaces de procesar eficientemente estos archivos de logs con el objetivo de responder preguntas de negocio que entreguen valor a la compañía. La tecnología Big Data utilizada fue Cloudera, la que se encuentra en el marco que la organización exige, como por ejemplo: Que tenga soporte en el país, que esté dentro de presupuesto del año, etc. De igual forma, Cloudera es líder en el mercado de soluciones Big Data de código abierto, lo cual entrega seguridad y confianza de estar trabajando sobre una herramienta de calidad. Los métodos desarrollados dentro de esta tecnología se basan en el framework de procesamiento MapReduce sobre un sistema de archivos distribuido HDFS. Este proyecto de tesis probó que los métodos implementados tienen la capacidad de escalar horizontalmente a medida que se le agregan nodos de procesamiento a la arquitectura, de forma que la organización tenga la seguridad que en el futuro, cuando los archivos de logs tengan un mayor volumen o una mayor velocidad de generación, la arquitectura seguirá entregando el mismo o mejor rendimiento de procesamiento, todo dependerá del número de nodos que se decidan incorporar.
184

FADRA: A CPU-GPU framework for astronomical data reduction and Analysis

Concha Ramírez, Francisca Andrea January 2016 (has links)
Magíster en Ciencias, Mención Computación / Esta tesis establece las bases de FADRA: Framework for Astronomical Data Reduction and Analysis. El framework FADRA fue diseñado para ser eficiente, simple de usar, modular, expandible, y open source. Hoy en día, la astronomía es inseparable de la computación, pero algunos de los software más usados en la actualidad fueron desarrollados tres décadas atrás y no están diseñados para enfrentar los actuales paradigmas de big data. El mundo del software astronómico debe evolucionar no solo hacia prácticas que comprendan y adopten la era del big data, sino también que estén enfocadas en el trabajo colaborativo de la comunidad. El trabajo desarollado consistió en el diseño e implementación de los algoritmos básicos para el análisis de datos astronómicos, dando inicio al desarrollo del framework. Esto consideró la implementación de estructuras de datos eficientes al trabajar con un gran número de imágenes, la implementación de algoritmos para el proceso de calibración o reducción de imágenes astronómicas, y el diseño y desarrollo de algoritmos para el cálculo de fotometría y la obtención de curvas de luz. Tanto los algoritmos de reducción como de obtención de curvas de luz fueron implementados en versiones CPU y GPU. Para las implementaciones en GPU, se diseñaron algoritmos que minimizan la cantidad de datos a ser procesados de manera de reducir la transferencia de datos entre CPU y GPU, proceso lento que muchas veces eclipsa las ganancias en tiempo de ejecución que se pueden obtener gracias a la paralelización. A pesar de que FADRA fue diseñado con la idea de utilizar sus algoritmos dentro de scripts, un módulo wrapper para interactuar a través de interfaces gráficas también fue implementado. Una de las principales metas de esta tesis consistió en la validación de los resultados obtenidos con FADRA. Para esto, resultados de la reducción y curvas de luz fueron comparados con resultados de AstroPy, paquete de Python con distintas utilidades para astrónomos. Los experimentos se realizaron sobre seis datasets de imágenes astronómicas reales. En el caso de reducción de imágenes astronómicas, el Normalized Root Mean Squared Error (NRMSE) fue utilizado como métrica de similaridad entre las imágenes. Para las curvas de luz, se probó que las formas de las curvas eran iguales a través de la determinación de offsets constantes entre los valores numéricos de cada uno de los puntos pertenecientes a las distintas curvas. En términos de la validez de los resultados, tanto la reducción como la obtención de curvas de luz, en sus implementaciones CPU y GPU, generaron resultados correctos al ser comparados con los de AstroPy, lo que significa que los desarrollos y aproximaciones diseñados para FADRA otorgan resultados que pueden ser utilizados con seguridad para el análisis científico de imágenes astronómicas. En términos de tiempos de ejecución, la naturaleza intensiva en uso de datos propia del proceso de reducción hace que la versión GPU sea incluso más lenta que la versión CPU. Sin embargo, en el caso de la obtención de curvas de luz, el algoritmo GPU presenta una disminución importante en tiempo de ejecución comparado con su contraparte en CPU. / Este trabajo ha sido parcialmente financiado por Proyecto Fondecyt 1120299
185

Sistema interactivo por voz para robot PR2

Guerrero Díaz, Sebastián Adolfo January 2015 (has links)
Ingeniero Civil Eléctrico / En el marco de la línea de investigación: Interacción Humano Robot, el lenguaje es un candidato natural para la interacción con máquinas y robots. En particular las tecnologías de procesamiento y transmisión voz juegan un rol fundamental en lo que respecta al reconocimiento automático de la voz o \gls{ASR}, ya que como concepto entrega la habilidad de escuchar al momento de interaccionar con un robot.\\ El objetivo principal de esta memoria es implementar una aplicación para comandar a un \gls{PR2} a través de instrucciones por voz, utilizando arquitectura cliente-servidor mediante un micrófono como elemento para muestrear la señal de audio o comando enunciado por el usuario. \\ En el desarollo de la aplicación se crea una interfaz de interacción con el usuario que permite grabar audio usando HTML5/CSS/JS. Para el funcionamiento de la aplicación la comunicación con todos los servidores se realiza a través de \textit{socket} TCP/IP y el procesamiento de la señal de audio se realiza utilizando KALDI, estado del arte en \gls{ASR}. Luego de obtener el resultado de la transcripción de la elocución grabada por el usuario, es analizada por el \textit{Robot \gls{PR2}} y entrega la respuesta del comando de voz mediante el \gls{TTS} Festival y ejecuta el movimiento correspondiente al requerimiento del usuario.\\ A partir esta investigación y el desarrollo de la aplicación se concluye que es posible comandar el \textit{Robot \gls{PR2}} de forma exitosa mediante la interfaz de interacción con el usuario. Dicha aplicación puede ser instalada en cualquier versión del sistema operativo Ubuntu. Utilizando un modo de conexión local para los servidores: ASR y WEB, se cumple el objetivo de realizar procesamiento en tiempo real. El sistema de reconocimiento de voz obtiene un 10\% de \gls{WER} cuando es probado con el mismo micrófono con el que se construye la base de datos, que corresponde a un conjunto de 4991 elocuciones de base de datos Latino-4k y 200 elocuciones grabadas en el Laboratorio de Procesamiento y Transmisión de Voz LPTV, todas a una frecuencia de 16~kHz y 16~bit.\\ El trabajo futuro considera la realización de una base de datos independiente del hablante y género. Considerar el efecto del canal en el \gls{ASR}: ambiente y micrófonos. Debido a la forma de construcción de la aplicación, ésta es escalable ,por lo que es factible complementar el diccionario utilizado en el \gls{ASR} y la personalización de los movimientos.
186

Sistema integral de historias clínicas electrónicas utilizando tecnología clúster para la especialidad de pediatría

Zumaeta Rivera, Luis Alejandro January 2012 (has links)
Publicación a texto completo no autorizada por el autor / Describe la implementación de un sistema de información el cual permitirá gestionar historias clínicas electrónicas para la especialidad de pediatría garantizando la integridad, confidencialidad y disponibilidad de la información de salud del niño. Este sistema permitió a los profesionales de salud tener el rápido acceso de la información histórica del niño en el momento preciso y así asegurar una atención personalizada y de calidad. Para la implementación de este sistema, el cual integrará las historias clínicas pediátricas se utilizará tecnología clúster por su alto rendimiento, escalabilidad y economía. En este sentido, el modelo establecido permitirá consolidar y optimizar un conjunto de circuitos de comunicación entre la Atención Primaria y Especializada, como son: citas previas, informe de interconsulta de alguna especialidad, solicitud y resultados de pruebas de laboratorio e imagen, transferencias a distintos centros hospitalarios, logrando así obtener la información necesaria para garantizar la calidad de atención de salud del niño. / Trabajo de suficiencia profesional
187

Análisis del crédito de consumo basado en el costeo ABC para optimizar la toma de decisiones en los canales comercializadores de una entidad financiera

Guerra Robalino, Axel January 2019 (has links)
Analiza el costo del crédito de consumo PLD basado en el costeo ABC para optimizar la toma de decisiones en los canales comercializadores de una entidad financiera. El sistema de costeo ABC no es una técnica totalmente original y novedosa ya que se fundamenta en los principios de la Teoría General de Costo en la cual su objetivo principal es el costo indirecto para minimizar los costos de producción y sin dejar de responder pertinentemente a las necesidades específicas del cliente. De esta manera, su foco en las actividades permite la mejora de los procesos y obtener los resultados esperados. En tal sentido, el objetivo de la investigación fue analizar el costo del crédito de consumo basado en el sistema de costeo ABC para determinar la eficiencia de los canales comercializadores en una entidad financiera. Posterior a la implementación de dicho sistema, se determinaron los costos en la red de agencias por puestos para los créditos de consumo PLD en la entidad financiera a través del costo directo por medio de los gastos operativos (gastos del personal y gastos administrativos) y el costo indirecto mediante las comisiones totales asignadas. Asimismo, se determinaron los costos de la banca telefónica estableciendo como costo directo el gasto del personal (remuneración variable) y el costo indirecto, las comisiones. Por último, se determinaron los costos de la fuerza de venta externa, considerando el gasto del personal (remuneraciones variables) como costo directo y las comisiones como el costo indirecto. En síntesis, la implementación del sistema de costeo ABC en la institución financiera permitió establecer los costos (directos e indirectos) a través de la representación gráfica de las actividades y evaluar los recursos para direccionarlos de forma efectiva para las mismas. Paralelamente, analizar el flujo de ingresos de acuerdo a cada colocación de un producto. / Tesis
188

Deep learning para identificación de núcleos activos de galaxias por variabilidad

Miranda Castillo, Nicolás Martín January 2018 (has links)
Magíster en Ciencias, Mención Computación / En la presente era de datos masivos, la astronomía requiere de herramientas automatizadas para el análisis de información asociada al comportamiento de objetos a lo largo del tiempo. El desarrollo de proyectos de observación sinópticos plantea muchos desafíos en lo que respecta a obtener descripciones relevantes de los aspectos subyacentes de muchos procesos variables en el tiempo. En particular, el estudio de los Núcleos Activos de Galaxia (AGN) resulta de especial interés; dado su comportamiento estocástico en el tiempo y la singular estructura en la variación temporal de su emisión electromagnética. El uso de algoritmos de aprendizaje computacional ha sido de gran éxito en aspectos de identificación de objetos según su morfología y análisis espectral; es de mucho valor el replicar esos resultados en el análisis de dominio temporal. Con este fin es que se puso a prueba distintas configuraciones de arquitecturas de algoritmos de Deep Learning, en particular Convolutional Neural Networks y Recurrent Neural Networks, con el fin de realizar tareas de clasificación de AGN a partir de sus curvas de luz. Estos se pusieron a prueba sobre datos simulados mediante un modelo matemático y sobre 6102 curvas de luz reales obtenidas a partir de observaciones de los campos extragalácticos COSMOS, Stripe82 y XMM-LSS. Los resultados fueron favorables sobre datos simulados, alcanzando un puntaje ROC AUC máximo de 0.96, pero no así sobre datos reales, donde el puntaje máximo alcanzado fue de 0.55 ROC AUC. Esta diferencia puede explicarse debido al reducido número de datos reales del que se dispuso a la hora de entrenar los distintos clasificadores, y a que el modelo de simulación permitió generar un mucho mayor número de curvas de entrenamiento, lo cual permitió un mucho mejor aprendizaje a partir de estas. El presente trabajo entregó información cuantitativa sobre lo importantes que son ciertas características de las curvas de luz, en particular la regularidad de su muestreo y el número de observaciones, en el desempeño de estos tipos de modelos de clasificación de Deep Learning. Junto con esto, se plantea un flujo en el procedimiento de manejo de datos de curvas de luz para clasificación, desde su recolección desde archivos de formato estándar (FITS) hasta la validación de los modelos, que puede ser reutilizado en el futuro en aplicaciones de Deep Learning sobre series de tiempo. Se sugiere, además, el añadir en próximas implementaciones métodos para manejo de incertidumbre debido a ausencia de mediciones, tales como modelos gráficos, de estado oculto o estocásticos.
189

Data mart para el análisis de información de clientes y sus facturaciones en una empresa de telecomunicaciones del Perú

Cantera Salazar, Mirella, Salazar Cañari, Cindy Susan January 2013 (has links)
Desarrolla una solución de inteligencia de negocio (BI) que resuelva los problemas de explotación de información de clientes y sus facturaciones, en el Área de Administración y Finanzas de una empresa de Telecomunicaciones del Perú, para llevar a cabo un adecuado análisis de información, entregando una herramienta automática para la generación de los reportes solicitados por la Gerencia General en la toma de decisiones. Para seleccionar la solución de BI más opta a las necesidades de la empresa, se realizó un análisis comparativo con otras investigaciones similares, obteniéndose como resultado el desarrollo de un Data Mart aplicando la metodología propuesta por Gill Harjinder y Rao Prakash. / Trabajo de suficiencia profesional
190

Implementación de un sistema de información para la explotación de datos y apoyo para la mejora de la toma de decisiones basada en tecnologías de inteligencia empresarial - almacén de datos del censo y encuestas

Maguiña Huerta, Ciro Daniel January 2018 (has links)
Describe la implementación de un sistema de información para la explotación de datos y apoyo a la mejora en la toma de decisiones en base a sistemas de inteligencia de negocios, Data Warehouse de censos y encuestas para el Instituto Nacional de Estadística e Informática (INEI), adecuando los estándares de desarrollo internacional de la ISO/NTP 12207, PMBOK, RUP y de los protocolos internaciones de SMMX y de los tipos de meta data indicados por el sistema estadístico internacional establecido por las convenciones de Ginebra, Suiza, los cuales rigen para todos los institutos de estadística de la región. El problema que se identificó fue que el INEI en el año 2008, detecta en sus procesos de explotación de los datos y de la necesidad de brindar información de la información a los tomadores de forma ágil y versátil. Ante eso, básicamente los objetivos que se plantearon y alcanzaron fueron: diseñar, desarrollar e implementar un sistema de gestión de la información con el uso de las metodologías y tecnologías de inteligencia de negocios para el INEI de todas las fuentes de base de datos, específicamente para los datos del Censo de Población y Vivienda del 2007 y de los demás censos como Económico y Agropecuario, relacionando información de forma trasversal a todos ellos. Para ello, se identificaron procesos de desarrollo de software, adecuándolos a las buenas prácticas descritas en el modelo. / Trabajo de Suficiencia Profesional

Page generated in 0.0735 seconds