• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 179
  • 15
  • 3
  • 1
  • 1
  • Tagged with
  • 199
  • 199
  • 38
  • 36
  • 31
  • 31
  • 30
  • 30
  • 30
  • 30
  • 28
  • 28
  • 27
  • 27
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

La deserción en cursos universitarios

Formia, Sonia 17 March 2014 (has links)
El objetivo general de esta tesis es abordar el estudio del fenómeno de deserción estudiantil universitaria mediante un proceso de extracción de conocimiento a partir de datos. En el camino hacia la concreción del objetivo de máxima, predecir la deserción, se pueden encontrar otras metas que aporten información no trivial y de utilidad para la toma de decisiones, por ejemplo, describir o caracterizar a los estudiantes de la UNRN a través de perfiles que ayuden a orientar la implementación de medidas a los estratos en los que las mismas pueden ejercer más influencia positiva. El objetivo específico de esta tesis es caracterizar a los estudiantes de la UNRN que abandonan la carrera en los primeros años. Se busca establecer perfiles que permitan realizar recomendaciones tendientes a revertir esta situación. <i>(Párrafo extraído del texto a modo de resumen)</i> / Asesor académico: Waldo Hasperué.
172

Formulación de un Modelo de Fuga de Clientes para un Servicio de Atención Médica de Urgencia Prehospitalaria

Saavedra Fuentes, Aldo Gabriel January 2009 (has links)
No description available.
173

Plataforma para la Extracción y Almacenamiento del Conocimiento Extraído de los Web Data

Rebolledo Lorca, Víctor January 2008 (has links)
No description available.
174

Aplicación de técnicas de Web Mining sobre los datos originados por usuarios de páginas web: visión crítica desde las garantías fundamentales, especialmente la libertad, la privacidad y el honor de las personas

Velásquez Silva, Juan January 2010 (has links)
Magíster (derecho de la informática y de las telecomunicaciones) / No autorizada por el autor para ser publicada a texto completo / El objetivo de esta tesis, es analizar hasta qu´e punto las t´ecnicas, algoritmos y m´etodos comprendido en las herramientas de web mining, aplicados sobre los datos originados en la Web (web data), vulneran las garant´ıas fundamentales, especialmente la libertad, la privacidad y el honor de las personas. Web mining es la aplicaci´on del data mining a los web data para la extracci´on y descubrimiento autom´atico de informacion y conocimiento. Dependiendo del tipo de web data a procesar, web mining se divide en tres grandes categor´ıas: contenido, es- tructura y uso. El primero est´a relacionado con los contenidos, principalmente textos, que los usuarios o terceros incluyen en las paginas web. El segundo es referente a la estructura de hiperv´ınculos que posee un sitio y el tercero dice relaci´on con los datos de navegacion que se almacenan en archivos de web log que posee un sitio. El an´alisis de estos datos permite a las instituciones significativas mejoras en la estructura y contenido de los sitios web corporativos, as´ı como la aplicaci´on de complejos sistemas informaticos destinados a personalizar la experiencia del usuario en el sitio que visita. Dos posiciones historicamente contrapuestas se ven enfrentadas nuevamente en web mining. Por un lado la ciencia busca una aproximacion de una verdad que permita un mayor conocimiento del fenomeno Web, y por otro lado las empresas quieren usar este conocimiento para aumentar su participacion en el mercado digital. Entonces el procesamiento de los web data se ve expuesto a una serie de interrogantes, siendo las abordadas en esta tesis las que dicen relaci´on con la afectacion a la libertad de navegaci´on y vulneraci´on de la privacidad de los usuarios. Durante este trabajo de tesis, se ha realizado una profunda revisi´on cient´ıfico t´ecnica de los fundamentos de las telecomunicaciones, el desarrollo de las redes de computadores para luego revisar los or´ıgenes de Internet y la Web. Acto seguido se analizaron los fundamentos del web mining, sus principales t´ecnicas, m´etodos y algoritmos, con especial atencion en aquellos que permiten extrapolar las preferencias de navegacion y contenidos de los usuarios que visitan un sitio web determinado, para finalmente contrastar su operacion con la regulaci´on vigente a nivel nacional e internacional, especialmente la ley 19.628 sobre proteccion de la privacidad y la ley 18.168, de telecomunicaciones Mas importante aun que pensar en redactar leyes y regulaciones espec´ıficas pa- ra el web mining, es necesario crear conciencia en los cient´ıficos y profesionales que desarrollan y aplican web mining, de la importancia de realizar un procesamiento de datos que no implique necesariamente la identificacion de los usuarios que visitan un sitio, lo cual es totalmente factible y no necesariamente significar´ıa una merma en las utilidades. Adicionalmente, la creacion de sistemas que personalicen la experiencia de visitante de un sitio, al menos deben dar la opci´on para que no se restrinja la posibi- lidad de apreciar otras paginas, transformando la imposici´on de ver un contenido, en una simple sugerencia que el usuario debe finalmente decidir si acepta o no. La aplicacion del web mining potencialmente puede atentar contra la privacidad y libertad de navegacion de los usuarios que visitan un sitio, por lo cual su uso debe ser realizado considerando buenas practicas en la preparacion de los datos, la creaci´on de perfiles de usuario, la identificacion de personas y la generacion de sistemas de recomendacion en l´ınea de lo que debe o no visitar el usuario. Lo anterior no requiere de una normativa espec´ıfica, sino mas bien de crear conciencia en lo referente a lo perjudicial que pueden llegar a ser estas herramientas si se hace un mal uso de ellas.
175

Diseñar e implementar alertas de comportamiento fraudulento y de nuevas ofertas de valor para CajaVecina en BancoEstado

Zúñiga Lara, Óscar Eduardo January 2016 (has links)
Magíster en Ingeniería de Negocios con Tecnologías de Información / CajaVecina de BancoEstado es un innovador sistema de servicios, el cual permite a las personas que residen en zonas alejadas de las grandes urbes o en comunas densamente pobladas, realizar una serie de transacciones bancarias y de pagos de servicios, a través de terminales instalados en los almacenes y locales comerciales de cada comuna. Clientes y no clientes de BancoEstado se quejan a menudo de no contar con mecanismos seguros y confiables para ejecutar dichas transacciones siendo en muchos casos víctimas de fraude. Por otra parte, los ejecutivos de CajaVecina declaran que en la red de almaceneros existe un gran potencial de creatividad para hacer negocios y formas de operar más eficientes y productivas, pero, al mismo tiempo, ellos mismos no cuentan con las herramientas para capturar oportunamente esta riqueza o nichos de comportamiento deseables y transformarla en factor crítico de éxito. El objetivo principal de este estudio es elaborar una propuesta de implantación de alertas tendientes a identificar y detectar tempranamente comportamiento fraudulento y oportunidades de nuevas ofertas de valor en el canal transaccional de CajaVecina. Las principales ideas de cambio para lograr este objetivo son: la Minería de Datos y Riesgo Operacional. La metodología que se ha seleccionado para llevarlas a cabo ha sido la aplicación de Patrones de Procesos de Negocios de Dr. O. Barros. En los años 2013 y 2014 se ejecutaron los procesos de generación de modelos de comportamiento y detección de alertas. Se detectaron cambios de comportamiento en almaceneros que en una semana pasaban de pertenecer a segmentos de baja transaccionalidad a segmentos de alta transaccionalidad y viceversa. Antes de la aplicación de esta iniciativa, no había sido posible detectar estos cambios de comportamiento. En la actualidad, se están impulsando medidas para aumentar las transacciones a través de la migración de CajaVecinas asociadas a cluster de bajo nivel transaccional a otros cluster de mayor nivel y, detectando tempranamente anomalías, incidentes, robos, fraudes y, mal uso de los terminales.
176

Pronóstico y Análisis de Demanda de la Sala de Urgencia del Hospital Luis Calvo Mackenna y Metodología para el Calcúlo de Recursos Críticos

Reveco Díaz, Carlos January 2011 (has links)
Magíster en Ingeniería de Negocios con Tecnologías de Información / Ingeniero Civil Industrial / Los hospitales públicos atienden sobre el 70% de la población del país, lo que hace sumamente importante para la sociedad mejorar su calidad de atención para prestar un servicio de excelencia. El Hospital Luis Calvo Mackenna (HLCM) es un centro de salud pediátrico que pertenece al Servicio de Salud Metropolitano Oriente; es referente nacional en diferentes patologías y sede del departamento de pediatría y cirugía infantil de la Universidad de Chile. Es un hospital de alta complejidad y auto-gestionado. Debido a la calidad y excelencia en sus servicios, el HLCM atiende en sus dependencias una gran cantidad de pacientes, especialmente en el área de urgencia. Lo anterior ocasiona un alto grado de saturación en el sistema, lo que trae como consecuencia altos niveles de estrés y angustia para los pacientes producto de largos tiempos de espera durante el proceso de atención. Con información histórica, es posible generar un pronóstico y una segmentación de la demanda en urgencias, de acuerdo a la gravedad de los pacientes. Esto permite anticiparse y generar acciones para modificar la demanda o preparar la oferta de atención en el hospital. El proyecto muestra que a través de diversas técnicas de series de tiempo se puede lograr un error promedio del 5% en el pronóstico. Además, se realizó una prueba conceptual de una metodología para el cálculo de recursos críticos por medio de programación lineal. Esta herramienta permite definir la cantidad óptima de doctores minimizando los tiempos de espera de los pacientes. Lo anteriormente descrito trae una gran cantidad de beneficios. Por una parte, el hospital tiene una mejora en la gestión y planificación dentro de la unidad de urgencia y, por otro lado, se disminuirá sustancialmente los tiempos de espera de los pacientes Es por ello que este proyecto propone un diseño del proceso para el pronóstico y análisis de demanda en la atención de urgencia del HLCM. El diseño de procesos está basado en la metodología propuesta en el Magíster en Ingeniería de Negocios con Tecnologías de la Información (MBE) a partir de Patrones de Procesos de Negocio y va desde la arquitectura empresarial del hospital hasta el diseño de los diagramas de procesos en notación BPMN (Business Process Management Notation), incluidas sus respectivas lógicas de negocio bien definidas hasta llegar al diseño del apoyo computacional. También es importante resaltar el impacto operacional que tuvo la implementación de este proyecto en la atención de urgencia del HLCM. Ésta logró incorporar un módulo de atención rápida para pacientes sin gravedad vital para aliviar los excesivos tiempos de espera en horas puntas del día, además de advertir al personal de la necesidad de flexibilizar la cantidad de recursos médicos por turnos con el fin de ajustarse de mejor manera a la demanda real del hospital.
177

Rediseño del proceso de control horario y gestión de asistencia del personal médico en Hospital Exequiel González Cortés

Soto Cuevas, Agustín Manuel January 2017 (has links)
Magíster en Ingeniería de Negocios con Tecnologías de Información. Ingeniero Civil Industrial / El Hospital Pediátrico Exequiel González Cortés, en adelante HEGC, es un hospital de alta complejidad que atiende a 300.000 niños y adolescentes de la red asistencial que cubre el Servicio de Salud Metropolitano Sur. Sus principales servicios son la atención ambulatoria, de urgencia y hospitalización, enfocadas en solucionar las patologías que presente el paciente. El pasado 2015, el Servicio de Salud Metropolitano Sur asigna un presupuesto cercano a CLP$20.500.000.000 al HEGC, del cual el 21% corresponde a remuneraciones del personal médico. Un 17% de este porcentaje, es decir, alrededor de CLP$780.000.000 no se tiene certeza de la utilización de los recursos porque el personal médico del Hospital cumple parcialmente con su obligación contractual de registrar la entrada y salida de sus labores y realizar los cambios de turno de manera oficial con el área de recursos humanos. Lo anterior genera una caja negra respecto a la cantidad y el momento en que las horas fueron trabajadas, lo que finalmente no permite que el Hospital tenga información de si los médicos cumplen con su planificación o no. Esta situación no sólo tiene impacto financiero para el Hospital, pues no contar con el respaldo del control de asistencia del personal médico podría tener consecuencias de que el Hospital sea auditado por la Contraloría General y eventualmente multado por incumplimiento de la ley. El proyecto busca esclarecer la caja negra mencionada anteriormente, a través del rediseño de los procesos de control horario y gestión de asistencia de Recursos Humanos del Hospital, lo que permitirá identificar la calidad y cumplimiento de las jornadas trabajadas el personal médico. Este rediseño está apoyado de una herramienta que permitirá consolidar la información necesaria para facilitar la obtención y actualización de la información de dichos procesos. Finalmente, a raíz de esta oportunidad, se realizará un estudio global del comportamiento de asistencia y rigurosidad de marcación del personal médico, para facilitar la toma de decisiones que apunte a una mejor asignación de los recursos del hospital. El proyecto posee un VAN Social (dado que utilizará recursos del estado) de CLP$ 51.132.321 en 5 años, y una tasa interna de rentabilidad (TIR) del 38% en el mismo plazo. El piloto implementado logró esclarecer 80% de la caja negra detectada, se detectaron 7 patrones de comportamiento distintos y se definió un plan de incentivos y acciones correctivas que lleven a alcanzar el 20% restante, mejorando el porcentaje de marcas del personal médico del hospital. Además, el piloto ha logrado reducir el tiempo de trabajo en el control de asistencia de los médicos en un 98%.
178

Elaboración de un Sistema de Recomendación de Publicaciones Científicas Nacionales de Acceso Abierto para los investigadores calificados del SINACYT

Vereau Zagastizábal, Elizabeth Jenisse 03 October 2019 (has links)
Actualmente existe un crecimiento sostenido sobre la producción científica mundial. Esta producción científica es preservada a través de repositorios de acceso abierto digitales, los cuales se crean como herramientas de apoyo para el desarrollo de producción científica. Sin embargo, existen deficiencias en la funcionalidad de los mismos como herramientas de apoyo para el aumento de la visibilidad, uso e impacto de la producción científica que albergan. El Perú, no es ajeno al crecimiento de la producción científica mundial. Con el avance del mismo, se implementaron nuevas plataformas (ALICIA y DINA) de difusión y promoción del intercambio de información entre las distintas instituciones y universidades locales. No obstante, estas plataformas se muestran como plataformas aisladas dentro del sistema científico-investigador, ya que no se encuentran integradas con las herramientas y procesos de los investigadores. El objetivo de este Proyecto es el de presentar una alternativa de solución para la resolución del problema de carencia de mecanismos adecuados para la visualización de la producción científica peruana a través de la implementación de un Sistema de Recomendación de Publicaciones Científicas Nacionales de Acceso Abierto para los investigadores calificados del SINACYT. Esta alternativa se basa en la generación de recomendaciones personalizadas de publicaciones en ALICIA, a través del uso del filtrado basado en contenido tomando en cuenta un perfil de investigador. Este perfil se construyó a partir de la información relevante sobre su producción científica publicada en Scopus y Orcid. La generación de recomendaciones se basó en la técnica de LSA (Latent Semantic Analysis), para descubrir estructuras semánticas escondidas sobre un conjunto de publicaciones científicas, y la técnica de Similitud Coseno, para encontrar aquellas publicaciones científicas con el mayor nivel de similitud. Para el Proyecto, se implementaron los módulos de extracción, en donde se recoge la data de las publicaciones en ALICIA y las publicaciones en Scopus y Orcid para cada uno de los investigadores registrados en DINA a través de la técnica de extracción de datos de sitios web (web scrapping); de pre procesamiento, en donde se busca la mejora de la calidad de la data previamente extraída para su posterior uso en el modelo analítico dentro del marco de la minería de texto; de recomendación, en donde se capacita un modelo LSA y se generan recomendaciones sobre qué publicaciones científicas pueden interesar a los usuarios basado en sus publicaciones científicas en Scopus y Orcid; y de servicio, en donde se permite a otras aplicaciones consumir las recomendaciones generadas por el sistema.
179

Proceso de descubrimiento de conocimiento para predecir el abandono de tratamiento en una entidad de salud pública

Candela Cáceres, Julio Christians 04 June 2015 (has links)
El presente proyecto académico de fin de carrera tiene como objetivo mostrar el proceso automatizado de cada etapa del proceso de descubrimiento con el fin de predecir el abandono en los tratamientos de cáncer de una entidad de salud pública con una precisión eficiente basándose en características o factores determinados en la etapa de análisis junto con los miembros de la institución. La información resultante servirá de apoyo para que los administradores de la entidad de salud puedan plantear las políticas y estrategias personalizadas de retención de pacientes. Como se mencionó anteriormente, se tomaron en cuenta todas las etapas del proceso de descubrimiento de conocimiento - análisis, extracción, pre-procesamiento, estimación del modelo e interpretación - para que la información resultante pueda ser confiable y oportuna para la toma de decisiones. Adicionalmente, como parte de la etapa de extracción de datos, se encontró la necesidad de diseñar un DataMart que organice y facilite el análisis de información, no solo para el proyecto actual, sino para otras necesidades que puedan surgir en el futuro. Cada etapa tuvo apoyo de herramientas de software y metodologías que han sido ampliamente usadas con éxito en este tipo de proyectos. Se escogieron herramientas gratuitas que tendrían mayor apoyo a los requerimientos del proyecto como la automatización de los procesos, diseño del DataMart y el proceso general de Minería de Datos. En conclusión, el proyecto culminó con éxito cumpliendo los estipulado en cada uno de los resultados esperados, por lo cual, se puede determinar que el proceso automatizado podrá ser útil para determinar que pacientes abandonan su tratamiento y brindar la información oportuna a los encargados de tomar las decisiones.
180

Data complexity in supervised learning: A far-reaching implication

Macià Antolínez, Núria 06 October 2011 (has links)
Aquesta tesi estudia la complexitat de les dades i el seu rol en la definició del comportament de les tècniques d'aprenentatge supervisat, i alhora explora la generació artificial de conjunts de dades mitjançant estimadors de complexitat. El treball s'ha construït sobre quatre principis que s'han succeït de manera natural. (1) La crítica de la metodologia actual utilitzada per la comunitat científica per avaluar el rendiment de nous sistemes d'aprenentatge ha desencadenat (2) l'interès per estimadors alternatius basats en l'anàlisi de la complexitat de les dades i el seu estudi. Ara bé, tant l'estat primerenc de les mesures de complexitat com la disponibilitat limitada de problemes del món real per fer el seu test han inspirat (3) la generació sintètica de problemes, la qual ha esdevingut l'eix central de la tesi, i (4) la proposta de fer servir estàndards artificials amb semblança als problemes reals. L'objectiu que es persegueix a llarg termini amb aquesta recerca és proporcionar als usuaris (1) unes directrius per escollir el sistema d'aprenentatge idoni per resoldre el seu problema i (2) una col•lecció de problemes per, o bé avaluar el rendiment dels sistemes d'aprenentatge, o bé provar les seves limitacions. / Esta tesis profundiza en el estudio de la complejidad de los datos y su papel en la definición del comportamiento de las técnicas de aprendizaje supervisado, a la vez que explora la generación artificial de conjuntos de datos mediante estimadores de complejidad. El trabajo se ha construido sobre cuatro pilares que se han sucedido de manera natural. (1) La crítica de la metodología actual utilizada por la comunidad científica para evaluar el rendimiento de nuevos sistemas de aprendizaje ha desatado (2) el interés por estimadores alternativos basados en el análisis de la complejidad de los datos y su estudio. Sin embargo, tanto el estado primerizo de las medidas de complejidad como la limitada disponibilidad de problemas del mundo real para su testeo han inspirado (3) la generación sintética de problemas, considerada el eje central de la tesis, y (4) la propuesta del uso de estándares artificiales con parecido a los problemas reales. El objetivo que se persigue a largo plazo con esta investigación es el de proporcionar a los usuarios (1) unas pautas pare escoger el sistema de aprendizaje más idóneo para resolver su problema y (2) una colección de problemas para evaluar el rendimiento de los sistemas de aprendizaje o probar sus limitaciones. / This thesis takes a close view of data complexity and its role shaping the behaviour of machine learning techniques in supervised learning and explores the generation of synthetic data sets through complexity estimates. The work has been built upon four principles which have naturally followed one another. (1) A critique about the current methodologies used by the machine learning community to evaluate the performance of new learners unleashes (2) the interest for alternative estimates based on the analysis of data complexity and its study. However, both the early stage of the complexity measures and the limited availability of real-world problems for testing inspire (3) the generation of synthetic problems, which becomes the backbone of this thesis, and (4) the proposal of artificial benchmarks resembling real-world problems. The ultimate goal of this research flow is, in the long run, to provide practitioners (1) with some guidelines to choose the most suitable learner given a problem and (2) with a collection of benchmarks to either assess the performance of the learners or test their limitations.

Page generated in 0.4466 seconds