• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 177
  • 15
  • 3
  • 1
  • 1
  • Tagged with
  • 197
  • 197
  • 37
  • 35
  • 31
  • 28
  • 28
  • 28
  • 27
  • 27
  • 27
  • 27
  • 27
  • 27
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Mejoramiento de una Metodología para la Identificación de Website Keyobjects mediante la Aplicación de Tecnologías Eye Tracking y Algoritmos de Web Mining

González González, Larry Javier January 2011 (has links)
El objetivo general de esta memoria es mejorar la metodología para identi car Website Keyobjects diseñada por Velásquez y Dujovne mediante el uso de herramientas Eye Tracking y algoritmos de Web Mining. Dado un sitio web, esta metodología toma como entrada el registro de peticiones (web log) del sitio, las páginas que lo componen y el interés de los usuarios en los objetos web de cada página, el cual es cuanti ficado a partir de una encuesta que permite medir la atención prestada por los usuarios sobre los objetos. Luego los datos son transformados y pre-procesados para finalmente aplicar algoritmos de Web Mining que permiten extraer los Website Keyobjects. Considerando lo anterior, en este trabajo de memoria se sugiere una forma distinta de cuanti ficar el interés de los usuarios sobre los objetos web, utilizando una tecnología de rastreo ocular (Eye Tracking), con el objetivo de prescindir de la encuesta, ocupar una herramienta de mayor precisión y así mejorar la clasi cación de los Website Keyobjects. Para comenzar, se investigaron las distintas técnicas y herramientas de rastreo ocular. Se optó por ocupar un Eye Tracker que ocupa la técnica más avanzada en su campo, la que ilumina los ojos con luces infrarojas y captura sus movimientos según el brillo de la pupila y el reflejo de la córnea, todo esto basado en vídeo. Luego se diseñó un experimento que permitiera establecer si se produce una mejora en la clasi cación de los objetos al ocupar distintos valores del interés de los usuarios: medido según una encuesta o un Eye Tracker. Se concluyó que la tecnología Eye Tracking es sumamente útil y precisa a la hora de conocer que es lo que mira un usuario y, por lo tanto, que es lo que más captura su atención. Además que el integrar esta tecnología a la metodología permite no realizar una encuesta, con lo que se evitan situaciones donde es altamente posible ingresar errores de forma involuntaria. Finalmente se estableció se produce una leve mejora, entre un 5 % y 6 %, en la metodología al ocupar la información generada por el Eye Tracker.
32

Análisis Cuantitativo de la Efectividad en los Programas de Sename Bajo la Nueva Legislación Penal Adolescente

Miranda Sáez, Rodrigo Alejandro January 2011 (has links)
No description available.
33

Diseño y construcción de un Data Mart para el análisis de preferencias del usuario en la web a partir de datos originados en el portal Educarchile

Arias Cuevas, Jaime Mijail January 2012 (has links)
Ingeniero Civil Industrial / El objetivo general del trabajo de título es diseñar y construir un Data Mart que permita obtener indicadores de uso de los escritorios del portal educarchile. Educarchile es un portal administrado por la Fundación Chile, y que fue creado por esta última en conjunto con el Ministerio de Educación. Su misión es contribuir al mejoramiento de la calidad de la educación en todos sus niveles, para lo cual cuenta con un sitio dirigido a todos los miembros de la comunidad educativa nacional. Para esto, el diseño del sitio se basa en un Home y 4 escritorios enfocados en cada segmento de usuarios, los que constan de secciones que sirven de enlace al contenido del portal. Educarchile, con el objetivo de obtener información acerca del comportamiento de sus usuarios, trabaja con dos herramientas de pago, Certifica y Google Analytics. Sin embargo, debido al tamaño del portal y el dinamismo del contenido publicado en sus escritorios, no obtiene de estas herramientas información acerca de las preferencias que tienen los usuarios respecto a las secciones de aquellas páginas, y las llamadas viñetas que las componen, que son recursos que permiten la publicación de contenido bajo la restricción que algunas sean visualizadas solo si se hace un click sobre ellas. Adicionalmente, el sitio permite la emisión de opiniones en los artículos, sin embargo, no existe ningún tipo de alerta o filtro para las publicaciones que no se ajustan al clima y objetivo del portal. La hipótesis del trabajo plantea que a través de la creación de indicadores limpios y consolidados respecto del uso de las secciones y viñetas que componen el portal, y que se almacenarán en un Data Mart, el equipo de administración del sitio podrá acceder a información detallada acerca del comportamiento de sus visitantes, la que no ha sido obtenida hasta hoy. Para llevar a cabo el trabajo, se diseñó una arquitectura que permite la extracción y el procesamiento de los datos, además de su posterior carga en un repositorio multidimensional, el que funciona como fuente de datos para consultas OLAP. La arquitectura consta de 3 elementos principales: los modelos de datos; el proceso de extracción, transformación y carga de los datos; y un modelo para clasificar y filtrar opiniones, basado en el algoritmo Naive Bayes. Para cada elemento se optó por la utilización de herramientas gratuitas. Los indicadores obtenidos a través del procesamiento de los archivos weblog entregaron información desconocida y valiosa al equipo del portal. Uno de los principales resultados fue: comprobar que las viñetas que componen las secciones de los escritorios producen un alto sesgo en el comportamiento de los usuarios, principalmente en aquellas secciones que contienen información de actualidad. En ellas los usuarios no visualizan los recursos que son publicados en las viñetas que se encuentran ocultas por defecto, lo que se traduce en una política ineficiente de edición y publicación de artículos. Por su parte, el algoritmo Naive Bayes obtuvo un alto índice de recall para aquellas clases que se deseaba predecir (ayuda y planificación), que en ambos casos supera el 85%. Sin embargo, la clase que representa el resto de los comentarios tiene un menor recall, habiendo un 30% de las opiniones clasificadas erróneamente. Como conclusión, el modelo propuesto es capaz de satisfacer las necesidades de información de la organización, entregando conocimiento útil a la hora de evaluar y definir nuevas políticas de publicación de contenidos que se ajusten a las reales preferencias de los usuarios. A pesar de aquello, se recomienda realizar una nueva medición de los indicadores una vez efectuados cambios en el diseño de las páginas, para así obtener resultados contundentes que permitan identificar las preferencias de diseño y contenido por parte de los usuarios. Además, se recomienda implementar en el sitio el modelo obtenido para las opiniones, y así detener la publicación de comentarios que no aportan valor al sitio.
34

Desarrollo y evaluación de metodologías para la aplicación de regresiones logísticas en modelos de comportamiento bajo supuesto de independencia

Biron Lattes, Miguel Ignacio January 2012 (has links)
Ingeniero Civil Industrial / El presente documento tiene por objetivo desarrollar y evaluar una metodología de construcción de regresiones logísticas para scorings de comportamiento, que se haga cargo del supuesto de independencia de las observaciones inherente al método de estimación de máxima verosimilitud. Las regresiones logísticas, debido a su facilidad de interpretación y a sus buen desempeño, son ampliamente utilizadas para la estimación de modelos de probabilidad de incumplimiento en la industria financiera, los que a su vez sirven múltiples objetivos: desde la originación de créditos, pasando por la provisión de deuda, hasta la pre aprobación de créditos y cupos de líneas y tarjetas. Es por esta amplia utilización que se considera necesario estudiar si el no cumplimiento de supuestos teóricos de construcción puede afectar la calidad de los scorings creados. Se generaron cuatro mecanismos de selección de datos que aseguran la independencia de observaciones para ser comparados contra el método que utiliza todas las observaciones de los clientes (algoritmo base), los que posteriormente fueron implementados en una base de datos de una cartera de consumo de una institución financiera, en el marco de la metodología KDD de minería de datos. Los resultados muestran que los modelos implementados tienen un buen poder de discriminación, llegando a superar el 74% de KS en la base de validación. Sin embargo, ninguno de los métodos propuestos logra superar el desempeño del algoritmo base, lo que posiblemente se debe a que los métodos de selección de datos reducen la disponibilidad de observaciones para el entrenamiento, lo que a su vez disminuye la posibilidad de poder construir modelos más complejos (mayor cantidad de variables) que finalmente entreguen un mejor desempeño.
35

Design and implementation of an algorithm for the screening of obstructive sleep apnea in childrean under 15 years old

Erazo Gajardo, Lili Valentina January 2014 (has links)
Los Trastornos Respiratorios del Sueño (TRS) son un grupo de enfermedades que afectan la funci ón respiratoria durante la noche, desde el ronquido primario a la apnea del sueño -la más grave de ellas-. Los niños que padecen apnea del sueño pueden desarrollar desde trastornos de crecimiento hasta de ficiencias cognitivas de largo plazo. Sin embargo, una vez que han sido diagnosticados, el tratamiento es efectivo en la mayor ía de los casos, mejorando su calidad de vida y evitando consecuencias en su desarrollo cognitivo. El gold-standard (mejor prueba cl í nica) para el diagn óstico de TRS es la polisomnografí a, que consiste en la recolecci ón de señales biom édicas durante el sueño. El problema es que este examen es invasivo, costoso y difí cil de practicar en niños pequeños. Por lo tanto existe la necesidad de una forma de prediagnosticar TRS, específi camente apnea para aumentar el n úmero de niños diagnosticados, y, como resultado, el n úmero de niños tratados. Para esto, el objetivo general planteado es prediagnosticar apnea obstructiva del sueño a partir de señales recogidas por polisomnografí a en niños menores de 15 años usando t écnicas de minerí a de datos. El resultado esperado de este trabajo es un algoritmo capaz de clasi ficar infantes, usando menos informaci ón que la polisomnografí a, en dos grupos: poblaci ón en riesgo de padecer apnea y poblaci ón fuera de riesgo (o muy bajo riesgo). El trabajo est á dividido en dos etapas, la primera de ellas son modelos basados en una señal, la segunda consta de modelos basados en m ás de una señal. Los resultados de la primera etapa muestran modelos de buena calidad aunque s ólo est án basados en una señal; algunos con sensibilidad y especi ficidad por sobre el 85% y podrí an sentar las bases de un modelo v álido de prediagn óstico. En la segunda etapa se identi ficaron, mediante t écnicas de reducci ón de informaci ón, las señales que tienen mayor poder predictivo para realizar el prediagn óstico, los modelos basados en estas señales alcanzaron hasta el 100% de precisi ón.
36

Analysis of scientific virtual communities of practice

Araya Rebolledo, Jacqueline Paz January 2015 (has links)
Ingeniera Civil Industrial / Las diferentes redes sociales han surgido a partir del sentido común y natural de los humanos por reunirse en torno a un tema, sintiendo que pertenecen a una Comunidad, la cual es representada por una red de relaciones complejas entre las unidades que cambia con el tiempo. Una Comunidad es un grupo de vértices que comparten propiedades comunes y desempeñan un papel similar dentro del grupo, las cuales pueden ser clasificadas como Comunidades de interés, en el que los miembros comparten un interés particular, y Comunidades de práctica, donde los miembros comparten inquietudes, participan y desarrollan un tema volviéndose expertos. Si estas interacciones ocurren sobre plataformas en línea, son llamadas Comunidades virtuales de interés (VCoI) y Comunidades virtuales de práctica (VCoP). El estudio de las Comunidades virtuales (VC) no sólo ayuda a entender su estructura interna, sino que también a descubrir cómo el conocimiento es compartido, los principales miembros, proporcionar herramientas a los administradores para mejorar la participación y asegurar la estabilidad de la comunidad en el tiempo. El área de Análisis de Redes Sociales y de Minería de Datos han estudiado el problema, pero ninguno toma en cuenta el significado del contenido que los miembros de una comunidad generan. Por lo tanto, la principal contribución de este trabajo es tomar en cuenta la semántica de los contenidos creados por los miembros de dos VCoP, así como las propiedades estructurales de las redes que forman, para estudiar la existencia de otros miembros claves, buscar los principales temas de investigación, y estudiar las propiedades de las nuevas redes creadas con contenido. Se utilizó una VCoP científica del área de computación ubicua, y otra del área Web Semántica, considerando como data los autores de los papers aceptados en las conferencias de las comunidades y su contenido. Este trabajo propone dos métodos, el primero, busca representar cada artículo escrito por los miembros por sus Keywords, y el segundo, busca extraer los temas subyacentes de cada paper con el modelo probabilístico LDA. Con el resultado de estos métodos, las interacciones entre autores pueden ser construidas basándose en el contenido en lugar de sólo la relación de coautoría (red base para comparar los métodos). La metodología propuesta es un proceso híbrido llamado SNA-KDD que incluye la extracción y procesamiento de datos de texto, para su posterior análisis con SNA para descubrir nueva información, utilizando teoría de grafos, algoritmos de clasificación (HITS y PageRank) y diferentes medidas estructurales para redes. Los resultados muestran que las redes científicas en estudio pueden ser modeladas como VCoPs usando la metodología SNA-KDD usando teoría de grafos. Esto queda evidenciado en los resultados de la métrica Modularidad, obteniendo valores sobre 0,9 en la mayoría de las redes, lo que indica una estructura de comunidad. Además, los métodos propuestos para introducir el contenido generado por sus miembros, Keywords y Modelo de Tópicos LDA, permite reducir la densidad de todas las redes, eliminando relaciones no relevantes. En la red de Computación Ubicua, con 1920 nodos, se redujo de 5.452 arcos a 1.866 arcos para método de Keywords y a 2.913 arcos para modelo LDA; mientras que en la red de Web Semántica permitió reducir de 20.332 arcos a 13.897 arcos y 8.502 arcos, respectivamente. La detección de miembros claves se realizó contra una comparación de los autores más prominentes del área según las citaciones en Google Scholar. Los resultados indican que la mejor recuperación de miembros claves se da en el método de tópicos por LDA con HITS para el primer dataset, para el segundo se da en Keywords, tanto en métricas de Recall como en Precision.
37

Query log mining in search engines

Mendoza Rocha, Marcelo Gabriel January 2007 (has links)
Doctor en Ciencias, Mención Computación / La Web es un gran espacio de información donde muchos recursos como documentos, imágenes u otros contenidos multimediales pueden ser accesados. En este contexto, varias tecnologías de la información han sido desarrolladas para ayudar a los usuarios a satisfacer sus necesidades de búsqueda en la Web, y las más usadas de estas son los motores de búsqueda. Los motores de búsqueda permiten a los usuarios encontrar recursos formulando consultas y revisando una lista de respuestas. Uno de los principales desafíos para la comunidad de la Web es diseñar motores de búsqueda que permitan a los usuarios encontrar recursos semánticamente conectados con sus consultas. El gran tamaño de la Web y la vaguedad de los términos más comúnmente usados en la formulación de consultas es un gran obstáculo para lograr este objetivo. En esta tesis proponemos explorar las selecciones de los usuarios registradas en los logs de los motores de búsqueda para aprender cómo los usuarios buscan y también para diseñar algoritmos que permitan mejorar la precisión de las respuestas recomendadas a los usuarios. Comenzaremos explorando las propiedades de estos datos. Esta exploración nos permitirá determinar la naturaleza dispersa de estos datos. Además presentaremos modelos que nos ayudarán a entender cómo los usuarios buscan en los motores de búsqueda. Luego, exploraremos las selecciones de los usuarios para encontrar asociaciones útiles entre consultas registradas en los logs. Concentraremos los esfuerzos en el diseño de técnicas que permitirán a los usuarios encontrar mejores consultas que la consulta original. Como una aplicación, diseñaremos métodos de reformulación de consultas que ayudarán a los usuarios a encontrar términos más útiles mejorando la representación de sus necesidades. Usando términos de documentos construiremos representaciones vectoriales para consultas. Aplicando técnicas de clustering podremos determinar grupos de consultas similares. Usando estos grupos de consultas, introduciremos métodos para recomendación de consultas y documentos que nos permitirán mejorar la precisión de las recomendaciones. Finalmente, diseñaremos técnicas de clasificación de consultas que nos permitirán encontrar conceptos semánticamente relacionados con la consulta original. Para lograr esto, clasificaremos las consultas de los usuarios en directorios Web. Como una aplicación, introduciremos métodos para la manutención automática de los directorios.
38

Utilización de Support Vector Machines No Lineal y Selección de Atributos para Credit Scoring

Maldonado Alarcón, Sebastián Alejandro January 2007 (has links)
No description available.
39

Diseño y construcción de una data mart para el análisis del comportamiento de los usuarios de la web aplicado en Educarchile

Cerda Soto, Juan Antonio January 2012 (has links)
Ingeniero Civil Industrial / Autor no autoriza el acceso a texto completo de su tesis en el Repositorio Académico / El objetivo general del presente trabajo es diseñar y construir un data mart para almacenar indicadores que permitan el análisis del comportamiento de los usuarios del portal educarchile. Estos indicadores tienen como finalidad comprender el uso de las herramientas del sitio a partir del aprovechamiento de los datos generados por la navegación de los usuarios, los cuales hasta hoy no estaban siendo utilizados. El sitio educarchile.cl es un portal de apoyo a la educación, autónomo y de servicio publico administrado por la Fundación Chile que tiene por misión el mejoramiento de la calidad de la educación en todos sus niveles, ámbitos y modalidades. Su estructura principal se encuentra dividida en una portada y 4 secciones llamadas escritorios, los que apuntan a los perfiles principales en los que se enfoca el portal, que son: docentes, directivos, estudiantes y familia. Los analistas del sitio, a pesar de contar con estudios anteriores que se basan principalmente en encuestas, desconocen el impacto que tiene el actual diseño en la utilización de las herramientas, lectura de artículos y participación de los usuarios. Además se desea validar supuestos como que el ubicar artículos en determinadas partes de los escritorios logra dar una mayor visibilidad a aquellos contenidos. En éste trabajo se plantea que la consolidación de los datos, provenientes de los web logs, en un data mart, permitirá la determinación indicadores de uso del sitio, tanto tradicionales como ajustados a las necesidades de los analistas. En específico se podrá dar respuesta a las interrogantes relacionadas con el impacto del diseño de los escritorios. Con el apoyo de los integrantes de la fundación se establecieron las 14 páginas de las que se deseaba obtener información. Se procesaron cerca de 620 millones de registros, de los archivos de web logs, concernientes a los meses de septiembre y noviembre del 2011 lográndose obtener indicadores acerca de los escritorios, uso de viñetas y secciones. Adicionalmente se hizo un estudio de las sesiones que visitaron el escritorio directivos, con el fin de conocer los contenidos más requeridos y el comportamiento de navegación. Para esto se utilizó técnicas de minería de datos que permitieron crear grupos de sesiones con características distintivas de los visitantes. Como resultado, se concluyó que los indicadores obtenidos ayudaron a comprender de mejor forma el uso del portal y evidencian la necesidad de crear diseños personalizados a cada perfil de usuario, los que deben ir de la mano a sus competencias en el uso de la Web.
40

Diseño e implementación de un sistema automatizado para operar en el mercado de divisas usando reglas de asociación

Araneda Cordier, Hugo Andrés January 2015 (has links)
Magíster en Gestión de Operaciones / Ingeniero Civil Industrial / El análisis técnico es utilizado extensamente por la mayoría de los inversionistas de mercados financieros, siendo el mercado de divisas el con mayor desarrollo y volumen de transacciones a nivel mundial. Pese a su utilización el 90% de los inversionistas pierde dinero y sólo el 10% restante es exitoso invirtiendo en los mercados financieros. En la actualidad, el uso de sistemas de transacción automatizados basados en indicadores de análisis técnico es una herramienta utilizada cada día más por los inversionistas debido al fácil acceso de software de transacción que permite automatizar las operaciones de los clientes. Con el presente trabajo, se busca encontrar estrategias de compra rentables para la divisa más líquida, el euro-dólar, utilizando reglas de decisión complementadas con estrategias de money management. Por lo anterior, el objetivo principal del proyecto es encontrar reglas de asociación rentables de compra en un horizonte de 12 años utilizando indicadores técnicos que cuantifican tendencia, volatilidad y momentum. El sistema constituido por las reglas de decisión encontradas serán programadas en MT4 para realizar el backtesting correspondiente del sistema y al mismo tiempo tener un prototipo funcional que permita generar operaciones automáticas de compra en el mercado de divisas. La metodología se enfoca en encontrar las relaciones de orden existentes entre los valores de los indicadores técnicos y el movimiento en el precio del euro-dólar en base a datos transaccionales pasados. Se realiza un análisis univariado utilizando indicadores de cada categoría por separado y posteriormente se conjugan todos los indicadores en un análisis multivariado. Para evaluar cada regla de asociación se utilizan los indicadores de soporte, confianza y se introduce la contraconfianza como indicador, que busca registrar los escenarios negativos asociados a una regla de decisión determinada. El resultado obtenido es un sistema de transacción automatizado de compras constituido por 98 reglas de asociación que luego de incorporar estrategias de money management y algoritmos genéticos para optimizar los niveles de take profit y stop loss, en un horizonte de 12 años tuvo un desempeño superior en un 24% a la estrategia buy and hold y que superó en el peor de los casos en un 96% al resultado obtenido por sistemas automatizados de trading utilizando las señales obtenidas por un sólo indicador técnico. Como conclusión del trabajo realizado se obtiene que las relaciones entre los valores de indicadores técnicos y el movimiento del precio de una divisa pueden ser correctamente evaluadas con el sistema construido, ya que las decisiones de compra basadas en su utilización permitieron obtener resultados económicos positivos y superar a los resultados obtenidos por otros sistemas basados en otras reglas. Finalmente, dentro de las extensiones a este trabajo, se encuentran evaluar reglas de asociación asociadas a compra y venta y extender el análisis a otras divisas o incluso a otros activos pertenecientes a mercados financieros diferentes.

Page generated in 0.07 seconds