• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • Tagged with
  • 4
  • 4
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Análisis del Comportamiento del Usuario Web

Román Asenjo, Pablo January 2011 (has links)
Desde los orígenes de la Web en el CERN, ha existido una pregunta recurrente entre los investigadores y desarrolladores: ¿Cual es la estructura y contenido correcto para que un sitio web atraiga y/o retenga a sus visitantes? En parte, la respuesta a esta interrogante, se encuentra fuertemente relacionada con una mayor comprensión de las motivaciones que posee un usuario al visitar un sitio. En efecto, mientras más información y conocimiento se obtenga acerca de qué es lo que el usuario busca al visitar un sitio web, mejores serán los contenidos y estructuras que se le puedan ofrecer, permitiendo la implementación de sistemas que personalicen la experiencia del usuario en un sitio. Por otra parte, el análisis del comportamiento humano, ha sido abordado por una gran cantidad de disciplinas como Psicología, Sociología, Economía, Lingüística, Marketing y Computación, entre otras. Lo anterior permite la creación de un marco teórico práctico con un altísimo potencial de ser aplicado en otras áreas del conocimiento, en particular el análisis del comportamiento del usuario web. Las disciplinas antes mencionadas, recurren fundamentalmente a encuestas y a muestreos experimentales para extrapolar el comportamiento de una persona ante determinadas circunstancias. En el caso del usuario web, la mayor fuente de datos respecto de su comportamiento de navegación y preferencias queda almacenada en archivos de Web Log, los cuales dan cuenta de cada una de las acciones que un usuario ha efectuado cuando visita a un sitio. Dependiendo de la cantidad de visitas del sitio, estos archivos pueden contener millones de registros, constituyendo una de las mayores fuentes de datos sobre comportamiento humano. El presente trabajo describe un nuevo enfoque que aplica teorías sobre la neurofisiología de la toma de decisiones para describir el comportamiento de navegación del usuario web. La hipótesis de investigación corresponde a: “Es posible aplicar teorías de la neurofisiología de la toma de decisiones para explicar el comportamiento de navegación de los usuarios web”. Para el análisis del comportamiento del usuario web, primero se requiere de una etapa de preprocesamiento de datos. Esto es, reconstruir las secuencias de páginas visitadas (sesiones) de cada visitante, el contenido de texto y la estructura de link del sitio web. Históricamente, el siguiente paso es aplicar algoritmos y técnicas de minería de datos para la identificación y extracción de patrones de comportamiento de los usuarios. Una importante contribución de este trabajo corresponde al realizado en la etapa de pre-procesamiento. Es necesario asegurar la calidad de los datos debido a que la etapa de calibración es sensible al conjunto de datos usados. Para estos fines, fueron desarrollados nuevos algoritmos basados en programación entera para la extracción optima de de las sesiones de usuario. Esta tesis también propone un modelo estocástico para describir el proceso de navegación del usuario web. Éste se basa en la teoría neurofisiológica de la toma de decisiones LCA (Leaky Competing Accumulator). En ella se describe la actividad neuronal de diferentes regiones de la corteza cerebral durante el proceso de determinación, por medio de un proceso estocástico que evoluciona hasta que se alcance un cierto umbral que gatilla la decisión. Esta clase de modelos estocásticos han sido estudiados experimentalmente por más de 40 años. En este contexto, un usuario web se enfrenta a la decisión de elegir que link visitar de acuerdo a sus propias motivaciones, el proceso se repite en cada visita a las paginas hasta salir del sitio. Los parámetros del modelo son ajustados por medio del método de máxima verosimilitud, usando las secuencias de páginas reales. Se concluye que cerca del 70% de la distribución real de sesiones de recupera mediante este método. Este es un importante avance debido a su rendimiento sobresaliente en relación a algoritmos tradicionales de web mining. Entonces se prueba la plausibilidad de la hipótesis.
2

Modelos de Selección de Atributos para Support Vector Machines

Maldonado Alarcón, Sebastián Alejandro January 2011 (has links)
Doctor de Sistemas de Ingeniería / Recientemente los datos se han incrementado en todas las áreas del conocimiento, tanto en el número de instancias como en el de atributos. Bases de datos actuales pueden contar con decenas e incluso cientos de miles de variables con un alto grado de información tanto irrelevante como redundante. Esta gran cantidad de datos causa serios problemas a muchos algoritmos de minería de datos en términos de escalabilidad y rendimiento. Dentro de las áreas de investigación en selección de atributos se incluyen el análisis de chips de ADN, procesamiento de documentos provenientes de internet y modelos de administración de riesgo en el sector financiero. El objetivo de esta tarea es triple: mejorar el desempeño predictivo de los modelos, implementar soluciones más rápidas y menos costosas, y proveer de un mejor entendimiento del proceso subyacente que generó los datos. Dentro de las técnicas de minería de datos, el método llamado Support Vector Machines (SVMs) ha ganado popularidad gracias a su capacidad de generalización frente a nuevos objetos y de construir complejas funciones no lineales. Estas características permiten obtener mejores resultados que otros métodos predictivos. Sin embargo, una limitación de este método es que no está diseñado para identificar los atributos importantes para construir la regla discriminante. El presente trabajo tiene como objetivo desarrollar técnicas que permitan incorporar la selección de atributos en la formulación de SVMs no lineal, aportando eficiencia y comprensibilidad al método. Se desarrollaron dos metodologías: un algoritmo wrapper (HO-SVM) que utiliza el número de errores en un conjunto de validación como medida para decidir qué atributo eliminar en cada iteración, y un método embedded (KP-SVM) que optimiza la forma de un kernel Gaussiano no isotrópico, penalizando la utilización de atributos en la función de clasificación. Los algoritmos propuestos fueron probados en bases de datos de de diversa dimensionalidad, que van desde decenas a miles de atributos, y en problemas reales de asignación de créditos para entidades financieras nacionales. De los resultados se obtiene que SVMs no lineal con kernel Gaussiano muestra un mejor desempeño que con las funciones de kernel lineal y polinomial. Asimismo, los métodos de selección de atributos propuestos permiten mantener o incluso mejorar el desempeño predictivo de SVMs no lineal, logrando además una reducción significativa en la utilización de atributos. Para las bases de mayor dimensionalidad se reduce de miles a decenas de atributos seleccionados, logrando un desempeño predictivo significativamente mejor que los enfoques alternativos de selección de atributos para SVMs. Se concluye que los enfoques presentados representan la alternativa más efectiva dentro de las estudiadas para resolver el problema de selección de atributos en modelos de aprendizaje computacional. Como trabajo futuro se propone adaptar las metodologías propuestas para problemas con desbalance de clases, donde se requiere una evaluación distinta del desempeño del modelo considerando costos por error de clasificación asimétricos, una problemática común en aplicaciones como detección de fuga y riesgo crediticio.
3

Modelos de Equilibrio de Mercado y Regulación Económica en Redes Móviles de Nueva Generación

Medel García, Fabián January 2012 (has links)
El desarrollo y transformación del mercado de telefonía móvil, y las recientes tendencias de políticas regulatorias para enfrentar los problemas de colusión y exclusión de éste mercado, como la utilización de cargos de acceso en equilibrios asimétricos y regulación a precios minoristas, entre otros, son la fuente de motivación principal de esta tesis. El objetivo principal es lograr reflejar los comportamientos estratégicos de los agentes del mercado, a través de un modelo de optimización no lineal con restricciones de equilibrio, que integre a consumidores heterogéneos, a un regulador y a dos firmas en competencia oligopólica que brindan múltiples servicios a los consumidores, que perciben utilidad por recibir y realizar llamadas. Donde se asegurare la convergencia del problema a equilibrios únicos perfectos en el subjuego en mercado compartido, e incluya, funciones de costo basadas en firmas reales, a través de modelos de costo detallados de desempeño de elementos, como los utilizados por los entes reguladores en la actualidad. Dentro de los resultados, el bienestar social se ve aumentado por la aplicación de cargos de acceso asimétricos, esto bajo la condición de que el regulador sea capaz de reconocer si las asimetrías tienen fuente en la demanda o en la oferta. Por otra parte, no se recomienda la aplicación de cargos de acceso nulos, por sus efectos negativos en los segmentos de menor tráfico. En el ámbito de la regulación a precios a público, se plantea la conveniencia de una política regulatoria que prohíbe la diferenciación de precios entre los servicios dentro y fuera de la red, la cual entrega mayores utilidades a las firmas pequeñas y disminuye el poder de mercado de las firmas grandes, mejorando la competencia en la mayoría de los casos analizados, a pesar de esto, la imposición de la política conlleva a un sacrificio de una parte del excedente de los consumidores en el mediano plazo. Por último, se muestran las bondades del modelo en una simulación exitosa del mercado colombiano, donde se evalúa la conveniencia de una rebaja de los cargos de acceso o la imposición de la no diferenciación de precios, en vista de esto el modelo se puede transformar en una potente herramienta análisis de mercado de mediano plazo.
4

Empaquetamiento Optimo de Servicios de Telecomunicaciones

Pérez Retamales, Juan January 2012 (has links)
No description available.

Page generated in 0.0986 seconds