• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 180
  • 15
  • 3
  • 1
  • 1
  • Tagged with
  • 200
  • 200
  • 38
  • 36
  • 32
  • 31
  • 31
  • 31
  • 31
  • 31
  • 28
  • 28
  • 27
  • 27
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Modelo Aplicado de Teoría de Juegos para el Estudio del Crimen en la Vía Pública

Lobato Vargas, José Luis January 2009 (has links)
No description available.
72

Estudio de la relación entre neurodatos, dilatación pupilar y emocionalidad basado en técnicas de minería de datos

Aracena Cornejo, Claudio Felipe January 2014 (has links)
Ingeniero Civil Industrial / El presente trabajo de título tiene por objetivo caracterizar las relaciones cuantitativas y cualitativas entre dilatación pupilar y emocionalidad del sujeto mediante técnicas de minería de datos como apoyo a la metodología de identificación de Website Keyobjects. Además se introduce el análisis de neurodatos como una posible medida de la emoción de los sujetos de estudio. Los objetivos específicos plantean investigar el estado del arte de las distintas variables de estudio, diseñar e implementar experimentos orientados a descubrir la posible relación, aplicar proceso de descubrimiento de conocimiento y finalmente concluir con respecto a la hipótesis de investigación. El trabajo de título está inmerso en el proyecto FONDEF titulado Plataforma informática basada en web-intelligence y herramientas de análisis de exploración visual para la mejora de la estructura y contenido de sitios web (AKORI: Advanced Kernel for Ocular Research and web Intelligence), proyecto compartido entre el Laboratorio de Neurosistemas y el Departamento de Ingeniería Industrial de la Universidad de Chile. La justificación del trabajo se basa en la creciente necesidad de entender la experiencia del usuario dentro de los sitios web con el fin de utilizar las mejores prácticas en la construcción de los mismos. Hasta el momento, la metodología del profesor Juan Velásquez permite localizar los Website Keyobjects, elementos principales de un sitio web, mediante el uso de técnicas de eye-tracking y minería de datos. Sin embargo, cuando un usuario fija su mirada en algún elemento, no se puede establecer una relación de gusto o disgusto frente al estímulo, por lo que se hace útil caracterizar estas relaciones subyacentes. Para la obtención de datos se realizaron 10 registros del experimento diseñado. El experimento consistió en que los sujetos eran expuestos a 180 imágenes con distinto contenido emocional, mientras eran registradas su actividad bioeléctrica cerebral (EEG), dilatación pupilar y la calificaciones que los usuarios otorgaban a las imágenes. En el análisis de los datos obtenidos fue llevado a cabo mediante el proceso KDD. Para la actividad bioeléctrica cerebral se obtuvieron resultados negativos, ya que no se logró establecer este parámetro como medida de emocionalidad. Tampoco fue posible obtener un alto porcentaje de precisión en la clasificación de emocionalidad en base a los neurodatos. Para la dilatación pupilar, si bien se registró un comportamiento similar al de estudios anteriores, no se logró establecer un clasificador de emociones según el comportamiento de la dilatación pupilar que superará el 50\% de precisión, independiente del algoritmo utilizado. Si bien no se logró demostrar la hipótesis de investigación, se vislumbran ciertos lineamientos para futuras investigaciones. Se considera el análisis de EEG como una fuente de información potente para el estudio del comportamiento del usuario en la web. Por lo mismo, se propone realizar una integración de análisis de neurodatos a la metodología de identificación de Website Keyobjects.
73

Estudio del comportamiento fisiológico de usuario de la web como determinante del género basado en herramientas de eye tracking, electroencefalograma y técnicas de minería de datos

Neira Reyes, Eduardo Daniel January 2016 (has links)
Ingeniero Civil Industrial / Este Trabajo de Título, tiene como objetivo general, examinar diferencias en el comportamiento fisiológico entre hombres y mujeres cuando navegan por la Web, mediante la aplicación de herramientas de eye tracking, electroencefalograma y técnicas de minería de datos. Este objetivo se quiere lograr en el marco del proyecto AKORI, un proyecto elaborado por WIC Chile Research Centre y el Laboratorio de Neurosistemas de la Universidad de Chile, que pretende desarrollar una plataforma informática para mejorar la estructura y contenido de sitios web mediante el uso de web intelligence y variables fisiológicas. En este proyecto ya se han elaborado 6 memorias de investigación de estudiantes de pregrado del DII de la U. de Chile, de las cuales se han podido validar o rechazar distintas hipótesis que relacionan la dilatación pupilar y la actividad bioeléctrica cerebral con el entorno web y que han abierto líneas de investigación. Para esta nueva etapa del proyecto AKORI, se quiere que los experimentos representen de mejor manera el comportamiento web de las personas, utilizando sitios web reales y considerando el objetivo por el cual un usuario visitaría un sitio web. Este objetivo puede ser muy distinto dependiendo de las características de las personas, por lo cual estas características deben ser tomadas en cuenta al momento de realizar un estudio. Dado lo anterior, se ha elegido el género como variable de segmentación ya que ha sido utilizada como base para la segmentación de mercado. Por esto, la hipótesis de investigación señala que es posible diferenciar por sexo a usuarios de la Web, utilizando su comportamiento pupilar y su actividad bioeléctrica cerebral . Para cumplir con el objetivo, primero se analizó el estado del arte de las materias relacionadas. Luego, se diseñó e implementó un experimento en el laboratorio ubicado en el DII de la U. de Chile, en el que participaron 10 hombres y 10 mujeres. Finalmente se analizaron los datos obtenidos del experimento. En la fase de análisis, primero se hizo un estudio exploratorio del comportamiento ocular, llegando a conclusiones consistentes con la literatura. Luego se realizó el proceso KDD, utilizando 5 modelos de predicción. De estos modelos, el con mejor desempeño fue el Árbol de Decisión, obteniendo un Accuracy superior al 70%, lo que permitió validar la hipótesis de investigación. Finalmente, se concluye que se cumple con el objetivo de este trabajo, lo que puede traer implicancias para el desarrollo de la plataforma informática pretendida por el proyecto AKORI.
74

Diseño de una estructura de soporte a la venta con el fin de aumentar la productividad del area comercial de Ricoh Chile

Collao Bahamondes, Claudio Gerardo January 2014 (has links)
Magíster en Ingeniería de Negocios con Tecnología de Información / El presente trabajo propone el diseño y desarrollo de un piloto de una estructura de soporte para incrementar la productividad el área comercial de RICOH Chile, mediante el acceso y generación de conocimiento sobre los clientes que arriendan equipamiento de impresión. Como principal metodología se utiliza el rediseño de procesos a partir de patrones de procesos, la cual detalla desde la arquitectura hasta el diseño del apoyo computacional y lógicas de negocios requeridos para implementarlo. La solución propuesta contempla el diseño e implementación de Data Marts y de un proceso de segmentación de clientes mediante técnicas de data mining que conjuntamente con el uso de estrategias de desarrollo y retención, aplicadas de acuerdo a los perfiles de cada segmento, determinan que actividades deben ejecutarse con cada cliente. Los principales resultados obtenidos fueron un incremento del 6% de los arriendos de equipos en un período de seis meses.
75

Estudio del Comportamiento de los Proveedores del Estado en el Sistema Chilecompra

Correa Quezada, Francisco Javier January 2010 (has links)
La deserción de clientes de un sistema es un fenómeno que atañe a una gran cantidad de instituciones públicas o privadas, ya sea en el área financiera, retail, entre otras, por lo que se han desarrollado una multiplicidad de estrategias y acciones para abordarla. El presente trabajo de título se realiza en el contexto del Área de Desarrollo Empresarial de la Dirección de Compras y Contratación Pública (Dirección ChileCompra). Su objetivo es contribuir al desarrollo de la cartera de proveedores del sistema de Mercado Público, a través del estudio del comportamiento de inactividad temporal (fuga) mediante el análisis de la información transaccional, permitiéndole al Área de Desarrollo Empresarial, contar con un diseño focalizado y eficiente de sus acciones buscando optimizar el match oferta-demanda en el Mercado Público. La solución propuesta se compone de la construcción de un modelo de comportamiento según estados, del diseño de un criterio para caracterizar el problema de la fuga transaccional en el sistema y finalmente el desarrollo de un modelo de clasificación que permita predecir el comportamiento transaccional de los proveedores en el sistema de Mercado Público. Para abordar el problema, se trabaja en el ámbito de la Minería de Datos, adoptando la metodología CRISP-DM (Cross Industry Standard Process for Data Mining). Metodología comúnmente empleada en la literatura para este tipo de problemas. El modelo desarrollado corresponde a una herramienta para la toma de decisiones del Área de Desarrollo Empresarial, pues como se describe en el presente estudio; la información transaccional de la plataforma de Mercado Público es un adecuado predictor de comportamiento. De este modo se pueden potenciar las acciones del área; ya que, al identificar a los proveedores con probabilidad de deserción, es posible retenerlos y cumplir con uno de los grandes objetivos del sistema: garantizar la eficiencia en el Mercado de las Compras Públicas.
76

Uso de la ingeniería de negocios en diseño e implementación de negocio para Start up basada en Web Opinion Mining

Ponce de León Pollman, Francisco José January 2015 (has links)
Magíster en Ingeniería de Negocios con Tecnologías de Información / Ingeniero Civil Industrial / Opinion Zoom es un proyecto INNOVA del Web Intelligence Consortium Chile Research Centre del Departamento de Ingeniería Civil Industrial de la Universidad de Chile. El proyecto se basa en el desarrollo de algoritmos para el análisis de opiniones, sentimientos y polaridades de comentarios a partir de los datos depositados por los usuarios en las redes sociales, blogs y páginas a fines, en el marco del desarrollo explosivo que ha tenido la Web 2.0 en la última década. El trabajo de tesis se basa en la definición, desarrollo e implementación de un modelo de negocios que utilice los conocimientos generados por la investigación del proyecto. En particular, se busca mejorar la comunicación entre las organizaciones proveedoras de productos y servicios con los consumidores, caracterizando las preferencias de estos últimos y permitiéndoles a las empresas u organizaciones incorporar modificaciones en sus productos o generar otros nuevos de acuerdo a las opiniones de clientes potenciales y actuales. El beneficio puede alcanzar desde empresas privadas hasta instituciones públicas. La metodología empleada es la correspondiente a la Ingeniería de Negocios , adoptando el Modelo Lean Canvas en lo referente a la creación del Modelo de Negocio. En otras palabras, la lógica del trabajo de tesis consistió en extraer, mediante la metodología Lean Canvas, conocimiento del mercado que luego decantó en reglas semánticas de negocios, las que tradujeron en el diseño completo de cuatro servicios: Inteligencia de Clientes, Trending Alert, Impacto de Campañas y Automatización de reportes, incluyendo el desarrollo de un prototipo de aplicación web funcional el cual se utilizó como parte del MVP para validar los servicios. Posteriormente se diseñó la arquitectura de procesos necesaria para implementar el negocio propuesto, haciendo uso extensivo de los macro-procesos cadena de valor y planificación estratégica. Por otro lado se evaluó el potencial del negocio mediante cuantificación del mercado objetivo y análisis económico, el cual permitió definir al Spin-off , con un VAN de $28.179.728 para la Universidad en un horizonte de 2 años, como mejor alternativa de funcionamiento para la implementación del negocio desde un punto de vista de aversión al riesgo. Finalmente se realizó una prueba de concepto en la cual se validó con éxito la idea de negocio diseñada bajo tres dimensiones distintas: concepto, solución y modalidad de cobro, generándose recomendaciones para la próxima iteración del negocio.
77

Pronóstico de demanda de energía y potencia eléctrica en el largo plazo para la red de Chilectra S.A. utilizando técnicas de minería de datos

Palma Llewellyn, Andrés Felipe January 2015 (has links)
Magíster en Gestión de Operaciones / Ingeniero Civil Industrial / Las compañías dedicadas a la distribución de energía eléctrica incurren en altas inversiones para mantener una operación continua. Este tipo de condiciones hace aún más necesario el contar con una correcta proyección de demanda que permita precisar las inversiones, tratando de no incurrir en sobre ó sub inversión, lo que puede llevar a la implementación de una red sobre-dimensionada (si se sobreestima) ó a arriesgar la calidad del servicio y la compra de energía a un mayor precio, en el caso de la subestimación. El presente trabajo de tesis tiene como objetivo construir modelos de pronóstico de demanda de energía y potencia eléctrica con el fin de mejorar la proyección que realiza CHILECTRA S.A. Se realizaron experimentos con redes neuronales artificiales support vector regression y métodos estadísticos de series de tiempo (SARIMA y SARIMAX) para desarrollar cinco modelos predictivos que pronostiquen en un horizonte de 5 años las siguientes series: demanda de energía en el sistema, demanda residencial, demanda comercial, demanda industrial y potencia máxima mensual. El enfoque utilizado para los modelos corresponde a uno con variables explicativas y rezagos, utilizando tres conjuntos de variables: Climatológicas, Macroeconómicas y de Sistema (red). Se realizó un pre-procesamiento a las series a ingresar a los modelos, donde destaca una transformación aplicada a la serie de potencia eléctrica, en la cual se elimina el efecto de un patrón intrínseco asociado a las diferencias de demandas diarias dentro de cada semana. Para la selección de variables se utilizó el método de análisis de regresión para luego ingresar los atributos a los modelos, entregándole de esta forma variables (con rezagos incluidos) que tuvieran una relación lineal y que además cumplían, bajo esta óptica, con la homocedasticidad e independencia temporal de los errores. Se utilizaron cinco horizontes temporales para evaluar el desempeño los modelos de redes neuronales, support vector regression, SARIMA y SARIMAX, obteniendo las redes neuronales un mejor desempeño, registrando un MAPE de un 2,78% para la demanda de energía, y un 3,74% para la potencia máxima de cada mes, siendo estos valores el promedio de los errores en cada horizonte. Estos valores implican una disminución del error respecto de los modelos previamente utilizados en la empresa de un 3,44% para el pronóstico de energía, y de un 1,44% para el caso de la potencia, logrando de esta forma el objetivo inicial planteado. Los modelos de demanda sectoriales obtuvieron los siguientes errores en el largo plazo: 3,50% para el que trata la demanda residencial, 4,02% para el de demanda comercial, y 3,81% para el de industrial. Estos valores fueron obtenidos mediante redes neuronales, y nuevamente mostraron un mejor desempeño que los otros métodos. Los resultados en el largo plazo fueron satisfactorios para todos los modelos finalmente establecidos, considerando en que un 10% de error en este ámbito es evaluado como bueno. Debido a la alta dependencia de los modelos con la variable IMACEC, demostrada mediante un análisis de sensibilidad, se realizó un experimento de minería de textos para pronosticar los cambios en las expectativas del producto interno bruto, utilizados para pronosticar ésta variable explicativa, en base a las noticias de meses anteriores. Se entrenó un modelo clasificador de support vector machine que logró tener un máximo de desempeño de 60% de accuracy, lo que no es un buen resultado dado que todavía está abierto a mucha incertidumbre. No obstante aporta evidencia sobre la información que contienen las noticias para predecir posibles cambios futuros en la economía. Los objetivos de esta tesis fueron cumplidos, al confeccionar e implementar modelos predictivos de las demandas de energía y potencia eléctrica que mejoran la predicción de la demanda a la que se ve enfrentada CHILECTRA. Por otra parte, la implementación de la metodología de minería de textos se transforma en un primer paso para que la empresa pueda adelantarse a cambios macroeconómicos a ocurrir en el país.
78

Mejorando el Contenido Textual de un Sitio Web a Través de la Identificación de sus Web Site Keywords

Fernández Jorquera, José Ignacio January 2010 (has links)
En esta memoria se presenta el desarrollo y aplicación de una metodología para la identificación de las palabras más importantes contenidas en un sitio web, desde el punto de vista del usuario que lo visita, también conocidas como “web site keywords”. El diseño y construcción de un sitio web, es una tarea no trivial que requiere de la definición del contenido correcto y la estructura correcta del sitio para atraer y/o retener a sus eventuales visitantes. Asumiendo que la estructura de hipervínculos de un sitio esté relativamente correcta, el problema a abordar es qué contenidos atraerán en mayor medida la atención de sus visitantes, es decir, que imágenes, sonidos, colores, textos, etc. motivarían a un usuario a visitar el sitio web. Existe una estrecha relación entre la cantidad de visitas de un sitio y su éxito en la Web, por lo que asegurar un correcto contenido, implica mejorar las posibilidades de sobre vivencia del sitio en un mercado altamente competitivo como es el digital. De todos los contenidos antes mencionados, en el presente trabajo de memoria se desarrolla un set de herramientas que junto con una metodología propuesta, permitirían analizar los textos de las páginas de un sitio web y en particular, las palabras que componen dichos textos con miras a detectar aquellas que atraen la atención del usuario. El sitio web seleccionado para propósitos de experimentación y validación del trabajo debería ser complejo con respecto a varias características: número de visitas, actualización periódica y ser rico en contenido textual. La página web de un banco virtual Chileno (sin sucursales físicas y donde todas sus transacciones son realizadas electrónicamente) cumplió con dichos criterios. Se logro finalmente realizar el proceso de identificación de las palabras según las preferencias de navegación de los usuarios, determinando cuales eran más relevantes según la importancia dada por el “peso de la palabra” y por su relación con la industria. Palabras como Crédito, Financiamiento, Ahorro fueron algunas de las detectadas en el proceso y se agruparon en torno usuarios agrupados por la aplicación de algoritmos de web mining. La validación de las palabras encontradas, y de la metodología planteada, se realizó a través de un test de efectividad de las palabras claves detectadas, donde se consultó a usuarios de Internet y clientes de bancos cual era la relevancia de las palabras clave o web site keywords en los textos de las páginas del sitio web, corroborando la relevancia que tiene el uso de estas palabras en el contenido textual de las páginas web. Se concluye el trabajo mostrando las posibilidades de mejora del sitio web tanto textuales, por la identificación de palabras a través de la metodología con técnicas de web mining, como mejoras estructurales detectadas en el transcurso del trabajo.
79

Identificación de contenido multimedia relevante a partir de eventos utilizando su información social

Quezada Veas, Mauricio Daniel January 2013 (has links)
Ingeniero Civil en Computación / Este trabajo consistió en el diseño e implementación de una metodología para la generación automática de resúmenes de eventos a partir de documentos de contenido tanto textual como multimedial. La medida de relevancia para la extracción de documentos representativos en el proceso de la generación de resúmenes consideró la inclusión de indicadores sociales, es decir, se consideran más importantes los documentos con mayor impacto en medios sociales, tal como las redes sociales online. El problema central fue la generación de resúmenes de eventos bien definidos, es decir, no se consideró el problema de identificación de eventos en medios sociales. Para este trabajo, un evento se define como un acontecimiento que genera actividad en medios sociales. El resumen de un evento se construye principalmente a partir de una selección de documentos descriptivos que son publicados en los medios sociales en torno al evento en cuestión. Se utilizó una estrategia de clustering particional para la identificación de subtópicos de cada evento, y una estrategia simple para ponderar la relevancia de cada documento. Al no considerar el contenido de los documentos, éstos pueden ser de tipo textual o multimedial, pudiendo generar resúmenes multimedia o visuales. Este tipo de trabajo no ha sido profundamente estudiado en las áreas de investigación relacionadas a la fecha de esta memoria. Se utilizaron los servicios de Google News y Last.fm para la obtención de eventos noticiosos y musicales, respectivamente. Además, se utilizó la red social Twier para el enriquecimiento y generación de documentos con información social. Se utilizó el algoritmo de clustering K-means para la identificación de subtópicos mediante una representación adecuada de los documentos que no considerara su contenido, de forma de generar un resumen visual de cada evento, y una estrategia simple para ordenar los resultados de acuerdo a relevancia de acuerdo a determinados indicadores sociales de los documentos. La metodología fue evaluada sobre distintos eventos, tanto noticiosos como musicales, a partir de los cuales se generaron resúmenes multimediales automáticamente. También se analizaron casos puntuales manualmente, previa determinación de parámetros adecuados. Los resultados obtenidos indicaron que la calidad de los resultados no depende directamente de la cantidad de documentos utilizados, y que los indicadores sociales utilizados pueden ser calibrados para entregar más resultados relevantes. La metodología diseñada fue adecuada para alcanzar el objetivo principal, y puede ser mejorada en muchas aristas tanto en diseño como en implementación en el futuro.
80

Exigencias de calidad de suministro en base a densidad de consumo mediante técnicas de minería de datos

Flores Cartes, Claudio Nicolás January 2014 (has links)
Ingeniero Civil Electricista / Se entenderá por calidad de servicio el conjunto de propiedades y estándares normales que, conforme la Ley y el Reglamento Eléctrico son inherentes a la actividad de distribución concesionada, y constituyen las condiciones bajo las cuales dicha actividad debe desarrollarse. Esta incluye la calidad de servicio comercial, la calidad de suministro y dentro de ésta la calidad de producto y la disponibilidad del servicio eléctrico. Se entenderá por calidad de suministro la disponibilidad del servicio, la cual se medirá a través de las interrupciones de suministro: cantidad y duración de ellas. Estas definiciones encuentran su sustento legal en la Ley General de Servicios Eléctricos (DFL 4/2006), el Reglamento Eléctrico (DS 327/1997) y las normas técnicas. Actualmente las exigencias de calidad de suministro establecen índices ligados a las empresas y zonas de concesión de distribución, estableciéndose exigencias en base a índices poblacionales, kilómetros de redes de distribución y criterios que no dan cuenta de la densidad de consumo, criterio que determina necesariamente la calidad que se necesita. El presente trabajo propone una metodología de asignación de grupos de consumidores dentro del territorio nacional a índices de calidad representativos mediante técnicas de minería de datos (clustering), con independencia de la empresa suministradora, la topología de las redes existentes o las distinciones demográficas. La agrupación se basa en parámetros geográficos y de consumo anual de energía. La metodología se deriva de una serie de tentativas de agrupación de datos reales correspondientes a los consumos de la octava y novena región, realizada con tres programas computacionales que implementan una serie de algoritmos de clustering. La metodología se basa en tres etapas: una etapa de pre-procesamiento donde se llevan los datos a un formato manejable y se filtran para eliminar datos no pertinentes para el análisis, una etapa de clustering en donde los datos son agrupados a través del algoritmo K-means. Luego se realiza el cálculo de los vecinos más cercanos para cada cluster, el cual orienta en la elección del parámetro épsilon para el algoritmo DBSCAN utilizado para realizar una nueva agrupación basada en densidad para cada uno de los cluster, produciéndose subclusters cuya característica es tener distintas densidades. Para todas las etapas de clustering se utiliza una métrica basada en datos geográficos (coordenadas x e y de los datos) y el consumo anual de energía. La tercera etapa de post-procesamiento permite asociar a cada uno de los subclusters un índice de densidad de consumo por área. Finalmente, se escogió un esquema de regresiones lineales con los índices de densidad de consumo para determinar las zonas de exigencias. Se aplica la metodología y se contrasta con el esquema actual, a través del análisis de algunos casos de interés. Se comprueba que esta metodología corrige limitantes que el esquema actual no considera.

Page generated in 0.103 seconds