• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 839
  • 37
  • 26
  • 11
  • 6
  • 6
  • 1
  • 1
  • 1
  • Tagged with
  • 935
  • 217
  • 212
  • 211
  • 211
  • 211
  • 211
  • 186
  • 184
  • 158
  • 146
  • 132
  • 130
  • 114
  • 104
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
381

Uso de la ingeniería de negocios en diseño e implementación de negocio para Start up basada en Web Opinion Mining

Ponce de León Pollman, Francisco José January 2015 (has links)
Magíster en Ingeniería de Negocios con Tecnologías de Información / Ingeniero Civil Industrial / Opinion Zoom es un proyecto INNOVA del Web Intelligence Consortium Chile Research Centre del Departamento de Ingeniería Civil Industrial de la Universidad de Chile. El proyecto se basa en el desarrollo de algoritmos para el análisis de opiniones, sentimientos y polaridades de comentarios a partir de los datos depositados por los usuarios en las redes sociales, blogs y páginas a fines, en el marco del desarrollo explosivo que ha tenido la Web 2.0 en la última década. El trabajo de tesis se basa en la definición, desarrollo e implementación de un modelo de negocios que utilice los conocimientos generados por la investigación del proyecto. En particular, se busca mejorar la comunicación entre las organizaciones proveedoras de productos y servicios con los consumidores, caracterizando las preferencias de estos últimos y permitiéndoles a las empresas u organizaciones incorporar modificaciones en sus productos o generar otros nuevos de acuerdo a las opiniones de clientes potenciales y actuales. El beneficio puede alcanzar desde empresas privadas hasta instituciones públicas. La metodología empleada es la correspondiente a la Ingeniería de Negocios , adoptando el Modelo Lean Canvas en lo referente a la creación del Modelo de Negocio. En otras palabras, la lógica del trabajo de tesis consistió en extraer, mediante la metodología Lean Canvas, conocimiento del mercado que luego decantó en reglas semánticas de negocios, las que tradujeron en el diseño completo de cuatro servicios: Inteligencia de Clientes, Trending Alert, Impacto de Campañas y Automatización de reportes, incluyendo el desarrollo de un prototipo de aplicación web funcional el cual se utilizó como parte del MVP para validar los servicios. Posteriormente se diseñó la arquitectura de procesos necesaria para implementar el negocio propuesto, haciendo uso extensivo de los macro-procesos cadena de valor y planificación estratégica. Por otro lado se evaluó el potencial del negocio mediante cuantificación del mercado objetivo y análisis económico, el cual permitió definir al Spin-off , con un VAN de $28.179.728 para la Universidad en un horizonte de 2 años, como mejor alternativa de funcionamiento para la implementación del negocio desde un punto de vista de aversión al riesgo. Finalmente se realizó una prueba de concepto en la cual se validó con éxito la idea de negocio diseñada bajo tres dimensiones distintas: concepto, solución y modalidad de cobro, generándose recomendaciones para la próxima iteración del negocio.
382

Pronóstico de demanda de energía y potencia eléctrica en el largo plazo para la red de Chilectra S.A. utilizando técnicas de minería de datos

Palma Llewellyn, Andrés Felipe January 2015 (has links)
Magíster en Gestión de Operaciones / Ingeniero Civil Industrial / Las compañías dedicadas a la distribución de energía eléctrica incurren en altas inversiones para mantener una operación continua. Este tipo de condiciones hace aún más necesario el contar con una correcta proyección de demanda que permita precisar las inversiones, tratando de no incurrir en sobre ó sub inversión, lo que puede llevar a la implementación de una red sobre-dimensionada (si se sobreestima) ó a arriesgar la calidad del servicio y la compra de energía a un mayor precio, en el caso de la subestimación. El presente trabajo de tesis tiene como objetivo construir modelos de pronóstico de demanda de energía y potencia eléctrica con el fin de mejorar la proyección que realiza CHILECTRA S.A. Se realizaron experimentos con redes neuronales artificiales support vector regression y métodos estadísticos de series de tiempo (SARIMA y SARIMAX) para desarrollar cinco modelos predictivos que pronostiquen en un horizonte de 5 años las siguientes series: demanda de energía en el sistema, demanda residencial, demanda comercial, demanda industrial y potencia máxima mensual. El enfoque utilizado para los modelos corresponde a uno con variables explicativas y rezagos, utilizando tres conjuntos de variables: Climatológicas, Macroeconómicas y de Sistema (red). Se realizó un pre-procesamiento a las series a ingresar a los modelos, donde destaca una transformación aplicada a la serie de potencia eléctrica, en la cual se elimina el efecto de un patrón intrínseco asociado a las diferencias de demandas diarias dentro de cada semana. Para la selección de variables se utilizó el método de análisis de regresión para luego ingresar los atributos a los modelos, entregándole de esta forma variables (con rezagos incluidos) que tuvieran una relación lineal y que además cumplían, bajo esta óptica, con la homocedasticidad e independencia temporal de los errores. Se utilizaron cinco horizontes temporales para evaluar el desempeño los modelos de redes neuronales, support vector regression, SARIMA y SARIMAX, obteniendo las redes neuronales un mejor desempeño, registrando un MAPE de un 2,78% para la demanda de energía, y un 3,74% para la potencia máxima de cada mes, siendo estos valores el promedio de los errores en cada horizonte. Estos valores implican una disminución del error respecto de los modelos previamente utilizados en la empresa de un 3,44% para el pronóstico de energía, y de un 1,44% para el caso de la potencia, logrando de esta forma el objetivo inicial planteado. Los modelos de demanda sectoriales obtuvieron los siguientes errores en el largo plazo: 3,50% para el que trata la demanda residencial, 4,02% para el de demanda comercial, y 3,81% para el de industrial. Estos valores fueron obtenidos mediante redes neuronales, y nuevamente mostraron un mejor desempeño que los otros métodos. Los resultados en el largo plazo fueron satisfactorios para todos los modelos finalmente establecidos, considerando en que un 10% de error en este ámbito es evaluado como bueno. Debido a la alta dependencia de los modelos con la variable IMACEC, demostrada mediante un análisis de sensibilidad, se realizó un experimento de minería de textos para pronosticar los cambios en las expectativas del producto interno bruto, utilizados para pronosticar ésta variable explicativa, en base a las noticias de meses anteriores. Se entrenó un modelo clasificador de support vector machine que logró tener un máximo de desempeño de 60% de accuracy, lo que no es un buen resultado dado que todavía está abierto a mucha incertidumbre. No obstante aporta evidencia sobre la información que contienen las noticias para predecir posibles cambios futuros en la economía. Los objetivos de esta tesis fueron cumplidos, al confeccionar e implementar modelos predictivos de las demandas de energía y potencia eléctrica que mejoran la predicción de la demanda a la que se ve enfrentada CHILECTRA. Por otra parte, la implementación de la metodología de minería de textos se transforma en un primer paso para que la empresa pueda adelantarse a cambios macroeconómicos a ocurrir en el país.
383

Mejorando el Contenido Textual de un Sitio Web a Través de la Identificación de sus Web Site Keywords

Fernández Jorquera, José Ignacio January 2010 (has links)
En esta memoria se presenta el desarrollo y aplicación de una metodología para la identificación de las palabras más importantes contenidas en un sitio web, desde el punto de vista del usuario que lo visita, también conocidas como “web site keywords”. El diseño y construcción de un sitio web, es una tarea no trivial que requiere de la definición del contenido correcto y la estructura correcta del sitio para atraer y/o retener a sus eventuales visitantes. Asumiendo que la estructura de hipervínculos de un sitio esté relativamente correcta, el problema a abordar es qué contenidos atraerán en mayor medida la atención de sus visitantes, es decir, que imágenes, sonidos, colores, textos, etc. motivarían a un usuario a visitar el sitio web. Existe una estrecha relación entre la cantidad de visitas de un sitio y su éxito en la Web, por lo que asegurar un correcto contenido, implica mejorar las posibilidades de sobre vivencia del sitio en un mercado altamente competitivo como es el digital. De todos los contenidos antes mencionados, en el presente trabajo de memoria se desarrolla un set de herramientas que junto con una metodología propuesta, permitirían analizar los textos de las páginas de un sitio web y en particular, las palabras que componen dichos textos con miras a detectar aquellas que atraen la atención del usuario. El sitio web seleccionado para propósitos de experimentación y validación del trabajo debería ser complejo con respecto a varias características: número de visitas, actualización periódica y ser rico en contenido textual. La página web de un banco virtual Chileno (sin sucursales físicas y donde todas sus transacciones son realizadas electrónicamente) cumplió con dichos criterios. Se logro finalmente realizar el proceso de identificación de las palabras según las preferencias de navegación de los usuarios, determinando cuales eran más relevantes según la importancia dada por el “peso de la palabra” y por su relación con la industria. Palabras como Crédito, Financiamiento, Ahorro fueron algunas de las detectadas en el proceso y se agruparon en torno usuarios agrupados por la aplicación de algoritmos de web mining. La validación de las palabras encontradas, y de la metodología planteada, se realizó a través de un test de efectividad de las palabras claves detectadas, donde se consultó a usuarios de Internet y clientes de bancos cual era la relevancia de las palabras clave o web site keywords en los textos de las páginas del sitio web, corroborando la relevancia que tiene el uso de estas palabras en el contenido textual de las páginas web. Se concluye el trabajo mostrando las posibilidades de mejora del sitio web tanto textuales, por la identificación de palabras a través de la metodología con técnicas de web mining, como mejoras estructurales detectadas en el transcurso del trabajo.
384

Identificación de contenido multimedia relevante a partir de eventos utilizando su información social

Quezada Veas, Mauricio Daniel January 2013 (has links)
Ingeniero Civil en Computación / Este trabajo consistió en el diseño e implementación de una metodología para la generación automática de resúmenes de eventos a partir de documentos de contenido tanto textual como multimedial. La medida de relevancia para la extracción de documentos representativos en el proceso de la generación de resúmenes consideró la inclusión de indicadores sociales, es decir, se consideran más importantes los documentos con mayor impacto en medios sociales, tal como las redes sociales online. El problema central fue la generación de resúmenes de eventos bien definidos, es decir, no se consideró el problema de identificación de eventos en medios sociales. Para este trabajo, un evento se define como un acontecimiento que genera actividad en medios sociales. El resumen de un evento se construye principalmente a partir de una selección de documentos descriptivos que son publicados en los medios sociales en torno al evento en cuestión. Se utilizó una estrategia de clustering particional para la identificación de subtópicos de cada evento, y una estrategia simple para ponderar la relevancia de cada documento. Al no considerar el contenido de los documentos, éstos pueden ser de tipo textual o multimedial, pudiendo generar resúmenes multimedia o visuales. Este tipo de trabajo no ha sido profundamente estudiado en las áreas de investigación relacionadas a la fecha de esta memoria. Se utilizaron los servicios de Google News y Last.fm para la obtención de eventos noticiosos y musicales, respectivamente. Además, se utilizó la red social Twier para el enriquecimiento y generación de documentos con información social. Se utilizó el algoritmo de clustering K-means para la identificación de subtópicos mediante una representación adecuada de los documentos que no considerara su contenido, de forma de generar un resumen visual de cada evento, y una estrategia simple para ordenar los resultados de acuerdo a relevancia de acuerdo a determinados indicadores sociales de los documentos. La metodología fue evaluada sobre distintos eventos, tanto noticiosos como musicales, a partir de los cuales se generaron resúmenes multimediales automáticamente. También se analizaron casos puntuales manualmente, previa determinación de parámetros adecuados. Los resultados obtenidos indicaron que la calidad de los resultados no depende directamente de la cantidad de documentos utilizados, y que los indicadores sociales utilizados pueden ser calibrados para entregar más resultados relevantes. La metodología diseñada fue adecuada para alcanzar el objetivo principal, y puede ser mejorada en muchas aristas tanto en diseño como en implementación en el futuro.
385

Exigencias de calidad de suministro en base a densidad de consumo mediante técnicas de minería de datos

Flores Cartes, Claudio Nicolás January 2014 (has links)
Ingeniero Civil Electricista / Se entenderá por calidad de servicio el conjunto de propiedades y estándares normales que, conforme la Ley y el Reglamento Eléctrico son inherentes a la actividad de distribución concesionada, y constituyen las condiciones bajo las cuales dicha actividad debe desarrollarse. Esta incluye la calidad de servicio comercial, la calidad de suministro y dentro de ésta la calidad de producto y la disponibilidad del servicio eléctrico. Se entenderá por calidad de suministro la disponibilidad del servicio, la cual se medirá a través de las interrupciones de suministro: cantidad y duración de ellas. Estas definiciones encuentran su sustento legal en la Ley General de Servicios Eléctricos (DFL 4/2006), el Reglamento Eléctrico (DS 327/1997) y las normas técnicas. Actualmente las exigencias de calidad de suministro establecen índices ligados a las empresas y zonas de concesión de distribución, estableciéndose exigencias en base a índices poblacionales, kilómetros de redes de distribución y criterios que no dan cuenta de la densidad de consumo, criterio que determina necesariamente la calidad que se necesita. El presente trabajo propone una metodología de asignación de grupos de consumidores dentro del territorio nacional a índices de calidad representativos mediante técnicas de minería de datos (clustering), con independencia de la empresa suministradora, la topología de las redes existentes o las distinciones demográficas. La agrupación se basa en parámetros geográficos y de consumo anual de energía. La metodología se deriva de una serie de tentativas de agrupación de datos reales correspondientes a los consumos de la octava y novena región, realizada con tres programas computacionales que implementan una serie de algoritmos de clustering. La metodología se basa en tres etapas: una etapa de pre-procesamiento donde se llevan los datos a un formato manejable y se filtran para eliminar datos no pertinentes para el análisis, una etapa de clustering en donde los datos son agrupados a través del algoritmo K-means. Luego se realiza el cálculo de los vecinos más cercanos para cada cluster, el cual orienta en la elección del parámetro épsilon para el algoritmo DBSCAN utilizado para realizar una nueva agrupación basada en densidad para cada uno de los cluster, produciéndose subclusters cuya característica es tener distintas densidades. Para todas las etapas de clustering se utiliza una métrica basada en datos geográficos (coordenadas x e y de los datos) y el consumo anual de energía. La tercera etapa de post-procesamiento permite asociar a cada uno de los subclusters un índice de densidad de consumo por área. Finalmente, se escogió un esquema de regresiones lineales con los índices de densidad de consumo para determinar las zonas de exigencias. Se aplica la metodología y se contrasta con el esquema actual, a través del análisis de algunos casos de interés. Se comprueba que esta metodología corrige limitantes que el esquema actual no considera.
386

Metodología de asignación de recursos en desarrollos de minería subterránea

Lavado Abarzua, David Sebastián January 2014 (has links)
Ingeniero Civil de Minas / El proceso de fragmentación en minería de Block/Panel Caving es muy importante pues este influye fuertemente en el éxito y rentabilidad del proyecto a través de criterios de diseño, productividades, costos y rendimientos en la operación. Para el caso de mina el Teniente, esto es de particular importancia debido a la presencia de una roca masiva y competente. Esta roca se caracteriza por prácticamente no presentar discontinuidades abiertas aparte de las que conforman los sistemas de fallas, sin embargo, posee un enrejado polidireccional de vetillas o Stockwork en una alta frecuencia. Estas vetillas poseen un efecto importante en la resistencia y deformación del macizo, en particular, en el proceso de desarme de roca durante el hundimiento. Esto ha sido corroborado por diversos estudios de fragmentación en puntos de extracción, en donde se observa que la mayor parte de caras de colpas corresponden a estructuras geológicas preexistentes. Dentro de este marco, este trabajo propone el estudio del modo de ruptura de una configuración de probetas de material tipo Stockwork para distintas litologías, con el fin de observar la influencia de las vetillas en una condición de carga multicontacto similar a la ocurrida durante el proceso de fragmentación secundaria en la columna de material quebrado. Para esto, se desarrolla un total de 5 ensayos, 4 de estos sobre probetas de 10 cm de largo sobre las unidades CMET FW, CMET HW, Dacita y Diorita y un quinto ensayo sobre la unidad CMET HW con probetas de 3.9 cm de largo. Cada ensayo involucra la carga vertical de 16.52 MPa a 35 probetas en una configuración compacta, confinadas por un medio granular al interior de un cilindro de acero. Los resultados muestran que bajo las mismas condiciones de esfuerzos ciertas unidades presentan una mayor ruptura de probetas que otras y una mayor o menor influencia de las vetillas en su ruptura, generalmente a través de rupturas mixtas con participación de vetillas y matriz (tipo B). De esta forma se observa que la unidad CMET FW es el ensayo que logra la mayor ruptura de probetas seguidas por las unidades Dacita, CMET HW y Diorita, sin embargo, las vetillas poseen mayor relevancia en la unidad CMET HW con un 75% de las rupturas con influencia de vetillas seguidas por las unidades CMET FW y Diorita con un 66.7% y 63.1% respectivamente. Para el caso de la unidad Dacita se observa un 44% de las rupturas con influencia de vetillas. Junto con esto, se observa que para probetas con una razón de aspecto menor, disminuye la ruptura por vetillas y aumenta en gran medida la ruptura por roca, teniendo una gran influencia las zonas de contacto entre estas. Relativo a la ruptura de vetillas, no se observa una gran influencia de parámetros geométricos como son el JRC y el espesor en la ruptura, tampoco se observa alguna relación clara respecto del tipo o subtipo de vetilla, sin embargo, la mineralogía y la orientación de las vetillas en el ensayo presentan una gran relevancia. Respecto a la mineralogía, se observa una disminución del porcentaje de Cuarzo y un aumento en el porcentaje de Calcopirita, Anhidrita y Bornita en las vetillas con ruptura en comparación a estos valores para la población total de vetillas presentes en los ensayos. En relación a la ruptura de vetillas según el porcentaje de minerales duros presente en su relleno, se observa que en los ensayos CMET FW, CMET HW y CMET HW 2 existe una tendencia clara de ruptura de vetillas blandas, la cual es algo menos notorio para la unidad Diorita y que no es posible apreciar para la unidad Dacita. Respecto a la orientación, se observa una tendencia a la ruptura de vetillas con una disposición vertical por sobre vetillas sub horizontales dentro de la disposición del ensayo. De esta forma, este ensayo posee el potencial de ser una metodología complementaria para el estudio de la fragmentación secundaria.
387

Identificación de la presencia de ironía en el texto generado por usuarios de Twitter utilizando técnicas de Opinion Mining y Machine Learning

Hernández Martínez, Víctor Alejandro January 2015 (has links)
Ingeniero Civil Industrial / El siguiente trabajo tiene como objetivo general dise~nar e implementar un módulo clasificador de texto que permita identificar la presencia de ironía en el contenido generado por usuarios de Twitter, mediante el uso de herramientas asociadas a Opinion Mining y Machine Learning. La ironía es un fenómeno que forma parte del contenido generado por las personas en la Web, y representa un campo de estudio nuevo que ha atraído la atención de algunos investigadores del área de Opinion Mining debido a su complejidad y al impacto que puede tener en el desempeño de las aplicaciones de Análisis de Sentimientos actuales. Este trabajo de título se desarrolla dentro del marco de OpinionZoom, proyecto CORFO código 13IDL2-23170 titulado "OpinionZoom: Plataforma de análisis de sentimientos e ironía a partir de la información textual en redes sociales para la caracterización de la demanda de productos y servicios" desarrollado en el Web Intelligence Centre del Departamento de Ingeniería Industrial de la Facultad de Ciencias Físicas y Matemáticas de la Universidad de Chile, el cual busca generar un sistema avanzado para analizar datos extraídos desde redes sociales para obtener información relevante para las empresas en relación a sus productos y servicios. La hipótesis de investigación de este trabajo dice que es posible detectar la presencia de ironía en texto en idioma Español con cierto nivel de precisión, utilizando una adaptación de la metodología propuesta por Reyes et al. (2013) en [5] la cual involucra la construcción de un corpus en función de la estructura de Twitter junto con la capacidad de las personas para detectar ironía. El modelo utilizado se compone de 11 atributos entre los cuales se rescatan características sintácticas, semánticas y emocionales o psicológicas, con el objetivo de poder describir ironía en texto. Para esto, se genera un corpus de casos irónicos y no irónicos a partir de una selección semiautomática utilizando una serie de hashtags en Twitter, para luego validar su etiquetado utilizando evaluadores humanos. Además, esto se complementa con la inclusión de textos objetivos como parte del set de casos no irónicos. Luego, utilizando este corpus, se pretende realizar el entrenamiento de un algoritmo de aprendizaje supervisado para realizar la posterior clasificación de texto. Para ésto, se implementa un módulo de extracción de atributos que transforma cada texto en un vector representativo de los atributo. Finalmente, se utilizan los vectores obtenidos para implementar un módulo clasificador de texto, el cual permite realizar una clasificación entre tipos irónicos y no irónicos de texto. Para probar su desempe~no, se realizan dos pruebas. La primera utiliza como casos no irónicos los textos objetivos y la segunda utiliza como casos no irónicos aquellos textos evaluados por personas como tales. La primera obtuvo un alto nivel de precisión, mientras que la segunda fue insuficiente. En base a los resultados se concluye que esta implementación no es una solución absoluta. Existen algunas limitaciones asociadas a la construcción del corpus, las herramientas utilizadas e incluso el modelo, sin embargo, los resultados muestran que bajo ciertos escenarios de comparación, es posible detectar ironía en texto por lo que se cumple la hipótesis. Se sugiere ampliar la investigación, mejorar la obtención del corpus, utilizar herramientas más desarrolladas y analizar aquellos elementos que el modelo no puede capturar.
388

Análisis de datos y búsqueda de patrones en aplicaciones médicas

García Ubilla, Arnol David January 2015 (has links)
Ingeniero Civil Matemático / El suicidio en Chile se ha convertido en uno de los problemas más necesarios de hacer frente en salud pública, más aún, si consideramos que la enorme mayoría de las personas que mueren por suicidio presentan algún diagnóstico psiquiátrico y han consultado a un especialista los meses antes de cometer suicidio. Esto, motiva la creación de indicadores y alertas para detectar de forma eficaz y oportuna cuando una persona ingresa a una zona de riesgo suicida. En el presente trabajo se aborda este problema, definiendo una zona o espectro de riesgo suicida, y generando modelos matemáticos y estadísticos para la detección de pacientes en esta zona de riesgo. Para esto, se utiliza una base de datos de 707 pacientes, consultantes de salud mental, de tres centros de salud distintos de la región metropolitana. La base de datos a su vez contempla 343 variables, incluyendo tanto información sociodemográfica de cada paciente, como también sus respuestas en siete instrumentos clínicos utilizados habitualmente en salud mental (DEQ, STAXI, OQ, RFL, APGAR, PBI Madre y PBI Padre). Inicialmente la base de datos es depurada eliminando aquellos campos y/o registros con gran porcentaje de valores nulos, mientras que la imputación de valores perdidos se realiza mediante técnicas tradicionales y en algunos casos según el criterio experto, donde se utiliza un método de imputación según valor de subescala para los distintos instrumentos clínicos. Posteriormente, se realiza una reducción de atributos mediante el uso de herramientas estadísticas y provenientes del machine learning. Con esta información, se generan cinco modelos utilizando distintas técnicas y herramientas del ámbito de la minería de datos y machine learning mediante aprendizaje supervisado. Los modelos son generados y calibrados usando el lenguaje estadístico R, y se comparan sus resultados mediante cuatro métricas distintas: precisión (o accuracy), sensibilidad, especificidad, y mediante su representación en el espacio ROC. El modelo o clasificador finalmente propuesto corresponde a un modelo de support vector machine, que permite discriminar cuando un paciente se encuentra en una zona de riesgo suicida. El modelo fue entrenado utilizando un kernel de tipo RBF, y utiliza tan sólo 22 variables predictoras, entregando una precisión aproximada del $78%, calculada mediante k-validación cruzada de n-folds con k=100 y n=10.
389

Diseño y construcción de un sistema web de análisis de opiniones en Twitter integrando algoritmos de data mining

Córdova Galleguillos, Andrés Alejandro January 2015 (has links)
Ingeniero Civil Industrial / El objetivo General de esta memoria de título es "Diseñar y Construir un prototipo funcional de sistema de análisis de opiniones en Twitter integrando algoritmos de Data Mining". Este trabajo se enmarca en el proyecto "OpinionZoom " Plataforma de análisis de sentimientos e ironía a partir de información textual en redes sociales para la caracterización de la demanda de productos y servicios". Este es un proyecto de I+D aplicada concursado por InnovaChile de CORFO dirigido por el Web Intelligence Centre (WIC) de la Universidad de Chile. Este proyecto intenta satisfacer una necesidad de las organizaciones; la de conocer mejor a su público demandante y a sus opiniones con respecto a la marca, los productos o servicios que ofrece, o sobre algún tópico en particular. Si bien es frecuente que se hagan estudios de mercado para intentar resolver estas inquietudes, éstos resultan caros y presentan sesgos de distintas clases. Por otro lado, existe mucho contenido en la Web generado por usuarios de diferentes servicios, y a cada minuto se agregan miles de gigabytes de este tipo de datos. Solo en Twitter, red social de microblogging, se generan aproximadamente 340.000 \textit{tweets} por minuto. Si se consideran las poderosas herramientas desarrolladas en el último tiempo en el campo de Data Mining, existe un gran costo de oportunidad al no aprovechar las información de primera fuente que se puede obtener de allí para responder a las búsquedas de las organizaciones. Esta memoria de título pretende comprobar que es posible crear un sistema de análisis de opiniones en Twitter integrando algoritmos de Data Mining que por separado detecten entre otras cosas la orientación sentimental de una opinión, la influencia de los usuarios de Twitter y los intereses de estos usuarios. La solución a implementar es un prototipo funcional que permite revisar y proyectar la funcionalidad de la aplicación final que tendrá el proyecto en cuestión. Una de las novedades de este trabajo es la construcción de un Data Warehouse para colectar las opiniones vertidas en Twitter y proveer de información útil para la gestión al usuario del sistema. Se logran los objetivos al diseñar y construir un sistema de análisis de opiniones en Twitter integrando algoritmos de Data Mining a nivel de prototipo, mostrando resultados coherentes y satisfactorios, que instan a nuevas mejoras con vistas a un producto final. Se valida de esta forma la hipótesis y se aporta con una novedosa aplicación de un Data Warehouse que ocupe los datos que gratuitamente otorga Twitter para la mejor gestión de productos y servicios de una organización.
390

Evaluación técnica de desempeño en excavación vía TBM aplicado a un proyecto hidroeléctrico

Cayo Vargas, Pietro Fernando January 2016 (has links)
Autor no autoriza el acceso a texto completo de su documento hasta el 28/1/2021. / Ingeniero Civil de Minas / Cada vez que aparece una tecnología innovadora, el cambio de paradigma es la barrera principal de entrada hacia las personas para aceptarla o rechazarla. La forma ingenieril de llevar a cabo este cambio se basa en el ensayo de prueba y error en conjunto al estudio y análisis profundo de aquello que es más nuevo ojalá logrando determinar con total exactitud cuanto y porque es mejor, lo cual representa el objetivo primordial de este estudio. El trabajo realizado consiste la evaluación técnica de desempeño del método mecanizado Tunnel Boring Machine, la cual se lleva a cabo para el Proyecto Hidroeléctrico Alto Maipo a cargo de AES Gener. Toda la información para realizar análisis proviene de una fuente empírica constituida por la experiencia de construcción con la TBM Robbins MB139-396 en el túnel Volcán (V5) en el sector de El Yeso, Cajón del Maipo. El análisis se concentra en buscar los todos eventos que alteran el rendimiento de excavación otorgándoles un peso relativo según la deficiencia causada de forma tal que se jerarquice el grado de impacto. Esto genera valor al proyecto dando una mayor capacidad de respuesta al mandante en las decisiones que puede tomar al enfrentar contingencias tales como el clima, los incidentes, los cambios en la geología, entre otros. Dentro de los resultados más relevantes de este trabajo se puede afirmar que el rendimiento de avance para el periodo Ramp-up de la excavación logra tan solo un tercio de lo que se esperaba, esto debido a las eventualidades ocurridas. Explicando lo anterior se encuentra que, en orden decreciente en relación al impacto sobre el rendimiento de la TBM, las tres contingencias más sobresalientes son primero, las deficiencias en curva de aprendizaje a raíz del cambio geológico presentado por V5. Segundo, el incidente ocurrido en la frente en periodo de invierno y por último las condiciones climáticas adversas del lugar de trabajo. Por otra parte al realizar un modelo de ajuste personalizado y aplicado a un Forecast se tiene que para un escenario en donde se mitigan todas las desviaciones y sólo se predispone a la incertidumbre geológica, entonces el túnel Volcán finalizaría su excavación con TBM en 458 días, es decir, el 31 de Diciembre de 2016. Por último, se concluye que al realizar una extrapolación de los resultados obtenidos de esta memoria a la construcción de un túnel minero, como lo es por ejemplo el Adit 74 de Nuevo Nivel mina en Teniente, no es técnicamente factible a través del uso de TBM, lo cual se debe principalmente a las condiciones de diseño del túnel minero.

Page generated in 0.0543 seconds