• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1450
  • 92
  • 31
  • 11
  • 3
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 1594
  • 516
  • 487
  • 370
  • 360
  • 360
  • 360
  • 360
  • 332
  • 304
  • 294
  • 227
  • 211
  • 195
  • 192
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

Ciencia de datos y ética en als organizaciones / Tecnologías de la información en la co-creación de valor / El reto de convertir datos en información en las organizaciones

Alcántara, Luis Alberto, Rocha de Andrade, Leandro 27 November 2021 (has links)
Data Week UPC 2021 Día 4 / Data WeeK UPC es un evento anual organizado por las Facultades de Negocios e Ingeniería, con el propósito de reunir a investigadores y expertos en la gestión empresarial para reflexionar acerca del papel de la Ciencia de Datos en la generación de valor en las organizaciones. Nueve expositores de distintas instituciones se unirán a las 4 fechas del Data Week 2021 este 23, 25, 26 y 27 de noviembre, para reflexionar acerca de los retos en el proceso de la transformación de datos para la toma de decisiones. No se pierdan la oportunidad de participar en este espacio en el que discutiremos las principales tendencias en cuanto a la aplicación de la ciencia de datos en la gestión empresarial. 5:00 PM CIENCIA DE DATOS Y ÉTICA EN LAS ORGANIZACIONES A medida que crece la importancia de los datos y su volumen también lo hace la necesidad de velar por el correcto uso de la información. En esta charla se abordará el reto que representa para las organizaciones la adecuada protección de los datos, la privacidad de sus clientes y empleados y la responsabilidad creciente ante los riesgos, así como las nuevas visiones sobre el uso de la información. 6:00 PM TECNOLOGÍAS DE LA INFORMACIÓN EN LA CO-CREACIÓN DE VALOR Las tecnologías de la información y comunicación (TIC) juegan un rol protagónico en la competitividad empresarial, en esta charla se abordará el papel de las TIC’s en un entorno cada vez dinámico e incierto para responder a las oportunidades y riesgos en el desarrollo en la empresa. 7:00 PM EL RETO DE CONVERTIR DATOS EN INFORMACIÓN EN LAS ORGANIZACIONES En esta charla, Leandro Rocha nos comentará su experiencia sobre cómo superar el reto de convertir datos en información que dé sentido al negocio.
212

Webinar: Bloomsbury Collections: libros digitales para Arquitectura, Artes, Comunicaciones, Educación, Diseño y Humanidades

Velasco, Victor 27 August 2021 (has links)
Ponente: Victor Velasco (Perú) - Gerente General Education Link / Bloomsbury es una de las editoriales más reconocidas a nivel mundial, contiene información de diversas áreas temáticas. En este webinar se abordará específicamente sobre Bloomsbury Collections, la cual contiene libros de Arquitectura, Artes, Comunicaciones, Educación, Diseño y Humanidades. Se darán a conocer las características y funcionalidades que tiene esta base de datos, como: el modo de búsqueda, herramientas, filtros y contenido de las áreas temáticas que ofrece este recurso. Asimismo se anunciarán novedades de esta casa editora dirigido para la comunidad académica de UPC.
213

Implementación de metodología para determinar dominios geometalúrgicos de estimación

Rosales Fernández, David Alonso January 2014 (has links)
Memoria para optar al título de Ingeniero Civil de Minas / En el negocio minero es un asunto de vital importancia la evaluación de la rentabilidad esperada, que permita lograr un desempeño operacional óptimo con la menor incertidumbre posible. Actualmente, los modelos de estimación no consideran en mayor medida las variables de respuesta metalúrgica asociadas a las características del yacimiento, lo que conlleva a una evaluación y planificación no óptima, tanto minera como en planta, afectando en cierta medida una correcta proyección de los retornos económicos esperados. Este trabajo de título tiene como objetivo principal proponer e implementar una metodología que permita definir, de forma no asistida o con poca intervención del usuario, dominios geometalúrgicos a partir de una base de datos real. Los datos utilizados en esta memoria fueron obtenidos de Mina Escondida, los cuales contienen información de geoquímica, asociaciones geológicas (litologías, alteraciones y mineralización) y recuperación de cobre por flotación rougher. Entre los objetivos específicos, se destaca realizar un modelo predictivo de recuperación de cobre por cada dominio definido, además de desarrollar un análisis de sensibilidad con respecto a la capacidad de los algoritmos de agrupamiento de clasificar los datos. La metodología consiste en primer lugar en la construcción de una base de datos unificada a partir de los datos disponibles. Luego se realiza un estudio exploratorio de datos para después iniciar la minería de datos, consistente en la selección de variables, análisis de componentes principales y clustering (k-Means y Ward), que definirán los dominios. Una vez realizada esta labor se determina un modelo predictivo multilineal de la recuperación de cobre por cada dominio obtenido, para finalmente efectuar un análisis de sensibilidad con respecto a la cantidad de clusters definidos y su capacidad de clasificar los datos. Una vez obtenidos y analizados los dominios geometalúrgicos, se pudo concluir que esta metodología es útil ya que permite determinar de forma no supervisada estos clusters. Sin embargo, igualmente se requiere de la interpretación del investigador a cargo, ya que dependiendo del número de clusters definidos, se pueden generar unidades geometalúrgicas redundantes entre sí que no mejoren la calidad de la clasificación. En cuanto a los modelos predictivos, si bien una regresión multilineal es de fácil aplicación e interpretación, ésta no ajusta de gran manera al presentar un coeficiente de determinación relativamente bajo, por lo que se recomienda ver alternativas tales como redes neuronales o árboles de decisión.
214

Búsqueda de caminos relevantes en grafos RDF

Tartari Barriga, Gonzalo January 2018 (has links)
Ingeniero Civil en Computación / A partir de información representada en una colección de declaraciones en RDF (Resource Description Framework), esta representa intrínsecamente un multi-grafo etiquetado, dirigido. Con esto es posible utilizar algoritmos de búsqueda de caminos, que permiten encontrar la ruta más corta entre dos nodos. Con el fin de estudiar tecnologías basadas en el desarrollo de la web semántica, el tema de memoria propuesto consiste en la búsqueda de caminos relevantes para grafos en RDF. Para esto se construye una herramienta la que, a partir de un archivo con información en RDF, sea capaz de resolver consultas sobre caminos entre un nodo de origen y un nodo objetivo de tal manera que estos contengan información relevante para el usuario. La relevancia de los caminos se representa a través del peso asignado tanto a aristas, según su etiqueta, como a vértices, principalmente por métodos basados en su grado, PageRank o variaciones de estos. Para la búsqueda del camino mínimo entre un nodo origen y un nodo objetivo se implementa una versión del algoritmo de Dijkstra para grafos ponderados. Con el objetivo de tener la posibilidad de visualizar los resultados obtenidos y usar la herramienta en un contexto real para reportar resultados, es que se construye una aplicación que resuelva consultas de caminos entre dos nodos y represente esta respuesta gráficamente. Finalmente se realizan pruebas de rendimiento del algoritmo utilizado y pruebas para comparar los caminos resultantes de los distintos métodos de ponderación del grafo. Además se lleva a cabo una evaluación con usuarios para la validación de la solución obtenida.
215

Predicción de ubicación frecuente a nivel regional de usuarios chilenos de Twitter

Caamaño Lobos, María Ignacia January 2018 (has links)
Memoria para optar al título de Ingeniera Civil Industrial / El presente trabajo de título tiene como objetivo diseñar y construir modelos de clasificación para predecir cuáles usuarios de Twitter viven en Chile y en cuál de las quince regiones administrativas de Chile habitan; utilizando información pública del perfil y el contenido que emiten, mediante algoritmos de Machine Learning. Las redes sociales son uno de los medios de comunicación más utilizados en el mundo hoy en día en donde segundo a segundo se reciben millones de datos. Si hablamos de Twitter, este contiene a diario más de 328 millones de usuarios activos en todo el mundo que publican cerca de 6.000 tweets por segundo. Todos estos datos que se comparten son de gran utilidad para poder caracterizar de mejor forma a los usuarios. Una de estas características es la geolocalización, la cual está siendo cada vez más utilizada para conocer mejor a los clientes y usuarios. Pero, obtener este atributo para cada usuario no es tarea fácil ya que este dato, por lo general, no es público o es incierto. En particular, el proyecto SONAMA y proyecto OpinionZoom del Web Intelligence Center, buscan geolocalizar a los usuarios chilenos de Twitter a nivel regional para utilizar esta característica dentro de sus investigaciones y poder mejorar los niveles de granularidad que están alcanzando con respecto a la geolocalización de las personas. Para esto, a partir de la API REST de Twitter y de una encuesta realizada en el WIC, se extraen datos para construir bases de entrenamiento etiquetadas para diseñar y entrenar dos modelos de clasificación con el fin de que uno identifique a los usuarios chilenos de Twitter y el segundo identifique la región en que cada usuario chileno vive. Para ambos modelos se analiza el desempeño de tres algoritmos diferentes. El modelo país, mediante Stochastic Gradient Descent, logra un AUC de 99,89% y un F1-Score de la clase positiva de 98,95% tras validación cruzada de 5-iteraciones, el cual supera los resultados de la heurística de clasificación que actualmente se utiliza. Por otro lado, el modelo región, mediante Stochastic Gradient Descent, logra un F1-Macro de 42,54% y Accuracy de 40,73% tras validación cruzada de 5-iteraciones. Resultado el cual, si bien bajo, mejora la situación actual con respecto al 6,67% que entrega la aleatoriedad. Finalmente, se valida la hipótesis de investigación en su totalidad ya que es posible determinar los usuarios chilenos de Twitter y su región frecuente utilizando exclusivamente el contenido que se publica y atributos de contexto del usuario. Tanto el modelo país como el modelo región superan la situación actual, por lo que sus resultados quedan como baseline para próximas investigaciones.
216

Afectan las redes sociales las decisiones de financiamiento de las empresas : datos empíricos para Chile

Alarcón Contardo, Ignacio Javier 11 December 2015 (has links)
Tesis para optar al grado de Magíster en Finanzas / El presente trabajo tiene por objetivo analizar si la existencia de redes sociales a nivel de directores tiene alguna influencia en las decisiones de estructura de capital para una muestra de empresas chilenas. Como sabemos, en Chile existe un gran nivel de desigualdad económica, habiendo un pequeño grupo de gente que posee la mayoría de los ingresos en Chile. Es por esto que existen familias que tienen un nivel tal de riqueza, que son extremadamente influyentes en la economía del país, principalmente a nivel de inversión y control de empresas. Recientemente, se han visto muchos casos donde gente en esta situación privilegiada utiliza su poder para lograr tratos o simplemente dinero de manera privilegiada y única a su situación particular, como es el caso Dávalos-Luksic; también casos como la colusión de las farmacias y más recientemente, los casos del “Cartel del Confort” o SQM. Todos estos casos tienen en común movimiento de información entre personas conectadas por redes sociales, moviendo Información. El “quién” recibe esta información, y el “cómo” es utilizada, está directamente vinculado con las redes sociales, las cuales tienen el potencial de hacer o destruir la reputación de una empresa, lo que la afecta directamente en temas como, por ejemplo, la manera en que puede financiarse. Ahí nace la motivación de ver si es posible que estas familias influyentes puedan afectar, desde el directorio de una o más empresas, las decisiones de la misma, ya sea vía mejores oportunidadesofertas por su situación particular o simplemente por su condición como “Familia”, como nombre tan importante y conocido en nuestro país que abre nuevas puertas a las empresas de las que forman parte. Si bien en Chile se han dado cada vez más casos de corrupción, la idea de este estudio no es diferenciar si las diferencias se encuentran en actos “legales” o “correctos”, sino más bien ver alguna relación que se pueda ver entre la conexión que tienen las empresas a nivel de relaciones sociales, entre ellas y sus directorios. La base del análisis de regresiones y la definición de las mismas se basa en los papers de Modigliani & Miller (1958), para el análisis de estructura de capital, y también en Miguel et al. (2004) quien encuentra un vínculo entre control corporativo y desempeño consistente de la empresa. El estudio en sí se basa principalmente en análisis de regresión, tomando una muestra de 78 firmas del mercado nacional, entre los años 2009 y 2013, analizando y comparando las diferencias que existen en una regresión normal de estructura de capital versus lo que ocurre al agregar las variables de relaciones sociales, para ver si se logra encontrar el impacto asociado y determinar a qué se le atribuye exactamente. Los resultados obtenidos demuestran que, existe una influencia significativa en las variables asociadas a los interlocks, respecto al financiamiento de las empresas. Junto con el tamaño de las empresas, demostramos que las variables de interlocks afectan el nivel de financiamiento bancario y publico de las empresas, como también el ratio de deuda total, de manera negativa. El presente trabajo se estructura en cinco apartados. Posterior a la presente introducción, en un segundo apartado se procede establecer el marco teórico, que servirá como guía para el trabajo. Luego pasamos a describir la muestra, variables y metodología, para luego pasar a la cuarta sección que corresponde a los resultados y al análisis explicativo. El último apartado corresponde a las conclusiones.
217

Plataforma de análisis e identificación de demanda de competencias laborales en los avisos de trabajo de la Bolsa Nacional de Empleo mediante técnicas de Text Mining

Molina Salgado, Javier Ignacio January 2018 (has links)
Ingeniero Civil Industrial / La Bolsa Nacional de Empleo (BNE), es una plataforma laboral estatal, pública y gratuita. Esta plataforma sirve de intermediario entre empleadores y personas que se encuentran en búsqueda de trabajo. Esta iniciativa depende del Ministerio del Trabajo y Previsión Social en conjunto con el SENCE, Servicio Nacional de Capacitación y Empleo. Por otro lado, existen competencias laborales, las cuales son definidas como habilidades, aptitudes y conocimientos que necesarios para la ejecución de alguna función dentro de una actividad laboral o puesto de trabajo. Estas son requeridas por los trabajos para ser correctamente ejecutados y también son poseídas por cada trabajador producto de su formación y experiencia. Esta memoria tiene dos objetivos principales: el primero es detectar las competencias laborales que requieren los avisos de trabajo de la BNE y en segundo lugar diseñar e implementar una plataforma de análisis para la información generada, de manera de disponer de una herramienta de apoyo a la gestión y decisión para las entidades involucradas. Para cumplir con dichas metas se desarrolló un sistema que utilizó técnicas de text mining, además de integrar un catálogo de competencias laborales junto a un motor de búsqueda para generar coincidencias entre las competencias laborales y los avisos de trabajo. Luego con la información generada se diseñó e implementó una plataforma de análisis (un data warehouse) accesible desde la web y que permite realizar distintos análisis de las competencias laborales demandadas segmentando por factores como temporalidad, sector económico, tipo de trabajo, entre otros. Finalmente, se desarrolló una herramienta de detección de competencias laborales y una plataforma para su análisis a niveles agregados o segmentados con una precisión del 95% para los grupos más altos de coincidencias. Las conclusiones de esta memoria apuntan a utilizar el trabajo desarrollado como base para nuevas líneas de investigación y aplicaciones prácticas en las distintas plataformas laborales, así como posibles mejoras al sistema actual. / Este trabajo ha sido financiado parcialmente por Proyecto FONDECYT Regular 1151479 y Proyecto CONICYT PIA SOC 1402
218

Predicción y descripción de la exclusión educativa del sistema escolar regular chileno, ciencia de datos para la innovación pública

Ibáñez Irribarra, Diego Ernesto January 2018 (has links)
Memoria para optar al título de Ingeniero Civil Industrial / La presente memoria de título desarrolla la predicción y descripción a nivel individual del potencial de exclusión educativa, también denominada deserción escolar, de les estudiantes de enseñanza básica y media del sistema escolar regular chileno, a través del prototipado de herramientas digitales. Con el fin de facilitar, mediante la detección temprana, y aportar entendimiento del fenómeno, a procesos de innovación pública para la prevención efectiva. Como aporte a los antecedentes del fenómeno de la exclusión educativa escolar chilena, se evidencia que del orden del 50% de les estudiantes excluides del sistema escolar año a año, asisten hasta diciembre a clases, con asistencia mes a mes en promedio superior al 80% para la enseñanza básica, y en promedio superior al 80% general anual para la enseñanza media. Este nuevo antecedente cuantitativo del fenómeno plantea preguntas sobre la pertinencia del actual proceso de cierre anual escolar, y sobre el enfoque del actuar institucional para la prevención durante el año, y en vacaciones y cambios de ciclo. Se utilizan 20 bases de datos de 4 instituciones distintas, disponibles transversalmente para cada estudiante. Para el aprendizaje de máquinas el conjunto de datos describe el caso de la exclusión educativa de la matrícula regular pública, municipal y particular subvencionada; de enseñanza básica, media científico humanista y técnico profesional. Para el aprendizaje supervisado el conjunto de entrenamiento (balanceado entre clases: excluides 50% y no excluides 50%) describe a cada estudiante en 2016-2017, y los conjuntos validación y test (balanceo natural de clases: 97%-3%) corresponden al 2017-2018. Para el aprendizaje no supervisado, se utilizan conjuntamente les excluides de ambos periodos. Para predecir la exclusión educativa con un semestre de antelación (asistencia hasta julio) se obtiene recall 81.5% y precision 19.29% respecto a la clase excluida, y accuracy 89.215% del modelo general, para el conjunto de test con balanceo natural, con el meta-algoritmo XGBoost. También se proponen 9 perfiles de fenómeno de exclusión educativa, calculados con el modelo de agrupación Gaussian Mixture Model, y descritos cualitativamente en vínculo interdisciplinario con las ciencias sociales. Se utiliza la metodología CRISP-DM, y Python 3.6 para la programación. / Instituto Sistemas Complejos de Ingeniería (CONICYT – PIA – FB0816)
219

Sistema de gestión y control de inventario de servidores computacionales en una sala de cómputos

Viaux Igualt, Juan Pablo January 2014 (has links)
Magíster en Gestión y Dirección de Empresas / Hoy en día las empresas se apoyan en sistemas computacionales para automatizar y optimizar recursos que entreguen información actualizada, completa y a tiempo, considerando que es un elemento de apoyo que les permite competir. Es decir, el uso de la tecnología aplicada se ha transformado en una herramienta estratégica para su desarrollo y crecimiento. Estos sistemas y aplicaciones, residen en componentes computacionales, los que están alojados en lugares especiales llamados Centros de Datos o Data Center, que poseen infraestructura y capacidades técnicas y de seguridad que les permiten asegurar una disponibilidad de operación, de acuerdo a niveles de servicio estandarizados internacionalmente. Al interior de estos Centros de Datos, se deben realizar, entre otros y en forma constante, muchos servicios de mantención, administración, reparación y monitoreo de elementos computacionales, en donde en las mayoría de los casos, no se cuenta con información actualizada de sus características físicas, ubicación, estado de operación, generando alto costo para llevar a cabo estas actividades, dado que se requiere personal especializado que debe trabajar con debidas autorizaciones con protocolos de evaluación de riesgo y de posibles fallas propias de los sistemas o componentes a intervenir o efectos secundarios al resto de las instalaciones Para llevar a cabo lo anterior, se utilizó la metodología denominada Canvas la que permite desarrollar un modelo de negocios desde la identificación de los actores claves, propios y del mercado, sus interrelaciones, la propuesta de valor y su proyección en el tiempo. En el presente trabajo se desarrolla un análisis y evaluación de una solución, la que permite reducir los costos de operación y mantención de los elementos computacionales, como así también, disminuir sus tasas de fallas, aumentando la disponibilidad de los sistemas físicos y de información que contienen. Permitiendo con ello, llegar a niveles de estándares internacionales en los servicios prestados y la calidad de la infraestructura, resguardando con ello, la inversión que realizan los clientes en tecnología y aportando valor a sus negocios en cuanto a aumentar la disponibilidad y uso las 24 horas del día, de sus sistemas físicos. Los resultados esperados en base al modelo de negocios y el uso de la tecnología correspondiente, nos permitirán disminuir la tasa de fallas por efecto humano la que hoy alcanza un 70% a nivel mundial, bajar los costos de las asistencias técnicas hasta en un 50% producto del control, administración y trazabilidad de los componentes computacionales, como así mismo, mejorar en más de un 20% el uso de los recursos computacionales, considerando que en promedio hoy alcanzan entre un 40 y 60% de ocupación de sus capacidades.
220

Rediseño de un proceso de predicción de fallas de equipos de impresión

Espinosa Lagos, Carlos José January 2018 (has links)
Proyecto de grado para optar al grado de Magíster en Ingeniería de Negocios con Tecnologías de Información / El presente trabajo describe un proyecto piloto de re-diseño de los procesos de mantención preventiva de máquinas de impresión para la empresa Dimacofi S.A. en el contexto del Magíster de Ingeniería de Negocios con Tecnologías de la Información de la Universidad de Chile (MBE). Este trabajo pretende demostrar la factibilidad de generar planes preventivos de visitas técnicas para la empresa, cuyo objetivo de mejorar la eficiencia en la provisión de los servicios que la empresa entrega, y con esto reducir los costos operativos, y a la vez mejorar la imagen marca de la empresa. La solución propuesta contempla el diseño e implementación de un proceso de predicción de fallas de máquinas de impresión, utilizando técnicas de minería de datos, y de un proceso de planificación de visitas preventivas que exploten los modelos desarrollados. Junto con esto, se contempla la construcción de la plataforma TI que da soporte a esta solución y un plan de adquisición que contempla técnicas de gestión del cambio. En efecto se logra un resultado que generaría un ahorro potencial de 107,17[UF] en un mes, extrapolando la predicción obtenida al total del parque de máquinas de la empresa. Proyectando este resultado al parque total, considerando ineficiencias y latencias en las adquisición, se espera obtener un VAN de proyecto de 10,79 MM. Esto indica lo positivo de una posible implementación en producción de la solución.

Page generated in 0.0583 seconds