• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1458
  • 93
  • 31
  • 11
  • 3
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 1603
  • 521
  • 488
  • 379
  • 369
  • 369
  • 369
  • 369
  • 333
  • 313
  • 297
  • 231
  • 211
  • 195
  • 192
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
311

Analysis of scientific virtual communities of practice

Araya Rebolledo, Jacqueline Paz January 2015 (has links)
Ingeniera Civil Industrial / Las diferentes redes sociales han surgido a partir del sentido común y natural de los humanos por reunirse en torno a un tema, sintiendo que pertenecen a una Comunidad, la cual es representada por una red de relaciones complejas entre las unidades que cambia con el tiempo. Una Comunidad es un grupo de vértices que comparten propiedades comunes y desempeñan un papel similar dentro del grupo, las cuales pueden ser clasificadas como Comunidades de interés, en el que los miembros comparten un interés particular, y Comunidades de práctica, donde los miembros comparten inquietudes, participan y desarrollan un tema volviéndose expertos. Si estas interacciones ocurren sobre plataformas en línea, son llamadas Comunidades virtuales de interés (VCoI) y Comunidades virtuales de práctica (VCoP). El estudio de las Comunidades virtuales (VC) no sólo ayuda a entender su estructura interna, sino que también a descubrir cómo el conocimiento es compartido, los principales miembros, proporcionar herramientas a los administradores para mejorar la participación y asegurar la estabilidad de la comunidad en el tiempo. El área de Análisis de Redes Sociales y de Minería de Datos han estudiado el problema, pero ninguno toma en cuenta el significado del contenido que los miembros de una comunidad generan. Por lo tanto, la principal contribución de este trabajo es tomar en cuenta la semántica de los contenidos creados por los miembros de dos VCoP, así como las propiedades estructurales de las redes que forman, para estudiar la existencia de otros miembros claves, buscar los principales temas de investigación, y estudiar las propiedades de las nuevas redes creadas con contenido. Se utilizó una VCoP científica del área de computación ubicua, y otra del área Web Semántica, considerando como data los autores de los papers aceptados en las conferencias de las comunidades y su contenido. Este trabajo propone dos métodos, el primero, busca representar cada artículo escrito por los miembros por sus Keywords, y el segundo, busca extraer los temas subyacentes de cada paper con el modelo probabilístico LDA. Con el resultado de estos métodos, las interacciones entre autores pueden ser construidas basándose en el contenido en lugar de sólo la relación de coautoría (red base para comparar los métodos). La metodología propuesta es un proceso híbrido llamado SNA-KDD que incluye la extracción y procesamiento de datos de texto, para su posterior análisis con SNA para descubrir nueva información, utilizando teoría de grafos, algoritmos de clasificación (HITS y PageRank) y diferentes medidas estructurales para redes. Los resultados muestran que las redes científicas en estudio pueden ser modeladas como VCoPs usando la metodología SNA-KDD usando teoría de grafos. Esto queda evidenciado en los resultados de la métrica Modularidad, obteniendo valores sobre 0,9 en la mayoría de las redes, lo que indica una estructura de comunidad. Además, los métodos propuestos para introducir el contenido generado por sus miembros, Keywords y Modelo de Tópicos LDA, permite reducir la densidad de todas las redes, eliminando relaciones no relevantes. En la red de Computación Ubicua, con 1920 nodos, se redujo de 5.452 arcos a 1.866 arcos para método de Keywords y a 2.913 arcos para modelo LDA; mientras que en la red de Web Semántica permitió reducir de 20.332 arcos a 13.897 arcos y 8.502 arcos, respectivamente. La detección de miembros claves se realizó contra una comparación de los autores más prominentes del área según las citaciones en Google Scholar. Los resultados indican que la mejor recuperación de miembros claves se da en el método de tópicos por LDA con HITS para el primer dataset, para el segundo se da en Keywords, tanto en métricas de Recall como en Precision.
312

Diseño e implementación de un sistema de votación electrónica modular y dual, verificable por el votante

Gómez Núñez, Camilo José January 2015 (has links)
Ingeniero Civil en Computación / La votación electrónica poco a poco se ha ido masificando a lo largo del mundo. Lamentablemente su uso en procesos eleccionarios de varios países, no ha estado exento de variadas críticas y cuestionamientos. Estos cuestionamientos vienen dados producto de varios estudios realizados a dichos sistemas, los cuales evidencian claras brechas de seguridad que pudieron haber vulnerado propiedades como privacidad del voto, integridad del proceso, entre otros. Para subsanar lo anterior, una posible solución es darle al votante responsabilidad a la hora de asegurar que el sistema esté funcionando bien. En particular, pedirle al votante realizar una verificación previa de que su voto electrónico realmente representa lo que quiere, y no otra opción. Para llevar eso a cabo, se diseñó e implementó un sistema de votación electrónica que posee la novedad de incluir un módulo donde el votante tiene la responsabilidad de verificar que su voto electrónico es consistente con la opción seleccionada. Además de esto, el sistema genera una copia en papel del voto (como en una votación clásica), para dotar al sistema de un mecanismo que preserve los votos si es que existiera alguna sospecha de mal funcionamiento de éste. Por otro lado, el sistema diseñado pretende ser altamente modular, donde que cada una de las partes es específica en su funcionamiento, haciendo más fácil su auditoría, además de disminuir un posible ataque general al sistema. Los requisitos de hardware necesarios para la implementación realizada son reducidos, bajando así los costos asociados a montar el sistema, y el software utilizado es sencillo. Por último, el sistema utiliza dispositivos cercanos a los usuarios, para así mejorar la experiencia y usabilidad. Las pruebas realizadas muestran que aun hay muchas mejoras que realizar en el aspecto de usabilidad, ya que algunos pasos (los más novedosos) no son bien comprendidos por los usuarios, dificultando el proceso de votación. Además de eso se evidencian algunas otras mejoras a realizar para mejorar la seguridad de los datos que se van procesando en el sistema. A pesar de lo anterior, el futuro del proyecto se muestra prometedor. El diseño realizado se preocupa, tanto del usuario final (el principal actor dentro del sistema), como de que la confianza de éste hacia el sistema se vea fortalecido cada vez que el votante se involucra en el proceso.
313

Query log mining in search engines

Mendoza Rocha, Marcelo Gabriel January 2007 (has links)
Doctor en Ciencias, Mención Computación / La Web es un gran espacio de información donde muchos recursos como documentos, imágenes u otros contenidos multimediales pueden ser accesados. En este contexto, varias tecnologías de la información han sido desarrolladas para ayudar a los usuarios a satisfacer sus necesidades de búsqueda en la Web, y las más usadas de estas son los motores de búsqueda. Los motores de búsqueda permiten a los usuarios encontrar recursos formulando consultas y revisando una lista de respuestas. Uno de los principales desafíos para la comunidad de la Web es diseñar motores de búsqueda que permitan a los usuarios encontrar recursos semánticamente conectados con sus consultas. El gran tamaño de la Web y la vaguedad de los términos más comúnmente usados en la formulación de consultas es un gran obstáculo para lograr este objetivo. En esta tesis proponemos explorar las selecciones de los usuarios registradas en los logs de los motores de búsqueda para aprender cómo los usuarios buscan y también para diseñar algoritmos que permitan mejorar la precisión de las respuestas recomendadas a los usuarios. Comenzaremos explorando las propiedades de estos datos. Esta exploración nos permitirá determinar la naturaleza dispersa de estos datos. Además presentaremos modelos que nos ayudarán a entender cómo los usuarios buscan en los motores de búsqueda. Luego, exploraremos las selecciones de los usuarios para encontrar asociaciones útiles entre consultas registradas en los logs. Concentraremos los esfuerzos en el diseño de técnicas que permitirán a los usuarios encontrar mejores consultas que la consulta original. Como una aplicación, diseñaremos métodos de reformulación de consultas que ayudarán a los usuarios a encontrar términos más útiles mejorando la representación de sus necesidades. Usando términos de documentos construiremos representaciones vectoriales para consultas. Aplicando técnicas de clustering podremos determinar grupos de consultas similares. Usando estos grupos de consultas, introduciremos métodos para recomendación de consultas y documentos que nos permitirán mejorar la precisión de las recomendaciones. Finalmente, diseñaremos técnicas de clasificación de consultas que nos permitirán encontrar conceptos semánticamente relacionados con la consulta original. Para lograr esto, clasificaremos las consultas de los usuarios en directorios Web. Como una aplicación, introduciremos métodos para la manutención automática de los directorios.
314

Utilización de Support Vector Machines No Lineal y Selección de Atributos para Credit Scoring

Maldonado Alarcón, Sebastián Alejandro January 2007 (has links)
No description available.
315

Diseño y construcción de una data mart para el análisis del comportamiento de los usuarios de la web aplicado en Educarchile

Cerda Soto, Juan Antonio January 2012 (has links)
Ingeniero Civil Industrial / Autor no autoriza el acceso a texto completo de su tesis en el Repositorio Académico / El objetivo general del presente trabajo es diseñar y construir un data mart para almacenar indicadores que permitan el análisis del comportamiento de los usuarios del portal educarchile. Estos indicadores tienen como finalidad comprender el uso de las herramientas del sitio a partir del aprovechamiento de los datos generados por la navegación de los usuarios, los cuales hasta hoy no estaban siendo utilizados. El sitio educarchile.cl es un portal de apoyo a la educación, autónomo y de servicio publico administrado por la Fundación Chile que tiene por misión el mejoramiento de la calidad de la educación en todos sus niveles, ámbitos y modalidades. Su estructura principal se encuentra dividida en una portada y 4 secciones llamadas escritorios, los que apuntan a los perfiles principales en los que se enfoca el portal, que son: docentes, directivos, estudiantes y familia. Los analistas del sitio, a pesar de contar con estudios anteriores que se basan principalmente en encuestas, desconocen el impacto que tiene el actual diseño en la utilización de las herramientas, lectura de artículos y participación de los usuarios. Además se desea validar supuestos como que el ubicar artículos en determinadas partes de los escritorios logra dar una mayor visibilidad a aquellos contenidos. En éste trabajo se plantea que la consolidación de los datos, provenientes de los web logs, en un data mart, permitirá la determinación indicadores de uso del sitio, tanto tradicionales como ajustados a las necesidades de los analistas. En específico se podrá dar respuesta a las interrogantes relacionadas con el impacto del diseño de los escritorios. Con el apoyo de los integrantes de la fundación se establecieron las 14 páginas de las que se deseaba obtener información. Se procesaron cerca de 620 millones de registros, de los archivos de web logs, concernientes a los meses de septiembre y noviembre del 2011 lográndose obtener indicadores acerca de los escritorios, uso de viñetas y secciones. Adicionalmente se hizo un estudio de las sesiones que visitaron el escritorio directivos, con el fin de conocer los contenidos más requeridos y el comportamiento de navegación. Para esto se utilizó técnicas de minería de datos que permitieron crear grupos de sesiones con características distintivas de los visitantes. Como resultado, se concluyó que los indicadores obtenidos ayudaron a comprender de mejor forma el uso del portal y evidencian la necesidad de crear diseños personalizados a cada perfil de usuario, los que deben ir de la mano a sus competencias en el uso de la Web.
316

Diseño e implementación de un sistema automatizado para operar en el mercado de divisas usando reglas de asociación

Araneda Cordier, Hugo Andrés January 2015 (has links)
Magíster en Gestión de Operaciones / Ingeniero Civil Industrial / El análisis técnico es utilizado extensamente por la mayoría de los inversionistas de mercados financieros, siendo el mercado de divisas el con mayor desarrollo y volumen de transacciones a nivel mundial. Pese a su utilización el 90% de los inversionistas pierde dinero y sólo el 10% restante es exitoso invirtiendo en los mercados financieros. En la actualidad, el uso de sistemas de transacción automatizados basados en indicadores de análisis técnico es una herramienta utilizada cada día más por los inversionistas debido al fácil acceso de software de transacción que permite automatizar las operaciones de los clientes. Con el presente trabajo, se busca encontrar estrategias de compra rentables para la divisa más líquida, el euro-dólar, utilizando reglas de decisión complementadas con estrategias de money management. Por lo anterior, el objetivo principal del proyecto es encontrar reglas de asociación rentables de compra en un horizonte de 12 años utilizando indicadores técnicos que cuantifican tendencia, volatilidad y momentum. El sistema constituido por las reglas de decisión encontradas serán programadas en MT4 para realizar el backtesting correspondiente del sistema y al mismo tiempo tener un prototipo funcional que permita generar operaciones automáticas de compra en el mercado de divisas. La metodología se enfoca en encontrar las relaciones de orden existentes entre los valores de los indicadores técnicos y el movimiento en el precio del euro-dólar en base a datos transaccionales pasados. Se realiza un análisis univariado utilizando indicadores de cada categoría por separado y posteriormente se conjugan todos los indicadores en un análisis multivariado. Para evaluar cada regla de asociación se utilizan los indicadores de soporte, confianza y se introduce la contraconfianza como indicador, que busca registrar los escenarios negativos asociados a una regla de decisión determinada. El resultado obtenido es un sistema de transacción automatizado de compras constituido por 98 reglas de asociación que luego de incorporar estrategias de money management y algoritmos genéticos para optimizar los niveles de take profit y stop loss, en un horizonte de 12 años tuvo un desempeño superior en un 24% a la estrategia buy and hold y que superó en el peor de los casos en un 96% al resultado obtenido por sistemas automatizados de trading utilizando las señales obtenidas por un sólo indicador técnico. Como conclusión del trabajo realizado se obtiene que las relaciones entre los valores de indicadores técnicos y el movimiento del precio de una divisa pueden ser correctamente evaluadas con el sistema construido, ya que las decisiones de compra basadas en su utilización permitieron obtener resultados económicos positivos y superar a los resultados obtenidos por otros sistemas basados en otras reglas. Finalmente, dentro de las extensiones a este trabajo, se encuentran evaluar reglas de asociación asociadas a compra y venta y extender el análisis a otras divisas o incluso a otros activos pertenecientes a mercados financieros diferentes.
317

Estudio descriptivo de las atenciones realizadas en un centro veterinario de atención primaria

Contreras Riquelme, Marianela Alejandra January 2010 (has links)
Memoria para optar al Título Profesional de Médico Veterinario / Con el objeto de caracterizar las atenciones realizadas en el Centro de Atención Primaria El Roble, se analizaron 5.405 fichas obtenidas durante el año 2005 y 2006, incluyendo solamente perros y gatos al estudio. El promedio mensual de atenciones fue de 225,2 pacientes, para el periodo estudiado (2005 y 2006). La población atendida en el período señalado, consistió en 4.524 perros (83,70%) y 881 gatos (16,30%). En cuanto a los perros atendidos, 2.468 fueron machos y 2.026 hembras y para los gatos, las cifras fueron de 464 machos y 387 hembras. La población de pacientes atendidos era mayormente joven y para las dos especies, el número de pacientes atendidos descendió a medida que aumentaba la edad. Del total de perros, la mayoría fue mestizo y una menor proporción de raza. Se identificaron 41 razas puras, siendo la más común el Cocker Spaniel. Para los gatos, el mayor porcentaje corresponde al tipo doméstico y también en menor grado los de razas. Del total de perros sólo el 2,16% se encontraba esterilizado, siendo la mayor proporción hembras (2,00%) y la menor, machos (0,16%), constatándose un alto número de fichas sin registro. En el caso de los gatos, el 11,52% estaba esterilizados, el 4,00% era macho y el 7,52% hembra. Para perros y gatos la mayor cantidad de consultas fue de tipo general 3.085 (68,19%) y 742 (84,22%) respectivamente. El sistema más afectado para los perros fue el digestivo, luego el sistema tegumentario y en tercer lugar el sistema músculo esquelético. Para los gatos, en cambio, el sistema más afectado fue el respiratorio, luego el digestivo y el sistema músculo esquelético. En cuanto a las patologías según etiología, para los perros la causa más frecuente fue la de tipo infeccioso con 906 individuos, relacionándose con el sistema digestivo, luego las de tipo parasitarias y posteriormente las traumáticas. Para los gatos, las causas más frecuentes fueron de tipo infecciosa en relación al sistema respiratorio, las de origen traumático y las de origen no determinado. Las únicas patologías presentadas en perros, que mostraron una repetición de los meses con más afecciones entre los años 2005 y 2006 fueron las de tipo alérgicas, neoplásicas, parasitarias y las de origen no determinado, las que coincidieron en su presentación entre los meses de octubre a diciembre del año 2005 y 2006. Para los gatos, las patologías fueron las de tipo infecciosas y traumáticas, con los mismos meses mencionados para los perros
318

Detección de tres genes de resistencia a tetraciclinas en bacterias nosocomiales Gram positivas, aisladas en recintos hospitalarios veterinarios de la Universidad de Chile

Carrasco Hinojosa, Denisse January 2012 (has links)
Memoria para optar al Titulo Profesional de Médico Veterinario / Las infecciones nosocomiales y la resistencia antimicrobiana, constituyen una problemática mundial en el área de la salud pública, ambas se interrelacionan ya que las bacterias asociadas con infecciones nosocomiales son a menudo resistentes a los antibióticos, siendo cada vez más frecuente el fenómeno de la multiresistencia en las cepas involucradas. Entre los antimicrobianos, ampliamente usados en medicina veterinaria, que han visto reducida su efectividad se encuentra el grupo de las tetraciclinas, fármacos de amplio espectro utilizados con diferentes fines terapéuticos. Las bacterias resistentes son capaces de transmitir y adquirir genes de resistencia antimicrobiana, en el caso de las bacterias resistentes a tetraciclinas estas presentan genes denominados tet, describiéndose en la actualidad 43 genes tet que codifican, principalmente, proteínas de eflujo activo y proteínas de protección ribosomal. El objetivo de este trabajo fue la detección de tres genes de resistencia a tetraciclinas- tet(K), involucrados en la generación de proteínas de eflujo y tet(M) y tet(O), involucrados en la generación de proteínas de protección ribosomal, mediante la Reacción en Cadena de la Polimerasa (PCR), en cepas bacterianas Gram positivas ambientales descritas como nosocomiales, previamente aisladas y caracterizadas en los años 2007 y 2008, desde unidades clínico Veterinarias de la Universidad de Chile. La aplicación de esta técnica de biología molecular permitió detectar en cepas fenotípicamente resistentes mediante antibiograma por difusión en agar, al menos uno de los tres genes de resistencia a tetraciclinas. En un alto porcentaje de cepas con sensibilidad intermedia también se detectó al menos un gen de resistencia y en algunas cepas sensibles a tetraciclinas se obtuvo este mismo resultado / PROYECTO FIV 4602016
319

Modelos de negocios basados en datos : desafíos del Big Data en Latinoamérica

Alcaíno Ruiz, Myrla, Arenas Miranda, Valeska, Gutiérrez Baeza, Felipe 11 1900 (has links)
Seminario para optar al título de Ingeniero Comercial, Mención Administración / El presente estudio tiene por objetivo identificar cuáles son los principales Modelos de Negocios basados en Datos desarrollados por las Startups en Latinoamérica, y determinar qué características definen cada uno de los modelos encontrados. La muestra estudiada incluyó un universo de 82 empresas, pertenecientes a 7 países listadas en AngelList y Start-Up Chile. Dentro de los objetivos específicos, se busca establecer qué patrones de innovación están desarrollando estas empresas y la forma en que podrían evolucionar. La metodología utilizada aborda la técnica CRISP-DM. Entre las principales etapas que se presentan destaca el Entendimiento de los Datos, en donde se explican las líneas de investigación que este trabajo desarrolló, específicamente, aquellas relacionadas al análisis del tipo cualitativo, a través de entrevistas semiestructuradas y, al del tipo cuantitativo, mediante el análisis de páginas web. Los resultados de entrevistas se examinaron mediante un análisis de contenido, y para el caso de los datos recolectados del análisis web se utilizaron tres tipos de algoritmos, análisis de Clusters K-means, X-means y árboles de decisión. Los resultados fueron representados en un mapa de posicionamiento. En relación a los resultados encontrados, las entrevistas arrojaron que, respecto de los patrones de innovación, estas empresas no se familiarizan con ninguno de los patrones previamente identificados en el trabajo de (Parmar, Mackenzie, Cohn, & Gann, 2014), sin embargo, la mayoría destaca la importancia de recolectar información desde distintas industrias, la relevancia de asociarse con otras empresas y la posibilidad de estandarizar alguno de sus procesos para venderlos como un producto independiente. Respecto del análisis web, se identificaron seis tipos de modelos de negocios diferentes, los cuales se caracterizaron por realizar más de una actividad clave, enfocarse en análisis más complejos que los reportados en el trabajo previo de (Hartmann et al., 2014) y en realizar procesos de monitoreo. Tanto las fuentes de datos internas, como externas son utilizadas y, la principal propuesta de valor, tiene que ver con la entrega de información y conocimiento. La gran mayoría de las empresas examinadas se dirige al segmento B2B. Adicionalmente, se identificó una nueva actividad clave, relacionada al asesoramiento de las empresas una vez que se entregan los resultados del procesamiento de datos.
320

Modelo predictivo del no pago de giros relacionados con el Formulario 29 para el Servicio de Impuestos Internos de Chile

Cifuentes Moreira, Javiera Ignacia January 2016 (has links)
Ingeniera Civil Industrial / El Servicio de Impuestos Internos es la institución encargada de velar por el cumplimiento tributario en Chile. Uno de sus deberes es fiscalizar el pago de impuestos y emitir cobros llamados giros de impuestos, cuando el pago no se realiza en forma correcta. En el último tiempo, estos giros no han tenido buenas tasas de pago, lo que preocupa y motiva a generar acciones para mejorarlas con el fin de aumentar la recaudación fiscal. El objetivo de este trabajo de memoria es construir un modelo que permita predecir la probabilidad de no pago de un giro específico generado por una declaración y pago incorrecto del formulario F29 para los segmentos de Micro y Pequeña Empresa, con el que el SII pueda tomar decisiones como la priorización o mayor uso de recursos en acciones preventivas y/o paliativas del no pago. Para lograr este objetivo, primero se estudia el caso y se recopilan variables de los contribuyentes, sus negocios y sus pagos del F29, existentes en la base de datos del SII, y se generan otras nuevas, totalizando 50 variables, que se anexan a una base de giros. Luego de una limpieza de datos quedan 292.940 giros, y con el 60% de ellos se entrenan diferentes modelos predictivos de árboles de decisión, incluyendo modelos Random Forest, y regresiones logísticas. De la comparación de sus resultados, se escoge un modelo CHAID por su facilidad de interpretación y aplicabilidad. Este modelo cuenta con un Accuracy de 78,2%, una Precisión de 83,1% y 65,6% de Especificidad, mientras que las variables más importantes para describir el no pago son en mayor medida el tipo de giro que se está pagando, la cantidad de veces que el valor del giro representa el pago mensual promedio de impuestos, y luego el valor de la deuda. Con el entendimiento de las reglas del árbol se generan propuestas acción para el SII. Para los giros con mayor probabilidad de no pago se recomienda generar estudios para verificar la existencia de malas prácticas contables, y para los de baja probabilidad, se recomienda prevenir los giros mediante campañas educativas. En relación a la cobranza de los giros, se propone que la Tesorería General de la República, institución encargada de ello, priorice los giros con mayor propensión a no ser pagados ya que el resto podrían ser pagados en los plazos estipulados. El beneficio económico de esta cobranza es positivo, sumando 1.300 millones extras a la recaudación actual. Finalmente, como trabajo futuro se proyecta la aplicación de las propuestas y la medición de su efectividad a través del desarrollo de diseños experimentales. / 13-10-2021

Page generated in 0.0449 seconds