• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1432
  • 90
  • 31
  • 11
  • 3
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 1574
  • 511
  • 480
  • 355
  • 345
  • 345
  • 345
  • 345
  • 328
  • 292
  • 289
  • 222
  • 210
  • 193
  • 185
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Segmentación de clientes de Corporación Lindley de la región Lima mediante el análisis cluster bietápico en octubre de 2016

Manrique Pachas, Cesar Pedro January 2016 (has links)
Describe el método del análisis cluster bietápico y su aplicación para segmentar la cartera de clientes de Corporación Lindley de la región Lima en octubre de 2016. El método de análisis cluster bietápico es una herramienta de exploración diseñada para descubrir las agrupaciones naturales (o conglomerados) de un conjunto de datos. Este método combina los métodos jerárquicos y no jerárquicos (o de partición) permitiendo analizar a la vez variables de distinto tipo (categóricas y continuas) y puede ser utilizado en bases de datos grandes. / Trabajo de suficiencia profesional
102

Diseño y Desarrollo de un Sistema de Información para la Gestión de Información sobre Cáncer de Mama

Burriel Coll, Verónica 01 September 2017 (has links)
Diagnosis, treatment and research about such complex diseases as breast cancer is an increasingly complex task due to the big quantity and diversity of involved data and the need of relating them properly to obtain relevant conclusions. Clinical data generation has to be followed by an efficient data management. So, the use of advanced information system technologies is essential to ensure a correct storage, management and exploitation of data. Following a deep study of domain and technologies used to store and manage clinical and biological data about the disease, the main goal of this thesis is to provide a methodological basis to design and implement software systems to manage breast cancer data in a trustable and efficient way. Using Conceptual Modelling techniques in an environment where their use is not as common as it should be, allows to create information systems perfectly adapted to the studied domain. Under this approach, in this thesis some tasks have been carried out among which are conceptual modelling of diagnosis, treatment and research of breast cancer's domain; archetypes' designing under ISO13606 standard to allow systems interoperability; breast cancer data integration from different data sources in a unified database; and designing a prototype of tool for managing and analysing clinical and genic expression data. In order to validate the proposal, a validation process in a real environment as Research Foundation INCLIVA in Valencia has been carried out. During this process, medical and biological researchers have use and assess the efficiency of solution proposed in this doctoral thesis. / El diagnóstico, tratamiento e investigación sobre enfermedades tan complejas como el cáncer de mama es una tarea cada vez más complicada por la gran cantidad y diversidad de datos implicados y por la necesidad de relacionarlos adecuadamente para obtener conclusiones relevantes. La generación de los datos clínicos tiene que estar acompañada de una gestión eficiente de los mismos. Ello hace imprescindible la utilización de tecnologías avanzadas de Sistemas de Información que aseguren un correcto almacenamiento, gestión y explotación de los datos. Tras un profundo estudio del dominio y de las tecnologías utilizadas para el almacenamiento y gestión de datos clínicos y biológicos sobre la enfermedad, el objetivo principal de esta tesis es ofrecer una base metodológica que permita diseñar y desarrollar sistemas software para la manipulación eficiente y fiable de la información sobre el cáncer de mama. La utilización de técnicas de Modelado Conceptual en un entorno donde su uso no es tan habitual como debiera ser, permitirá disponer de un sistema de información perfectamente adaptado al dominio de aplicación. Bajo este planteamiento, en esta tesis se ha llevado a cabo el modelado conceptual del dominio del diagnóstico, tratamiento e investigación del cáncer de mama, el diseño de arquetipos bajo el estándar ISO13606 para ofrecer interoperabilidad entre sistemas, la integración de datos de distintos orígenes relacionados con el cáncer de mama en una base de datos unificadora y el diseño de un prototipo de herramienta de gestión y análisis de datos clínicos y de expresión génica. Para validar la idoneidad de esta propuesta, se ha llevado a cabo un proceso de validación en un entorno real como es la Fundación de Investigación INCLIVA de Valencia, donde investigadores clínicos y biólogos han probado y valorado la eficiencia de la solución planteada en esta tesis doctoral. / El diagnòstic, tractament i investigació sobre malalties tan complexes com ara el càncer de mama és una tasca cada vegada més complexa per la gran quantitat i diversitat de dades implicades i per la necessitat de relacionar-les adequadament per a obtenir conclusions rellevants. La generació de dades clíniques ha d'estar acompanyada d'una gestió eficient de les mateixes. Açò fa imprescindible la utilització de tecnologies avançades de Sistemes d'Informació que asseguren un correcte emmagatzematge, gestió i explotació de les dades. Després d'un profund estudi del domini i de les tecnologies utilitzades per l'emmagatzematge i gestió de dades clíniques i biològiques sobre la malaltia, el principal objectiu d'aquesta tesi és oferir una base metodològica que permeta dissenyar i desenvolupar sistemes programaris per a la manipulació eficient i fiable de la informació sobre el càncer de mama. La utilització de tècniques de Modelat Conceptual en un entorn on el seu ús no és tan habitual com deuria ser, permetrà disposar d'un sistema d'informació perfectament adaptat al domini d'aplicació. Baix aquest plantejament, en aquesta tesi s'ha dut a terme el modelat conceptual del domini del diagnòstic, tractament i investigació del càncer de mama, el disseny d'arquetips baix l'estàndard ISO13606 per oferir interoperabilitat entre sistemes, la integració de dades de distints orígens sobre el càncer de mama en una base de dades unificadora i el disseny d'un prototip d'eina de gestió i anàlisi de dades clíniques i d'expressió gènica. Per a validar la idoneïtat d'aquesta proposta, s'ha dut a terme un procés de validació en un entorn real com és la Fundació d'Investigació INCLIVA de València, on investigadors clínics i biòlegs han provat i valorat l'eficiència de la solució plantejada en aquesta tesi doctoral. / Burriel Coll, V. (2017). Diseño y Desarrollo de un Sistema de Información para la Gestión de Información sobre Cáncer de Mama [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/86158 / TESIS
103

Análisis desde la perspectiva constitucional de la regulación del mercado de datos en Chile

Burgos Herrera, Gabriela Francisca, Yáñez Gallardo, Isidora Cecilia January 2019 (has links)
Memoria para optar al grado de Licenciado en Ciencias Jurídicas y Sociales / El presente trabajo busca analizar el estado actual de la protección de los datos personales y la regulación del mercado en el cual se transan los mismos a la luz de la Constitución Política de la República y la legislación vigente, considerando la reciente modificación al artículo 19 de la Constitución, en su numeral cuarto, el cual consagra dicha protección como un derecho constitucional. En razón de lo anterior, en el primer capítulo se analiza la evolución de la protección de los datos personales como un derecho reconocido expresamente por la Constitución, a partir del concepto de vida privada y la evolución de la protección de la intimidad y privacidad, considerando también la autodeterminación informativa. Luego, en un segundo capítulo, hacemos una revisión de los distintos cuerpos normativos relevantes para la protección de los datos personales y los mecanismos que estos proveen a favor de sus titulares. Finalmente, en el tercer capítulo se analiza el estado actual del mercado en el cual se transan dichos datos personales y su regulación
104

Metodología de simplificación administrativa en el Perú: análisis comparativo con otras metodologías - caso Universidad Nacional Mayor de San Marcos

Céspedes Sotelo, Rosa Maribel, Gonzales Urmachea, Mabel Lorena January 2012 (has links)
Manifiesta que actualmente, todas las instituciones apuntan a mejorar su productividad sacando el máximo provecho de sus recursos (tanto materiales como de personal) optimizando su rendimiento y reduciendo los costos. Sólo puede lograrse mediante la optimización de los procedimientos administrativos, de otra forma seria difícil e incluso imposible alcanzar dicho objetivo. En base a ello, el Estado Peruano, desarrolló una metodología de simplificación administrativa que ayude a sus organismos públicos a perseguir este fin. El presente trabajo, pretende realizar un análisis de ésta metodología y compararla con otras tres desarrolladas en América Latina y Europa, para comprobar la efectividad de la misma. / Trabajo de suficiencia profesional
105

Un enfoque multidimensional basado en RDF para la publicación de Linked Open Data

Escobar Esteban, María Pilar 07 July 2020 (has links)
Cada vez hay disponibles más datos de manera pública en Internet y surgen nuevas bases de conocimiento conocidas como Knowledge Graph, basadas en conceptos de Linked Open Data (datos abiertos enlazados), como DBPedia, Wikidata, YAGO o Google Knowledge Graph, que cubren un amplio abanico de campos del conocimiento. Además, se incorporan los datos que provienen de diversas fuentes como dispositivos inteligentes o las redes sociales. Sin embargo, que estos datos estén públicos y accesibles no garantiza que sean útiles para los usuarios, no siempre se garantiza que sean confiables ni que puedan ser reutilizados de manera eficiente. Actualmente, siguen existiendo barreras que dificultan la reutilización de los datos, porque los formatos son poco adecuados para el procesamiento automático y publicación de la información, por falta de metadatos descriptivos y de semántica, duplicidades, ambigüedad o incluso errores en los propios datos. A todos estos problemas hay que añadir la complejidad del proceso de explotación de la información de un repositorio de datos abiertos enlazados. El trabajo y conocimientos técnicos que requiere el acceso, recolección, normalización y preparación de los datos para que puedan ser reutilizados supone una carga extra para los usuarios y organizaciones que quieran utilizarlos. Para garantizar una eficiente explotación de los mismos, resulta fundamental dotarlos de más valor estableciendo conexiones con otros repositorios que permitan enriquecerlos; garantizar su valor, evaluando y mejorando la calidad de lo que se publica; y asimismo ofrecer los mecanismos necesarios que faciliten su explotación. En este trabajo de tesis se ha propuesto un modelo para la publicación de Linked Open Data que, a partir de un conjunto de datos obtenidos de diversas fuentes, facilita la publicación, enriquecimiento y validación de los datos, generando información útil y de calidad orientada a usuarios expertos y no expertos.
106

Implementación de algoritmos de asignación de frames en una plataforma de streaming de video

Muñoz Ferrer, Gonzalo January 2013 (has links)
Ingeniero Civil en Computación / Este trabajo continúa el estudio presentado en el paper Frame Allocation Algorithms for Multi-threaded Network Cameras (2010) de J. Piquer y J. Bustos-Jiménez. Este paper indaga sobre el efecto que tiene la selección de imágenes o frames de video en un servidor, para su transmisión a clientes a través de la red. Esta selección de frames ocurre al momento de asignar un frame para ser enviado a un cliente, y cuando se debe reemplazar uno de los frames guardados en la memoria del servidor por un nuevo frame obtenido desde la fuente de video. Las pruebas presentadas en el paper muestran que los algoritmos de asignación basados en contadores de referencias son los más efectivos, ya que permiten desocupar más rápidamente los frames que están en memoria para que puedan ser reemplazados por nuevos frames. En el presente trabajo se implementaron los algoritmos de asignación y reemplazo de frames en la plataforma de streaming VLC, con el objetivo de usarlos para hacer streaming de video desde una fuente de video real hacia clientes reales, y comparar el desempeño de los distintos algoritmos con el rendimiento que actualmente ofrece VLC. Se realizaron pruebas para medir el número de frames por segundo (FPS) observado en los clientes al usar los algoritmos, y el uso de memoria y CPU en el servidor durante la transmisión de video. Los resultados obtenidos muestran que, para los formatos de video que la implementación soporta, se obtiene una mejora importante en el rendimiento de VLC al usar los algoritmos de asignación y reemplazo adecuados, tanto en términos de FPS en los clientes como en uso de CPU en el servidor, utilizando en promedio una cantidad de memoria muy similar a la que usa VLC en condiciones normales. Se confirma además lo que la simulación realizada en el paper sugiere sobre el rendimiento de los algoritmos de asignación basados en los contadores de referencias, que en VLC ofrecen también el mejor desempeño.
107

Implementación de un sistema reconocedor de eventos en videos, con un clasificador K-NN

Onofri Soto, Ranato Vicenzo January 2014 (has links)
Ingeniero Civil en Computación / Hoy en día el fácil acceso a la tecnología permite al ser humano registrar, con un mínimo esfuerzo, eventos de interés en su vida. Como consecuencia se genera una gran cantidad de información multimedia, en particular videos, cuyo análisis de contenido es muy difícil de automatizar, siendo deseable el uso de técnicas de minería de datos y visión computacional para aprovechar esta oportunidad. En este contexto, surge la inquietud de clasificar dichos objetos en base a los eventos presentes en ellos, y de esa forma generar una herramienta predictiva que pueda ser usada posteriormente en aplicaciones de diversas áreas, como por ejemplo, en la publicidad. El presente trabajo de título da cuenta de la implementación de un sistema reconocedor de eventos en video, además de la experimentación con el mismo, la posterior modificación de su componente de clasificación, y la comparación de ambas versiones en términos de eficacia. El tipo de datos que emplea el sistema corresponde a videos de consumidor, los que fueron recolectados por una comunidad científica y agrupados en un dataset de uso público. El sistema se basa en un reconocedor de eventos planteado en un artículo, y está formado por descriptores de características, un módulo de clasificación SVM y un módulo de creación de histogramas. La modificación planteada consiste en cambiar SVM por un clasificador K-NN. Para cumplir con los objetivos mencionados anteriormente, se sigue la implementación propuesta en el artículo, esto significa que, primero se descarga el dataset y se implementan los descriptores escogidos, posteriormente, se implementa el clasificador SVM y se compara el sistema preliminar con las mediciones de eficacia del artículo, se repite el proceso hasta obtener valores similares y considerar que el sistema ha sido ajustado correctamente. Finalmente, se implementa el módulo K-NN y se comparan ambos sistemas en base a las métricas de rendimiento. A partir de los resultados de eficacia de las dos versiones, se muestra que el clasificador SVM es una mejor alternativa que K-NN para enfrentar el problema de reconocimiento de eventos en videos de consumidor. Esto es válido para los descriptores con los que se probó el sistema, pero puede no ser cierto si se utiliza otro conjunto de descriptores. Además, se deja en evidencia la dificultad que presenta el manejo de grandes volúmenes de información, y la necesidad de soluciones para su procesamiento.
108

Bases de datos para la toma de decisiones y la detección de oportunidades inmobiliarias: factibilidad de implementación en la ciudad de Armenia, Quindío, Colombia

Gil Sánchez, Laura January 2016 (has links)
Tesis para optar al Grado de Magíster en Dirección y Administración de Proyectos Inmobiliarios / El sector inmobiliario constantemente está en búsqueda de nuevas oportunidades de desarrollar proyectos, en donde la toma de decisiones es fundamental; la información y los datos que manejan las empresas del sector a la hora de tomar decisiones, es variada, y por tal razón debe tomarse de distintas fuentes, que proporciona el sector público y el sector privado; por esto a medida que las empresas inmobiliarias han ido requiriendo acceso a la información, se han ido generando e implementando métodos y bases de datos que facilitan el proceso de recolección, almacenamiento y en algunos casos de consulta. Las bases de datos con información inmobiliaria no son un producto nuevo en este sector, pues estas se han manejado desde muchos años atrás por medio de distintos sistemas de recopilación y manejo de la información. Armenia, Quindío, es una ciudad intermedia de Colombia, que ha tenido un importante crecimiento urbano y del sector inmobiliario en los últimos 15 años, éste ha sido constante y ha permitido observar las diversas posibilidades que existen para el desarrollo inmobiliario, pero la falta de información y el difícil acceso a esta, ha evidenciado la necesidad de crear una fuente que se encargue de buscar, recopilar, almacenar y distribuir la información que permita tomar decisiones y detectar dónde están las oportunidades inmobiliarias, además de ayudar al crecimiento responsable y consiente de la ciudad y del sector. Por esto se busca definir los procesos relacionados a la construcción de una base de datos, para la toma de decisiones y la detección de oportunidades inmobiliarias; en la ciudad de Armenia.
109

Implementación de un lenguaje de consultas para bases de datos de grafos utilizando estructuras de datos comprimidas

Lehmann Meléndez, Nicolás Emilio January 2014 (has links)
Ingeniero Civil en Computación / En la actualidad existe una clara tendencia por buscar nuevos modelos de bases de datos que se adecuen de mejor manera a las necesidades modernas. Dentro de las alternativas que cuentan con popularidad se encuentran las denominadas bases de datos de grafos, que han adquirido fuerza en conjunto a la reciente revolución de la Web y sus tecnologías asociadas. La adopción de este modelo aún requiere de un amplio estudio, pues los grafos suponen una complejidad intrínseca que debe ser considerada al momento de diseñar una implementación. Dos desafíos fundamentales que se presentan son los volúmenes de información que deben ser manejados, junto con la elección de un buen lenguaje de consultas que equilibre el nivel de expresividad con su complejidad de evaluación. En este trabajo se considera un lenguaje de consultas ampliamente estudiado que permite realizar consultas de navegación a partir de expresiones regulares. Así mismo, se presenta un algoritmo de evaluación práctico para resolver estas consultas de manera eficiente. Adicionalmente se utiliza una representación para bases de datos de grafos que explota las características de las estructuras de datos sucintas para mantener grandes volúmenes de información en memoria principal. El trabajo presenta además una implementación de la propuesta considerando la extensibilidad y orden del código, con el fin de proveer una herramienta de utilidad para nuevas investigaciones. El desarrollo está dividido en dos componentes. Por un lado se proporciona una biblioteca con la implementación de las estructuras sucintas involucradas y por otro un sistema simple de gestión de base de datos que permite la evaluación de consultas del lenguaje escogido. Adicionalmente, y con el objetivo de comprobar el desempeño de la propuesta, se presenta una evaluación experimental de la implementación, realizando una comparación con algunas alternativas actuales para bases de datos de grafos y obteniendo resultados favorables. Finalmente se termina el trabajo señalando las conclusiones obtenidas del análisis experimental realizado.
110

Reglas de asociación para líneas espectrales

Miranda Castillo, Nicolás Martín January 2015 (has links)
Ingeniero Civil en Computación / Parte importante de la labor astronómica consiste en analizar observaciones de radiaciones electromagnéticas en la forma de espectros de frecuencia, procedentes del espacio y emitidas por objetos tales como estrellas, galaxias y otros. A partir de estos espectros se puede identificar una serie de propiedades y características de los objetos de los cuales provienen; en particular, las líneas espectrales (tanto de emisión como de absorción) presentes resultan ser un indicador de las especies (átomos, moléculas, isótopos, etc.) presentes en su composición química. En el presente trabajo se llevó a cabo con el fin de obtener un cierto tipo de asociaciones lógicas, llamadas reglas de asociación, entre líneas espectrales presentes a lo largo de distintos espectros de frecuencia. En particular, se busca aplicar a conjuntos de espectros de frecuencia obtenidos a partir de datos de observaciones astronómicas, para así obtener información de las relaciones existentes entre estas líneas bajo distintas medidas de interés y relevancia estadística. Para ello se llevó a cabo, en el lenguaje de programación Python, una implementación de algoritmos de Aprendizaje de Reglas de asociación, o Association Rule Learning (ARL); en particular los algoritmos Apriori y FP-Growth. La aplicación final, que hace uso de estos algoritmos, permite al usuario observar las reglas obtenidas bajo requerimientos mínimos de soporte y confianza de ellas, ordenarlas según estas dos medidas junto con su lift, y mostrar las que posean un cierto elemento en particular en su antecedente, consecuente o en ambos. La aplicación y sus algoritmos se probaron sobre datos simulados y, posteriormente, sobre datos reales de observaciones en el espectro visible obtenidas del Sloan Digital Sky Survey (SDSS), previo un pre-procesamiento adecuado de estos. Los resultados obtenidos muestran un considerable mejor desempeño (de por lo menos la mitad del tiempo total de ejecución) por parte del algoritmo Apriori por sobre FP-Growth para valores pequeños de soporte (cercanos a 0.15). Esto puede deberse, principalmente, al tamaño reducido del universo de ítems (lineas espectrales detectadas) posibles presentes en cada transacción (espectro de frecuencias); lo cual hace perder sustancialmente la ventaja comparativa que posee FP-Growth al utilizar una estructura de datos tipo árbol. Se espera a futuro poder realizar el proceso de ARL a partir datos en otras frecuencias del espectro electromagnético; como por ejemplo, los datos radioastronómicos del Atacama Large Millimeter/submillimeter Array (ALMA). Junto con esto, se espera más adelante poder mejorar la aplicación en términos de su interfaz gráfica y usabilidad.

Page generated in 0.0553 seconds