• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1426
  • 90
  • 31
  • 11
  • 3
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 1568
  • 511
  • 479
  • 345
  • 335
  • 335
  • 335
  • 335
  • 328
  • 288
  • 283
  • 220
  • 208
  • 193
  • 185
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Análisis, diseño e implementación de un sistema de administración de torneos del juego de ajedrez

Colonia Machado, Billy Antonio 08 May 2012 (has links)
En el presente trabajo se realizó el análisis, diseño e implementación de un sistema administrador de torneos de ajedrez que se propone como solución a la falta de una herramienta adecuada que administre en forma eficiente este tipo de eventos. Se resalta el hecho que por primera vez en este tipo de soluciones se integra en un único interfaz la gestión de jugadores dentro de un torneo con la administración de sus partidas jugadas. Entre las tareas implementadas en el producto de este trabajo se pueden enumerar las siguientes: establecer el tipo de torneo a jugar, registrar jugadores en el sistema, inscribirlos en un torneo, crear categorías, obtener reportes con los resultados de las rondas jugadas o de las estadísticas generales del torneo, gestionar las partidas jugadas, obtener reportes de las partidas jugadas, calcular las nuevas valoraciones de habilidad de juego de los jugadores (conocida como ELO) y obtener mecanismos de desempate en caso de igualdad en puntajes. Cabe indicar que en este trabajo se optó por implementar un procedimiento de emparejamiento de jugadores a lo largo de las rondas de un torneo en el sistema suizo que mejora el tiempo de respuesta en la generación de las parejas según los procedimientos establecidos por los reglamentos de la Federación Internacional de Ajedrez (FIDE). / Tesis
12

Diseño de una base de datos de gestión de la configuración basado en los procesos de gestión de la configuración y activos según ITIL 2011, ISO/IEC 20000 y COBIT 5

Bustamante Aponte, Carlos Alberto 28 March 2017 (has links)
El alcance del presente proyecto de fin de carrera el análisis y diseño de los procesos que componen el conjunto de ITIL como son: La Gestión de Configuraciones y La Gestión de Cambios; elaborada para el área de TI de la empresa importadora y distribuidora de vidrios y aluminios. El presente proyecto tiene como finalidad establecer una guía de buenas prácticas en el área de TI, la cual pueda ser consultada al realizarse las tareas que involucran los procesos de gestión de configuraciones y gestión de cambios. La presente propuesta está dirigida a todas las organizaciones y/o empresas que manejen recursos de TI. Por lo tanto, las recomendaciones o buenas prácticas tratarán de ser las más genéricas posibles para poder apartase fácilmente a cualquier ambiente. Todos los requerimientos serán tomados de ITIL v3 ya que este constituye un marco de trabajo de las mejores prácticas destinadas a facilitar la entrega de servicios de tecnologías de la información (TI) de alta calidad. Cabe resaltar que no se realizará la implantación de un sistema propiamente dicho en el presente proyecto de fin de carrera dado el tiempo limitado que se tiene para realizar el proyecto y la resistencia al cambio de parte de la gerencia general de la empresa. / Tesis
13

Análisis, diseño e implementación de un datawarehouse de soporte de decisiones para un hospital del sistema de salud público

Villanueva Ojeda, Álvaro 09 May 2011 (has links)
Las entidades de salud del sector público deben de tomar decisiones orientadas a satisfacer la demanda de servicios de los pacientes que acuden a los centros de salud y es por ello muy importante buscar mejorar los sistemas de información ligados a estos procesos de decisión. El presente tema de tesis propone la construcción de un Data Warehouse que servirá de apoyo en el proceso de toma de decisiones del directorio del hospital, el cual, decidirá en base a datos históricos y cuadros generados en línea. / Tesis
14

Técnicas para la mejora del join paralelo y del procesamiento de secuencias temporales de datos.

Aguilar Saborit, Josep 14 July 2006 (has links)
A continuación se presenta la Tesis doctoral que lleva por título Técnicas para la mejora del join paralelo y del procesamiento de secuencias temporales de datos, llevada a cabo por Josep Aguilar Saborit y dirigida por el profesor Josep.L Larriba-Pey.Los Sistemas Gestores de Bases de Datos (SGBDs) son las herramientas con las que se gestiona la información almacenada en una Base de Datos, ya sea para realizar consultas, actualizaciones o modificaciones. Los SGBDs se han convertido en una importante fuente de investigación y desarrollo encaminada a encontrar nuevas técnicas que hagan de los mismos unas herramientas lo más eficientes posible.Dentro del álgebra relacional, la operación más compleja y costosa de llevar a cabo por un SGBD, es la operación de join. Los métodos más conocidos y extendidos en la literatura para una ejecución rápida y eficaz de esta operación, son: Merge Sort Join, Nested Loop Join, Hash Join. Las dos primeras, para una ejecución eficiente, requieren de un cierto orden en los datos de sus relaciones fuente. Esto implica una ordenación previa o bien el soporte de una estructura auxiliar que de por si mantenga el orden de dichos datos. Por el contrario, la operación Hash Join no precisa de ningún orden sobre las relaciones fuente y utiliza hashing sobre los datos para resolver el join. Hash Join es una de las operaciones más utilizadas por los SGBDs y ha sido un importante foco de investigación con el fin de explotar al máximo sus posibilidades.Esta Tesis presenta cinco ténicas. Cuatro de ellas están destinadas a mejorar el rendimiento de la operación de join en SGBDs paralelos, tanto en configuraciones paralelas con recursos compartidos, como en configuraciones paralelas sin recursos compartidos. La última técnica, y que abarca un denso capítulo de la Tesis, presenta nuevas estructuras para representar de forma eficiente en espacio y tiempo secuencias temporales de datos.Todas las técnicas presentadas han sido publicadas. Los respectivos artículos también se adjuntan al final de esta documentación. Las referencias a dichos artículos se pueden consultar en el último apéndice de la Tesis.
15

Acceso abierto como herramienta de desarrollo y democratización de la ciencia desde el Centro Internacional de la Papa

Hidalgo, Gabriela 24 October 2017 (has links)
Semana del Acceso Abierto 2017 - Perú. Evento organizado por la Universidad Pontificia Universidad Católica del Perú 8PUCP) y Universidad Peruana de Ciencias aplicadas (UPC), en el marco de la Semana Internacional del Acceso Abierto. En esta oportunidad, la actividad se llevó a cabo el 24 de Octubre de 2017 en el Auditorio de Humanidades PUCP. Lima, Perú. / Resumen
16

Diseño y aplicación de una metodología para análisis de noticias policiales utilizando minería de textos

Torres Silva, Daniel Alejandro January 2013 (has links)
Ingeniero Civil Industrial / En esta memoria se presenta el diseño y la aplicación de una metodología, basada en técnicas de minería de textos, para el procesamiento de grandes volúmenes de noticias que permita descubrir interesantes patrones en los datos para desarrollar un acabado análisis de la cobertura de distintas temáticas policiales y estudiar su relación con las estadísticas de casos reales de delincuencia. Las noticias policiales han sido objeto de constante análisis, cuyo interés se debe a la probable distorsión que provocaría sobre los niveles de preocupación frente al delito en la población. Los artículos noticiosos poseen valiosa información que muchas veces no es explotada, dado que requiere de un proceso de análisis manual, intensivo en tiempo y recursos. Actualmente existen herramientas tecnológicas que permiten manejar crecientes volúmenes de datos, particularmente datos no estructurados como los textos, tomando cada vez más protagonismo la minería de textos en el descubrimiento de nuevo e interesante conocimiento. La metodología de investigación propuesta se basa en las etapas del modelo de procesos CRISP-DM, para lo cual se debe integrar la comprensión de la naturaleza del problema, la comprensión y preparación de los datos, la construcción y evaluación de los modelos y los posteriores desarrollos a partir del conocimiento generado. La aplicación de la metodología se realiza sobre un conjunto de noticias policiales en formato RSS recopiladas a partir de cuatro medios de prensa nacionales durante el segundo semestre del año 2011. Se logran identificar siete temáticas policiales dentro de las noticias, caracterizando cada una de ellas a partir de diferentes herramientas basadas en las palabras más relevantes. Se detecta que las distintas temáticas presentan diferentes niveles de cobertura entre sí, así como también según región y según medio de prensa. También se logra constatar una relativa proporcionalidad entre el número de noticias y el número de habitantes según región, mientras que la posible relación entre el número de casos reales y el número de noticias podría explicar una proporción importante de la variabilidad experimentada por los niveles de noticias para cada temática policial. La metodología implementada permite cumplir exitosamente con los objetivos propuestos, facilitando la comprensión y manejo de las distintas interacciones entre las etapas involucradas en el proceso. Como trabajo futuro se plantea un sistema de monitoreo continuo de los niveles de cobertura policial en medios de prensa escritos, apoyándose en la propuesta de este trabajo.
17

Datos primarios de investigación científica: diagnóstico, estrategias y desafíos para la promoción de la Ciencia Abierta en América Latina. El caso de Argentina

Nakano, Silvia 24 October 2016 (has links)
Conferencia realizada en el marco de la Semana del Acceso Abierto Perú, llevada a cabo del 24 al 26 de Octubre de 2016 en Lima, Peru. Las instituciones organizadoras: Universidad Peruana de Ciencias aplciadasd (UPC), Pontificia Universidad Católica del Perú (PUCP) y Universidad Peruana Cayetano Heredia (UPCH). / Conferencia que aborda los datos primarios de investigación científica: diagnóstico, estrategias y desafíos para la promoción de la Ciencia Abierta en América Latina. El caso de Argentina.
18

Estándares de publicación de datos para la información pública en Chile

Hernández Hernández, Daniel Ricardo January 2013 (has links)
Magíster en Ciencias, Mención Computación / En las últimas décadas presenciamos un aumento exponencial en la generación y en el almacenamiento de datos en el mundo. En paralelo, han surgido movimientos promoviendo el acceso abierto a los datos. En Chile, por ejemplo, se dictó la Ley Nº20285 sobre el acceso a la información pública, que obliga a las instituciones públicas a publicar cierto conjunto de información y define la forma en que el resto puede ser requerida. En esta dirección han surgido iniciativas que promueven además la publicación de datos en forma de datos enlazados. Este cambio de paradigma en el manejo de la información y datos requiere de nuevas políticas y estándares. La presente tesis aborda los problemas observados en la publicación de datos, los conceptualiza y propone buenas prácticas para su publicación. Las prácticas propuestas se organizan en tres niveles, que van desde lo general a lo particular. En el primer nivel se presentan prácticas generales, que son independientes de las tecnologías usadas y que tienen por objetivo satisfacer los principios de los datos abiertos. En el segundo, se proponen prácticas para la publicación usando el lenguaje RDF. RDF es un estándar del Consorcio de la Web, y su modelo de grafos facilita la integración de datos, uno de los desafíos principales de la publicación de datos. Es de particular interés en este segundo nivel la discusión sobre cómo modelar usando el lenguaje RDF. En esta tesis se propone un conjunto de prácticas y se plantea la necesidad de desarrollar metodologías. Finalmente, en el tercer nivel, se presenta un modelo (o vocabulario RDF) que ejemplifica las prácticas propuestas sobre un caso de estudio particular, centrado en la publicación de datos de transparencia gubernamental y en datos de historia política chilena. La tesis concluye con una discusión sobre aquellos aspectos de RDF que lo hacen complejo y que se vislumbran como una barrera para su amplia adopción. Es decir, se plantea la necesidad de revisar la pregunta sobre si las bases de RDF necesitan ser cambiadas.
19

El propósito del Data Value / Proyecto de ciencia de datos: Los retos de la implementación

Aguinaga, Jorge Alberto, Raza García, Mabel 25 November 2021 (has links)
Data Week UPC 2021 día 2 / Data WeeK UPC es un evento anual organizado por las Facultades de Negocios e Ingeniería, con el propósito de reunir a investigadores y expertos en la gestión empresarial para reflexionar acerca del papel de la Ciencia de Datos en la generación de valor en las organizaciones. Nueve expositores de distintas instituciones se unirán a las 4 fechas del Data Week 2021 este 23, 25, 26 y 27 de noviembre, para reflexionar acerca de los retos en el proceso de la transformación de datos para la toma de decisiones. No se pierdan la oportunidad de participar en este espacio en el que discutiremos las principales tendencias en cuanto a la aplicación de la ciencia de datos en la gestión empresarial. 7:00 PM EL PROPÓSITO DEL DATA VALUE Todos podríamos convenir en que la moneda más útil y poderosa en los negocios es la data. Pero esa afirmación es incompleta pues la data debe ser puesta en valor para que tenga importancia. La data per se no tiene valor. En esta charla se mostrará -desde la experiencia- cómo poner en valor la data hacia la organización, los diversos obstáculos que aparecen y la manera de superarlos. 8:00 PM PROYECTOS DE CIENCIA DE DATOS: LOS RETOS DE LA IMPLEMEMENTACIÓN En la actualidad, los retos de la ciencia de datos llegan en el momento de la implementación donde tenemos que definir en qué área de la organización nuestro modelos de analítica pueden agregar valor trabajando en colaboración con los stakeholders claves. En esta presentación compartiremos los retos y lecciones aprendidas en la implementación de proyectos en ciencias de datos.
20

Webinar: Datos Abiertos: ¿qué significa para el acceso a la información y la investigación?

Cerda-Cosme, Roxana 29 October 2021 (has links)
Se brindará una introducción al tema de los datos abiertos y su importancia dentro del movimiento de acceso abierto a la información. Se abordará qué son los datos abiertos, qué los hace abiertos y por qué necesitamos que estén abiertos. Cuáles son las oportunidades que representan para el desarrollo de la transparencia y creación de nuevo conocimiento. En qué consiste la gestión de los datos recopilados durante el desarrollo de un estudio. Por último, cómo se encuentra su desarrollo a nivel internacional.

Page generated in 0.0314 seconds