• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 107
  • 6
  • Tagged with
  • 113
  • 113
  • 113
  • 113
  • 63
  • 63
  • 63
  • 63
  • 63
  • 60
  • 52
  • 31
  • 30
  • 27
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Implementación de un software para búsqueda de publicaciones científicas en bases de datos estructuradas mediante datos enlazados

Uribe Canchanya, Iván Renato 10 July 2018 (has links)
En la actualidad, la información es uno de los activos más importantes tanto en niveles personales, educativos y organizacionales. La información permite el desarrollo y el avance de los estados del conocimiento. Desde la aparición del Internet y su exponencial evolución, el acceso a la información se ha vuelto universal y su cantidad disponible sigue aumentando considerablemente. Para las organizaciones es muy valioso el resguardo y uso de la información ya que, de esta administración depende su capacidad para seguir creciendo y obteniendo valor dentro de sus respectivos campos de acción. Del mismo modo, para una persona el obtener información importante es adquirir conocimientos que serán relevantes para la consecución de sus objetivos planteados. En cualquiera de los ámbitos el uso de la información permite la formulación y la ejecución de los planes estratégicos. Sin embargo, el encontrar aquella información que realmente se necesita se ha vuelto una tarea cada vez más complicada. En el campo de la investigación científica la recopilación de fuentes de información representa el punto de partida. Trasladando esta necesidad al contexto peruano, se observa que la producción científica está en aumento y en un ritmo acorde al crecimiento de otras naciones. Sin embargo, actualmente resulta complicado para los investigadores el obtener la información relevante para iniciar sus investigaciones con la certeza de que no existen investigaciones previas o que abarquen el mismo campo de estudio. Para lograr una buena recopilación se debe navegar entre los distintos repositorios digitales existentes que son de libre acceso o incluso pagados. En tal sentido, existe una solución conocida como Datos Enlazados, un enfoque que no se contrapone a la web actual que permite el vínculo entre páginas web (documentos HTML), pero sí lo complementa ya que permite la vinculación de datos entre distintos contextos y fuentes de información. El presente trabajo de fin de carrera propone una alternativa de solución para la búsqueda integral y automatizada en distintos repositorios digitales que son de libre acceso y cuyas bases de datos están estructuradas mediante Datos Enlazados. Se implementó un método de búsqueda adaptativo en base a las ontologías que manejan los distintos repositorios digitales (datasets). De tal manera, se obtiene una ontología de dominio adaptable que permite la extracción de datos relevantes de cada repositorio, para su posterior reestructuración y su visualización. Para lograr la ontología dinámica se implementó un algoritmo adaptador que analiza el vocabulario ontológico del dataset e identifica las entidades relevantes para el dominio de investigaciones y publicaciones. Luego, se implementaron métodos de extracción con funciones en SPARQL que dependen de la ontología y finalmente, los datos relevantes son guardados en grafos RDF para luego ser serializados en documentos RDF/XML y Turtle. Se concluye que el proyecto ha sido exitoso en cuanto que el software permite realizar la búsqueda de publicaciones de distintos autores peruanos que tienen indexados sus documentos en repositorios digitales como DBLP o IEEE Library Project, contribuyendo de esta manera a la búsqueda integral de información.
52

Analysis and development of a software package for identifying parameter correlations in dynamic linear models

Benites Ventura, Sihela 05 July 2017 (has links)
In the last two decades, the increasing appearance of new complex network systems, which includes a large number of state variables and even greater amount of interconnections (represented in hundreds of parameters) became a demanding task for modeling, especially in the areas of pharmacology and bioengineering. Nowadays, there exists a serious recognition of the importance of Identifiability (ID) since parameters can be non-identifiable when it comes to make experimental design. As biological models contain a considerably large amount of parameters, it is difficult to make a proper estimation of them. Building a dynamic biological model involves not only the input and output quantification but also the structural components considering the importance of the information about the internal structure of a system and their components in biology [4]. After many years of development , complex dynamic systems can be modeled using Ordinary Differential Equations (ODE)s, which are capable of describing suitably the dynamical systems behavior. Nevertheless, in the majority of cases, the parameters values of a system are unknown; consequently, it is necessary to do estimation based on experimental data to determine their values. Biological models , commonly complex dynamic systems, include a large number of parameters and few variables to measure hence the estimation of them represents a major challenge. An important step is to do a previous identifiability analysis of the parameters before their estimation. The concept of structural or a priori identifiability involves the question of examining whether a system is identifiable or not given a set of ideal conditions (noise-free and enough input-output data) before a parameter estimation. Through the years, different approaches and their respective software applications to perform a structural identifiability analysis have been developed; however, does not have suitable measures to repair the non-identifiable problem [11] [12]. On the contrary, the method developed by Li and Vu [9] takes into consideration this subject by using parameter correlations as the indicator of the non-identifiability problem and remedy this challenge by defining proper initial conditions. For all these reasons, the main goal of this work is to implement the method of structural identifiability proposed previously, which allows the clarification of the identifiability analysis for linear dynamic models and gives relevant information about the conditions for a posterior experimental design and remedy if the model results nonidentifiable. As the level of mathematical difficulty is not high since the basic idea is the use of the output sensitivity matrix by calculations of Laplace transform and manageable linear algebra, the implementation is efficient and simple, taking less than a minute to analyze identifiability in simple models even examining different scenarios (values of initial states, absence of input) at the same time in comparison to the calculation of all the procedure by hand. As Maple is one of the best software to compute symbolic calculations in the market today, is the application of choice to work with models containing unknown parameters. / Tesis
53

Diseño de un sistema de verificación del estado de los sónares utilizados en la actividad pesquera

Muñoz Salas, Karol, Sosa Carbajal, Carla Lisette 23 November 2011 (has links)
El objetivo de esta tesis consiste en diseñar un sistema de verificación para sónares utilizados en la actividad pesquera, los cuales están conformados por pequeños cristales piezoeléctricos que emiten pulsos acústicos que realizan el proceso de detección del cardumen. Este estudio comprende el diseño tanto de los circuitos como del programa necesario para determinar la frecuencia de estos elementos y mostrar los resultados en la pantalla del computador. La investigación se desarrolló en cuatro capítulos. En el primer capítulo nos centraremos básicamente en el marco problemático de nuestra investigación, los métodos actuales de verificación de sónares y sus complicaciones. En el segundo capítulo se detallará el estado del arte de esta investigación, las principales aplicaciones del sónar en la industria pesquera, los principales fabricantes de equipos marítimos y los conceptos necesarios para comprender el funcionamiento del sónar. En el tercer capítulo se detalla la metodología que se siguió en este estudio, así como también se muestra el diagrama de bloques del sistema de verificación del estado de los sónares que desarrollamos, a partir del cual se elaboró el diseño de los circuitos de las distintas etapas que comprende este sistema. También se presentan los diagramas de flujo del software que lo controla y por último se detalla la relación de componentes a utilizar. Finalmente, en el cuarto capítulo se hace la evaluación del diseño final del sistema, además se describen las condiciones en que se desarrollaron las pruebas preliminares y se muestran los resultados de las simulaciones tanto del software como del hardware y el costo de su implementación. Como conclusión se desarrollará un sistema eficiente para determinar la eficacia del funcionamiento de los sónares, brindando un servicio mucho más rápido y a menor costo, utilizando la tecnología disponible en el mercado.
54

Sistema administrador de recursos para una grid computacional basada en el middleware BOINC

Phellan Aro, Renzo 24 January 2013 (has links)
Actualmente, la administración de los recursos de la grid computacional de la Pontificia Universidad Católica del Perú (PUCP) desarrollada por la Dirección de Informática Académica (DIA) se ha convertido en una tarea compleja. Esto debido al incremento de la cantidad de recursos relacionados a la grid: administradores, computadoras de escritorio y proyectos científicos. Es por ello que se ha decidido elaborar un sistema informático que ayude a organizar la labor administrativa. Ello permitirá lograr continuidad en el crecimiento de la grid, promoviendo así la aplicación del súper cómputo en el ámbito académico; lo que llevará a que la PUCP se convierta en una organización de vanguardia en el uso de las TIC. El sistema propuesto como proyecto de fin de carrera permitirá automatizar y organizar las actividades administrativas de los recursos vinculados a la grid. Además, se encargará de establecer y mantener la comunicación entre las computadoras y los proyectos científicos de la PUCP que los aprovechan. También, permitirá asociar los recursos al área académica a la que pertenecen. Por otra parte, contará con opciones para agrupar las computadoras según sus características de hardware y configurar sus preferencias de uso. Adicionalmente, ayudará a generar reportes con información relevante sobre los recursos de la grid. Por último, brindará opciones para distribuir la carga administrativa entre varios administradores, con diferentes roles, según el área académica a la que pertenecen.
55

Agile practices adoption in CCM1 organizations : a systematic literature review

Palomino Vásquez, Marco Antonio Ibsen 05 May 2017 (has links)
In the recent years, the adoption of agile frameworks and methodologies in Software Development Organizations (SDO) has grown up considerably. Unfortunately, there are scenarios where agile practices can’t cover alone all the needs; for instance, software projects with a large level of required formal documentation or large, complex software projects; similarly, this kind of situations happen frequently in a context of CMMI organizations. The aim of this study is to identify and analyze the most used agile practices that are used in combination with CMMI within SDO. To accomplish this, a systematic literature review has been performed according to relevant guidelines. This study has identified practices related Daily Meeting and Product Backlog management from Scrum framework as most common agile practices used in combination with CMMI. In addition, we could identify that there are specific benefits of implementing practices from both approaches. / Trabajo de investigación
56

Administrador de proyectos de grid computing que hacen uso de la capacidad de cómputo ociosa de laboratorios informáticos

Iberico Hidalgo, Martín Alberto 09 May 2011 (has links)
El proceso de aprendizaje, previo al análisis y construcción de la solución propuesta, de las tecnologías investigadas, y aún más, de la tecnología utilizada, fue fundamental en todo el resto del proceso de desarrollo del proyecto. Se muestra el caso de aplicación, basado en la validación de modelos estadísticos de inferencia bayesiana utilizando simulaciones intensivas. Estas simulaciones necesitan una gran capacidad de procesamiento, debido a que utiliza complejas estructuras matemáticas, así como procesos matemáticos muy largos, como generación de datos de entrada, y procesos de simulación iterativos. La cantidad de iteraciones tiende a ser muy grande, con lo que la precisión de toda la simulación es mucho mayor.
57

Modelos para el análisis comparativo de herramientas de software: Una revisión sistemática de la literatura

Romero de Souza Ferreyra, Yanire 20 June 2017 (has links)
El análisis comparativo es el proceso mediante el cual se analiza el uso de determinadas herramientas de software bajo criterios de evaluación con la finalidad de determinar cuál es la más adecuada para el contexto seleccionado. Dicho análisis requiere modelos y sus elementos (procedimientos, prácticas, técnicas y herramientas, entre otros) bajo los cuales debe ser llevado a cabo para obtener los mejores resultados sobre el objeto de estudio. (OBJETIVOS) En este estudio se busca identificar modelos y sus elementos propuestos para la realización de análisis comparativo de herramientas para el desarrollo de software. (MÉTODOS) Para la identificación de los modelos y sus elementos se realizó una revisión sistemática de la literatura en las bases de datos reconocidas. (RESULTADOS) De un total de 1226 artículos revisados, se identificaron 32 artículos que hacen referencia a 8 modelos y sus elementos para la realización de análisis comparativo. Además se puede señalar que los modelos de análisis comparativo en la industria de software son utilizados para la evaluación de herramientas y/o metodologías de desarrollo de software. (CONCLUSIONES) Se puede concluir que existen diversos modelos y sus elementos para la realización de análisis comparativo en el ámbito de desarrollo de software siendo el modelo de definición de criterios el más utilizado en los estudios primarios seleccionados para la evaluación de herramientas y/o metodologías en el ámbito de la ingeniería de software. / Trabajo de investigación
58

Modelos de análisis de impacto aplicados a la gestión de riesgos en proyectos de desarrollo de software: una revisión sistemática de la literatura

Calla Alarcón, Carlos Alberto 05 July 2017 (has links)
El análisis de impacto aplicado a un proyecto de desarrollo de software permite determinar entre otros los factores o atributos que se ven afectados de manera positiva o negativa. Los valores de estos atributos como: tiempo, presupuesto y cronograma, entre otros, varían en el tiempo y deben ser controlados por el responsable del proyecto, sin embargo éstos no siempre se apoyan en la gestión de 1s de manera adecuada. El objetivo de este trabajo es identificar modelos de análisis de impacto aplicables para la gestión de riesgos en proyectos de desarrollo de software. Para este estudio se realizó una revisión sistemática de la literatura en bases de datos reconocidas. Se encontraron 1654 estudios primarios de análisis de impacto aplicados a proyectos de desarrollo de software y 17 artículos definiendo 21 modelos de análisis de impacto y 1 artículo de un marco comparativo entre algunos modelos existentes. A partir del análisis realizado de los estudios primarios se puede concluir que existen modelos de análisis de impacto que se han aplicado a proyectos de desarrollo de software en distintas fases y distintos aspectos. Sin embargo, ninguno de ellos aplicado a la gestión de riesgos en proyectos de desarrollo de software. / Trabajo de investigación
59

Aplicación práctica de técnicas para la estimulación y planificación de proyectos de software - TUPUY

Inca Chiroque, Magaly 23 February 2016 (has links)
El presente trabajo tiene por finalidad determinar la confiabilidad de la técnica Tupuy propuesta por el Dr. Pow Sang (Pow Sang Portillo, 2012), que mide el esfuerzo de un proyecto de software orientado a objetos con ciclo de vida incremental en su desarrollo, para efectos de planificación. Esta propuesta está conformada por tres técnicas: UML2FP, Diagrama de Precedencia de Casos de Uso (UCPD) e Incremental-FP. La aplicación práctica de la técnica Tupuy se realizó sobre base histórica obtenida de los alumnos de pregrado de la especialidad de Ingeniería Informática, quienes desarrollaron un proyecto de software de un sistema de información para una cadena de hoteles que recién iniciaba su funcionamiento. De los resultados obtenidos se confirma lo propuesto en la tesis del Dr. Pow Sang, al comparar los resultados obtenidos con pruebas previas, la diferencia entre el esfuerzo estimado y real de los proyectos, medidos con la Magnitud del Error Relativo (MRE) para todas las iteraciones, fueron menores al 20%. Por lo tanto, se puede utilizar la técnica Tupuy con toda confianza para fines de planificación. / Tesis
60

Revisión sistemática de métodos, herramientas y técnicas de validación – verificación de requisitos en proyectos de desarrollo de software

Ponce Angulo, Sergio Arturo 16 June 2021 (has links)
El objetivo de los proyectos de desarrollo de software es la construcción de software que satisfaga la necesidad de los usuarios que lo solicitaron. Capturar la necesidad y posteriormente definir los requisitos funcionales es una etapa crítica del ciclo de vida de desarrollo, pues las actividades que se realizan para este fin impactan directamente en la calidad del software. La ingeniería de requisitos establece los procesos que se deben ejecutar para determinar los requisitos que el software debe cumplir, estos procesos son: Elicitación, Análisis, Especificación, Validación y Gestión. Verificar y validar que los procesos de la ingeniería de requisitos son ejecutados correctamente es importante para garantizar el éxito de los proyectos de desarrollo de software; por ello, esta revisión sistemática tiene por objetivo identificar los trabajos de investigación en donde describan los métodos, técnicas y herramientas de validación y verificación utilizados durante la ingeniería de requisitos en proyectos de desarrollo de software en los ámbitos académicos y/o industriales independientemente de la metodología de gestión utilizada. Se identificaron 60 artículos relevantes que nos permiten concluir que sí existen métodos, técnicas y herramientas que apoyan en la validación y verificación de los procesos de la ingeniería de requisitos; además, se identifican las habilidades que debe tener el equipo de trabajo para emplear alguno de los métodos, técnicas o herramientas en su proyecto de desarrollo de software. También se evidencia que dependiendo del tipo de gestión que se lleve a cabo en un proyecto (ágil o tradicional) la estrategia a la hora de seleccionar un método, técnica o herramienta podría variar. Finalmente, se propone una categorización de ellos en función a su utilidad durante la verificación o validación de requisitos.

Page generated in 0.0999 seconds