Spelling suggestions: "subject:"programas para computadores"" "subject:"programas para computador""
211 |
Analysis of environmental factors in the adoption of iso/iec 29110. Multiple case studyLucho Romero, Cesar Stuardo 23 October 2017 (has links)
The software industry comprising small companies represents an interesting
opportunity for economic development. But these still have problems
in productivity and the quality of their delivered products. In this context, the
ISO/IEC 29110 standard has been developed, which represents an opportunity
for small companies whose adoption depends on several factors, in particular,
those related to the environment. In this paper, we study the influence of environmental
factors on the adoption of ISO/IEC 29110 standard. For this research,
a multiple case study was carried out, which includes four organizations as units
of analysis. In a controlled environment, each organization implemented the
processes belonging to the basic profile of the ISO/IEC 29110 standard. After
the implementation, an analysis has been made of the environmental factors that
influenced the adoption of the standard. Of the 16 environmental factors analyzed,
it was found that 6 factors influenced all the organizations and those related
to the support and trust of the partners had the greatest positive influence
on the standard adoption, while the defense factor of the partners had the most
negative influence. All other factors had minimal or no influence. / Trabajo de investigación
|
212 |
Implementación de un software para búsqueda de publicaciones científicas en bases de datos estructuradas mediante datos enlazadosUribe Canchanya, Iván Renato 10 July 2018 (has links)
En la actualidad, la información es uno de los activos más importantes tanto en niveles
personales, educativos y organizacionales. La información permite el desarrollo y el avance de
los estados del conocimiento. Desde la aparición del Internet y su exponencial evolución, el
acceso a la información se ha vuelto universal y su cantidad disponible sigue aumentando
considerablemente.
Para las organizaciones es muy valioso el resguardo y uso de la información ya que, de
esta administración depende su capacidad para seguir creciendo y obteniendo valor dentro de sus
respectivos campos de acción. Del mismo modo, para una persona el obtener información
importante es adquirir conocimientos que serán relevantes para la consecución de sus objetivos
planteados. En cualquiera de los ámbitos el uso de la información permite la formulación y la
ejecución de los planes estratégicos. Sin embargo, el encontrar aquella información que
realmente se necesita se ha vuelto una tarea cada vez más complicada.
En el campo de la investigación científica la recopilación de fuentes de información
representa el punto de partida. Trasladando esta necesidad al contexto peruano, se observa que la
producción científica está en aumento y en un ritmo acorde al crecimiento de otras naciones. Sin
embargo, actualmente resulta complicado para los investigadores el obtener la información
relevante para iniciar sus investigaciones con la certeza de que no existen investigaciones
previas o que abarquen el mismo campo de estudio. Para lograr una buena recopilación se debe
navegar entre los distintos repositorios digitales existentes que son de libre acceso o incluso
pagados.
En tal sentido, existe una solución conocida como Datos Enlazados, un enfoque que no
se contrapone a la web actual que permite el vínculo entre páginas web (documentos HTML),
pero sí lo complementa ya que permite la vinculación de datos entre distintos contextos y fuentes
de información. El presente trabajo de fin de carrera propone una alternativa de solución para la búsqueda integral y automatizada en distintos repositorios digitales que son de libre acceso y
cuyas bases de datos están estructuradas mediante Datos Enlazados.
Se implementó un método de búsqueda adaptativo en base a las ontologías que manejan
los distintos repositorios digitales (datasets). De tal manera, se obtiene una ontología de dominio
adaptable que permite la extracción de datos relevantes de cada repositorio, para su posterior
reestructuración y su visualización. Para lograr la ontología dinámica se implementó un
algoritmo adaptador que analiza el vocabulario ontológico del dataset e identifica las entidades
relevantes para el dominio de investigaciones y publicaciones. Luego, se implementaron
métodos de extracción con funciones en SPARQL que dependen de la ontología y finalmente,
los datos relevantes son guardados en grafos RDF para luego ser serializados en documentos
RDF/XML y Turtle.
Se concluye que el proyecto ha sido exitoso en cuanto que el software permite realizar la
búsqueda de publicaciones de distintos autores peruanos que tienen indexados sus documentos
en repositorios digitales como DBLP o IEEE Library Project, contribuyendo de esta manera a la
búsqueda integral de información.
|
213 |
Implementación de la iteración lanczos en arquitectura CUDARosales Jara, Erick Daniel 25 July 2015 (has links)
Los autovalores y autovectores son elementos muy utilizados en diversos problemas como análisis de estructuras, reconocimiento de imágenes, compresión de datos, solución de problemas electrodinámicos, entre otros. Existen muchos algoritmos para calcular y tratar con autovalores y autovectores mediante el uso de computadoras, sin embargo, cuando solo se requiere uno o unos pocos autovalores (los más significativos) y autovectores, se puede optar por Power Method o la Iteración Lanczos. Por otro lado, factores como la cantidad de información a procesar o la precisión deseada pueden significar tiempos de ejecución no aceptables para ciertas aplicaciones, surgiendo la alternativa de realizar implementaciones paralelas, siendo la arquitectura CUDA una de la mejores opciones actualmente. En la presente tesis se propone diseñar e implementar un algoritmo paralelo para la iteración Lancos en arquitectura CUDA, el cual es un método para el cálculo del mayor autovalor y su correspondiente autovector. La propuesta esta dividia en tres bloques principales. El primer bloque realiza la tridiagonalización parcial de una matriz cuadrada simétrica. El segundo bloque calcula la descomposición de Schur de la matriz tridiagonal obteniendo los autovectores y autovalores de esta. El tercer bloque calcula el mayor autovalor y su correspondiente autovector de la matriz inicial a partir de lo obtenido en etapas anteriores y determinará si es necesario seguir realizando cálculos. Los bloques trabajan iterativamente hasta encontrar resultados que se ajusten a la precisión deseada. Además de la implementación paralela en CUDA, se realizaron implementaciones en el entorno de simulación MATLAB y en lenguaje C secuencial, con el propósito de comparar y verificar una correcta y eficiente implementación paralela. Los resultados computacionales evaluados para una matriz de 4000 _ 4000 elementos reflejan un rendimiento de 13;4 y 5;8 al compararse la implementación en CUDA con MATLAB y C secuencial respectivamente. Estos rendimientos tienden a crecer mientras mayor sea el tamaño de la matriz. La organización de la tesis es: en el primer capítulo se describe la problemática del tema. En el segundo capítulo se explica la teoría correspondiente a Power Method y Lanczos, así como los algoritmos necesarios. En el capítulo tres se exponen conceptos fundamentales sobre arquitectura CUDA. El diseño del algoritmo paralelo se desarrolla en el capítulo cuatro. Finalmente, en el capítulo cinco, se muestran y analizan los resultados computacionales, seguidos de las conclusiones, recomendaciones y bibliografía.
|
214 |
Diseño de un equipo generador de ozono clínico para blanqueamiento dentalCañedo Arnedo, Ricardo 21 March 2012 (has links)
Los cánones de estética de diversas culturas a través de los tiempos han establecido una
dentadura saludable y bonita como un símbolo de belleza. En la actualidad el blanqueamiento
dental, un procedimiento que mediante el uso de sustancias químicas busca restablecer el
color natural de los dientes con el cual nacemos, refuerza esta teoría. Varios métodos y
sustancias se usan, sin embargo, uno que está en estudio y teniendo mayor acogida es el
blanqueamiento dental con ozono.
El uso del ozono para blanqueamiento dental se viene usando en países como España; Este
método presenta grandes ventajas sin embargo uno de los problemas es su manipulación
debido que a concentraciones muy altas puede ser altamente tóxico para las personas. Por ello
la presente tesis tiene como propósito diseñar e implementar un prototipo generador de ozono
clínico para blanqueamiento dental basado en descargas coronas con el fin de controlar
eléctricamente su grado de concentración y lograr su producción más estable.
El diseño e implementación del generador de ozono tiene las siguientes etapas. La primera es
la de producción de ozono que se encarga de disociar las moléculas de oxígeno y
transformarlas en ozono con 0.05 ppm de concentración, la segunda etapa es la de sensado
que se encarga de medir la concentración de ozono producido, la tercera etapa mide el tiempo
de producción y controla la concentración de ozono generado, la cuarta etapa es el transporte
del ozono para su aplicación.
Para la validación de los diseños se efectuaron simulaciones, luego la implementación y
pruebas con lo que se comprobó la acción del blanqueamiento de los dientes usando ozono;
para lo cual fue necesario exponer la dentadura a la concentración de ozono antes mencionado
por 30 minutos.
|
215 |
Composición musical artificial con algoritmos genéticosVílchez Vargas, Francisco, Astuvilca Fuster, José 12 September 2016 (has links)
La composici´on musical consiste en el uso y combinaci´on adecuada de diversas notas,
con el prop´ osito de generar una melod´ıa musical. Por otro lado, la improvisaci ´on musical,
consiste en la composici´on instant ´anea, realizada en un momento determinado,
ya sea en base a una composici´on ya existente o alguna totalmente nueva. Para realizar
dicha tarea, se requiere el conocimiento de diversos patrones existentes en teor´ıa
musical y, de esta manera, poder juntarlas teniendo en consideraci ´on ciertos criterios
arm´onicos, mel´odicos y r´ıtmicos para que suene agradable al usuario final. Debido a
la cantidad de conocimiento necesario para poder realizar una composici´on musical,
nuestro proyecto tiene la intenci ´on de realizar un m´etodo que tenga la capacidad de
poder combinar notas adecuadamente siguiendo las reglas de la teor´ıa musical moderna.
Este compositor (improvisador) tendr´a como entrada una armon´ıa y adaptar´a sus
creaciones (improvisaciones) en base a ella. Se lograr ´a realizar dicha tarea mediante
un algoritmo gen´ etico. Para ello, se utilizar ´a como poblaci ´on inicial peque˜nas frases
musicales creadas por expertos, las cuales son conocidos como licks. Estas ser´an
juntadas y mejoradas mediante nuestros operadores gen´ eticos, de tal manera que se
logre una nueva composici´on totalmente distinta a la inicial cada vez que se aplique
nuestro algoritmo. De esta manera, se desarrollar ´a una metodolog´ıa basada en algoritmos
gen´ eticos, incrementando as´ı el estado del arte del ´area y finalmente disponer
de una herramienta de ayuda y autoaprendizaje computarizada para este proceso de
composici´on musical.
|
216 |
Analysis and development of a software package for identifying parameter correlations in dynamic linear modelsBenites Ventura, Sihela 05 July 2017 (has links)
In the last two decades, the increasing appearance of new complex network systems,
which includes a large number of state variables and even greater amount of interconnections
(represented in hundreds of parameters) became a demanding task for modeling,
especially in the areas of pharmacology and bioengineering. Nowadays, there exists
a serious recognition of the importance of Identifiability (ID) since parameters can
be non-identifiable when it comes to make experimental design. As biological models
contain a considerably large amount of parameters, it is difficult to make a proper
estimation of them. Building a dynamic biological model involves not only the input and
output quantification but also the structural components considering the importance
of the information about the internal structure of a system and their components in
biology [4].
After many years of development , complex dynamic systems can be modeled using
Ordinary Differential Equations (ODE)s, which are capable of describing suitably the
dynamical systems behavior. Nevertheless, in the majority of cases, the parameters
values of a system are unknown; consequently, it is necessary to do estimation based on
experimental data to determine their values. Biological models , commonly complex
dynamic systems, include a large number of parameters and few variables to measure
hence the estimation of them represents a major challenge. An important step is to do
a previous identifiability analysis of the parameters before their estimation.
The concept of structural or a priori identifiability involves the question of examining
whether a system is identifiable or not given a set of ideal conditions (noise-free and enough input-output data) before a parameter estimation. Through the years, different
approaches and their respective software applications to perform a structural identifiability
analysis have been developed; however, does not have suitable measures to repair
the non-identifiable problem [11] [12]. On the contrary, the method developed by Li
and Vu [9] takes into consideration this subject by using parameter correlations as the
indicator of the non-identifiability problem and remedy this challenge by defining proper
initial conditions.
For all these reasons, the main goal of this work is to implement the method of
structural identifiability proposed previously, which allows the clarification of the identifiability
analysis for linear dynamic models and gives relevant information about the
conditions for a posterior experimental design and remedy if the model results nonidentifiable.
As the level of mathematical difficulty is not high since the basic idea is the
use of the output sensitivity matrix by calculations of Laplace transform and manageable
linear algebra, the implementation is efficient and simple, taking less than a minute to
analyze identifiability in simple models even examining different scenarios (values of
initial states, absence of input) at the same time in comparison to the calculation of
all the procedure by hand. As Maple is one of the best software to compute symbolic
calculations in the market today, is the application of choice to work with models
containing unknown parameters. / Tesis
|
217 |
Aplicación de una metodología ágil en el desarrollo de un sistema de informaciónSamamé Silva, Jaime Humberto 09 December 2013 (has links)
Las aplicaciones informáticas han contribuido enormemente en el escenario de
nuestras vidas, están directas o indirectamente presentes en nuestro día a día, y somos
consumidores o desarrolladores de ellas. Cuando cumplimos un papel de
desarrolladores, se presentan diversas metodologías al momento de empezar un
proyecto de software, dentro de ellas nos ofrecen un punto de vista alternativo a las
clásicas y duras, las metodologías ágiles.
El presente proyecto aplica una de estas metodologías ágiles, Programación Extrema
(Extreme Programming), en un pequeño proyecto de software, utilizando herramientas
de software libre como Java, y como repositorio de datos el estándar XML. El
resultado de esta investigación aporta una guía del uso de la metodología ágil en un
pequeño proyecto de software que tiene aplicabilidad dentro del ciclo de inteligencia
de la información. / Tesis
|
218 |
Diseño de un sistema de verificación del estado de los sónares utilizados en la actividad pesqueraMuñoz Salas, Karol, Sosa Carbajal, Carla Lisette 23 November 2011 (has links)
El objetivo de esta tesis consiste en diseñar un sistema de verificación para sónares
utilizados en la actividad pesquera, los cuales están conformados por pequeños
cristales piezoeléctricos que emiten pulsos acústicos que realizan el proceso de
detección del cardumen. Este estudio comprende el diseño tanto de los circuitos
como del programa necesario para determinar la frecuencia de estos elementos y
mostrar los resultados en la pantalla del computador.
La investigación se desarrolló en cuatro capítulos. En el primer capítulo nos
centraremos básicamente en el marco problemático de nuestra investigación, los
métodos actuales de verificación de sónares y sus complicaciones. En el segundo
capítulo se detallará el estado del arte de esta investigación, las principales
aplicaciones del sónar en la industria pesquera, los principales fabricantes de
equipos marítimos y los conceptos necesarios para comprender el funcionamiento
del sónar.
En el tercer capítulo se detalla la metodología que se siguió en este estudio, así
como también se muestra el diagrama de bloques del sistema de verificación del
estado de los sónares que desarrollamos, a partir del cual se elaboró el diseño de
los circuitos de las distintas etapas que comprende este sistema. También se
presentan los diagramas de flujo del software que lo controla y por último se detalla
la relación de componentes a utilizar.
Finalmente, en el cuarto capítulo se hace la evaluación del diseño final del sistema,
además se describen las condiciones en que se desarrollaron las pruebas
preliminares y se muestran los resultados de las simulaciones tanto del software
como del hardware y el costo de su implementación.
Como conclusión se desarrollará un sistema eficiente para determinar la eficacia del
funcionamiento de los sónares, brindando un servicio mucho más rápido y a menor
costo, utilizando la tecnología disponible en el mercado.
|
219 |
Sistema administrador de recursos para una grid computacional basada en el middleware BOINCPhellan Aro, Renzo 24 January 2013 (has links)
Actualmente, la administración de los recursos de la grid computacional de la
Pontificia Universidad Católica del Perú (PUCP) desarrollada por la Dirección de
Informática Académica (DIA) se ha convertido en una tarea compleja. Esto debido
al incremento de la cantidad de recursos relacionados a la grid: administradores,
computadoras de escritorio y proyectos científicos. Es por ello que se ha decidido
elaborar un sistema informático que ayude a organizar la labor administrativa. Ello
permitirá lograr continuidad en el crecimiento de la grid, promoviendo así la
aplicación del súper cómputo en el ámbito académico; lo que llevará a que la PUCP
se convierta en una organización de vanguardia en el uso de las TIC.
El sistema propuesto como proyecto de fin de carrera permitirá automatizar y
organizar las actividades administrativas de los recursos vinculados a la grid.
Además, se encargará de establecer y mantener la comunicación entre las
computadoras y los proyectos científicos de la PUCP que los aprovechan. También,
permitirá asociar los recursos al área académica a la que pertenecen. Por otra
parte, contará con opciones para agrupar las computadoras según sus
características de hardware y configurar sus preferencias de uso. Adicionalmente,
ayudará a generar reportes con información relevante sobre los recursos de la grid.
Por último, brindará opciones para distribuir la carga administrativa entre varios
administradores, con diferentes roles, según el área académica a la que
pertenecen.
|
220 |
Diseño de un algoritmo para rendering eficiente de estructuras proteicas de gran escalaMoreno Valles, Fernando Antonio 19 November 2014 (has links)
El software de gráficos por computadora en 3D de hoy en día nos da la capacidad
de modelar y visualizar objetos en situaciones o tamaños que antes no habría sido
posible, incluso nos dan la capacidad de que la visualización de estos objetos sea
generada en tiempo real lo que otorga la posibilidad de crear aplicaciones que
hagan uso de esta capacidad para agregar interactividad con los objetos
modelados.
Es muy importante la capacidad de poder dotar al usuario de una capacidad de
interactividad con el gráfico generado, pero esto no se logra si es que el tiempo de
respuesta de la aplicación es muy grande, por ejemplo una consola de videojuegos
exigen como mínimo 30fps (cuadros por segundo) un valor menor ocasiona que los
movimientos no fueran fluidos y se pierda la sensación de movimiento. Esto hace
que la experiencia de usuario fluida sea una de las metas principales del rendering
interactivo.
Uno de los mayores problemas que se encuentran en esta área es el de visualizar
gran cantidad de polígonos, debido a limitaciones de memoria o capacidad de
procesamiento, mientras mayor sea la cantidad de polígonos que se desea dibujar
en pantalla, mayor será el tiempo de procesamiento que será necesario para
generar las imágenes. Una aplicación en particular es el de visualización de la estructura de proteínas.
Existen proteínas que poseen una gran estructura, por la cantidad de polígonos que
se requieren para representar todos los elementos y conexiones que poseen estas
moléculas y adicionalmente la necesidad de visualizar grandes cantidades de
moléculas simultáneamente, ocasiona que se disminuya el rendimiento y la
interactividad al momento de la visualización.
El presente proyecto plantea utilizar una estructura algorítmica para realizar
rendering eficiente de gran cantidad de proteínas haciendo uso de un visualizador
3D, que muestre la estructura tridimensional de estas y permita la interacción en
tiempo real con el modelo. La estructura propuesta en este proyecto hace uso de la
aceleración por hardware presente en las tarjetas gráficas modernas a través de un API de generación de gráficos en tiempo real que es OpenGL con el cual se aplican
optimizaciones que aprovechan la estructura planteada.
Para que el proceso de renderizado sea más veloz, se mantiene un número bajo de
polígonos en los modelos. Debido a que los elementos son repetitivos (esferas y
cilindros) se reutiliza la geometría de estos elementos haciendo uso de una
estructura como el Scene Graph de modo que el uso de memoria sea menor y de
otra estructura como el Octree que permite discriminar los elementos que deben ser
procesados durante el rendering.
Combinando todo lo mencionado anteriormente, la estructura propuesta permite
que se visualicen proteínas de gran estructura o gran cantidad de estas,
manteniendo el grado necesario de interactividad para facilitar su estudio así como
también manteniendo un aspecto estético que permita reconocer los elementos sin
reducir el rendimiento.
|
Page generated in 0.0986 seconds