• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 305
  • 65
  • 26
  • Tagged with
  • 396
  • 288
  • 190
  • 75
  • 75
  • 59
  • 58
  • 45
  • 37
  • 34
  • 34
  • 32
  • 31
  • 28
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

Sistemas de gestão documental e gestão da qualidade : relevância e modelo de implementação

Veloso, Catarina Isabel Pinto Bandeira January 2011 (has links)
Tese de mestrado. Ciência da Informação. Faculdade de Engenharia. Universidade do Porto. 2011
302

Impacto de la Certificación ISO 9001/2008 en las prácticas de Ingeniería de Requerimientos

Arruzazabala, Mariana Cecilia 30 July 2013 (has links)
Este documento se organiza de la siguiente manera: • En el capitulo 1 se describe la problemática en la que se inserta el tema propuesto, se realiza una breve descripción del contexto de la investigación, objetivos y motivaciones. • Los capítulos 2, 3 y 4 profundizan los conceptos de IR, calidad de software, norma ISO 9001:2008 e ISO 90003:2004, respectivamente. • El capítulo 5 presenta el relevamiento, evaluación y selección de un modelo de evaluación de proceso de IR. • El capítulo 6 detalla la metodología seguida para el trabajo en cuestión. • El capítulo 7 contiene los resultados de la caracterización de las empresas y los proyectos seleccionados para evaluar. • El capítulo 8 comprende los resultados de la evaluación de madurez del proceso de IR en los proyectos evaluados. • El capítulo 9 describe la vinculación entre las acciones mejoradas con los requisitos de la norma ISO 9001:2008. • El capítulo 10 presenta las conclusiones obtenidas y los trabajos propuestos a futuro en relación al tema. • Finalmente, se detalla la bibliografía utilizada y se presenta el Anexo I, que contiene los instrumentos de recolección de datos y una explicación de cómo acceder a los documentos adicionales que surgieron con la realización de este trabajo.
303

Identificación temprana de aspectos de programación

Martínez, Ariel, Chiarle, Lautaro January 2007 (has links) (PDF)
El software generalmente permite a diferentes tipos de usuarios interactuar con complejos sistemas de información, por eso es razonable que surjan muchos aspectos diferentes y no relacionados. Muchos de ellos son inherentes a las aplicaciones en general, tales como la persistencia, la seguridad y la privacidad; otras se relacionan al dominio específico del problema. La única manera de tratar con éstos aspectos es poder identificarlos y modularizarlos correctamente, entender los impactos y relaciones entre ellos y sus relaciones con los artefactos de diseño que los representan, independientemente de su naturaleza (funcional o no funcional). Leite propone elicitar requerimientos en dos etapas. Primero sugiere comprender el lenguaje del dominio del problema y luego comprender la dinámica de éste. Para atacar la comprensión del lenguaje del dominio desarrolló el LEL (Léxico Extendido del Lenguaje). Esta técnica resulta apropiada tanto para el Ingeniero de Requerimientos como para el experto del dominio, básicamente porque utiliza lenguaje natural comprensible por ambos. Este trabajo, enmarcado dentro de la Early Aspect community (<a href="http://www.early-aspects.net">http://www.early-aspects.net</a>), propone entender el lenguaje del problema antes de entender el problema mismo, utilizando como herramienta para capturarlo el LEL (Language Extended Lexicon), y así lograr la identificación temprana de aspectos y sus posibles encruzamientos.
304

Efecto de la distribución de trabajo en aplicaciones paralelas irregulares sobre clusters heterogéneos

Chichizola, Franco 20 August 2013 (has links)
El objetivo de este Trabajo Final es comparar el efecto de la distribución de trabajo estática y dinámica sobre arquitecturas de cluster heterogéneo, analizando al mismo tiempo el speedup paralelo teórico y el obtenido experimentalmente para un determinado tipo de problema. En particular, se ha elegido una aplicación clásica (Parallel N-Queens) con un algoritmo de solución paralela en la que predomina el procesamiento sobre el tamaño de los datos, de modo de profundizar en los aspectos del balance de carga (estático o dinámico) sin una distorsión de los resultados producida por aspectos relacionados al uso de la memoria y/o al tamaño de los mensajes a comunicar. Para la experimentación se ha utilizado una combinación de 4 clusters interconectados, donde las máquinas dentro de cada grupo poseen procesadores homogéneos, pero diferentes entre clusters. De este modo el conjunto puede verse como un cluster heterogéneo de 43 procesadores. El problema se ha resuelto utilizando el paradigma master/worker donde el procesamiento se descompone en tareas irregulares que atentan contra el balance de carga entre los procesadores. Por esta razón se han analizado tres estrategias de distribución de trabajo calculando en cada caso el desbalance de carga y el rendimiento obtenido, comparando los resultados para determinar la que tiene mejor comportamiento, y finalmente estudiar la escalabilidad para esa solución. La solución paralela pura (sin tener en cuenta la distribución del trabajo) para el tipo de problemas donde Tp>>Tc, en particular el de N-Reinas requiere mínima comunicación entre máquinas, lo que hace esencial la elección de la distribución de datos entre los procesadores, para alcanzar un speedup cercano al óptimo (es decir un buen rendimiento).
305

Cobertura entre pruebas a distintos niveles para refactorizaciones más seguras

Fontela, Moisés Carlos 27 August 2013 (has links)
Esta tesis busca encontrar una práctica metodológica que permita definir distintos niveles de pruebas que operen como garantía de refactorizaciones seguras, independientemente del alcance de las mismas. Se enmarca en el tema general de refactoring, con elementos de Test Driven Development (TDD), utilizando las prácticas recomendadas en el marco de Behavior Driven Development (BDD) y de Acceptance Test Driven Development (ATDD). La práctica de refactoring descansa fuertemente en la existencia de pruebas unitarias automatizadas, que funcionan como red de seguridad que garantiza que el comportamiento de la aplicación no varía luego de una refactorización. Sin embargo, este simple enunciado no prevé que hay ocasiones en que las pruebas dejan de funcionar al realizar las refactorizaciones, con lo cual se pierde la sincronización entre código y pruebas, y la cualidad de red de seguridad de estas últimas. Esto es especialmente cierto ante refactorizaciones estructurales y rediseños macro. Por lo tanto, y dado que el uso de pruebas como red de contención es uno de los supuestos más fuertes de la práctica del refactoring, vamos a desarrollar, como objetivo de esta tesis, una práctica metodológica para permitir definir distintos niveles de pruebas que aseguren distintos tipos de refactorizaciones, validándola con un caso de estudio y apoyándonos en una herramienta automática desarrollada en el marco de este trabajo.
306

Modelo de proceso de conceptualización de requisitos

Hossian, Alejandro 18 October 2012 (has links)
El proceso de captura de requisitos constituye un proceso con connotaciones sociales relacionadas con diferentes personas (stakeholders), una circunstancia que hace que se presenten ciertos problemas cuando se lleva adelante la conceptualización de requisitos. En esta tesis se propone un Proceso de Conceptualización de Requisitos que se estructura en dos fases: (a) Análisis Orientado a al Problema: cuyo objetivo es comprender el problema dado por el usuario en el dominio en el que este se lleva a cabo, y (b) Análisis de Orientado al Producto: cuyo objetivo es obtener las funcionalidades que el usuario espera del producto de software a desarrollar, teniendo en cuenta la relación de estas con la realidad expresada por el usuario en su discurso. Se proponen seis técnicas que articulan cada una de las tareas que componen las fases de proceso propuesto / The requirements elicitation process, whose main objective is to give birth to the requirements, not only is a technical process to build a particular system but also an important process of social connotations involving different people (stakeholders), a circumstance which causes certain problems arise when carrying out the requirement conceptualization. In this PhD thesis is proposed a Process of Requirements Conceptualization that are structured in two phases: (a) Problem- Oriented Analysis: aimed at understanding the problem given by the user in the domain in which this takes place, and (b) Product-Oriented Analysis: its aim is to obtain the functionalities that the user intends to obtain from the software product to be developed, taking into account the relationship of these features with the reality expressed by the user in his speech. The techniques for each activity in both phases are introduced.
307

Un entorno de aprendizaje y una propuesta de enseñanza de Simulación de Eventos Discretos con GPSS

Villarreal, Gonzalo Luján 30 September 2013 (has links)
La enseñanza en el área de simulación de eventos discretos requiere integrar una variedad de conceptos teóricos y ponerlos en práctica a través de la creación y ejecución de modelos abstractos de simulación, con el objetivo de recopilar información que pueda traspolarse hacia los sistemas reales. Para construir modelos, ejecutarlos y analizar los resultados de cada ejecución se utilizan herramientas de software cada vez más sofisticadas que permiten expresar los elementos de los modelos en términos de entidades abstractas y relaciones, y que recopilan gran cantidad de datos y estadísticas sobre cada una de estas entidades del modelo. GPSS es una de estas herramientas, y se compone de un lenguaje de programación por bloques y un motor de simulación que traduce estos bloques en distintas entidades del modelo. A pesar de que su primera versión data de 1961, GPSS es aún muy utilizado por profesionales y empresas, y es una de las herramientas más utilizadas para la enseñanza de simulación de eventos discretos por instituciones académicas de todo el mundo.  El avance de la capacidad de cómputo de las computadoras ha permitido incorporar una mayor cantidad de herramientas y funciones a las distintas implementaciones de GPSS. Mientras que esto representa una ventaja para sus usuarios, requiere también un cada vez mayor esfuerzo por parte de los docentes para enseñar a sus estudiantes a aprovechar todo su potencial. Muchos docentes e investigadores han buscado optimizar la enseñanza de simulación de eventos discretos desde múltiples ángulos: la organización del curso y la metodología de enseñanza, la creación de elementos de aprendizaje que ayuden a aplicar los distintos elementos teóricos, la generación de herramientas para construir modelos GPSS, y la construcción de herramientas para comprender el motor de simulación por dentro. En esta tesis se introduce una herramienta de software que permite construir modelos GPSS de manera interactiva, cuyo diseño fue pensado para integrar los elementos teóricos del curso con los objetos y entidades de GPSS. Esta herramienta también permite ejecutar estos modelos y analizar con alto nivel de detalle su evolución a través del tiempo de simulación, lo que permite a los estudiantes comprender cómo funciona el motor de simulación y cómo interactúan las distintas entidades entre sí. Se incluye también una propuesta de enseñanza basada en una fuerte participación de los estudiantes, que, por medio de esta nueva herramienta, les permite incorporar los conceptos más fácilmente. Esta propuesta de enseñanza fue puesta a prueba con alumnos del área de sistemas, quienes tomaron un curso que contiene los mismos elementos teóricos y prácticos de un curso tradicional, pero con una organización diferente. Entre los resultados logrados se destacan una reducción del tiempo requerido para aprender los conceptos de GPSS cercana al 50%, una mayor capacidad por parte de los alumnos para asimilar conceptos y derivar nuevos conceptos por sí solos, a partir de conceptos adquiridos previamente.
308

Mecanismos de Transición hacia redes IPv6

Taffernaberry, Juan Carlos 19 July 2011 (has links)
Debido a que el Protocolo de red de Internet actual, llamado IPv4, está alcanzando actualmente sus propios límites de diseño y se muestra incapaz de proveer una respuesta adecuada a las nuevas características deseables para Internet, en 1995 la Internet Engineering Task Force (IETF) comenzó a desarrollar un nuevo protocolo, llamado IPv6, para reemplazar al anterior. Contempla mejoras fundamentalmente en el espacio de direccionamiento y nuevas características como servicios de tiempo real, calidad de servicio, seguridad intrínseca, etc. El crecimiento de Internet ha originado que cada vez más computadoras necesiten conectarse a ella. Hay una enorme cantidad de dispositivos como teléfonos celulares, cámaras de vigilancia, dispositivos inalámbricos, etc, que necesitarán, en el mediano plazo, sus propias direcciones IP para conectarse a Internet, incluso algunos necesitarán varias direcciones. Ésta es la principal causa que lo está llevando a sus límites de diseño, pues en la versión actual del protocolo, no existen suficientes direcciones disponibles. El protocolo IPv6 presenta un nuevo desafío que es su despliegue para ponerlo en producción. En la actualidad millones de computadores están interconectados al backbone de Internet usando IPv4 y es imposible cambiar a la nueva versión, IPv6, en forma simultánea cada uno de ellos para que sigan trabajando normalmente, fundamentalmente por la imposibilidad de actualizar a IPv6 sistemas operativos de routers intermedios, servidores web (HTTP), o de correo (SMTP), etc sin soporte IPv6; también se presentan problemas en servidores de nombre (DNS) sin registros AAAA o A6 para direcciones IPv6, etc. El protocolo IPv6 es un protocolo “disruptivo”. El término disruptivo tiene sus orígenes en el libro “El dilema de Innovador” de Clayton Christensen, donde trata como los desarrollos tecnológicos pueden tener un impacto económico. Se basa en un estudio de la industria de Discos Rígidos, a través de varios años y varios cambios de tecnologías. Para nuestro caso, no se trata de quitar o deshabilitar IPv4 para usar, habilitar o instalar IPv6. Tampoco es una una migración, pues no es un día, mes o año (como el Y2K) para realizar la migración. Esto es una actualización necesaria de IP, permitiendo que ambas versiones convivan al mismo tiempo y/o independientemente. Por tal motivo la IETF ha definido una serie de mecanismos para hacer una suave transición donde convivan por un largo tiempo ambos protocolos. El presente trabajo ayudará al lector a lograr una transición controlada hacia el nuevo protocolo. El objetivo del presente trabajo fue realizar un Análisis, Evaluación y Comparación de Métodos de Transición del protocolo IPv4 al protocolo IPv6. Las comparaciones se hicieron usando un Test Bed llamado CODAREC6, permitiendo colaborar en el lento, pero inexorable camino hacia la internet sobre IPv6.
309

Metodologías para el descubrimiento de conocimiento en bases de datos: un estudio comparativo

Moine, Juan Miguel 23 September 2013 (has links)
Para llevar a cabo en forma sistemática el proceso de descubrimiento de conocimiento en bases de datos, conocido como minería de datos, es necesaria la implementación de una metodología. Actualmente las metodologías para minería de datos se encuentran en etapas tempranas de madurez, aunque algunas como CRISP-DM ya están siendo utilizadas exitosamente por los equipos de trabajo para la gestión de sus proyectos. En este trabajo se establece un análisis comparativo entre las metodologías de minería de datos más difundidas en la actualidad. Para lograr dicha tarea, y como aporte de esta tesis, se ha propuesto un marco comparativo que explicita las características que se deberían tener en cuenta al momento de efectuar esta confrontación.
310

Estimación temprana de proyectos de software mediante Léxico Extendido del Lenguaje y Puntos de Caso de Uso

Vido, Alan 11 June 2015 (has links)
Actualmente existe un gran número de técnicas y herramientas para realizar estimaciones en los procesos de software, pero muchas de ellas requieren de gran volumen de información del proyecto que se está analizando, dificultando una estimación temprana del esfuerzo requerido para desarrollar dicho proyecto. Aquellos analistas que trabajan con el Léxico Extendido del Lenguaje, al contar con este modelo en etapas tempranas del software, pueden inferir ciertas características del proyecto, como pueden ser los Casos de Uso, las clases y entidades de base de datos que formaran parte del diseño del proyecto. Por otro lado, existen técnicas de estimación de esfuerzo ampliamente utilizadas y estandarizadas que se valen de estas características, como por ejemplo Puntos Caso de Uso, pero que en una etapa temprana de elicitación de requerimientos no son aplicables por falta de información. Este trabajo pretende brindar a los usuarios que utilizan Léxico Extendido del Lenguaje en su proceso de elicitación de requerimientos, una herramienta que, a partir de la información recabada en las etapas tempranas de dicho proceso, proporcione una estimación del esfuerzo necesario para realizar el proyecto, basada en un método ampliamente utilizado y estandarizado.

Page generated in 0.0703 seconds