• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 618
  • 311
  • 65
  • 59
  • 41
  • 21
  • 17
  • 15
  • 8
  • 7
  • 7
  • 6
  • 6
  • 6
  • 5
  • Tagged with
  • 1376
  • 1376
  • 582
  • 416
  • 306
  • 263
  • 226
  • 225
  • 169
  • 163
  • 133
  • 126
  • 124
  • 118
  • 117
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

Coordination infrastructure in collaborative systems

Edwards, W. Keith 12 1900 (has links)
No description available.
212

Evaluation and realization of modeling alternatives : supporting derivation and enhancement

Astudillo R., Hernan January 1996 (has links)
No description available.
213

An object infrastructure for high-performance interactive applications

Eisenhauer, Greg Stephen January 1998 (has links)
No description available.
214

Techniques and tools for implementing and testing robust object-oriented software

D'Souza, Rosario J. 05 1900 (has links)
No description available.
215

Engaging girls in the use of technology : codifying software design characteristics that address girls' needs

Suddath, Suzanne Virginia 05 1900 (has links)
No description available.
216

Diseño de un Simulador Dinámico de Proyectos de Desarrollo de Software que utilizan metodología Scrum

Godoy, Diego Alberto January 2015 (has links)
En este trabajo de tesis se propone el diseño de un modelo de simulación del proceso de desarrollo de software que utiliza la Metodología de desarrollo Ágil Scrum. Se ha realizado un análisis de la metodología Scrum, la Metodología de Dinámica de Sistemas y de trabajos similares, correspondientes a simuladores de desarrollo de proyectos de software tanto de metodologías ágiles como tradicionales. El modelo se ha construido utilizando la metodología de dinámica de sistemas propuesta por Jay Forrester , que consta de la fase de Conceptualización, Formulación y Evaluación. El modelo diseñado se ha divido en los siguientes Subsistemas: Planificación, Producción, Desarrollo de Tareas, Pruebas de Desarrollo, Pruebas de Integración, Presión en el Plazo, Desarrollo de Tareas Extras, Promociones de R.H., Experiencia de R.H., Cansancio de R.H., Horas Trabajadas de R.H., Inasistencias de R.H. Para la implementación del modelo se utilizado la herramienta Vensim PLE en versión educativa. Para la validación del modelo se han utilizado tres casos de proyectos reales de software que siguieron la metodología Scrum. Dentro de los parámetros que se pueden establecer previo al inicio de cada simulación se encuentran: la duración y la velocidad de cada Sprint, la velocidad estimada de desarrollo de las tareas, Factores de Cansancio, de Presión en el plazo, Cantidad de integrantes del Team según su experiencia en la metodología y las tareas extras que se prevén puedan surgir. A través de la modificación de valores de los parámetros durante su ejecución el usuario puede establecer o modificar la cantidad de integrantes del Team que abandonan el proyecto, clasificar al Team mediante la asociación de estos a su experiencia en Scrum en Juniors o Expertos, cambiar la cantidad de horas estimadas de duración del proyecto, generar horas extras e inasistencia de los integrantes de manera determinística o pseudoaleatoria, entre otros. Una vez validado el modelo se propusieron cuatro casos de experimentación, los cuales se sometieron a distintas políticas para probar las posibilidades del modelo construido frente a situaciones que se dan en los proyectos de software que utilizan Scrum para su gestión. Las políticas propuestas, simulan decisiones de los Scrum Master y el team y tienden a que los proyectos puedan completarse en el tiempo previamente estimado o por el contrario extender el tiempo para terminar con todas las tareas minimizando los errores. Otro aspecto estudiado en los experimentos es el de la gestión de los recursos humanos, en cuanto a la contratación y promoción de miembros del Team, Senior y Junior. Estos modelos fueron probados en orden creciente de dificultad y utilización de la mayor cantidad de variables intervienes. Como conclusión se pude decir que el modelo cumple con su objetivo de ser de utilidad para el Scrum Master y el Team a la hora analizar el efecto del uso conjunto de la metodología Scrum en proyectos de desarrollo de software. Lo que diferencia a este trabajo de otros relacionados es que se han modelado las características esenciales de la metodología Scrum aplicada a proyectos de desarrollo de software. La dificultad de contar con datos posmortem de proyectos de software desarrollados siguiendo scrum es una dificultad que se ha presentado a la hora de validar el modelo. Es por ello que como trabajos futuros se propone el diseño de una base de datos de proyectos de desarrollo de software que utilicen metodologías ágiles. Por otro lado se pretende que el modelo construido pueda ser utilizado para el entrenamiento de Scrum Masters y Miembros del Team, en la estimación y gestión de proyectos que utilicen Scrum como Metodología.
217

Applying design metrics to large-scale telecommunications software

Pipkin, Jeffrey A. January 1996 (has links)
The design metrics developed by the Design Metrics team at Ball State University are a suite of metrics that can be applied during the design phase of software development. The benefit of the metrics lies in the fact that the metrics can be applied early in the software development cycle. The suite includes the external design metric De,the internal design metric D27 D(G), the design balance metric DB, and the design connectivity metric DC.The suite of design metrics have been applied to large-scale industrial software as well as student projects. Bell Communications Research of New Jersey has made available a software system that can be used to apply design metrics to large-scale telecommunications software. This thesis presents the suite of design metrics and attempts to determine if the characteristics of telecommunications software are accurately reflected in the conventions used to compute the metrics. / Department of Computer Science
218

Using the Design Metrics Analyzer to improve software quality

Wilburn, Cathy A. January 1994 (has links)
Effective software engineering techniques are needed to increase the reliability of software systems, to increase the productivity of development teams, and to reduce the costs of software development. Companies search for an effective software engineering process as they strive to reach higher process maturity levels and produce better software. To aid in this quest for better methods of software engineering. the Design Metrics Research Team at Ball State University has analyzed university and industry software to be able to detect error-prone modules. The research team has developed, tested and validated their design metrics and found them to be highly successful. These metrics were typically collected and calculated by hand. So that these metrics can be collected more consistently, more accurately and faster, the Design Metrics Analyzer for Ada (DMA) was created. The DMA collects metrics from the files submitted based on a subprogram level. The metrics results are then analyzed to yield a list of stress points, which are modules that are considered to be error-prone or difficult for developers. This thesis describes the Design Metrics Analyzer, explains its output and how it functions. Also, ways that the DMA can be used in the software development life cycle are discussed. / Department of Computer Science
219

Error and occurrence analysis of Stanfins redesign at Computer Sciences Corporation

Khan, Irshad A. January 1990 (has links)
At Ball State University Dr. Wayne Zage and Professor Dolores Zage are working on a Design metrics project to develop a metrics approach for analyzing software design.The purpose of this thesis is to test the hypotheses of this metric by calculating the De external design component, and to show the correlation of errors and stress points in the design phase for a large Ada Software, professionally developed at Computer Sciences Corporation.From these studies we can relatively conclude that De does indicate the error-prone module. Since the D(G) is comprised of an internal and external component it is necessary to evaluate Di to support this hypothesis on a large project. Just by viewing the external complexity, the metric does a relatively good job of pointing out high error modules, with only viewing 10% of the modules we found 33% of the errors.Comparing the results of STANFINS-R and the results of the BSU projects, the BSU projects did better in finding the errors 33% verus 53%. However in the STANFINS project, we had a better success rate of finding the error modules. Of the modules highlighted 72% did contain errors. Thus if we loosened the criteria for selection of error prone modules we might have had a large percentage of the errors captured. / Department of Computer Science
220

Track Changes: Identity in Version Control

Zukowski, Mateusz 07 July 2014 (has links)
The growing sophistication of version control systems, a class of tools employed in tracking and managing changes to documents, has had a transformative impact on the practice of programming. In recent years great strides have been made to improve these systems, but certain stubborn difficulties remain. For example, merging of concurrently introduced changes continues to be a labour-intensive and error-prone process. This thesis examines these difficulties by way of a critique of the conceptual framework underlying modern version control systems, arguing that many of their shortcomings are related to certain long-standing, open problems around identity. The research presented here casts light on how the challenges faced by users and designers of version control systems can be understood in those terms, ultimately arguing that future progress may benefit from a better understanding of the role of identity, representation, reference, and meaning in these systems and in computing in general.

Page generated in 0.107 seconds