• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7537
  • 5170
  • 1355
  • 678
  • 657
  • 587
  • 436
  • 370
  • 206
  • 103
  • 92
  • 92
  • 92
  • 87
  • 75
  • Tagged with
  • 21224
  • 7164
  • 5837
  • 2353
  • 2064
  • 2051
  • 1984
  • 1930
  • 1740
  • 1679
  • 1476
  • 1246
  • 1179
  • 1135
  • 1134
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
311

Reuso sistematizado de software e linhas de produto de software no setor financeiro: estudos de caso no Brasil. / Sem título

Sheila dos Santos Reinehr 19 March 2008 (has links)
A engenharia de software tem buscado, nas últimas décadas, assemelhar-se a outras disciplinas de engenharia, introduzindo métodos, técnicas e ferramentas que possibilitem a melhoria da produtividade e qualidade no desenvolvimento de software em ordem de grandeza similar à alcançada pela indústria de manufatura. Uma das abordagens mais bem sucedidas neste sentido tem sido o emprego das práticas de reuso sistematizado de software, como o desenvolvimento baseado em componentes e, em especial, as linhas de produtos de software ou engenharia de família de produtos. No Brasil, um dos segmentos que mais produz e consome software é o setor financeiro, uma vez que todos os seus produtos e serviços são entregues através da tecnologia da informação. Por este motivo, torna-se fundamental a compreensão de como acontecem os processos de reuso de software neste segmento e como estes contribuem para o sucesso dos projetos. Esta pesquisa apresenta o mapeamento do cenário de reuso de software no setor financeiro no Brasil, baseado em estudos de caso conduzidos em cinco, dos dez maiores bancos instalados no país. / During last decades, Software Engineering has been aiming at be more disciplined as other engineering disciplines, by introducing methods, techniques and tools that provide productivity and quality improvement in the same levels reached by manufacturing industries. One of the most successful approaches towards this goal has been the use of systematic software reuse practices, such as component based development and, specially, software product lines or product family engineering. In Brazil, one of the most active sectors in consuming and producing software products is the financial sector, once all of its products and services are delivered through Information Technology. This is the reason why is so important to understand how software reuse processes occurs in this sector and how do they contribute to projects success. This research presents scenario of software reuse in the financial sector in Brazil, based on case research conducted in five of the ten largest banks installed in the country.
312

Estimativa da produtividade no desenvolvimento de software

Haufe, Maria Isabel January 2001 (has links)
Este trabalho apresenta uma ferramenta para gerenciamento de projetos, priorizando as fases de planejamento e o controle do desenvolvimento de software. Ao efetuar o planejamento de um projeto é necessário estimar o prazo, o custo e o esforço necessário, aplicando técnicas já aprovadas, existentes na literatura, tais como: Estimativa do Esforço, Estimativa de Putnam, Modelo COCOMO, Análise de Pontos por Função, Pontos de Particularidade e PSP. É necessária a utilização de uma ferramenta que automatizem o processo de estimativa. Hoje no mercado, encontram-se várias ferramentas de estimativas, tais como: ESTIMACS, SLIM, SPQR/20, ESTIMATE Professional. O controle do desenvolvimento do projeto está relacionado ao acompanhamento do projeto, do profissional e da própria estimativa de custo e esforço de desenvolvimento. Nenhuma das ferramentas estudadas permitiu o controle do projeto por parte da gerência, por isto esta se propondo o desenvolvimento uma nova ferramenta que permita o planejamento e controle do processo de desenvolvimento. Esta ferramenta deve permitir a comparação entre as diversas técnicas de estimativas, desde que baseadas na mesma medida de tamanho: pontos por função. Para exemplificar o uso desta ferramenta, foram aplicados dois estudos de casos desenvolvidos pela empresa Newsoft Consultoria de Informática.
313

Uma contribuição para a melhoria colaborativa e distribuída de processos de software / A contribution to a collaborative and distributed software processes improvement

Viviane Dias Malheiros de Pinho 01 June 2010 (has links)
A área de melhoria de processos de software (MPS) tem sido investigada sistematicamente, dadas as evidências de que a qualidade do processo pode influenciar significativamente na qualidade do produto final. Modelos e guias com boas práticas para a MPS têm sido sintetizados. Ainda assim, a literatura carece de trabalhos que estabeleçam estratégias de como implementar as boas práticas sugeridas por tais modelos e guias na indústria. Em paralelo, o desenvolvimento distribuído de software (DDS) tornou-se uma realidade, aumentando a complexidade e a importância do processo de desenvolvimento de software e demandando estratégias que permitam uma MPS também distribuída. O objetivo deste trabalho é investigar estratégias e mecanismos que possam promover uma MPS distribuída e colaborativa. A ColabSPI, uma estratégia colaborativa e distribuída para MPS, é proposta para apoiar a evolução estruturada do processo; o tratamento de propostas de melhorias de processo; e a comunicação e participação dos desenvolvedores na MPS. Durante a investigação, fatores que podem influenciar a MPS foram identificados e a relação entre eles foi mapeada, tanto a partir da literatura quanto a partir de um estudo em campo. Dois contextos foram explorados durante a investigação: (i) a MPS em uma organização de grande porte, com unidades distribuídas; e (ii) a MPS no desenvolvimento de software livre (SL). Contribuições para a MPS no desenvolvimento de SL foram geradas no contexto do projeto internacional Qualipso, com a co-autoria do Qualipso Open Source Maturity Model (OMM) e a adequação de ColabSPI para evoluir o OMM. Em ambiente industrial, estudos experimentais foram conduzidos para validar a aplicação de ColabSPI e revelaram que algumas práticas do desenvolvimento de software, inclusive do DDS e do desenvolvimento de SL, podem ser aplicadas com sucesso à MPS, trazendo ganhos de eficácia e eficiência para a melhoria de um processo de desenvolvimento de software. A estratégia proposta está sendo base também para a definição do ambiente de MPS do processo Demoiselle, um processo livre para desenvolvimento de software / Software Process Improvement (SPI) has become an active research field, given the evidences that the quality of software processes can significantly influence the final product quality. Therefore, SPI models and guides have been disclosed. Still, there is a lack of studies establishing strategies on how to implement SPI models\' best practices. Meanwhile, distributed software development (DSD) is becoming widespread, increasing the complexity and importance of software processes and demanding distributed SPI strategies. This study aims to investigate strategies and mechanisms to promote a distributed and collaborative SPI. ColabSPI, a collaborative and distributed approach to SPI is proposed to supporting process evolution, handling process improvement proposals, and promoting the developers participation in SPI and communication. Accordingly, during the investigation possible influences to SPI programs were explored and the relationship between them has been mapped, both from the literature and from a field study. SPI was investigated in two contexts: (i) a large organization, counting on distributed development units; and (ii) the FLOSS development environment. Contributions to SPI in the FLOSS development environment took place in the international project Qualipso resulting on a ColabSPI customization to evolve the Qualipso Open Source Maturity Model (OMM) and in the co-authoring of the model. In industrial environment, experimental studies were conducted to validate ColabSPI, revealing that some of the software development practices, including DSD and FLOSS practices, can be successfully applied to SPI and yield a more efficient and effective improvement of the software development process. ColabSPI features are also being considered to the definition of a SPI environment to the Demoiselle process, an open process for software development
314

CosmosLoader : uma ferramenta de apoio ao gerenciamento de configuração baseado no modelo Cosmos* / CosmosLoader : a support framework for configuration management based on the Cosmos* model

Gayard, Leonel Aguilar, 1983- 23 August 2018 (has links)
Orientador: Cecília Mary Fischer Rubira / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-23T21:56:13Z (GMT). No. of bitstreams: 1 Gayard_LeonelAguilar_M.pdf: 1532057 bytes, checksum: 8324b0d9bd3eebedc13daca6f31c7c6b (MD5) Previous issue date: 2013 / Resumo: Nos últimos anos, o desenvolvimento baseado em componentes (DBC) e a arquitetura de software emergiram como disciplinas complementares para promover o reuso no desenvolvimento de software. O desenvolvimento baseado em componentes promove o desenvolvimento de componentes reutilizáveis e a formação de novos sistemas de software a partir da integração de componentes existentes. A arquitetura de um sistema de software descreve o sistema em termos de seus componentes arquiteturais, das propriedades destes e das conexões entre eles. Modelos de componentes possibilitam concretizar elementos de DBC como componentes e conectores a partir de conceitos tradicionais de desenvolvimento de software, como por exemplo, orientação a objetos e arquivos, de modo que um conjunto de classes e arquivos complementares podem formar um componente se seguirem as regras do modelo. A adequação a um modelo de componentes oferece benefícios para o sistema de software: por exemplo, o modelo de componentes EJB possibilita que um componente seja implantado em um contêiner e se beneficie do gerenciamento de segurança e transparência de localização oferecidos pelo contêiner; o modelo Cosmos estabelece regras para a criação de componentes baseados em conceitos de linguagens orientadas a objetos, como classes, interfaces e pacotes. Assim, a integração de componentes para a composição de um sistema de software de acordo com uma arquitetura e um modelo de componentes se torna uma atividade importante no desenvolvimento de um novo sistema de software. Uma configuração concreta é um conjunto de determinadas versões de componentes de software conectados de acordo com uma arquitetura. No entanto, observa-se que, se modelos facilitam a criação de componentes de software, ainda é necessário um esforço de desenvolvimento para integrar componentes e formar novos sistemas. O uso de ambientes de desenvolvimento orientados a arquitetura e DBC, e também de ferramentas de automatização, reduzem o esforço necessário para a integração de componentes. O ambiente Bellatrix é um ambiente de desenvolvimento integrado que permite a especificação de elementos arquiteturais e a modelagem de arquiteturas de software. No entanto, ainda existe um hiato entre a arquitetura de um sistema modelada no ambiente Bellatrix e a configuração do sistema a partir de componentes concretos. Esta dissertação apresenta a ferramenta CosmosLoader, que auxilia o gerenciamento de configurações de componentes baseados no modelo Cosmos. A solução proposta se baseia na extensão do ambiente Bellatrix e no modelo de componentes Cosmos* ("Cosmos estrela"), que estende o modelo Cosmos com o conceito de composição hierárquica de componentes. Por fim, são descritos estudos de caso realizados com essas ferramentas / Abstract: In the last years, Component-Based Development (CBD) and Software Architecture emerged as complementary disciplines that promote reuse in software development. Component-Based Development promotes the development of reusable software components and the creation of new software systems by integrating existing software components. The architecture of a software system describes such system in terms of its architectural components, their properties and the connections between them. Component models materialize concepts from CBD such as components and connectors from traditional concepts of software development, such as object orientation and files, so that a set of classes and complementary files form a component if they follow the component model's rules. The adequacy to a component model brings benefits to a software system: for instance, the EJB component model allows a component to be deployed to a container and benefit from the security management and location transparency provided by the container; the Cosmos component model allows the creation of components using only concepts from object-oriented languages, such as classes, interfaces and packages. Therefore, the integration of components to compose a new software system according to an architecture and a component model becomes an important activity in the development of a new software system. A concrete configuration is the set of specific versions of software components connected according to an architecture. However, it can be observed that while models ease the creation of software components, a development effort is still necessary to integrate components and form new systems. The use of development environments oriented towards architecture and CBD, and also of automations tools, reduce the effort needed to integrate components. The Bellatrix development environment is an integrated development environment that allows the specification of architectural elements and modeling of software architectures. However, there still is a gap between the architecture of a system modeled in Bellatrix and the configuration of a system from concrete software components. This dissertation presents the CosmosLoader tool, which assists in managing the configuration of components based on the Cosmos model. The proposed solution is based on an extension to the Bellatrix development environment and on the Cosmos* component model ("Cosmos star"), which extends the Cosmos component model with hierarchical composition of components. Finally, case studies using these tools are described / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
315

Uma ferramenta baseada em hipertexto para o desenvolvimento de software

Polanczyk, Carlos Alexandre 22 January 1991 (has links)
Orientador: Rogerio Drummond Burnier Pessoa de Mello Filho / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Ciencias da Computação / Made available in DSpace on 2018-07-13T23:24:56Z (GMT). No. of bitstreams: 1 Polanczyk_CarlosAlexandre_M.pdf: 2413653 bytes, checksum: 324baa5204e9b23bcdc396aa43b2bfde (MD5) Previous issue date: 1991 / Resumo: Programas grandes e complexos devem ser organizados como uma hierarquia de módulos. Desta forma a manipulação destes módulos fica facilitada, pois cada módulo tem a função de abstrair os detalhes de sua implementação, e dos outros módulos dos quais depende. Macroscopicamente, um programa é um grafo orientado com raiz onde cada vértice representa um módulo e cada aresta uma dependência entre dois módulos. A documentação terá uma estrutura análoga e isomorfa ao do grafo do programa. O mesmo ocorrendo com a sua especificação. Portanto, tornase necessárias ferramentas que manipulem estes grafos. É fácil verificar que estes grafos podem ser vistos como hipertextos, ou seja, um texto hierarquicamente estruturado. Este trabalho apresenta uma ferramenta para. manipular programas como objetos hierárquicos. Ela é baseada em hipertexto e sua funcionabilidade é geral o suficiente a outras aplicações que não seja programação. Para alcançar tal generalidade, todo e qualquer arquivo ASCII é um hipertexto. O sistema desenvolvido é independente de terminal e facilmente portável para outro; sistemas compatíveis com Unix4. Já está. adaptado para Digix, Clix e SunOS. Estes sistemas são derivados de versões bastante diferentes do Unix: System III, System V 3.2 e BSD 4,2, respectivamente. / Abstract: Large and complex programs should be organized as a module hierarchy. In this way, the handling of modules becomes easy, because each module has the function of hiding its detail of implementation and from others modules it depends upon. Macroscopicly, a program is a rooted oriented graph where each vertice represents a module and each edge represents dependence between two modules. The documentation will have as analogous and isomorphic structure. The same happens to the specification. 80, it becomes necessary a tool to handle this graph. It is easy to check that this graph can be viewed as hypertexts, it est, a structured hierarchy text. This work presents a tool for handling programs as a hierarchy objects. It is based on hypertext and its functionality is enough general to others aplications th.an programation. To achieve this generality, even a plain ASCII file is a hypertext. The system is device independent and easy to port to any other Unixlike systems. At present, it is already working on Digix, Clix and SunOS. These systems were derivated from deferent's versions of Unix: System III, System V3.2 and BSD 4.2. / Mestrado / Mestre em Ciência da Computação
316

Aplicação de analise de mutantes a geração de dados de teste para detecção de vulnerabilidade do tipo Buffer Overflow / Application of mutation analysis to the generation of test data to detect buffer overflow vulnerability

Guidetti, Suseley Aparecida 23 February 2005 (has links)
Orientadores: Mario Jino, Plinio Roberto Souza Vilela / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-04T02:43:07Z (GMT). No. of bitstreams: 1 Guidetti_SuseleyAparecida_M.pdf: 1642127 bytes, checksum: 4a844d1875b1f47b619109f2968fc7c5 (MD5) Previous issue date: 2005 / Resumo: O crescimento acentuado da Internet e a conseqüente demanda por novos serviços levam ao desenvolvimento de aplicações cada vez mais complexas. Devido a esta complexidade e às pressões para o cumprimento de cronogramas cada vez mais restritivos, muitas vezes a segurança desses sistemas acaba sendo negligenciada, originando aplicações com mais vulnerabilidades e portanto sujeitas a um maior número de ataques. Um dos ataques mais freqüentes é o do tipo buffer overflow. Permite que um atacante insira códigos maliciosos em um programa, alterando seu fluxo de controle original, com o objetivo de conseguir acesso a um sistema ou aumentar seus privilégios. Neste trabalho foi utilizada a técnica denominada Teste de Vulnerabilidade de Segurança proposta para detectar vulnerabilidade do tipo buffer overflow no software por meio da aplicação do Teste de Mutação. Uma ferramenta chamada SEVMUT - Security Vulnerabilities Mutation Tool foi desenvolvida e sua aplicabilidade, escalabilidade e eficácia foram validadas / Abstract: The steep growth of the Internet and the associated demand for new products and services leads to the development of applications of increasing complexity. Due to this complexity and the pressure to meet squeezing schedules, security issues are left as an afterthought, increasing the number of vulnerabilities in the systems and making them susceptible to attacks. One of the most frequent attacks is the buffer overflow. It allows a hacker to insert malicious code in a program, changing its original flow of control with the goal of escalating privileges and gaining access into de system. In this work we present a technique called Testing for Security Vulnerabilities meant to detect buffer overflow vulnerabilities in software through the use of Mutation Testing. A tool called SEVMUT - Security Vulnerabilities Mutation Tool was developed and validated for its applicability, scalability and effectiveness / Mestrado / Engenharia de Computação / Mestre em Engenharia Elétrica
317

Interoperabilidade de metadados em aplicações distribuidas : desenvolvimento de ferramentas para validação de metamodelos

Damasceno, Luciano Lança 24 February 2005 (has links)
Orientador: Manuel de Jesus Mendes / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia eletrica e de Computação / Made available in DSpace on 2018-08-04T07:59:18Z (GMT). No. of bitstreams: 1 Damasceno_LucianoLanca_M.pdf: 3606058 bytes, checksum: 6c7876317b16dec5e767a2941f0c8211 (MD5) Previous issue date: 2005 / Resumo: A popularização da Internet criou expectativas e promessas quanto ao uso mais inteligente dos dados disponíveis, culminando na necessidade de interoperabilidade entre aplicações. O uso de padrões de metadados comuns, descrevendo a semântica dos sistemas e suas capacidades possibilitaram a interoperabilidade entre sistemas de informações distribuídos. No entanto, a incompatibilidade entre metamodelos exige uma arquitetura de metadados que suporte esta diversidade. Meta-Object Facility (MOF) é um padrão aberto, suportando e definindo diferentes tipos de metamodelos. Um formato comum de intercâmbio de metadados independente de middleware era necessário, XML Metadata Interchange (XMI) foi especificado como resposta a esta necessidade. Esta dissertação apresenta um sistema de repositório de metadados e metamodelos baseados em MOF, possuindo ferramentas de suporte para validação dos metadados intercambiados através de XMI e visualização de metadados e metamodelos MOF. Com o objetivo de validar o sistema, o resultado deste trabalho foi aplicado em uma iniciativa de governo eletrônico. Ambientes de tecnologia de informação governamentais se destacam pela heterogeneidade, complexidade e pela forte presença de soluções adaptadas para as diferentes unidades administrativas / Abstract: The increase of Internet popularity creates hopes and promises as the use of available data becomes more intelligent, culminating in the need of interoperability among applications. The use of common metadata standards, describing the semantics and capabilities of the systems, enables interoperability of distributed information systems. However, metamodels incompatibility demands a metadata architecture that supports this diversity. Meta Object Facility (MOF) is an open standard, supporting and defining different kinds of metamodels. Furthermore, it was necessary a common metadata interchange format independent of middleware. XMI was specified as an answer to this need. This dissertation presents a MOF metadata repository system, having support tools to validate the interchanged metadata and to visualize the stored metamodels and metadata. In order to validate the system; the result of this work was applied in an electronic government initiative. Information technology of governmental environments is cleared by the heterogeneity, complexity, and strong presence of the adjusted solutions to the different administrative units / Mestrado / Engenharia de Computação / Mestre em Engenharia Elétrica
318

Um estudo sobre a relevancia de boas praticas de engenharia de requisitos

Polcelli, Andreza 14 February 2005 (has links)
Orientador: Mario Lucio Cortes / Dissertação (mestrado profissional) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-04T12:42:02Z (GMT). No. of bitstreams: 1 Polcelli_Andreza_M.pdf: 7061387 bytes, checksum: 413bdf0c28b71d93a8853e6c3e29d409 (MD5) Previous issue date: 2005 / Resumo: A engenharia de requisitos descreve atividades fundamentais no processo de produção de sistemas de software. Os requisitos são o alicerce sob o qual são implementadas as fases do desenvolvimento de software. Ao longo das fases do ciclo de vida do software, a importância de ter requisitos bem definidos e controlados é bem maior do que nas fases anteriores. Um problema nos requisitos inseridos na fase de requisitos pode introduzir outros problemas nas fases seguintes, gerando problemas no software e aumentando o retrabalho, custo, prazo e esforço do projeto de software e também aumentando a insatisfação do cliente. Vários modelos de qualidade de software e normas apresentam um conjunto de boas práticas em engenharia de requisitos que podem ser usadas pelas organizações para enfrentar esses problemas. Este trabalho examina a ocorrência dessas práticas nas normas e modelos e as correlaciona, e estuda a relevância do uso dessas boas práticas de requisitos em projetos de software reais. O estudo experimental mostrou que grande parte (de 31% a 55%) dos problemas encontrados em software são conseqüências de deficiências nos requisitos. Assim, confirma dados da literatura que mostram que as deficiências nas práticas de requisitos propagam problemas para as fases seguintes do processo de desenvolvimento, aumentando o custo e prazo de projetos de software e também são a maior causa dos problemas encontrados nos sistemas de software. O estudo experimental mostrou que há correlação entre o uso de boas práticas de requisitos e a ocorrência desses problemas de software. Entretanto, não foi possível obter uma correlação significativa entre a ocorrências de problemas e o efeito disso sobre o desempenho dos projetos de software. Embora a porcentagem de ocorrências de problemas, contabilizada em cada uma das práticas de requisitos, seja diferente, não se observou prevalência significativa na importância entre as práticas de requisitos. As boas práticas e o resultado mostrado por este estudo experimental, aliado à experiência no dia a dia de trabalho com requisitos de sistema de software, permitiram apresentar algumas recomendações que podem agregar valor na implementação das práticas definidas nos modelos e normas de qualidade / Abstract: Requirements engineering describes the fundamentais activities in software systems production processes. Requirements are the foundation under which phases of the software development are implemented. Throughout the phases of the software fife cycle, the importance of having well defined and controlled requirements is much larger than in the prior phases. A requirements problem inserted in the requirements phase can introduce other problems in the following phases, causing software problems and increasing rework, costs, schedule slippage and effort of the software project, and also reducing customer satisfaction. Several software quality models and standards present best practices in requirements engineering that can be used by organizations to address these problems. This dissertation examines the occurrence of these requirements practices in some models and quality standards, correlates them and studies the relevance of the use of these best practices in real software projects. The experimental study showed that significant part (from 31% to 55%) of problems found in software is consequence of requirement problems. This confirms literature information that indicates that the deficiencies in requirements practices propagate problems to the following phases in the development process, having adverse effect on project cost and schedule, and also are the main reason of problems found in software systems. The experimental study has showed that the use of best practices is related to software problems occurrences. However, a significant correlation between the problems occurrences and the effect of this on the performance of the software projects was not found. Although the percentages of software problems occurrences, accounted in each one of the requirements practices, are different, it was not observed significant prevalence in the importance of the requirements practices. The best practices and the results presented in this experimental study, associated to the day by day job experience with software requirements, allowed to present some recommendations that can aggregate value in the implementation of the practices defined in the models and quality standards / Mestrado / Engenharia de Software / Mestre em Computação
319

La utilización de software libre y estándares abiertos en la construcción del gobierno electrónico

Salas Ruiz, José Francisco January 2007 (has links)
En esta investigación mostramos cómo la utilización de software libre y estándares abiertos son una necesidad social, por lo que deberían considerarse como herramientas básicas que bien podrían estar incluidos de manera prioritaria dentro de las estrategias del gobierno electrónico. Así, mientras el software privativo utiliza una serie de protecciones jurídicas y tecnológicas, el software libre brinda al usuario garantías y esquemas de libertad que tienen connotaciones sociales que no pueden ignorarse. Dejamos de manifiesto la necesidad de romper con los monopolios en materia de software privativo, y que se procure buscar alternativas en los programas de uso frecuente, tanto por razones económicas como de crecimiento y mejoramiento de ellos. Por ello, se muestra cómo la utilización del software libre es una necesidad para el sostenimiento y desarrollo futuro del gobierno electrónico, no sólo desde el punto de vista técnico, sino también desde una perspectiva económica y de permanencia en el tiempo de la información pública. Esta situación no se soluciona con programas privativos ni formatos cerrados, pues éstos son una limitación importante para las posibilidades de acceso e intercambio de información con los ciudadanos o con otras instituciones. También se verá cómo es posible que la relación entre el Estado y los ciudadanos pueda verse mejorada significativamente cuando muchos de los servicios que debe prestar la Administración puedan ser accedidos mediante sistemas remotos, utilizando el software libre para luchar contra la brecha digital y la denominada piratería informática, y promover un verdadero acercamiento del sector civil a los servicios públicos automatizados, todo lo cual debería ser parte de los grandes objetivos del gobierno electrónico. Con ello se respalda y justifica la emisión de una política pública que permita expresamente y estimule la utilización del software libre y estándares abiertos dentro del sector público, que debe incluir la obligación estatal de brindar al ciudadano información sobre la existencia de otras alternativas que sean igualmente asequibles para todos.
320

Funksionele benadering tot rekenaargesteunde programmatuuringenieurswese

Toerien, Nelie 17 March 2015 (has links)
M.Sc. (Computer Science) / Since the late 1980's CASE ("Computer-Aided Software Engineering") is a common concept in the world of information technology. Nevertheless, many people in the information technology environment do not know what CASE is, or have different concepts about CASE. The author also found a variety of definitions for CASE in literature. This variety of concepts and definitions was the first problem the author investigated. Although many people know about CASE, companies are slow in adopting CASE and the tools are not used to their full potential. This was the second problem the author investigated. To address these problems, the research is divided in two logical parts. The author initiated this study with literature research regarding CASE in which the above mentioned problems were identified. The author found the solution to the first problem in literature and by attending CASE conferences. Guidelines to help with the second problem was derived from bits and pieces of information found in literature regarding the installation and use of CASE tools. It was also derived from practical experience during the last six months of study at a company busy with the installation of a CASE tool. To address the first problem, the different aspects surrounding CASE was investigated. The author tried to provide answers to the following questions: What is CASE? What is the logical components and functions of CASE? How can CASE be classified? CASE and integration - what is the difference between CASE, I-CASE and IPSE? Where does CASE fit in the software environment? In the last chapter of this first part, AD/Cycle from IBM (ISM in South Africa) is discussed as an industry standard for the CASE environment. To address the second problem, the author proposed a methodology covering the initiation phase to the maintenance phase of the implementation of CASE tools in a company. The methodology consists of four phases, namely, initiation, evaluation and selection, installation and training, and maintenance. In the initiation phase, the use of CASE tools to solve system development problems like the system backlog, bad productivity and poor system quality, are initiated. In the evaluation and selection phase, the different vendors and products on the market are evaluated against the needs of the company. The product which was the best suited for those needs was selected and acquired. In the installation and training phase, that product was installed in the information technology environment ...

Page generated in 0.0498 seconds