• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7534
  • 5170
  • 1353
  • 678
  • 657
  • 587
  • 436
  • 370
  • 206
  • 103
  • 92
  • 92
  • 92
  • 87
  • 75
  • Tagged with
  • 21218
  • 7162
  • 5834
  • 2352
  • 2064
  • 2051
  • 1984
  • 1930
  • 1740
  • 1678
  • 1476
  • 1246
  • 1179
  • 1135
  • 1134
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
721

Software interactivo controlado por un sistema electromiográfico para mejorar la comunicación en pacientes con parálisis cerebral infantil en el Hogar Clínica San Juan de Dios

Flores Celis, Diana Katherine January 2015 (has links)
Actualmente, un 15% de las personas discapacitadas son excluidas de la vida social y cuentan con un déficit en su calidad de vida. 0,25% de estos niños padecen Parálisis Cerebral Infantil, cuyas características principales son la dificultad en el habla y limitación motora. En el área de Hospitalización de la Clínica, se cuentan con 25 pacientes habiendo una clara diferencia respecto al número de enfermeras encargadas, el tiempo dedicado a la terapia del lenguaje es mínimo y no se cuentan con herramientas adecuadas para reforzar el mismo. El presente proyecto tiene como objetivo mejorar la capacidad de comunicación de los pacientes con parálisis cerebral infantil, para ello se implementó un Software Interactivo utilizando un Sistema de Electromiografía Superficial, el cual capta las señales eléctricas de 3 movimientos básicos de la mano, con los cuales se controlará el puntero y poder navegar por el Software; para el desarrollo de este se utilizó la metodología MPIU+a. Como resultado se obtuvo una herramienta de comunicación accesible y posible de usar por los pacientes, aumentando el tiempo de reforzamiento de las terapias de lenguaje y además se logró aumentar el Índice de Barthel, indicador del grado de independencia. / Tesis
722

Semantic refactorings

Kesseli, Pascal January 2017 (has links)
Refactorings are structured changes to existing software that leave its externally observable behaviour unchanged. The intent is to improve readability, performance or other non-behavioural properties of a program. Agile software engineering processes stress the importance of refactoring to keep program code extensible and maintainable. Despite their apparent benefits, manual refactorings are time-consuming and prone to introducing unintended side effects. Research efforts seek to support and automate refactoring tasks to overcome these limitations. Current research in automatic refactoring, as well as state-of-the-art automated refactoring tools, frequently rely on syntax-driven approaches. They focus on transformations which can be safely performed using only syntactic information about a program or act overly conservative when knowledge about program semantics is required. In this thesis we explore semantics-driven refactoring, which enables much more sophisticated refactoring schemata. Our semantics-driven refactorings rely on formal verification algorithms to reason over a program's behaviour, and we conjecture they are more precise and can handle more complex code scenarios than syntax-driven ones. For this purpose, we present and implement a program synthesis algorithm based on the CEGIS paradigm and demonstrate that it can be applied to a diverse set of applications. Our synthesiser relies on the bounded model checker CBMC as an oracle and is based on an earlier research prototype called Kalashnikov. We further define our Java Stream Theory (JST) which allows us to reason over a set of interesting semantic refactorings. Both solutions are combined into an automated semantic refactoring decision procedure, reasoning over program behaviours, and searching the space of possible refactorings using program synthesis. We provide experimental evidence to support our conjecture that semanticsdriven refactorings exceed syntax-driven approaches in precision and scope.
723

Uma abordagem de modelagem de processos suportada por um guia de referência alinhado ao CMMI-DEV, MPS.BR e ISO/IEC 15504

Hauck, Jean Carlo Rossa January 2007 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência de Computação. / Made available in DSpace on 2012-10-23T02:13:53Z (GMT). No. of bitstreams: 1 251945.pdf: 8427087 bytes, checksum: d1559991538a79d7f11b0b65b4778a98 (MD5) / Existem diversos modelos e normas de referência para a melhoria de processos de software disponíveis atualmente, mas as Micro e Pequenas Empresas (MPEs) de software em geral não os conhecem ou não os utilizam e acabam enfrentando dificuldades em produzir software com a qualidade e produtividade esperadas pelo mercado. Percebe-se a ausência de indicações concretas de implementação das práticas sugeridas pelos modelos e normas de referência para que possam ser aplicadas à realidade das MPEs. Além de atender às características das MPEs em geral, essas práticas precisam ser adaptadas às especificidades de cada organização e alinhadas aos seus objetivos de negócio por meio da modelagem de processo. Nesse contexto, este trabalho apresenta a extensão da abordagem de modelagem de processos ASPE/MSC, por meio da introdução de um guia de referência de processo alinhado aos principais modelos de referência e adaptado às características e limitações típicas das MPEs. Um guia de referência para o processo de monitoramento e controle de projetos é elaborado e, embutido na abordagem ASPE/MSC estendida, é aplicado na modelagem desse processo em duas rganizações. Nestas duas aplicações foram coletadas diversas experiências. A avaliação destas duas aplicações estabelece uma primeira indicação de que a utilização de um guia de referência durante a modelagem de processos pode auxiliar na eficiência da modelagem do processo, reduzindo o esforço e o tempo necessários. Também é possível observar que o suporte de um guia de referência pode auxiliar o engenheiro de processo, fornecendo suporte concreto durante a modelagem do processo. Currently, there exist several models and standards for software processes improvement currently available, but, in general, Micro and Small software Companies (MSC) do not know or do not use th em, with the result that they face difficulties in producing software with quality and productivity as expected by the market. There can be perceived a lack of indications on how to the implement practices suggested by reference models and standards adapted to the reality of MSC. In addition, those practices have to be adapted to the specific characteristics of each organization and aligned with their business goals through process modeling. In this context, this work presents an extension of the ASPE/MSC processes modeling approach, through the introduction of a process reference guide as a basis for the improvement of a descriptive process model in alignment with well-known reference models and adapted to typical MSC characteristics and limitations. In this context, a guide for the process project monitoring and control is created and, using the ASPE/MSC extension, applied in two software organizations. In these two applications were collected various experiences. The evaluation of these two applications provide first indicators that the use of a reference guide for process modeling may help the efficiency, reducing the effort and time required. We also observe that the support of a reference guide may help the engineer during the modeling process.
724

Using self-adaptive software architecture to realise agent ontogeny

Van Zyl, Terence Lesley 13 September 2011 (has links)
Ph.D. / Information technology (IT) system development faces increasing challenges as a result of the complexity involved in the large number of interacting, distributed and concurrently executing components of systems. These components range from operating systems and virtual machines, through to the various frameworks, servers and libraries. To continue delivering on the current trend in resource requirements, hardware is increasingly parallel. The parallelisation of hardware indicates that software systems must be enabled to exploit these multicore, symmetric multiprocessing and distributed architectures as they become more mainstream. Parallelisation of IT systems adds to the number, distribution and concurrency of interacting components. In addition, dynamic self-optimising, selfhealing, self-configuring and self-protecting characteristics are required if systems are to continue operating effectively. The environment into which a system is eventually deployed is often either unknown or dynamic. An unknown environment is one where the exact details of resource availability, along with knowledge or control over concurrently executing systems, is not available beforehand. Added to this is a lack of foreknowledge surrounding the system’s environment, which may be dynamic, meaning it is likely to change during the system’s lifetime. Changes to the system’s environment include new infrastructure, different architectures, replacing old hardware and installing or upgrading software. The current approaches to overcoming unknown and dynamic environments tend to be top-down and centralised as is seen in the use of control theory by autonomic computing. There is, however, a growing realisation that centralised approaches add to the brittleness and complexity of the systems. What is needed is the self-adaptivity of an agent based approach, which is able to overcome these challenges relating to unknown and dynamic environments. Nature has dealt with the same challenges in a far more robust way by employing the principles of self-organising systems underpinning the control of complex adaptive systems. An example of nature’s solution is the self-organising system presented by the gene regulatory system coupled to cell fate and the cell cycle in multicellular organisms. Organisms are self-healing, self-protecting, self-optimising and self-configuring. They are also able, through ontogenesis, to self-adapt to their environments and grow to maximise their performance whilst still maintaining function.
725

Využití virtualizace při přípravě infrastruktury pro testování webových aplikací / Virtualization utilization for automatic infrastructure creation for web application testing

Nepejchalová, Radka January 2016 (has links)
The main aim of this thesis is to approximate some of the currently used techniques and principles within software development. Nowadays, great emphasis is placed on efficiency and quality of teams. Adopting the principles of continuous integration brings multiple benefits, especially for complex projects where many developers work at parallel. There is a greater need to integrate increasing generated code and make sure that the newly formed unit keeps functional. One of the main principles of the continuous integration is regular testing possibly revealing the problems that might occur during production deployment. However, such testing can be very expensive and using virtualization can be the key to reduce these costs. Testing new versions of applications can be made very easily using virtualization. Part of the work is devoted to all these previously mentioned parts. The practical part is then devoted to demonstrate solutions of real problems.
726

Um sistema de apoio ao teste de aplicações smalltalk / Support's system of the smalltalk applications test

Pinto, Ivete Martins January 1998 (has links)
A atividade de teste é de extrema importância em qualquer ambiente de programação para gerar produtos de qualidade e de alta confiabilidade. Entretanto, alem das dificuldades inerentes a esta tarefa, soma-se a falta de metodologias e ferramentas que a apóiem. Isto faz com que o teste se tome uma das atividades do ciclo de vida do software com maior custo e tempo associados. O paradigma de orientação a objetos surgiu na busca constante dos desenvolvedores de software por maior qualidade e novas soluções para os problemas de baixa produtividade. Todavia, as características poderosas deste paradigma geraram um conjunto adicional de problemas nas atividades de teste e manutenção, onde a alta concentração de custo e tempo envolvidos sempre foram uma constatação real. Em uma aplicação orientada a objetos, cada objeto é uma entidade que possui um comportamento bem definido, com um papel bem claro no domínio. Os valores dos atributos de um objeto definem o estado do objeto, e são acessados através de um conjunto de mensagens bem definidas, através das quais o objeto é capaz de executar alterações nestes valores de atributos. Os valores de atributos reagem passagem destas mensagens (ativação de métodos) alterando ou não o seu estado. Neste trabalho é apresentado um protótipo de ferramenta de apoio ao teste de programas orientados a objetos, chamado ATeste, fundamentado no conceito de teste baseado em estado, com uma abordagem reflexiva, para auxiliar o teste de aplicações Smalltalk. O teste baseado em estado verifica as interações entre os objetos pela monitoração das mudanças que ocorrem em valores dos atributos. Este tipo de teste verifica como um objeto reage a ativação de um método, respeitando o encapsulamento. A abordagem reflexiva possibilita que mecanismos de analise possam ser associados a aplicação através da utilização de conceitos de reflexão computacional. A reflexão computacional proporciona a analise dinâmica da aplicação, sem interferir nos aspectos comportamentais e estruturais dos objetos do domínio, permitindo a monitoração de objetos específicos do domínio, os quais podem ser dinamicamente selecionados pelo usuário. Como suporte para o desenvolvimento de ATeste foi utilizado o framework Luthier MOPs. Este framework apresenta, como principal contribuição, a utilização de técnicas de reflexão computacional baseadas no conceito de gerenciadores de metaobjetos para a implementação de meta-arquiteturas visando a captura de informações e analise de aplicações. Baseado nesta arquitetura reflexiva, ATeste trabalha com um meta-nível, que monitora os objetos selecionados pelo usuário na aplicação do nível-base. Desta forma, uma das principais características do sistema desenvolvido é a analise da aplicação sob teste de forma dinâmica sem necessidade de instrumentação de seu c6digo fonte. Isto é possível através da utilização de reflexão computacional, que permite implementar diferentes mecanismos de analise que podem ser dinamicamente associados com a aplicação em execução. O projeto de ATeste compreende um conjunto de classes pr6prias que definem a interface com o usuário e as funcionalidades desejadas, bem como classes do framework Luthier MOPs, e especializações destas. / The activity of testing is very important for generating high quality and reliable products in any programming environment. Besides the difficulties inherent to this task, there is the lack of methodologies and tools to support the testing process. These facts make testing one of the software life cycle activities of greatest associated cost and time. The object oriented paradigm had appeared as a result of the constant searching by software developers for both greater quality and new solutions to the problems of low productivity. However, the powerful characteristics of this paradigm have generated an additional set of problems in the test and maintenance activities, where high costs and time expenditure have been always of great concern. In an object oriented application, each object is an entity that has a welldefined behavior, with a well clear role in the domain. The attribute values of an object define the object state. Object's attributes may only be accessed through a set of proper messages, which can make changes to object's states. This work presents a prototype of a tool, named ATeste, which aims to support object oriented testing of Smalltalk applications by implementing the concept of state-based testing through a reflexive approach. In state-based testing objects interactions are verified through monitoring changes that occur to the values of object attributes. This type of test verifies how an object reacts by a method activation, taking into account object encapsulation. The reflexive approach allows the association of analysis mechanisms to the software system through the application of computational reflection concepts. Computational reflection provides dynamic analysis of the software, without interfering in both behavior and structural aspects of the object's domain. It allows monitoring of specific objects in the domain, which can be dynamically selected by the user. The framework Luthier MOPs has been extended to support the development of ATeste. This framework provides, as its main contribution, facilities of computational reflection techniques based on meta-objects management concepts for the implementation of meta-architectures, aiming the capture of information and analysis of object-oriented applications. Considering this reflexive architecture, ATeste works with a meta-level, which manages the objects selected by the user in the application basic-level. In this way, one of the main characteristics of the developed system is the analysis of the application under test in a dynamic way, without necessity of instrumenting its source code. This is possible due to computational reflection that allows the implementation of particular analysis mechanisms that can be dynamically associated with the application in execution. The project of ATeste includes a set of particular classes that define the interface with the user, another set for implementing the elected testing strategy, and some classeS specialized from the framework Luthier MOPs.
727

OZJ : uma ferramenta para geração de óraculos para teste de software a partir de especificação formal

Azevedo, Edson Eustáchio Oliveira de January 2002 (has links)
A literatura sobre Teste de Software apresenta diversas estratégias e metodologias que definem critérios eficazes e automatizáveis para selecionar casos de teste capazes de detectar erros em softwares. Embora eficientes na descoberta de erros, as técnicas de seleção de casos de teste exigem que uma quantidade relativamente grande de testes seja realizada para satisfazer os seus critérios. Essa característica acarreta, em parte, um alto custo na atividade de teste, uma vez que, ao fim de cada teste deve-se verificar se o comportamento do software está ou não de acordo com os seus requisitos. Oráculo para teste de software é um mecanismo capaz de determinar se o resultado de um teste está ou não de acordo com os valores esperados. Freqüentemente, assume-se que o próprio projetista de teste é o responsável por esta tarefa. A automatização da atividade dos oráculos deu origem a oráculos automáticos, os quais são capazes de determinar o bom ou mau funcionamento do software a partir de uma fonte de informação confiável. Ao longo dos anos, a especificação formal vêm sendo largamente utilizada como fonte de informação para oráculos automáticos. Diversas estratégias vêm propondo geradores de oráculos baseados em especificações formais. Dentre as características marcantes dessas estratégias, cita-se aquelas que são aplicáveis a implementações derivadas a partir da estrutura da especificação e aquelas que geram oráculos a partir de técnicas específicas de seleção de casos. Essas características, entretanto, limitam a aplicação abrangente dos oráculos por restringi-los tanto a implementações derivadas diretamente de especificações como ao uso de técnicas específicas de seleção de casos de teste. Este trabalho apresenta um estudo sobre os geradores de oráculos para teste de software, identifica aspectos fundamentais que regem seu processo de construção e propõe uma estratégia que permite a geração de oráculos semi-automaticamente, mesmo para implementações não derivadas diretamente da estrutura da especificação. A estratégia proposta é, também, aplicável aos casos de teste derivados de qualquer técnica de seleção de casos de teste.
728

Uma Proposta de apoio para decisões de grupo no ambiente PROSOFT

Alves, Ronnie Cley de Oliveira January 2002 (has links)
O processo de desenvolvimento de software implica na necessidade constante de tomadas de decisão. A cada etapa do processo, torna-se necessário estabelecer a comunicação e interação entre usuários, gerentes, analistas, programadores e mantenedores numa constante troca de informações. O registro dos artefatos produzidos durante todo o processo é uma questão que norteia as pesquisas em ambiente de desenvolvimento de software. Quando se fala em suporte ao processo de colaboração entre os elementos de uma equipe de desenvolvimento, este registro torna-se ainda mais necessário. Neste contexto, a modelagem dos dados a serem armazenados se amplia para comportar outras informações provenientes da interação do grupo além dos artefatos gerados. As informações trocadas durante este processo interativo que incluem fatos, hipóteses, restrições, decisões e suas razões, o significado de conceitos e, os documentos formais formam o que é denominado pela literatura especializada como memória de grupo. A proposta da arquitetura SaDg PROSOFT visa fornecer suporte a memória de grupo, no que diz respeito ao registro das justificativas de projeto(Design Rationale), através de uma integração com o gerenciador de processos (GP) provido pelo ADS PROSOFT. Esta integração se dá através das ferramentas inseridas no modelo, assim desenhadas: Editor de Norma, Editor de Argumentação, Extrator de Alternativas, Editor de Votação. O ADS PROSOFT integra ferramentas para desenvolvimento de software. Este ADS foi escolhido para o desenvolvimento do modelo SADG, pois baseia-se na construção formal de software, mas particularmente no método algébrico, por ser um ambiente estendível, possibilitando a inclusão do modelo SaDg PROSOFT ao seu conjunto de ferramentas, por ter características de um ambiente distribuído e cooperativo e por não dispor de nenhum suporte à discussões e decisões em grupos. São apresentados os fundamentos de modelos SADG e algumas ferramentas. Alguns dos principais requisitos desses ambientes foram coletados e são apresentados a fim de embasar a proposta do trabalho. O modelo SADG é apresentado na forma de ferramentas PROSOFT(chamadas ATOs) e permite a definição de atividades como: Atividade de argumentação, atividade de extração e a atividade de votação. Além disso, permite a coordenação destas atividades através de um facilitador e do próprio GP, e também, possui um mecanismo para a configuração do processo decisório.
729

Holoparadigma : um modelo multiparadigma orientado ao desenvolvimento de software distribuído

Barbosa, Jorge Luis Victoria January 2002 (has links)
Este texto apresenta um novo modelo multiparadigma orientado ao desenvolvimento de software distribuído, denominado Holoparadigma. O Holoparadigma possui uma semântica simples e distribuída. Sendo assim, estimula a modelagem subliminar da distribuição e sua exploração automática. A proposta é baseada em estudos relacionados com modelos multiparadigma, arquitetura de software, sistemas blackboard, sistemas distribuídos, mobilidade e grupos. Inicialmente, o texto descreve o modelo. Logo após, é apresentada a Hololinguagem, uma linguagem de programação que implementa os conceitos propostos pelo Holoparadigma. A linguagem integra os paradigmas em lógica, imperativo e orientado a objetos. Além disso, utiliza um modelo de coordenação que suporta invocações implícitas (blackboard) e explícitas (mensagens). A Hololinguagem suporta ainda, concorrência, modularidade, mobilidade e encapsulamento de blackboards em tipos abstratos de dados. Finalmente, o texto descreve a implementação da Holoplataforma, ou seja, uma plataforma de desenvolvimento e execução para a Hololinguagem. A Holoplataforma é composta de três partes: uma ferramenta de conversão de programas da Hololinguagem para Java (ferramenta HoloJava), um ambiente de desenvolvimento integrado (ambiente HoloEnv) e um plataforma de execução distribuída (plataforma DHolo).
730

Uma proposta de arquitetura de linha de produto para sistemas de gerenciamento de workflow

Lazilha, Fabrício Ricardo January 2002 (has links)
A tecnologia de workflow vem apresentando um grande crescimento nos últimos anos. Os Workflow Management Systems (WfMS) ou Sistemas de Gerenciamento de Workflow oferecem uma abordagem sistemática para uniformizar, automatizar e gerenciar os processos de negócios. Esta tecnologia requer técnicas de engenharia de software que facilitem a construção desse tipo de sistema. Há muito vem se formando uma consciência em engenharia de software de que para a obtenção de produtos com alta qualidade e que sejam economicamente viáveis torna-se necessário um conjunto sistemático de processos, técnicas e ferramentas. A reutilização está entre as técnicas mais relevantes desse conjunto. Parte-se do princípio que, reutilizando partes bem especificadas, desenvolvidas e testadas, pode-se construir software em menor tempo e com maior confiabilidade. Muitas técnicas que favorecem a reutilização têm sido propostas ao longo dos últimos anos. Entre estas técnicas estão: engenharia de domínio, frameworks, padrões, arquitetura de software e desenvolvimento baseado em componentes. Porém, o que falta nesse contexto é uma maneira sistemática e previsível de realizar a reutilização. Assim, o enfoque de linha de produto de software surge como uma proposta sistemática de desenvolvimento de software, baseada em uma família de produtos que compartilham um conjunto gerenciado de características entre seus principais artefatos. Estes artefatos incluem uma arquitetura base e um conjunto de componentes comuns para preencher esta arquitetura. O projeto de uma arquitetura para uma família de produtos deve considerar as semelhanças e variabilidades entre os produtos desta família. Esta dissertação apresenta uma proposta de arquitetura de linha de produto para sistemas de gerenciamento de workflow. Esta arquitetura pode ser usada para facilitar o processo de produção de diferentes sistemas de gerenciamento de workflow que possuem características comuns, mas que também possuam aspectos diferentes de acordo com as necessidades da indústria. O desenvolvimento da arquitetura proposta tomou como base a arquitetura genérica e o modelo de referência da Workflow Management Coalition (WfMC) e o padrão de arquitetura Process Manager desenvolvido no contexto do projeto ExPSEE1. O processo de desenvolvimento da arquitetura seguiu o processo sugerido pelo Catalysis com algumas modificações para representar variabilidade. A arquitetura proposta foi descrita e simulada através da ADL (Architecture Description Language) Rapide. A principal contribuição deste trabalho é uma arquitetura de linha de produto para sistemas de gerenciamento de workflow. Pode-se destacar também contribuições para uma proposta de sistematização de um processo de desenvolvimento de arquitetura de linha de produto e também um melhor entendimento dos conceitos e abordagens relacionados à prática de linha de produto, uma vez que esta tecnologia é recente e vem sendo largamente aplicada nas empresas.

Page generated in 0.068 seconds