• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 314
  • 17
  • 15
  • 15
  • 14
  • 8
  • 7
  • 7
  • 7
  • 7
  • 1
  • Tagged with
  • 323
  • 323
  • 144
  • 127
  • 113
  • 70
  • 69
  • 66
  • 55
  • 54
  • 45
  • 45
  • 45
  • 42
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
311

Context driven workflow adaptation applied to healthcare planning = Adaptação de workflows dirigida por contexto aplicada ao planejamento de saúde / Adaptação de workflows dirigida por contexto aplicada ao planejamento de saúde

Vilar, Bruno Siqueira Campos Mendonça, 1982- 25 August 2018 (has links)
Orientadores: Claudia Maria Bauzer Medeiros, André Santanchè / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-25T03:19:51Z (GMT). No. of bitstreams: 1 Vilar_BrunoSiqueiraCamposMendonca_D.pdf: 3275725 bytes, checksum: 4ccdd82eebca5b8da9748c7c515ea4c1 (MD5) Previous issue date: 2014 / Resumo: Sistemas de Gerenciamento de Workflows (WfMS -- em inglês) são usados para gerenciar a execução de processos, melhorando eficiência e eficácia de procedimentos em uso. As forças motrizes por trás da adoção e do desenvolvimento de um WfMS são aplicações científicas e de negócios. Esforços conjuntos de ambos resultaram em mecanismos consolidados, além de padrões e protocolos consensuais. Em particular, um WfMS científico (SWfMS -- \textit{Scientific WfMS}) auxilia cientistas a especificar e executar experimentos distribuídos. Ele fornece diferentes recursos que suportam atividades em um ambiente experimental, como prover flexibilidade para mudar o projeto de workflow, manter a proveniência e suportar reproducibilidade de experimentos. Por outro lado, apesar de poucas iniciativas de pesquisa, WfMSs não fornecem suporte apropriado à personalização dinâmica e baseada em contexto durante a execução; adaptações em tempo de execução normalmente requerem intervenção do usuário. Esta tese se concentra em superar essa deficiência, fornecendo a WfMSs um mecanismo de ciente do contexto para personalizar a execução de workflows. Como resultado, foi projetado e desenvolvido o DynFlow -- uma arquitetura de software que permite tal personalização aplicada a um domínio: planejamento de saúde. Este domínio foi escolhido por ser um ótimo exemplo de personalização sensível ao contexto. Procedimentos de saúde constantemente sofrem mudanças que podem ocorrer durante um tratamento, como a reação de um paciente a um medicamento. Para suprir a demanda, a pesquisa em planejamento de saúde desenvolveu técnicas semi-automáticas para suportar mudanças rápidas dos passos de fluxos de tratamento, de acordo com o estado e a evolução do paciente. Uma dessas técnicas é \textit{Computer-Interpretable Guidelines} (CIG), cujo membro mais proeminente é \textit{Task-Network Model} (TNM) -- uma abordagem baseada em regras capaz de construir um plano em tempo de execução. Nossa pesquisa nos levou a concluir que CIGs não suportam características necessárias por profissionais de saúde, como proveniência e extensibilidade, disponíveis em WfMSs. Em outras palavras, CIGs e WfMSs têm características complementares e são direcionadas à execução de atividades. Considerando os fatos citados, as principais contribuições desta tese são: (a) especificação e desenvolvimento do DynFlow, cujo modelo associa características de TNMs e WfMS; (b) caracterização das principais vantagens e desvantagens de modelos CIGs e WfMSs; (c) implementação de um protótipo, baseado em ontologias e aplicadas ao domínio da saúde e enfermagem / Abstract: Workflow Management Systems (WfMS) are used to manage the execution of processes, improving efficiency and efficacy of the procedure in use. The driving forces behind the adoption and development of WfMSs are business and scientific applications. Associated research efforts resulted in consolidated mechanisms, consensual protocols and standards. In particular, a scientific WfMS helps scientists to specify and run distributed experiments. It provides several features that support activities within an experimental environment, such as providing flexibility to change workflow design and keeping provenance (and thus reproducibility) of experiments. On the other hand, barring a few research initiatives, WfMSs do not provide appropriate support to dynamic, context-based customization during run-time; on-the-fly adaptations usually require user intervention. This thesis is concerned with mending this gap, providing WfMSs with a context-aware mechanism to dynamically customize workflow execution. As a result, we designed and developed DynFlow ¿ a software architecture that allows such a customization, applied to a specific domain: healthcare planning. This application domain was chosen because it is a very good example of context-sensitive customization. Indeed, healthcare procedures constantly undergo unexpected changes that may occur during a treatment, such as a patient¿s reaction to a medicine. To meet dynamic customization demands, healthcare planning research has developed semi-automated techniques to support fast changes of the careflow steps according to a patient¿s state and evolution. One such technique is Computer-Interpretable Guidelines (CIG), whose most prominent member is the Task-Network Model (TNM) -- a rule based approach able to build on the fly a plan according to the context. Our research led us to conclude that CIGs do not support features required by health professionals, such as distributed execution, provenance and extensibility, which are available from WfMSs. In other words, CIGs and WfMSs have complementary characteristics, and both are directed towards execution of activities. Given the above facts, the main contributions of the thesis are the following: (a) the design and development of DynFlow, whose underlying model blends TNM characteristics with WfMS; (b) the characterization of the main advantages and disadvantages of CIG models and workflow models; and (c) the implementation of a prototype, based on ontologies, applied to nursing care. Ontologies are used as a solution to enable interoperability across distinct SWfMS internal representations, as well as to support distinct healthcare vocabularies and procedures / Doutorado / Ciência da Computação / Doutor em Ciência da Computação
312

Alinhamento de expectativas e desempenho organizacional: um estudo sobre os métodos ágeis de gestão

Coelho, Mauricio Taves Cordeiro 20 December 2012 (has links)
Submitted by Mauricio Taves Cordeiro Coelho (mauricio.taves@gmail.com) on 2013-03-06T04:54:05Z No. of bitstreams: 1 MEX - Dissertação versão final - para submissão e impressão.pdf: 958516 bytes, checksum: 78a99a7592f57afeea670db87e854a41 (MD5) / Approved for entry into archive by Janete de Oliveira Feitosa (janete.feitosa@fgv.br) on 2013-04-09T17:43:26Z (GMT) No. of bitstreams: 1 MEX - Dissertação versão final - para submissão e impressão.pdf: 958516 bytes, checksum: 78a99a7592f57afeea670db87e854a41 (MD5) / Approved for entry into archive by Marcia Bacha (marcia.bacha@fgv.br) on 2013-04-11T11:42:55Z (GMT) No. of bitstreams: 1 MEX - Dissertação versão final - para submissão e impressão.pdf: 958516 bytes, checksum: 78a99a7592f57afeea670db87e854a41 (MD5) / Made available in DSpace on 2013-04-11T11:43:25Z (GMT). No. of bitstreams: 1 MEX - Dissertação versão final - para submissão e impressão.pdf: 958516 bytes, checksum: 78a99a7592f57afeea670db87e854a41 (MD5) Previous issue date: 2012-12-20 / The adoption of agile software development management methods has been a global trend, considering companies in the technology sector. Brazilian companies operating in this market are not detached from this tendency, since the goal of these methods is to address a common scenario to any of these organizations: dealing with the difficulty of adequately modeling the usually complex problems that are the goal of building a specific software and with the constant change of requirements that this situation represents, further enhanced by the frenetic dynamics of information dissemination in the XXI century, besides modifying a chronic perception of failure that pervades the sector, aiming to deliver quality products to its customers with maximum speed. Internal aspects such as increasing productivity and reducing rework are also part of the objectives of the adoption of these methodologies. This study aims to assess the human and cultural aspects involved and identify the convergence between the expectations of the company and employees when adopting agile management, based on field research that captured the reactions of a group of respondents to the implementation of these methods at Modulo Security Solutions, a Brazilian technology and services company, after two years of extensive internal use. The results indicate the success of the implementation, with positive reactions from employees, despite the need for addressing human aspects to adjust the model and that the negative impact of local and organizational cultures have been widely perceived. / A adoção dos métodos ágeis de gestão do desenvolvimento de software tem sido uma tendência mundial, considerando-se as empresas do setor de tecnologia. Empresas brasileiras atuando neste mercado não estão apartadas deste quadro, uma vez que o objetivo desses métodos é endereçar um cenário comum a qualquer uma dessas organizações: lidar com a dificuldade de modelar adequadamente os problemas usualmente complexos que são objetivo da construção de um software e com a mudança constante de requisitos que esta situação representa, potencializada ainda mais pela dinâmica frenética da disseminação da informação no século XXI, além de modificar um quadro crônico de fracassos e falhas no setor, visando entregar produtos de qualidade aos seus clientes com o máximo de velocidade. Aspectos internos como o aumento de produtividade e a redução de retrabalho também fazem parte dos objetivos de adoção destas metodologias. O presente estudo visa avaliar os aspectos humanos e culturais envolvidos e identificar a convergência entre as expectativas da empresa e dos empregados quando da adoção de métodos ágeis de gestão, a partir de pesquisa de campo que capturou as reações de um grupo de entrevistados à implantação desses métodos na Módulo Security Solutions, empresa brasileira de tecnologia e serviços, após dois anos de uso interno abrangente. Os resultados apontam para o sucesso da implantação, com reação positiva dos empregados, a despeito da necessidade de endereçamento de aspectos humanos para ajuste do modelo e do impacto negativo da cultura local e organizacional terem sido amplamente percebidos.
313

Clusterização e visualização espaço-temporal de dados georreferenciados adaptando o algoritmo marker clusterer: um caso de uso em Curitiba / Clustering and visualization spatial-temporal georeferenced data adapting the marker clusterer algorithm: a use case in Curitiba

Rodriguez Vila, Juan Jose Franklin 16 December 2016 (has links)
CNPq; CAPES; / Cinquenta por cento da população mundial vive em cidades, e a expectativa para 2050 é de que essa porcentagem chegue a 70% (WHO, 2014). As cidades consomem 75% dos recursos naturais e de energia do mundo, e geram 80% dos gases-estufa responsáveis pelo efeito estufa; considerando que, ocupam apenas 2% do território mundial (Signori, 2008). As cidades são também o palco de grande parte dos problemas ambientais globais (Gomes, 2009), e é no contexto urbano onde a dimensão social, econômica e ambiental convergem mais intensamente (European Commission, 2007). Esse crescimento populacional, tem influências sociais, econômicas e ambientais que representam um grande desafio para o desenvolvimento sustentável do planejamento urbano. Os conceitos de sistemas de informação geográfica, cidades inteligentes, dados abertos, algoritmos de clusterização e visualização de dados, permitem entender diversas questões em relação a atividade urbana nas cidades. Em particular, se torna importante a variável “onde”: onde existe tráfego e quais são os horários mais frequentes; onde é necessário realizar modelagem de espera residencial, comercial e industrial de acordo com o crescimento populacional para o plano de uso da terra; quais são os tipos de negócios que mais cresceram em cada bairro e qual é a relação entre eles. Para este fim, esta dissertação apresenta um sistema web-mobile que permite entender o crescimento espaço-temporal e econômico dos alvarás de restaurantes dos bairros Centro, Batel e Tatuquara da cidade de Curitiba nas últimas três décadas (1980 até 2015), realizando clusterização e visualização de uma grande quantidade de dados abertos georreferenciados. Em termos de resultados alcançados destacam-se: 1) capacidade de resolver problemas computacionais de sobreposição de pontos sobre um mapa, 2) capacidade de entender o crescimento econômico dos alvarás e qual é a relação entre as diversas categorias e entre os bairros, 3) tempo de execução inferior a 3 segundos para 99% das consultas espaciais executadas, 4) 80,8% dos usuários em fase de avaliação consideram que a solução proposta permite uma melhor identificação e visualização de dados georreferenciados, e 5) possibilita a integração de novas fontes e tipos de dados. / Fifty percent of the world's population live in cities, and the expectation until 2050 is that it reaches 70% (WHO, 2014). Cities consume 75% of the world's natural resources and energy, and generate 80% of greenhouse gases responsible for the greenhouse effect, considering that they occupy only 2% of the world's territory (Signori, 2008). Cities are also the scene of most of the global environmental problems (Gomes, 2009), and it is in the urban context where the social, economic and environmental dimension converge more intensely (European Commission, 2007). This population growth has social, economic and environmental influences that represent a great challenge for the sustainable development of urban planning. The concepts of geographic information systems, smart cities, open data, clustering and data visualization algorithms allow us to understand several questions regarding urban activity in cities, especially, understand the variable "where" things happen. For example: where there is traffic and what time is the most frequent, where it is necessary to perform residential, commercial, industrial standby modeling according to population growth for the land use plan, what are the types of businesses that grew the most in each neighborhood and what is the relationship between them. For this purpose, the following thesis presents a web-mobile system that allows us to understand the spatiotemporal and economic growth of the restaurant licenses of districts Centro, Batel and Tatuquara of Curitiba for the last three decades, performing clustering and visualization of a large amount of open georeferenced data. In terms of achieved results, we can highlight: 1) ability to solve computational problems of overlapping points representing business on a map, 2) ability to understand the economic growth of restaurants licences and what is the relationship between different categories and between districts, 3) execution time less than 3 seconds for 99% of the spatial queries executed, 4) 80.8% of users in evaluation phase consider that the proposed solution allows a better identification and visualization of georeferenced data, and 5) it allows the integration of new sources and types of data.
314

Monitoramento da frequência cardíaca via método de magnificação de vídeo e Euleriana em tempo real

Simioni, Maicon Cezar 18 August 2015 (has links)
O monitoramento de sinais vitais em pacientes tem o intuito de obter rapidamente dados relevantes para decisões médicas. No entanto, tal mensuração é pouco eficiente, difícil, quando não impossível, em determinados casos, como por exemplo em pacientes vítimas de queimaduras, em função da impossibilidade de colocar o eletrodo diretamente na pele, ou em recém-nascidos, devido à fragilidade da pele. Este estudo trata do desenvolvimento de um sistema para aquisição contínua de sinais fotopletismográficos para a telemetria da frequência cardíaca em tempo real, em uma plataforma de baixo custo, utilizando a biblioteca OpenCV e o método desenvolvido pelo MIT chamado de Magnificação de Vídeo Euleriana, que revela variações que são imperceptíveis a olho nu. Para desenvolver o sistema foi utilizada a plataforma de hardware Raspberry Pi Versão B com processador ARM11 de 700MHz e 512MB de memória RAM. Os dados da frequência cardíaca coletados dos experimentos foram comparados com os dados coletados por um oxímetro de dedo More Fitness modelo MF-425. Esse foi escolhido por utilizar o mesmo princípio "Fotopletismografia"para efetuar a medição. Após a coleta de dados foi estimado o intervalo de confiança para aferir a precisão do sistema, que correspondeu a 96,5% em relação ao oxímetro utilizado. Ficou evidente que o meio utilizado para medir a frequência cardíaca via método de magnificação de vídeo Euleriana em tempo real é uma tecnologia de baixo custo (aproximadamente R$300,00) quando comparado aos monitores multiparamétricos utilizados para o monitoramento de pacientes críticos, cujo custo varia entre R$ 8.000,00 e R$ 34.000,00. Sendo assim, também contribui com a redução de custos no tratamento ao doente que necessita de monitorização constante, possibilitando que, com a economia gerada pela aquisição e implantação desta tecnologia, viabilize um maior investimento em outras áreas dos hospitais. / Monitoring vital signs in patients is used to obtain relevant data for medical decisions in a fast way. However, this measurement is both inefficient and difficult, if not impossible in certain cases, such as in burnt victims, due to the impossibility of placing the electrodes directly on the skin or in infants, because of the fragility of skin. This study aims to develop of a system for continuous acquisition of photopletismografics (PPG) signals for the telemetry of heart rate in real time in a low cost platform using the OpenCV library and the method developed by MIT called the Eulerian Video Magnification, amplifying variations that are imperceptible to the naked eye. To develop the system were used the hardware platform Raspberry Pi version B with ARM11 700MHz processor and 512MB RAM. The heart rate data collected from the experi- ments were compared with data collected by a finger oximeter model More Fitness MF-425 it was chosen, by using the same working principle "PPG"to effect the measurement. After data collection was estimated the confidence interval to measure system accuracy, which corresponded to 96,5% compared to the oximeter used. It became clear that the developed system used to measure heart rate via magnification method of Eulerian live video is a low-cost technology (approximately R$ 300.00) compared to the multiparameter monitors used for monitoring critically patients, ranging in cost from R$ 8,000.00 to R$ 34,000.00. So also, it contributes to cost reduction in the treatment to the patient in need of constant monitoring, enabling with the savings generated by the acquisition and deployment of this technology makes possible greater investment in other areas of hospitals. / 5000
315

Adoção do modelo aberto de desenvolvimento de software pelas empresas

Milan, Luiz Fernando Albertin Bono 26 February 2018 (has links)
Submitted by Luiz Fernando Bono Milan (luiz.milan@gvmail.br) on 2018-03-23T19:20:49Z No. of bitstreams: 1 Tese_Luiz_Fernando_Albertin_Bono_Milan.pdf: 1496924 bytes, checksum: dc2807d559797a738bbd609bc3b1ad35 (MD5) / Approved for entry into archive by Debora Nunes Ferreira (debora.nunes@fgv.br) on 2018-03-26T14:49:42Z (GMT) No. of bitstreams: 1 Tese_Luiz_Fernando_Albertin_Bono_Milan.pdf: 1496924 bytes, checksum: dc2807d559797a738bbd609bc3b1ad35 (MD5) / Approved for entry into archive by Suzane Guimarães (suzane.guimaraes@fgv.br) on 2018-03-26T17:35:06Z (GMT) No. of bitstreams: 1 Tese_Luiz_Fernando_Albertin_Bono_Milan.pdf: 1496924 bytes, checksum: dc2807d559797a738bbd609bc3b1ad35 (MD5) / Made available in DSpace on 2018-03-26T17:35:06Z (GMT). No. of bitstreams: 1 Tese_Luiz_Fernando_Albertin_Bono_Milan.pdf: 1496924 bytes, checksum: dc2807d559797a738bbd609bc3b1ad35 (MD5) Previous issue date: 2018-02-26 / Nas últimas décadas, o modelo aberto de desenvolvimento de software foi de passatempo de programadores, para inimigo de empresas de tecnologia e, mais recentemente, passou a ser uma estratégia destas. Sob o paradigma filosófico do Realismo Crítico, o estudo tem o objetivo de identificar os mecanismos envolvidos na decisão de adoção do modelo aberto de desenvolvimento de software pelas empresas. Utilizando estudo de casos múltiplos, os dados contemplam nove empresas brasileiras de tecnologia. O material qualitativo foi analisado utilizando técnicas indutivas e dedutivas, buscando evidências para suportar um modelo preliminar de pesquisa baseado na literatura e a identificação de novos fatores. Os principais resultados do estudo são: com a utilização de técnicas de mapeamento de citações, uma ampla e estruturada revisão da literatura sobre o modelo aberto de desenvolvimento de software, podendo assim, oferecer o caminho principal da literatura; dos dados empíricos, foi identificado um mecanismo e mudança da prática organizacional de influência mútua, entre o nível do indivíduo e o nível da organização e os fatores, uso de software de código aberto e intenção de garantir o investimento inicial; é oferecida uma estrutura de referência – framework, que endereça os mecanismos envolvidos na adoção deste modelo pelas empresas, importante para o avanço do conhecimento sobre o tema; e, as posturas adotadas pelas empresas da amostra, relevante contribuição para os gestores das empresas no contexto brasileiro de desenvolvimento de software. Um importante achado do estudo foi que, independentemente do risco, a adoção do modelo aberto de desenvolvimento de software pelas empresas parece estar mais fortemente ligada à mudança da prática organizacional do que a outros fatores. Os achados do estudo permitem aos pesquisadores, além de enxergarem a evolução da literatura sobre o tema ao longo do tempo, a avançar de forma estruturada os estudos sobre o modelo aberto de desenvolvimento de software no nível da organização, nível de análise que recebeu pouca atenção da literatura ao longo do tempo. Aos gestores do mercado, permite a reavaliação de suas estratégias em relação ao desenvolvimento de software. / In the last decades, the open software development model has gone from being a pastime for programmers to an enemy of technology companies and, more recently, to becoming a strategy for these companies. Under the philosophical paradigm of Critical Realism, this study aims to identify the mechanisms involved in the decision for companies to adopt the open software development model. Using a multiple case study, the data cover nine Brazilian technology companies. The qualitative material was analyzed using inductive and deductive techniques, seeking evidence to support a preliminary research model based on the literature and the identification of new factors. With the use of citation mapping techniques, a broad and structured review of the literature on the open software development model shows the main path that the literature has followed. From the empirical data, a mechanism was identified and a change in organizational culture with mutual influence between the individual and organizational level and the factors, use of open code software and the intention to guarantee initial investment. A framework is provided that addresses the mechanisms involved in the adoption of this model by companies. This is an important step in the advance of knowledge on the theme. Furthermore, the strategies adopted by the companies in the sample are important in that they can be helpful for company managers in the Brazilian software development context. An important finding of the study was that, regardless of the risk, the adoption of the open model of software development by companies seems to be more strongly linked to the change in organizational culture than to other factors. The findings of the study allow the researchers, in addition to seeing the evolution of the literature on the theme over time, to advance in a structured way the studies about the open model of software development at the organizational level, level of analysis that received little attention of literature over time. To managers, it allows the reevaluation of their strategies in relation to software development.
316

Ferramenta para o apoio ensino-aprendizagem do modelo orientado a objetos durante a construção do diagrama de classes / Tool for teaching-learning support of the model object-oriented architecture during the construction of the class diagram

Felisbino, Cláudio Marcio 28 August 2017 (has links)
O ensino do modelo orientado a objetos tornou-se uma prática muito comum na introdução dos cursos de computação e as dificuldades no processo de ensinoaprendizagem são bem conhecidas. Grande parte dos estudantes apresenta dificuldades em assimilar os conceitos e abstrações envolvidas neste paradigma. Este trabalho descreve o desenvolvimento, a implementação e testes de uma ferramenta para apoiar o processo de ensino-aprendizagem do modelo orientado a objetos, durante a construção de Diagramas de Classe. Com a ferramenta desenvolvida, foram coletados dados durante a construção de Diagramas de Classe UML, em experimentos realizados com alunos de uma Universidade situada na cidade de Curitiba. A ferramenta desenvolvida permitiu revelar comportamentos dos alunos durante a construção dos diagramas de classes. Os resultados demonstram que as intervenções realizadas por alunos em itens do Diagrama de Classes, como atributos, métodos e associações, durante a criação do mesmo, influenciam diretamente no conceito obtido. Além disso, a ferramenta oferece informações específicas sobre cada aluno, que podem ser utilizadas pelo professor para incentivar cada um a estudar determinados temas, a fim de melhorar o desempenho dos mesmos no entendimento do modelo orientado a objetos e na criação de Diagramas de Classes. A ferramenta para o apoio ao ensino-aprendizagem do modelo orientado a objetos durante a construção do Diagrama de Classes fornece dados negligenciados pelas ferramentas de construção de diagramas, podendo ser um importante método para aprimorar o processo de ensino-aprendizagem do modelo orientado a objetos. / The teaching of the object-oriented model has become a very common practice in the introduction of computer courses and difficulties in the teaching-learning process are well known. Most of the students present difficulties in assimilating the concepts and abstractions involved in this paradigm. This study describes the development, implementation and testing of a tool to support the teaching-learning process of the object-oriented model during the construction of Class Diagrams. With the tool developed, data were collected during the construction of UML Class Diagrams, in experiments carried out with students of a University located in the city of Curitiba. The developed tool allowed to reveal the behaviors of the students during the construction of the class diagrams. The results show that the interventions made by students in items of the Class Diagram, such as attributes, methods and associations, during the creation of the same, directly influence the concept obtained. In addition, the tool offers specific information about each student that can be used by the teacher to encourage each one to study certain themes in order to improve their performance in understanding the object-oriented model and creating Class Diagrams. The teaching-learning tool of the object-oriented model during the construction of the Class Diagram provides data neglected by the diagrams-building tools, and can be an important method to improve the teaching-learning process of the model oriented to Objects.
317

Problem-Based SRS: método para especificação de requisitos de software baseado em problemas / Problem-Based SRS: method for sofware requirements specification based on problems

Souza, Rafael Gorski Moreno 23 August 2016 (has links)
Especificação de requisitos é reconhecida como como uma atividade critica nos processos de desenvolvimento de software por causa de seu impacto nos riscos do projeto quando mal executada. Um grande conjunto de estudos discute aspectos teóricos, proposições de técnicas e práticas recomendadas para a Engenharia de Requisitos (ER). Para ter sucesso, ER tem que assegurar que requisitos especificados são completos e corretos, o que significa que todas as intenções dos stakeholders são cobertas pelos requisitos e que não existem requisitos desnecessários. Entretanto, a captura precisa das intenções stakeholders continua sendo um desafio e é o maior fator para falhas em projetos de software. Esta dissertação apresenta um novo método denominado “Problem-Based SRS” que tem como objetivo melhorar a qualidade da especificação de requisitos de software (SRS – Software Requirements Specification) no sentido de que os requisitos especificados forneçam uma resposta adequada para os problemas dos clientes reais. Neste método, o conhecimento sobre os requisitos de software é construído a partir do conhecimento sobre os problemas do cliente. O Problem-Based SRS consiste de uma organização de atividades e resultados através de um processo que contem cinco etapas. O método fornece suporte ao time de engenharia de requisitos para analisar sistematicamente o contexto de negócio e especificar os requisitos de software, considerando o vislumbre e a visão do software. Os aspectos de qualidade das especificações são avaliados utilizando técnicas de rastreabilidade e princípios do axiomatic design. Os casos de estudo realizados e apresentados nesta dissertação apontam que o método proposto pode contribuir de forma significativa para uma melhor especificação de requisitos de software. / Requirements specification has long been recognized as critical activity in software development processes because of its impact on project risks when poorly performed. A large amount of studies addresses theoretical aspects, propositions of techniques, and recommended practices for Requirements Engineering (RE). To be successful, RE have to ensure that the specified requirements are complete and correct what means that all intents of the stakeholders in a given business context are covered by the requirements and that no unnecessary requirement was introduced. However, the accurate capture the business intents of the stakeholders remains a challenge and it is a major factor of software project failures. This master’s dissertation presents a novel method referred to as “Problem-Based SRS” aiming at improving the quality of the Software Requirements Specification (SRS) in the sense that the stated requirements provide suitable answers to real customer ́s businesses issues. In this approach, the knowledge about the software requirements is constructed from the knowledge about the customer ́s problems. Problem-Based SRS consists in an organization of activities and outcome objects through a process that contains five main steps. It aims at supporting the software requirements engineering team to systematically analyze the business context and specify the software requirements, taking also into account a first glance and vision of the software. The quality aspects of the specifications are evaluated using traceability techniques and axiomatic design principles. The cases studies conducted and presented in this document point out that the proposed method can contribute significantly to improve the software requirements specification.
318

Uso da análise de discriminante linear em conjunto com a transformada wavelet discreta no reconhecimento de espículas / The linear discriminant analysis usage combined with the discrete wavelet transform in spike detection

Pacola, Edras Reily 18 December 2015 (has links)
CAPES / Pesquisadores têm concentrado esforços, nos últimos 20 anos, aplicando a transformada wavelet no processamento, filtragem, reconhecimento de padrões e na classificação de sinais biomédicos, especificamente em sinais de eletroencefalografia (EEG) contendo eventos característicos da epilepsia, as espículas. Várias famílias de wavelets-mães foram utilizadas, mas sem um consenso sobre qual wavelet-mãe é a mais adequada para essa finalidade. Os sinais utilizados apresentam uma gama muito grande de eventos e não possuem características padronizadas. A literatura relata sinais de EEG amostrados entre 100 a 600 Hz, com espículas variando de 20 a 200 ms. Nesse estudo foram utilizadas 98 wavelets. Os sinais de EEG foram amostrados de 200 a 1 kHz. Um neurologista marcou um conjunto de 494 espículas e um conjunto de 1500 eventos não-espícula. Esse estudo inicia avaliando a quantidade de decomposições wavelets necessárias para a detecção de espículas, seguido pela análise detalhada do uso combinado de wavelets-mães de uma mesma família e entre famílias. Na sequência é analisada a influência de descritores e o uso combinado na detecção de espículas. A análise dos resultados desses estudos indica que é mais adequado utilizar um conjunto de wavelets-mães, com vários níveis de decomposição e com vários descritores, ao invés de utilizar uma única wavelet-mãe ou um descritor específico para a detecção de espículas. A seleção desse conjunto de wavelets, de níveis de decomposição e de descritores permite obter níveis de detecção elevados conforme a carga computacional que se deseje ou a plataforma computacional disponível para a implementação. Como resultado, esse estudo atingiu níveis de desempenho entre 0,9936 a 0,9999, dependendo da carga computacional. Outras contribuições desse estudo referem-se à análise dos métodos de extensão de borda na detecção de espículas; e a análise da taxa de amostragem de sinais de EEG no desempenho do classificador de espículas, ambos com resultados significativos. São também apresentadas como contribuições: uma nova arquitetura de detecção de espículas, fazendo uso da análise de discriminante linear; e a apresentação de um novo descritor, energia centrada, baseado na resposta dos coeficientes das sub-bandas de decomposição da transformada wavelet, capaz de melhorar a discriminação de eventos espícula e não-espícula. / Researchers have concentrated efforts in the past 20 years, by applying the wavelet transform in processing, filtering, pattern recognition and classification of biomedical signals, in particular signals of electroencephalogram (EEG) containing events characteristic of epilepsy, the spike. Several families of mother-wavelets were used, but there are no consensus about which mother-wavelet is the most adequate for this purpose. The signals used have a wide range of events. The literature reports EEG signals sampled from 100 to 600 Hz with spikes ranging from 20 to 200 ms. In this study we used 98 wavelets. The EEG signals were sampled from 200 Hz up to 1 kHz. A neurologist has scored a set of 494 spikes and a set 1500 non-spike events. This study starts evaluating the amount of wavelet decompositions required for the detection of spikes, followed by detailed analysis of the combined use of mother-wavelets of the same family and among families. Following is analyzed the influence of descriptors and the combined use of them in spike detection. The results of these studies indicate that it is more appropriate to use a set of mother-wavelets, with many levels of decomposition and with various descriptors, instead of using a single mother-wavelet or a specific descriptor for the detection of spikes. The selection of this set of wavelets, decomposition level and descriptors allows to obtain high levels of detection according to the computational load desired or computing platform available for implementation. This study reached performance levels between 0.9936 to 0.9999, depending on the computational load. Other contributions of this study refer to the analysis of the border extension methods for spike detection; and the influences of the EEG signal sampling rate in the classifier performance, each one with significant results. Also shown are: a new spike detection architecture by making use of linear discriminant analysis; and the presentation of a new descriptor, the centred energy, based on the response of the coefficients of decomposition levels of the wavelet transform, able to improve the discrimination of spike and non-spike events.
319

GARREC: ferramenta de apoio no processo de certificação de software da CERTICS / GARREC: Supporting tool on the process of software's certification of CERTICS

Medeiros, Adriana Gonçalves Silva de 01 September 2017 (has links)
A certificação CERTICS foi desenvolvida para ser um instrumento de política pública que busca contribuir para o desenvolvimento nacional sustentável e pode apoiar as empresas nacionais de software na evolução necessária para se tornarem mais competitivas frente aos softwares estrangeiros. No entanto, esta certificação, assim como outras, requer investimento de profissionais e recursos financeiros, o que é um problema notadamente nas pequenas empresas de software. Este trabalho tem o objetivo de apresentar o GARREC, Guia para Atendimento dos Requisitos dos Resultados Esperados da CERTICS, que é uma ferramenta desenvolvida para apoiar no processo da certificação CERTICS, atuando em complemento à documentação existente. O GARREC foi construído visando facilitar o entendimento dos conceitos da CERTICS e no atendimento dos resultados esperados por meio de proposição de evidências, considerando cenários de pequenas empresas. Assim, o GARREC contribuirá para reduzir o investimento necessário para a certificação. O método de pesquisa adotado envolveu a análise do Modelo de Referência para Avaliação da CERTICS e o detalhamento dos Requisitos Específicos dos seus Resultados Esperados e, para estes foram propostas evidências para atendimento classificadas por relevância. Desta forma, todos os aspectos avaliados são considerados, garantindo qualidade de cobertura do atendimento aos requisitos da certificação. Para a avaliação do GARREC foi realizado um experimento no qual os participantes o utilizaram para atender a resultados esperados predeterminados e responderam a uma pesquisa. Participaram do experimento três empresas com diferentes níveis de conhecimento da CERTICS, uma empresa certificada, uma em processo de certificação e uma sem conhecimento anterior. A partir dos resultados coletados da pesquisa de avaliação, o GARREC atinge os seus objetivos de auxiliar no entendimento e no atendimento dos requisitos da certificação CERTICS, com 91,3% de aceitação aos itens de efetividade e 97,5% referente aos itens de aplicabilidade. Uma validação mais ampla em campo ainda se faz necessária para uma avaliação mais consistente da ferramenta. / The CERTICS certification was developed to be a public policy tool that seeks to contribute to sustainable national development and it can support national software companies in the evolution required to become more competitive compared to the foreign software. However, this certification, as well as others, requires professional investment and financial resources, which is usually a problem for small software companies. This work aims to present GARREC, Guide for Meeting the Requirements of Results Expected from CERTICS, which is a tool developed to support the understanding and obtaining of the CERTICS certification, working in addition to the existing documentation. GARREC was built to facilitate the understanding of the CERTICS’ concepts and in meeting the expected results through evidence proposition considering small business scenarios.Therefore, GARREC will contribute to reducing the investment required for certification. The research method involved the analysis of the Reference Model for Evaluation of CERTICS and detailing of the Specific Requirements of its Expected Results, and for these, evidence was presented to meet them, classified by relevance. In this way all evaluated aspects are considered, guaranteeing quality of coverage of the attendance to the certification requirements. For the GARREC evaluation, an experiment was carried out in which the participants used it to meet predetermined expected results and answered to a survey. Three companies with different levels of knowledge of CERTICS, a certified company, one in the process of certification and one without previous knowledge participated in the experiment. Based on the results of the evaluation survey, GARREC achieves its objectives of assisting in the understanding and fulfillment of CERTICS certification requirements, with 91.3% acceptance of the items referring to Effectiveness and, 97.5% acceptance of the related items Applicability. Further validation in the field is still necessary for a more consistent evaluation of the tool.
320

Monitoramento da frequência cardíaca via método de magnificação de vídeo e Euleriana em tempo real

Simioni, Maicon Cezar 18 August 2015 (has links)
O monitoramento de sinais vitais em pacientes tem o intuito de obter rapidamente dados relevantes para decisões médicas. No entanto, tal mensuração é pouco eficiente, difícil, quando não impossível, em determinados casos, como por exemplo em pacientes vítimas de queimaduras, em função da impossibilidade de colocar o eletrodo diretamente na pele, ou em recém-nascidos, devido à fragilidade da pele. Este estudo trata do desenvolvimento de um sistema para aquisição contínua de sinais fotopletismográficos para a telemetria da frequência cardíaca em tempo real, em uma plataforma de baixo custo, utilizando a biblioteca OpenCV e o método desenvolvido pelo MIT chamado de Magnificação de Vídeo Euleriana, que revela variações que são imperceptíveis a olho nu. Para desenvolver o sistema foi utilizada a plataforma de hardware Raspberry Pi Versão B com processador ARM11 de 700MHz e 512MB de memória RAM. Os dados da frequência cardíaca coletados dos experimentos foram comparados com os dados coletados por um oxímetro de dedo More Fitness modelo MF-425. Esse foi escolhido por utilizar o mesmo princípio "Fotopletismografia"para efetuar a medição. Após a coleta de dados foi estimado o intervalo de confiança para aferir a precisão do sistema, que correspondeu a 96,5% em relação ao oxímetro utilizado. Ficou evidente que o meio utilizado para medir a frequência cardíaca via método de magnificação de vídeo Euleriana em tempo real é uma tecnologia de baixo custo (aproximadamente R$300,00) quando comparado aos monitores multiparamétricos utilizados para o monitoramento de pacientes críticos, cujo custo varia entre R$ 8.000,00 e R$ 34.000,00. Sendo assim, também contribui com a redução de custos no tratamento ao doente que necessita de monitorização constante, possibilitando que, com a economia gerada pela aquisição e implantação desta tecnologia, viabilize um maior investimento em outras áreas dos hospitais. / Monitoring vital signs in patients is used to obtain relevant data for medical decisions in a fast way. However, this measurement is both inefficient and difficult, if not impossible in certain cases, such as in burnt victims, due to the impossibility of placing the electrodes directly on the skin or in infants, because of the fragility of skin. This study aims to develop of a system for continuous acquisition of photopletismografics (PPG) signals for the telemetry of heart rate in real time in a low cost platform using the OpenCV library and the method developed by MIT called the Eulerian Video Magnification, amplifying variations that are imperceptible to the naked eye. To develop the system were used the hardware platform Raspberry Pi version B with ARM11 700MHz processor and 512MB RAM. The heart rate data collected from the experi- ments were compared with data collected by a finger oximeter model More Fitness MF-425 it was chosen, by using the same working principle "PPG"to effect the measurement. After data collection was estimated the confidence interval to measure system accuracy, which corresponded to 96,5% compared to the oximeter used. It became clear that the developed system used to measure heart rate via magnification method of Eulerian live video is a low-cost technology (approximately R$ 300.00) compared to the multiparameter monitors used for monitoring critically patients, ranging in cost from R$ 8,000.00 to R$ 34,000.00. So also, it contributes to cost reduction in the treatment to the patient in need of constant monitoring, enabling with the savings generated by the acquisition and deployment of this technology makes possible greater investment in other areas of hospitals. / 5000

Page generated in 0.1321 seconds