• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 314
  • 17
  • 15
  • 15
  • 14
  • 8
  • 7
  • 7
  • 7
  • 7
  • 1
  • Tagged with
  • 323
  • 323
  • 144
  • 127
  • 113
  • 70
  • 69
  • 66
  • 55
  • 54
  • 45
  • 45
  • 45
  • 42
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

Know-cap: um método para capitalização de conhecimento no desenvolvimento de software / Know-cap: a method to knowledge capitalization in the software development

Leal, Gislaine Camila Lapasini 04 December 2015 (has links)
O caráter intensivo em conhecimento da produção de software e sua crescente demanda sugerem a necessidade de definir mecanismos para gerenciar adequadamente os conhecimentos envolvidos com o objetivo de alcançar os requisitos de prazo, custos e qualidade. A capitalização do conhecimento é um processo que envolve desde a identificação até a avaliação dos conhecimentos produzidos e utilizados. Especificamente, para o desenvolvimento de software, a capitalização possibilita facilitar o acesso, minimizar a perda de conhecimento, reduzir a curva de aprendizagem, evitar a repetição de erros e retrabalho. Assim, esta tese apresenta o Know-Cap, um método desenvolvido para sistematizar e orientar a capitalização do conhecimento no desenvolvimento de software. O Know-Cap visa facilitar a localização, preservação, agregação de valor e atualização do conhecimento, com o intuito de utilizá-lo na execução de novas tarefas. O método foi proposto a partir de um conjunto de procedimentos metodológicos: pesquisa bibliográfica, revisão sistemática e análise de trabalhos correlatos. A viabilidade e adequação do Know-Cap foram analisadas a partir de um estudo de aplicação, conduzido em um caso real, e um estudo de análise realizado em empresas de desenvolvimento de software. Os resultados obtidos apontam que o Know-Cap apoia a capitalização do conhecimento no desenvolvimento de software. / The intensive character in knowledge of software production and its rising demand suggest the need to establish mechanisms to properly manage the knowledge involved in order to meet the requirements of deadline, costs and quality. The knowledge capitalization is a process that involves from identification to evaluation of the knowledge produced and used. Specifically, for software development, capitalization enables easier access, minimize the loss of knowledge, reducing the learning curve, avoid repeating errors and rework. Thus, this thesis presents the know-Cap, a method developed to organize and guide the capitalization of knowledge in software development. The Know-Cap facilitates the location, preservation, value addition and updating of knowledge, in order to use it in the execution of new tasks. The method was proposed from a set of methodological procedures: literature review, systematic review and analysis of related work. The feasibility and appropriateness of Know-Cap were analyzed from an application study, conducted in a real case, and an analytical study of software development companies. The results obtained indicate the Know- Cap supports the capitalization of knowledge in software development.
302

Sensor wire-mesh de impedância para investigação de escoamentos multifásicos

Vendruscolo, Tiago Piovesan 03 July 2012 (has links)
BG - Brasil e do Instituto Brasileiro de Petróleo, Gás e Biocombustíveis / Escoamentos multifásicos estão presentes em diversas atividades industriais como na exploração, produção e transporte de petróleo e gás, onde é comum encontrar escoando por dutos uma mistura de óleo, gás e água. Em muitos casos, o tipo de escoamento determina a eficiência e segurança dos processos e equipamentos onde ocorrem. Com isso, investigações experimentais de escoamento multifásicos são de grande importância no auxilio do desenvolvimento de modelos teóricos e na validação de predições realizadas por simulações, ampliando o entendimento do fenômeno. No passado algumas técnicas para investigação de escoamentos multifásicos foram propostas e aplicadas. Contudo, estas técnicas, na sua maioria, estão limitadas a investigação de escoamentos envolvendo apenas duas fases. Neste trabalho, foi proposta uma nova eletrônica para operar um sensor de malha de eletrodos (Wire-Mesh Sensor) que é capaz de investigar escoamentos contendo até três fases. Inicialmente proposto para visualização de escoamentos bifásicos, o sensor wire-mesh realiza o imageamento da distribuição de fases de uma seção transversal. Com a passagem do escoamento através do sensor, o mapeamento das fases é realizado de forma intrusiva com alta resolução temporal e espacial. Para possibilitar seu uso em escoamentos trifásicos, neste trabalho foi desenvolvida uma nova eletrônica capaz de medir simultaneamente a permissividade elétrica e a condutividade elétrica do fluido presente entre os eletrodos do sensor. O princípio básico do funcionamento é baseado na excitação com duas frequências distintas. Além do hardware foi também desenvolvido um software, onde é possível salvar os dados adquiridos em uma base de dados para futuros estudos. O desempenho da nova eletrônica foi verificado através de medições em componentes (rede RC) com valores de referência. O sistema completo foi utilizado para gerar imagens de uma mistura trifásica ar-óleo-água em condições estáticas e dinâmicas, apresentando bons resultados. Desta forma, a principal contribuição deste trabalho é a disponibilização de uma nova ferramenta para análise de escoamentos multifásicos. / Multiphase flows are present in many industrial activities such as in exploration, production and transportation of oil and gas, in which is common to find a mixture of oil, gas and water flowing inside pipes. In many cases this type of flow determines the efficiency and safety of the processes and equipment where they occur. In this way, experimental investigations of multiphase flow are of great value to develop new theoretical models and to validate predictions made by computer simulations, hence increasing the understanding of the flow phenomena. In this work, a new measuring electronics to operate a wire-mesh sensor (WMS) is introduced. Initially proposed for visualization of two-phase flow, the WMS performs the imaging of the phase distribution of a cross section based on the multiplexed measurement of an electrical property of the fluid in contact with the mesh grid of the sensor. With the passage of flow through the sensor, the phase mapping is realized by intrusive electrodes at high temporal and spatial resolution. To allow its use in multiphase flows, the new electronics developed in this work simultaneously measures the electrical permittivity and electrical conductivity of the media in the mesh grid. The basic idea is to activate the electrodes with a signal composed of two distinct frequencies. Besides the development of the electronics' hardware, a software was also implemented, by which data can be acquired and for future investigation. The performance of the new instrument has been verified by use of components (RC network) with reference values. The developed system was used to generate images of a multiphase mixture of air-oil-water in static and dynamic conditions, showing good results. Thus, the main contribution of this work is to make available a new tool for the investigation of multiphase flows.
303

Influência da revisão de atividades executadas para melhoria da acurácia na estimativa de software utilizando planning poker / Influence of the reviewing of executed activities to improve accuracy using planning poker

Tissot, André Augusto 21 August 2015 (has links)
Introdução – A área de pesquisa de estimativa de esforço de software busca melhorar a acurácia das estimativas de projetos e atividades de software. Objetivo – Este trabalho descreve o desenvolvimento e uso de uma ferramenta web de coleta de dados gerados durante a execução da técnica de estimativa Planning Poker e a análise dos dados coletados para investigação do impacto da revisão de dados históricos de esforço. Método – Foram realizadas estimativas com e sem revisão, em experimentos com alunos de computação da Universidade Tecnológica Federal do Paraná, coletando os dados relacionados à tomada de decisão em uma ferramenta web. Após isso, foi analisado o impacto causado pelas revisões na acurácia da estimativa de esforço de software utilizando Planning Poker. Resultados Obtidos – Foi analisado o comportamento de 14 grupos de estimativas. Dentre esses times, 8 deles tiveram uma melhora na acurácia maior que 50% das estimativas analisadas. Em 3 deles, a soma das estimativas que tiveram melhora com as estimativas que permaneceram estáveis ultrapassou os 50%. Em apenas 3 deles, as estimativas tiveram redução de acurácia maior que 50%. Conclusões – A Revisão de Atividades Executadas, utilizando Planning Poker, melhorou a estimativa de esforço na maioria dos casos analisados, podendo ser um importante método para aprimorar o processo de desenvolvimento de software. / Abstract – Background – The software effort estimation research area aims to improve the accuracy of this estimation in software projects and activities. Aims – This study describes the development and usage of a web application tocollect data generated from the Planning Poker estimation process and the analysis of the collected data to investigate the impact of revising previous estimates when conducting similar estimates in a Planning Poker context. Method – Software activities were estimated by Universidade Tecnológica Federal do Paraná (UTFPR) computer students, using Planning Poker, with and without revising previous similar activities, storing data regarding the decision-making process. And the collected data was used to investigate the impact that revising similar executed activities have in the software effort estimates' accuracy.Obtained Results – The UTFPR computer students were divided into 14 groups. Eight of them showed accuracy increase in more than half of their estimates. Three of them had almost the same accuracy in more than half of their estimates. And only three of them had loss of accuracy in more than half of their estimates. Conclusion – Reviewing the similar executed software activities, when using Planning Poker, led to more accurate software estimates in most cases, and, because of that, can improve the software development process.
304

Equipamento de biofeedback para tratamento fisioterápico em pacientes portadores de pé equino

Resende, Guilherme Pereira de 19 December 2014 (has links)
Este trabalho descreve o desenvolvimento de um equipamento de biofeedback para utilização por fisioterapeutas no tratamento de pacientes portadores de pé equino. Normalmente o pé equino está relacionado a uma das sequelas de um acidente vascular cerebral e é caracterizado pela dificuldade no controle motor do membro afetado, muitas vezes apresentando limitações relacionadas à sensibilidade e dificuldade em manter o calcanhar em contato com o solo durante a marcha. O equipamento foi construído com base no conceito de biofeedback, apresentando ao paciente, em tempo real, informações relacionadas à intensidade de força aplicada nos membros inferiores. O equipamento é composto de sensores de força flexíveis alojados em um par de sandálias, ligados a um circuito eletrônico microcontrolado. Todo o processamento é realizado por um MSP430, e a comunicação é feita por sinais de rádio através de um módulo CC1101. Os dados são apresentados em uma interface de software em um computador portátil a uma taxa de atualização de 20 Hz. O software possui diversas funcionalidades para atender tanto as necessidades dos fisioterapeutas quanto dos pacientes. Do ponto de vista do paciente, a interface apresenta um visual simples e objetivo, facilitando o entendimento das variações de força, apresentadas na forma de barras verticais. Foram utilizados também recursos visuais e sonoros para enfatizar aos pacientes quando os objetivos estipulados para seu tratamento foram atingidos. Outras funcionalidades foram desenvolvidas para que os fisioterapeutas tenham a opção de customizar a interface de biofeedback de acordo com a necessidade de cada paciente, além de possibilitar o armazenamento de todos os dados dos sensores para análises posteriores. O protótipo foi testado em 20 voluntários durante 10 sessões de fisioterapia, sendo 10 portadores da disfunção pé equino e outros 10 normais para compor um grupo de controle. O objetivo principal do protocolo fisioterapêutico foi melhorar a manutenção do contato como o solo no calcanhar afetado. Os valores de pressão no calcanhar afetado de todas as das sessões foram adquiridos a uma taxa de 20 Hz, armazenados e analisados segundo as seguintes métricas: média, máximos e somas acumuladas. Também foi realizada a avaliação de Berg para todos os voluntários. Os resultados demonstraram que, para as métricas analisadas e também para a avaliação de Berg, houve uma evolução em todos os pacientes. / This work describes the development of a biofeedback device to be used by physiotherapists during treatment of patients with equinus foot. Normally the equinus foot is related to one of the sequelae of a stroke and is characterized by difficulty in motor control of the affected limb, often resulting in limitations on sensitivity. The equipment was built on the concept of biofeedback, presenting to the patient, in real time, information related to the intensity of the forces applied to the lower limbs. The equipment consists of flexible force sensors accommodated in a pair of sandals, connected to a microcontrolled electronic circuit. The whole processing is performed by an MSP430, and the communication is done by radio signals through a CC1101 module. The data is presented in a software interface on a laptop computer at a refresh rate of 20 Hz. The software has many features to meet both the needs of physiotherapists as patients. From the point of view of patients, the interface was designed to be simple and objective, facilitating the understanding of force variations that change dynamically at the exact moment when the sensors are pressed. Visual signs and sound were also used to emphasize to patients when the goals established for their treatment has been reached. Other features were developed specifically for physicaltherapists, giving them the option to customize the biofeedback interface according to the needs of each patient, and also allowing the storage of all data transferred by the sensors for further analysis. A prototype was developed and tested on 20 volunteers over 10 sessions of physical therapy, 10 patients with equinus foot dysfunction, and 10 normal people to compose a control group. At the end of the treatment period, the data were analyzed by session, according to the average forces, the maximum values reached, the accumulated sums and Berg assessments. The results revealed an evolution in all patients, some of them in a greater degree and others in lower degree of progress.
305

Implante neural controlado em malha fechada / Closed loop controlled neural implant

Araujo, Carlos Eduardo de 15 December 2015 (has links)
Um dos desafios propostos por pesquisadores em neurociência aos engenheiros biomédicos é a interação cérebro-máquina. O sistema nervoso comunica-se interpretando sinais eletroquímicos, e circuitos implantáveis podem tomar decisões de modo a interagir com o meio biológico. Sabe-se também que a doença de Parkinson está relacionada a um déficit do neurotransmissor dopamina. Para controlar a concentração de dopamina diferentes técnicas tem sido empregadas como estimuladores elétricos, magnéticos e drogas. Neste trabalho obteve-se o controle da concentração do neurotransmissor de maneira automática uma vez que atualmente isto não é realizado. Para tanto, projetou-se e desenvolveu-se quatro sistemas: a estimulação cerebral profunda ou deep brain stimulation (DBS), a estimulação transmagnética ou transmagnetic stimulation (TMS), um controle de bomba de infusão ou infusion pump control (IPC) para a entrega de drogas e um sistema de voltametria cíclica de varredura rápida ou fast scan ciclic voltammetry (FSCV) (circuito que detecta variações de concentração de neurotransmissores como a dopamina - DA). Também foi necessário o desenvolvimento de softwares para a visualização de dados e análises em sincronia com acontecimentos ou experimentos correntes, facilitando a utilização destes dispositivos quando emprega-se bombas de infusão e a sua flexibilidade é tal que a DBS ou a TMS podem ser utilizadas de maneira manual ou automática além de outras técnicas de estimulação como luzes, sons, etc. O sistema desenvolvido permite controlar de forma automática a concentração da DA. A resolução do sistema é de 0.4 µmol/L podendo-se ajustar o tempo para correção da concentração entre 1 e 90 segundos. O sistema permite controlar concentrações entre 1 e 10 µmol/L, com um erro de cerca de +/- 0,8 µmol/L. Embora desenhado para o controle da concentração de dopamina o sistema pode ser utilizado para controlar outros neurotransmissores. Propõe-se continuar o desenvolvimento em malha fechada empregando FSCV e DBS (ou TMS, ou infusão), utilizando modelos animais parkinsonianos. / One of the challenges to biomedical engineers proposed by researchers in neuroscience is brain machine interaction. The nervous system communicates by interpreting electrochemical signals, and implantable circuits make decisions in order to interact with the biological environment. It is well known that Parkinson’s disease is related to a deficit of dopamine (DA). Different methods has been employed to control dopamine concentration like magnetic or electrical stimulators or drugs. In this work was automatically controlled the neurotransmitter concentration since this is not currently employed. To do that, four systems were designed and developed: deep brain stimulation (DBS), transmagnetic stimulation (TMS), Infusion Pump Control (IPC) for drug delivery, and fast scan cyclic voltammetry (FSCV) (sensing circuits which detect varying concentrations of neurotransmitters like dopamine caused by these stimulations). Some softwares also were developed for data display and analysis in synchronously with current events in the experiments. This allowed the use of infusion pumps and their flexibility is such that DBS or TMS can be used in single mode and other stimulation techniques and combinations like lights, sounds, etc. The developed system allows to control automatically the concentration of DA. The resolution of the system is around 0.4 µmol/L with time correction of concentration adjustable between 1 and 90 seconds. The system allows controlling DA concentrations between 1 and 10 µmol/L, with an error about +/- 0.8 µmol/L. Although designed to control DA concentration, the system can be used to control, the concentration of other substances. It is proposed to continue the closed loop development with FSCV and DBS (or TMS, or infusion) using parkinsonian animals models.
306

Linguagem e compilador para o paradigma orientado a notificações (PON): avanços e comparações

Ferreira, Cleverson Avelino 28 August 2015 (has links)
Atuais paradigmas correntes de programação de software, mais precisamente o Paradigma Imperativo (PI) e o Paradigma Declarativo (PD), apresentam deficiências que afetam o desempenho das aplicações e a obtenção de “desacoplamento” (ou acoplamento mínimo) entre elementos de software. Com o objetivo de amenizar essas deficiências, foi desenvolvido o Paradigma Orientado a Notificações (PON). O PON se inspira nos conceitos do PI (e.g. objetos) e do PD (e.g. base de fatos e regras), mas altera a essência da execução ou inferência lógica-causal. Basicamente, o PON usa objetos para tratar de fatos e regras na forma de composições de outros objetos menores que, entretanto, apresentam características comportamentais de certa autonomia, independência, reatividade e colaboração por meio de notificações pontuais para fins de inferência. Isto dito, salienta-se que a materialização dos conceitos do PON se deu por meio de um arquétipo ou Framework elaborado em linguagem de programação C++. Tal materialização do PON vem sendo utilizada como uma alternativa para o desenvolvimento de aplicações sob o domínio desse paradigma e possibilitou, de fato, a criação de aplicações para ambientes computacionais usuais baseados na chamada arquitetura Von Neumann. Apesar destas contribuições para com a sua materialização, o desenvolvimento de aplicações no PON ainda não apresentava resultados satisfatórios em termos de desempenho tal qual deveria a luz do seu cálculo assintótico, nem a facilidade de programação que seria uma das suas características principais. Nesse âmbito, o presente trabalho propõe como evolução para o estado da técnica do PON a criação de uma linguagem e compilador para o paradigma. Sendo assim, este trabalho apresenta a definição da linguagem criada com a utilização de exemplos práticos guiados pelo desenvolvimento de aplicações. Subsequentemente são apresentados detalhes do compilador bem como sua estrutura. Para demonstrar a evolução do estado da técnica do paradigma, no tocante a desempenho (e.g. tempo de processamento) e facilidade de programação foram realizados estudos comparativos com a utilização da linguagem e compilador. Os estudos comparativos foram guiados com a elaboração de dois softwares denominados aplicação Mira ao Alvo e aplicação de Vendas. Essas aplicações foram desenvolvidas com base na linguagem PON e foram realizados experimentos simulando sequências de execução com o intuito de avaliar o tempo de processamento para o resultado gerado pelo compilador PON. Ainda, tais experimentos possibilitaram a avaliação de maneira subjetiva da linguagem de programação PON no tocante a facilidade de programação. Deste modo, foi possível observar com tais estudos comparativos que os resultados apresentados pelo compilador PON foram satisfatórios quando comparados aos resultados obtidos pelo Framework e por aplicações equivalentes desenvolvidas baseadas no Paradigma Orientado a Objetos (POO). / The current software development paradigms, specifically the Imperative Paradigm (IP) and the Declarative Paradigm (DP), have weaknesses that affect the applications performance and decoupling (or minimal coupling) between the software modules. In order to provide a solution regarding these weaknesses, the Notification Oriented Paradigm (NOP) was developed. NOP is inspired by the concepts of the IP (e.g. objects) and DP (e.g. base of facts and Rules). Basically, NOP uses objects to deal with facts and Rules as compositions of other, smaller, objects. These objects have the following behavioral characteristics: autonomy, independence, responsiveness and collaboration through notifications. Thus, it’s highlighted that the realization of these concepts was firstly instantiated through a Framework developed in C++. Such NOP materialization has been used as an alternative for Application development in the domain of this paradigm and made possible, in fact, the creation of applications for typical computing environments based on Von Neumann architecture. The development of the C++ materialization of NOP has not presented satisfactory results in terms of performance as it should when taking into account its asymptotic calculation and programming facility. In this context, this work presents an evolution of NOP by creating a specific programming language, and its respective compiler, for this paradigm. Therefore, this work presents the language definition and the details of the development of its compiler. To evaluate the evolution regarding to performance (e.g. processing time) and programming facility, some comparative studies using the NOP language and compiler are presented. These comparative studies were performed by developing two software applications called Target and Sales Application. These applications have been developed based on NOP language, and the experiments were performed simulating sequences of execution in order to evaluate the processing time for the generated results by NOP compiler. Still, these experiments allowed the evaluation of NOP programming language, in a subjective way, regarding to ease programming. Thus, with such comparative studies, it was possible to observe that the results presented by the compiler NOP were satisfactory when compared to the results achieved via Framework and for equivalent applications developed based on the Oriented Object Paradigm (OOP).
307

Desenvolvimento de software e hardware para diagnóstico e acompanhamento de lesões dermatológicas suspeitas para câncer de pele

Oselame, Gleidson Brandão 28 August 2014 (has links)
O câncer é responsável por cerca de 7 milhões de óbitos anuais em todo o mundo. Estima-se que 25% de todos os cânceres são de pele, sendo no Brasil o tipo mais incidente em todas as regiões geográficas. Entre eles, o tipo melanoma, responsável por 4% dos cânceres de pele, cuja incidência dobrou mundialmente nos últimos dez anos. Entre os métodos diagnósticos empregados, cita-se a regra ABCD, que leva em consideração assimetria (A), bordas (B), cor (C) e diâmetro (D) de manchas ou nevos. O processamento digital de imagens tem mostrado um bom potencial para auxiliar no diagnóstico precoce de melanomas. Neste sentido, o objetivo do presente estudo foi desenvolver um software, na plataforma MATLAB®, associado a um hardware para padronizar a aquisição de imagens, visando realizar o diagnóstico e acompanhamento de lesões cutâneas suspeitas de malignidade (melanoma). Utilizou-se como norteador a regra ABCD para o desenvolvimento de métodos de análise computacional. Empregou-se o MATLAB como ambiente de programação para o desenvolvimento de um software para o processamento digital de imagens. As imagens utilizadas foram adquiridas de dois bancos de imagens de acesso livre. Foram inclusas imagens de melanomas (n=15) e imagens nevos (não câncer) (n=15). Utilizaram-se imagens no canal de cor RGB, as quais foram convertidas para escala de cinza, aplicação de filtro de mediana 8x8 e técnica de aproximação por vizinhança 3x3. Após, procedeu-se a binarização e inversão de preto e branco para posterior extração das características do contorno da lesão. Para a aquisição padronizada de imagens foi desenvolvido um protótipo de hardware, o qual não foi empregado neste estudo (que utilizou imagens com diagnóstico fechado, de bancos de imagem), mas foi validado para a avaliação do diâmetro das lesões (D). Utilizou-se a estatística descritiva onde os grupos foram submetidos ao teste não paramétrico para duas amostras independentes de Mann-Whitney U. Ainda, para avaliar a sensibilidade (SE) e especificidade (SP) de cada variável, empregou-se a curva ROC. O classificador utilizado foi uma rede neural artificial de base radial, obtendo acerto diagnóstico para as imagens melanomas de 100% e para imagens não câncer de 90,9%. Desta forma, o acerto global para predição diagnóstica foi de 95,5%. Em relação a SE e SP do método proposto, obteve uma área sob a curva ROC de 0,967, o que sugere uma excelente capacidade de predição diagnóstica, sobretudo, com baixo custo de utilização, visto que o software pode ser executado na grande maioria dos sistemas operacionais hoje utilizados. / Cancer is responsible for about 7 million deaths annually worldwide. It is estimated that 25% of all cancers are skin, and in Brazil the most frequent in all geographic regions type. Among them, the melanoma type, accounting for 4% of skin cancers, whose incidence has doubled worldwide in the past decade. Among the diagnostic methods employed, it is cited ABCD rule which considers asymmetry (A), edges (B), color (C) and diameter (D) stains or nevi. The digital image processing has shown good potential to aid in early diagnosis of melanoma. In this sense, the objective of this study was to develop software in MATLAB® platform, associated with hardware to standardize image acquisition aiming at performing the diagnosis and monitoring of suspected malignancy (melanoma) skin lesions. Was used as the ABCD rule for guiding the development of methods of computational analysis. We used MATLAB as a programming environment for the development of software for digital image processing. The images used were acquired two banks pictures free access. Images of melanomas (n = 15) and pictures nevi (not cancer) (n = 15) were included. We used the image in RGB color channel, which were converted to grayscale, application of 8x8 median filter and approximation technique for 3x3 neighborhood. After we preceded binarization and reversing black and white for subsequent feature extraction contours of the lesion. For the standardized image acquisition was developed a prototype hardware, which was not used in this study (that used with enclosed diagnostic images of image banks), but has been validated for evaluation of lesion diameter (D). We used descriptive statistics where the groups were subjected to non-parametric test for two independent samples Mann-Whitney U test yet, to evaluate the sensitivity (SE) and specificity (SP) of each variable, we used the ROC curve. The classifier used was an artificial neural network with radial basis function, obtaining diagnostic accuracy for melanoma images and 100% for images not cancer of 90.9%. Thus, the overall diagnostic accuracy for prediction was 95.5%. Regarding the SE and SP of the proposed method, obtained an area under the ROC curve of 0.967, which suggests an excellent diagnostic ability to predict, especially with low costs, since the software can be run in most systems operational use today.
308

Uma estratégia de interação na Web para a análise de sistemas elétricos de potência

Tamashiro, Márcio Augusto 14 October 2016 (has links)
CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Atualmente, muitos trabalhos técnicos e científicos importantes só são possíveis com o auxílio de computadores e de programas específicos. Na Engenharia Elétrica esses recursos são utilizados em estudos estáticos e dinâmicos de sistemas elétricos de potência, os quais dão suporte, por exemplo, ao planejamento e a operação da rede elétrica realizados pelas empresas do setor. Em função dessa importância é grande a quantidade de programas disponíveis, comerciais ou não. As aplicações comerciais são conhecidas por serem computacionalmente eficientes, bem como pela quantidade de recursos oferecidos, mas apesar disso, não são adequadas para fins educacionais ou para a realização de pesquisas. Um dos principais motivos apontados é porque o código fonte não é fornecido, e assim não podem ser estudados ou adaptados conforme a necessidade. Por isso muitos usuários principalmente do meio acadêmico preferem criar suas próprias aplicações, sendo a maioria delas desenvolvidas no MATLAB ou escritas nas linguagens de programação FORTRAN e C++. Esses programas são disponibilizados como aplicações desktop destinadas geralmente a somente um tipo de estudo e com uma interface pouco amigável. Entretanto, existem algumas opções com características mais atrativas como a existência de uma interface gráfica com o usuário, e número de recursos computacionais próximos àqueles encontrados nas aplicações comercias. Na literatura há ainda propostas de aplicações web cuja principal vantagem é o acesso remoto e simultâneo por qualquer computador. No geral, as aplicações existentes não disponibilizam recursos de colaboração em tempo real, e não permitem a interoperabilidade com outras aplicações. Nesse contexto, esta tese focou na investigação da implementação de uma aplicação web para a análise de sistemas elétricos, explorando esses dois aspectos supracitados. Para isso alguns programas similares, sem fins comerciais e com código fonte disponível, foram investigados. E também foram selecionadas e apresentadas as ferramentas computacionais necessárias ao desenvolvimento da aplicação. As investigações e as implementações computacionais realizadas, bem como os resultados obtidos são devidamente apresentados e analisados ao final deste trabalho. / Currently, many important technical and scientific works are only possible with the aid of computers and specific programs. In Electrical Engineering, these resources are both used in static and dynamic studies of electric power systems, which give support, for example, to the planning, and operation of the grid performed by companies in the sector. Because of this, there is a large number of commercial or non-commercial programs available. Commercial applications are known to be computationally efficient as well as the amount of offered resources; nevertheless, they are not suitable for educational purposes or for conducting research. One of the main reasons pointed out is because they are not open source, and thus they cannot be studied or adapted as needed. Thus, many users, quite often in academia, prefer to create their own applications, most of them written in MATLAB, FORTRAN and C ++ programming languages. These programs are provided as desktop applications usually designed to only one type of study and without user-friendly interface. However, there are a few options with more attractive features such as the existence of a graphical user interface, and number of computational resources close to those found in commercial applications. There are also proposals in the literature for web applications whose main advantage is the remote and simultaneous access by any computer. Generally, the existing applications do not make available real-time collaboration features, and no interoperability with other applications. In this context, this thesis focused on the research of the implementation of a web application for analysis of electrical power systems, exploring these two aspects above mentioned. For that, some similar non-commercial programs and open-source were deeply investigated. In addition, the computational tools necessary to develop the application were selected and presented. The investigations and computational implementation performed here, as well as the results are properly presented and analyzed at the end of this work. / Tese (Doutorado)
309

Qualitas: uma modelo de processo de desenvolvimento de software orientado a modelos

Almeida, Carla Cássia de Jesus 25 February 2014 (has links)
The Model Driven Development (MDD) is a paradigm of development of software products, whose objective is to put the models as the main artifact of the development process, instead of putting the source code. In recent years, researches in Software Engineering area have created and adjusted definitions, methods and structures for the achievement of this paradigm. However, the models of the software development process, as well as testing activities involved in these models are not adequate and do not allow the effective use of this paradigm. In order that the Software Engineering area has as it main goal, the development of software products with quality, it is also necessary that these models of the development process involves increasingly approaches to software testing, with the intent to commit them from the early stages, aiming to identify and correct the errors as soon as possible, adding quality to the software. An approach that uses models in software testing is the Model Driven Testing (MDT), which one makes use of the MDD practices, through the automatic generation of test artifacts according to the rules of predefined transformation from development models. Thus, this work presents the Qualitas, a model for the development of model-driven software, which allows the use of both models in the effective integration of MDD and MDT. The model seeks to promote a greater control of the stages and activities of the software development process, but also to add quality to software products developed. A review and an experimental study of Qualitas was performed through the implementation of activities related to the Federal University of Sergipe (UFS) Neonatal Screening System of the University Hospital (HU) functionality, highlighting the advantages and limitations of the model presented. / O Model Driven Development (MDD) é um paradigma de desenvolvimento de produtos de software, cujo objetivo é colocar os modelos como o artefato central do processo de desenvolvimento, ao invés do código-fonte. Nos últimos anos, pesquisas na área de Engenharia de Software têm criado e adaptado definições, métodos e estruturas para a realização desse paradigma. No entanto, os modelos de processo de desenvolvimento de software, bem como as atividades de testes envolvidas nestes modelos não são adequados e não permitem o uso efetivo desse paradigma. Tendo em vista que, a área de Engenharia de Software possui como objetivo principal o desenvolvimento de produtos de software com qualidade, é necessário também que estes modelos de processo de desenvolvimento envolvam cada vez mais abordagens de teste de software, com o intuito de realizá-los desde as fases iniciais software, visando que os erros sejam identificados e corrigidos quanto mais cedo possível, agregando qualidade ao software. Uma abordagem que faz uso de modelos no teste de software é o Model Driven Testing (MDT), a qual faz uso de práticas do MDD, através da geração automática de artefatos de teste de acordo com as regras de transformação prédefinidas a partir de modelos de desenvolvimento. Desta forma, este trabalho apresenta o Qualitas, um modelo de processo para o desenvolvimento de software orientado a modelos, que possibilite tanto o uso de modelos quanto a efetiva integração do MDD e MDT. O modelo busca promover um maior controle das etapas e atividades do processo de desenvolvimento de software, como também agregar qualidade aos produtos de software desenvolvidos. Uma avaliação e um estudo experimental do Qualitas foi realizada através da implementação de funcionalidades relacionadas ao Sistema de Triagem Neonatal do Hospital Universitário (HU) da Universidade Federal de Sergipe (UFS), destacando as vantagens e mostrando as limitações do modelo.
310

Uma arquitetura de software para implementação de um EHR utilizando SOA considerando a interoperabilidade entre sistemas legados

Lima, Josimar de Souza 25 August 2016 (has links)
In today’s world, information systems are increasingly necessary for organizations to continue to provide their services with quality. These systems have become increasingly heterogeneous and complex. Executing them in an integrated manner with other systems has become a prerequisite. Due to the existence of legacy systems with stored data that needs to be maintained, the integration between systems is impaired. This situation is aggravated when it comes to health information systems because there are specific laws that require that data need to kept for decades. One well-known health information system is the Electronic Health Record (EHR). The EHR system is the electronic record of the patient’s health consisting of information coming from di erent systems. These systems are often developed by di erent companies and use di erent technologies. With this in mind, the use of a Service-Oriented Architecture (SOA) becomes very useful, since it is a solution capable of integrating heterogeneous structures using specific standards such as web services. However, designing SOA-based systems is not a trivial task. A robust and well-defined architecture is crucial to the success of applications based on SOA paradigm. Therefore, this study aimed to present a software architecture for the development of an EHR system based on SOA considering interoperability between legacy systems. Thus, a set of research methods were applied. Initially, a literature review was conducted in order to find relevant papers that could help in the development of applications in healthcare. This review was bounded on the studies related to EHR systems. The review of these studies aimed to first build a base of knowledge about problems, di culties and challenges regarding the implementation of EHR systems. The analysis of the literature showed that there was a deficiency in precisely defining a specific architecture for the development of EHR systems.The architecture is used a case study in order to test the applicability of the same. The object of this study was the University Hospital of the Federal University of Sergipe where it was developed an EHR system prototype. The architecture proposed in this work was of fundamental importance to the development of the EHR system prototype. The proposed architecture has enabled communication between the EHR system prototype and applications that mimicked the Legacies systems. Among the limitations of the case study, that were not possible to be used to the real legacy systems to the achievement of architecture tests. Applications were created that simulated real systems. However, these simulations did not a ect the result of the study which showed how to satisfactorily creating a software architecture based on SOA for building an EHR system considering interoperability between legacy system. / No mundo atual, sistemas de informação são cada vez mais necessários para que organizações continuem prestando seus serviços com qualidade. Estes sistemas têm se tornado cada vez mais heterogêneos e complexos. Funcionar de maneira integrada com outros sistemas passou a ser um pré-requisito. Devido à existência de sistemas legados com dados armazenados que precisam ser mantidos, a integração entre sistemas fica prejudicada. Essa situação é agravada quando se trata de sistemas de informação em saúde pois existem legislações específicas que exigem que os dados sejam mantidos por décadas. Um sistema de informação em saúde bem conhecido é o Electronic Health Record (EHR). O sistema EHR é o registro eletrônico de saúde do paciente composto por informações vindas de diversos sistemas. Estes sistemas muitas vezes são desenvolvidos por empresas diferentes e utilizam tecnologias diferentes. Com isso em mente, o uso de uma Service-Oriented Architecture (SOA) se torna bastante útil, visto que é uma solução capaz de integrar estruturas heterogêneas utilizando padrões específicos como por exemplo web services. No entanto, projetar sistemas baseados em SOA não é uma tarefa trivial. Uma arquitetura robusta e bem definida é crucial para o sucesso de aplicações baseadas no paradigma SOA. Por essa razão, este trabalho teve como objetivo apresentar uma arquitetura de software para desenvolvimento de um sistema EHR baseado em SOA considerando a interoperabilidade entre sistemas legados. Para tanto, um conjunto de métodos de pesquisa foram aplicados. Inicialmente foi realizada uma revisão da literatura com o intuito de encontrar trabalhos relevantes que pudessem auxiliar no desenvolvimento de aplicações na área de saúde. Esta revisão foi delimitada a estudos relacionados aos sistemas EHR. A revisão destes estudos visou primeiramente construir uma base de conhecimento a respeito de problemas, dificuldades e desafios em relação a implementação de sistemas EHR. A análise da literatura mostrou que existia uma deficiência justamente na definição de uma arquitetura específica para o desenvolvimento de sistemas EHR. Assim, foi definida uma arquitetura de implementação e esta foi utilizada em um estudo de caso com o objetivo de testar a aplicabilidade da mesma. O objeto deste estudo foi o Hospital Universitário da Universidade Federal de Sergipe onde foi desenvolvido um protótipo de sistema EHR. A arquitetura proposta neste trabalho foi de fundamental importância para o desenvolvimento do protótipo de sistema EHR. A arquitetura proposta permitiu a comunicação entre o protótipo de sistema EHR e as aplicações que simularam os sistemas legados. Entre as limitações do estudo de caso, destaca-se a não utilização de sistemas legados reais para a realização dos testes da arquitetura. Foram criadas aplicações que simularam os sistemas reais. No entanto, estas simulações não interferiram no resultado do estudo que mostrou de maneira satisfatória a criação de uma arquitetura de software baseada em SOA para construção de um sistema EHR considerando a interoperabilidade entre sistema legados.

Page generated in 0.0766 seconds