Spelling suggestions: "subject:"computer software devevelopment."" "subject:"computer software agentdevelopment.""
291 |
Know-cap: um método para capitalização de conhecimento no desenvolvimento de software / Know-cap: a method to knowledge capitalization in the software developmentLeal, Gislaine Camila Lapasini 04 December 2015 (has links)
O caráter intensivo em conhecimento da produção de software e sua crescente demanda sugerem a necessidade de definir mecanismos para gerenciar adequadamente os conhecimentos envolvidos com o objetivo de alcançar os requisitos de prazo, custos e qualidade. A capitalização do conhecimento é um processo que envolve desde a identificação até a avaliação dos conhecimentos produzidos e utilizados. Especificamente, para o desenvolvimento de software, a capitalização possibilita facilitar o acesso, minimizar a perda de conhecimento, reduzir a curva de aprendizagem, evitar a repetição de erros e retrabalho. Assim, esta tese apresenta o Know-Cap, um método desenvolvido para sistematizar e orientar a capitalização do conhecimento no desenvolvimento de software. O Know-Cap visa facilitar a localização, preservação, agregação de valor e atualização do conhecimento, com o intuito de utilizá-lo na execução de novas tarefas. O método foi proposto a partir de um conjunto de procedimentos metodológicos: pesquisa bibliográfica, revisão sistemática e análise de trabalhos correlatos. A viabilidade e adequação do Know-Cap foram analisadas a partir de um estudo de aplicação, conduzido em um caso real, e um estudo de análise realizado em empresas de desenvolvimento de software. Os resultados obtidos apontam que o Know-Cap apoia a capitalização do conhecimento no desenvolvimento de software. / The intensive character in knowledge of software production and its rising demand suggest the need to establish mechanisms to properly manage the knowledge involved in order to meet the requirements of deadline, costs and quality. The knowledge capitalization is a process that involves from identification to evaluation of the knowledge produced and used. Specifically, for software development, capitalization enables easier access, minimize the loss of knowledge, reducing the learning curve, avoid repeating errors and rework. Thus, this thesis presents the know-Cap, a method developed to organize and guide the capitalization of knowledge in software development. The Know-Cap facilitates the location, preservation, value addition and updating of knowledge, in order to use it in the execution of new tasks. The method was proposed from a set of methodological procedures: literature review, systematic review and analysis of related work. The feasibility and appropriateness of Know-Cap were analyzed from an application study, conducted in a real case, and an analytical study of software development companies. The results obtained indicate the Know- Cap supports the capitalization of knowledge in software development.
|
292 |
Proposição para adaptação de termos do CMMI-DEV 1.3 para aplicação em PDPS de empresas de manufaturaAraujo, Sandro de 18 November 2013 (has links)
Com um mercado global cada vez mais agressivo e competitivo, as indústrias têm buscado meios para se manterem competitivas. O Processo de Desenvolvimento de Produtos (PDP) ocupa um importante papel na estratégia das empresas que buscam um diferencial competitivo. Entretanto, para um PDP se tornar um diferencial competitivo, ele deve apresentar um patamar mínimo de maturidade, que representa o seu potencial de crescimento de capacitação, a riqueza do processo da organização e a consistência com que ele é aplicado em todos os seus projetos. Existem vários modelos que permitem avaliar a maturidade de um PDP. Porém, o Capability Maturity Model Integration (CMMI) fornece uma solução integrada que abrange atividades de desenvolvimento e manutenção de produtos e serviços. Entretanto, ele foi originalmente criado para analisar indústrias de tecnologia de informação, não abrangendo os termos utilizados nas empresas de manufatura. Sendo assim, o objetivo deste trabalho é propor uma estratégia que adapte parte do modelo CMMI-DEV 1.3, viabiliza e facilita o entendimento das suas metas e práticas para empresas de manufatura. Para isso, é apresentada uma revisão bibliográfica sobre o CMMI-DEV 1.3, PDP de empresas de manufatura e estratégias utilizadas para adaptar termos de métodos, modelos ou ferramentas entre áreas de especialidades distintas, incluindo um detalhamento conceitual de seus itens para, posteriormente, identificar a parte do modelo a ser adaptado nesse trabalho. Após esta delimitação, os termos são correlacionados com termos similares aos encontrados na literatura de empresas de manufatura e validados através da revisão por pares. Visando verificar a eficiência da estratégia para adaptação dos termos, recorre-se a entrevistas com sete profissionais de quatro indústrias e um acadêmico, todos variando de três a quinze anos de experiência na área de PDP. Entre os resultados, o trabalho contribui com uma proposição para a adaptação de termos do modelo CMMI-DEV 1.3 utilizado em indústrias de TI para o PDP das empresas de manufatura. / Through a global market increasingly aggressive and competitive, many industries are seeking ways to keep competitive. The Product Development Process (PDP) plays an important role in the strategy of companies that look for a competitive advantage. However, for the PDP become a competitive advantage, it must provide a minimum level of maturity, which represents the growth potential of training, the wealth of the organization's process and the consistency which it is applied in all its projects. There are several models for assessing the maturity of the PDP, but the Capability Maturity Model Integration (CMMI) provides an integrated solution that covers development activities and maintenance of products and services. However, it was originally created to analyze the information technology industries, not covering the terms used in manufacturing companies. Thus, the aim of this work is propose a strategy to adapt the CMMI - DEV 1.3, enabling easier understanding of their goals and practices for manufacturing companies. For it is presented a review on the CMMI - DEV 1.3 PDP manufacturing companies and strategies used to adapt terms of methods models or tools among different speciality areas, including a detailed concept of their items in order to identify the part of the model to be adapted in this work. After this definition, the terms are correlated with similar terms to those found in the literature of manufacturing companies and validated through peer review. In order to verify the effectiveness of the strategy to adapt the terms, the study performed interviews with seven professionals from four manufacturing industries and one academic, all of them ranging from three to fifteen years of experience in the PDP. Among the results, the study contributes to a proposition for adaptation of CMMI-DEV 1.3 used in IT industries for the PDP of manufacturing companies.
|
293 |
Sistema inteligente para monitoramento e predição do estado clínico de pacientes baseado em lógica fuzzy e redes neuraisSchatz, Cecilia Haydee Vallejos de 18 February 2014 (has links)
CAPES / O conforto e a liberdade de movimentos de pacientes com doenças crônicas e que têm que ser continuamente monitorados é um tema que tem incentivado o desenvolvimento de novas tecnologias como as redes de sensores corporais sem fios (WBAN) e novas áreas de pesquisa como a telemedicina. Além disso, a incorporação de software inteligente que permite simular o raciocínio dos especialistas, auxiliá-los na tomada de decisões e detectar com antecedência condições anormais ou tendência ao desenvolvimento de determinadas doenças, abre um campo ainda maior de pesquisas, como o campo da Inteligência Artificial na Medicina (AIM). O monitoramento de pacientes por meio de equipamentos sem fios, em conjunto com a tecnologia AIM, permite desenvolver soluções práticas para monitorar pacientes sem descuidar de seu conforto. Nesta tese foram pesquisadas técnicas inteligentes para o desenvolvimento de uma aplicação que permita monitorar cinco sinais vitais de pacientes sem que eles precisem usar leitos hospitalares. Em uma primeira etapa, os procedimentos médicos tipicamente usados pelos especialistas para avaliar um paciente foram estudados e transformados em regras para o modelo fuzzy. O modelo fuzzy proposto permite analisar o estado clínico presente do paciente e criar as saídas desejadas (targets) que permitam treinar as redes neurais artificiais. Posteriormente foi desenvolvido um modelo neural que, analisando os dados atuais e saídas anteriores do paciente, permite prever o seu estado clínico futuro próximo. A fim de achar a metodologia mais exata, cinco redes neurais artificiais foram analisadas e comparadas umas às outras. As redes Elman MISO, Elman MIMO, e NNARX – totalmente conectadas e podadas – foram testadas. O modelo fuzzy teve um excelente resultado concordando com as respostas dadas pelos especialistas em 99,76% dos casos. Depois de analisar as redes propostas no conjunto de validação, os resultados revelaram que unicamente a rede NNARX podada pode oferecer a mais alta acurácia de 99,82%, enquanto os outros modelos degradam o seu desempenho em até 35%. As técnicas de parada antecipada para o treinamento junto com a obtenção de valores médios de MSE, FPE e coeficientes de correlação conseguiram obter as melhores topologias de cada tipo de rede, fazendo quase desnecessária a sua poda. As redes NNARX e P-NNARX conseguiram resultados bem melhores que as redes restantes, mas a acurácia na rede P-NNARX observou um aumento de 1,27% em relação à rede NNARX. Como conclusão, pode-se dizer que, para este caso particular, as redes NNARX capturam a essência do sistema dinâmico não linear muito melhor do que as redes Elman. Finalmente, a rede P-NNARX foi a escolhida para a implementação do sistema inteligente proposto nesta tese. A sua acurácia foi de 99,25% para uma predição no tempo (t + d), onde d = 1 segundo, utilizando os dados de 30 novos pacientes. Foram feitas mais provas com periodos de predição maiores e o sistema demostrou uma ligeira diminuição na acurácia, chegando a 94,58% para d = 60 segundos, mas ainda ficando na faixa dos 90%. Os resultados demonstram o alto nível de generalização do sistema e o excelente desempenho na predição dos três estados clínicos do paciente (estável, semiestável e instável). Pretende-se que este sistema inteligente possa ser usado como ferramenta para a medicina preventiva em pacientes crônicos. / The comfort and freedom of movements of patients that have to be continually monitored is a theme that has motivated the development of new technologies such as networks of wireless body sensors (WBAN) and new research areas such as telemedicine. In addition, the incorporation of intelligent software to simulate the reasoning of experts, assist them in decision making and in early detection of abnormal conditions or tendencies to develop certain diseases, opens an even larger field of research, such as the field of Artificial Intelligence in Medicine (AIM beings its acronym in English). Patient monitoring through wireless equipment and AIM technology allows to develop practical solutions to control patients in environments outside of clinics or hospitals. In this thesis, intelligent tools were used for the development of an application that allows monitoring of five vital signs of patients without them being present in a hospital bed. In a first step, typical medical procedures used by specialists for evaluating a patient were studied and transformed into rules for the fuzzy model. The proposed fuzzy model allows the analysis of the current state of the patient to create the desired outputs (targets) that are used to train the artificial neural networks. Then, a neural model was developed which, by analysing current and historic patient data, forecasts patients’ clinical status in the near future. In order to find the most exact methodology, five artificial neural networks were analyzed and compared with each other using thousands of real patient data sets. Elman MISO, Elman MIMO and NNARX – fully connected and pruned – were tested. The fuzzy model answered in a excelent form, agreeing in 99.76% to the answers given by the experts. After analizing the proposed networks in the validation dataset, it was discovered that the pruned NNARX can offer the highest overall accuracy of 99.82%, whereas the others show a decrease of up to 35%. Through techniques such as early stopping for the training with the search of the mean of MSE, FPE and correlation coefficients it was possible to achieve the best topologies of every network type, making their pruning almost unnecessary. The fully connected NNARX and the P-NNARX achieved much better results than other networks, but an increase of 1.27% was observed in the overall accuracy of the pruned network with respect to the NNARX. It can be said that for this particular case, NNARX networks capture the essence of the non-linear dynamic system much better than Elman. Finally, the P-NNARX model was chosen for the implementation of the proposed smart system. Its overall acuracy was of 99.25%, for the prediction time (t + d), with d = 1 second, by using unseen data of 30 new patients. More tests made with longer prediction periods demonstrate a slight decrease in the overall accuracy reaching up to 94.58% for d = 60 seconds. Nevertheless, it still remained over 90%. Results demonstrate the high generalization level of the system and its excellent performance in predicting the three possible patient conditions (stable, semi-stable, unstable). The next step is to turn this intelligent system into an usefull tool for preventive medicine for chronic patients.
|
294 |
Sensor wire-mesh de impedância para investigação de escoamentos multifásicosVendruscolo, Tiago Piovesan 03 July 2012 (has links)
BG - Brasil e do Instituto Brasileiro de Petróleo, Gás e Biocombustíveis / Escoamentos multifásicos estão presentes em diversas atividades industriais como na exploração, produção e transporte de petróleo e gás, onde é comum encontrar escoando por dutos uma mistura de óleo, gás e água. Em muitos casos, o tipo de escoamento determina a eficiência e segurança dos processos e equipamentos onde ocorrem. Com isso, investigações experimentais de escoamento multifásicos são de grande importância no auxilio do desenvolvimento de modelos teóricos e na validação de predições realizadas por simulações, ampliando o entendimento do fenômeno. No passado algumas técnicas para investigação de escoamentos multifásicos foram propostas e aplicadas. Contudo, estas técnicas, na sua maioria, estão limitadas a investigação de escoamentos envolvendo apenas duas fases. Neste trabalho, foi proposta uma nova eletrônica para operar um sensor de malha de eletrodos (Wire-Mesh Sensor) que é capaz de investigar escoamentos contendo até três fases. Inicialmente proposto para visualização de escoamentos bifásicos, o sensor wire-mesh realiza o imageamento da distribuição de fases de uma seção transversal. Com a passagem do escoamento através do sensor, o mapeamento das fases é realizado de forma intrusiva com alta resolução temporal e espacial. Para possibilitar seu uso em escoamentos trifásicos, neste trabalho foi desenvolvida uma nova eletrônica capaz de medir simultaneamente a permissividade elétrica e a condutividade elétrica do fluido presente entre os eletrodos do sensor. O princípio básico do funcionamento é baseado na excitação com duas frequências distintas. Além do hardware foi também desenvolvido um software, onde é possível salvar os dados adquiridos em uma base de dados para futuros estudos. O desempenho da nova eletrônica foi verificado através de medições em componentes (rede RC) com valores de referência. O sistema completo foi utilizado para gerar imagens de uma mistura trifásica ar-óleo-água em condições estáticas e dinâmicas, apresentando bons resultados. Desta forma, a principal contribuição deste trabalho é a disponibilização de uma nova ferramenta para análise de escoamentos multifásicos. / Multiphase flows are present in many industrial activities such as in exploration, production and transportation of oil and gas, in which is common to find a mixture of oil, gas and water flowing inside pipes. In many cases this type of flow determines the efficiency and safety of the processes and equipment where they occur. In this way, experimental investigations of multiphase flow are of great value to develop new theoretical models and to validate predictions made by computer simulations, hence increasing the understanding of the flow phenomena. In this work, a new measuring electronics to operate a wire-mesh sensor (WMS) is introduced. Initially proposed for visualization of two-phase flow, the WMS performs the imaging of the phase distribution of a cross section based on the multiplexed measurement of an electrical property of the fluid in contact with the mesh grid of the sensor. With the passage of flow through the sensor, the phase mapping is realized by intrusive electrodes at high temporal and spatial resolution. To allow its use in multiphase flows, the new electronics developed in this work simultaneously measures the electrical permittivity and electrical conductivity of the media in the mesh grid. The basic idea is to activate the electrodes with a signal composed of two distinct frequencies. Besides the development of the electronics' hardware, a software was also implemented, by which data can be acquired and for future investigation. The performance of the new instrument has been verified by use of components (RC network) with reference values. The developed system was used to generate images of a multiphase mixture of air-oil-water in static and dynamic conditions, showing good results. Thus, the main contribution of this work is to make available a new tool for the investigation of multiphase flows.
|
295 |
Equipamento de biofeedback para tratamento fisioterápico em pacientes portadores de pé equinoResende, Guilherme Pereira de 19 December 2014 (has links)
Este trabalho descreve o desenvolvimento de um equipamento de biofeedback para utilização por fisioterapeutas no tratamento de pacientes portadores de pé equino. Normalmente o pé equino está relacionado a uma das sequelas de um acidente vascular cerebral e é caracterizado pela dificuldade no controle motor do membro afetado, muitas vezes apresentando limitações relacionadas à sensibilidade e dificuldade em manter o calcanhar em contato com o solo durante a marcha. O equipamento foi construído com base no conceito de biofeedback, apresentando ao paciente, em tempo real, informações relacionadas à intensidade de força aplicada nos membros inferiores. O equipamento é composto de sensores de força flexíveis alojados em um par de sandálias, ligados a um circuito eletrônico microcontrolado. Todo o processamento é realizado por um MSP430, e a comunicação é feita por sinais de rádio através de um módulo CC1101. Os dados são apresentados em uma interface de software em um computador portátil a uma taxa de atualização de 20 Hz. O software possui diversas funcionalidades para atender tanto as necessidades dos fisioterapeutas quanto dos pacientes. Do ponto de vista do paciente, a interface apresenta um visual simples e objetivo, facilitando o entendimento das variações de força, apresentadas na forma de barras verticais. Foram utilizados também recursos visuais e sonoros para enfatizar aos pacientes quando os objetivos estipulados para seu tratamento foram atingidos. Outras funcionalidades foram desenvolvidas para que os fisioterapeutas tenham a opção de customizar a interface de biofeedback de acordo com a necessidade de cada paciente, além de possibilitar o armazenamento de todos os dados dos sensores para análises posteriores. O protótipo foi testado em 20 voluntários durante 10 sessões de fisioterapia, sendo 10 portadores da disfunção pé equino e outros 10 normais para compor um grupo de controle. O objetivo principal do protocolo fisioterapêutico foi melhorar a manutenção do contato como o solo no calcanhar afetado. Os valores de pressão no calcanhar afetado de todas as das sessões foram adquiridos a uma taxa de 20 Hz, armazenados e analisados segundo as seguintes métricas: média, máximos e somas acumuladas. Também foi realizada a avaliação de Berg para todos os voluntários. Os resultados demonstraram que, para as métricas analisadas e também para a avaliação de Berg, houve uma evolução em todos os pacientes. / This work describes the development of a biofeedback device to be used by physiotherapists during treatment of patients with equinus foot. Normally the equinus foot is related to one of the sequelae of a stroke and is characterized by difficulty in motor control of the affected limb, often resulting in limitations on sensitivity. The equipment was built on the concept of biofeedback, presenting to the patient, in real time, information related to the intensity of the forces applied to the lower limbs. The equipment consists of flexible force sensors accommodated in a pair of sandals, connected to a microcontrolled electronic circuit. The whole processing is performed by an MSP430, and the communication is done by radio signals through a CC1101 module. The data is presented in a software interface on a laptop computer at a refresh rate of 20 Hz. The software has many features to meet both the needs of physiotherapists as patients. From the point of view of patients, the interface was designed to be simple and objective, facilitating the understanding of force variations that change dynamically at the exact moment when the sensors are pressed. Visual signs and sound were also used to emphasize to patients when the goals established for their treatment has been reached. Other features were developed specifically for physicaltherapists, giving them the option to customize the biofeedback interface according to the needs of each patient, and also allowing the storage of all data transferred by the sensors for further analysis. A prototype was developed and tested on 20 volunteers over 10 sessions of physical therapy, 10 patients with equinus foot dysfunction, and 10 normal people to compose a control group. At the end of the treatment period, the data were analyzed by session, according to the average forces, the maximum values reached, the accumulated sums and Berg assessments. The results revealed an evolution in all patients, some of them in a greater degree and others in lower degree of progress.
|
296 |
Influência da revisão de atividades executadas para melhoria da acurácia na estimativa de software utilizando planning poker / Influence of the reviewing of executed activities to improve accuracy using planning pokerTissot, André Augusto 21 August 2015 (has links)
Introdução – A área de pesquisa de estimativa de esforço de software busca melhorar a acurácia das estimativas de projetos e atividades de software. Objetivo – Este trabalho descreve o desenvolvimento e uso de uma ferramenta web de coleta de dados gerados durante a execução da técnica de estimativa Planning Poker e a análise dos dados coletados para investigação do impacto da revisão de dados históricos de esforço. Método – Foram realizadas estimativas com e sem revisão, em experimentos com alunos de computação da Universidade Tecnológica Federal do Paraná, coletando os dados relacionados à tomada de decisão em uma ferramenta web. Após isso, foi analisado o impacto causado pelas revisões na acurácia da estimativa de esforço de software utilizando Planning Poker. Resultados Obtidos – Foi analisado o comportamento de 14 grupos de estimativas. Dentre esses times, 8 deles tiveram uma melhora na acurácia maior que 50% das estimativas analisadas. Em 3 deles, a soma das estimativas que tiveram melhora com as estimativas que permaneceram estáveis ultrapassou os 50%. Em apenas 3 deles, as estimativas tiveram redução de acurácia maior que 50%. Conclusões – A Revisão de Atividades Executadas, utilizando Planning Poker, melhorou a estimativa de esforço na maioria dos casos analisados, podendo ser um importante método para aprimorar o processo de desenvolvimento de software. / Abstract – Background – The software effort estimation research area aims to improve the accuracy of this estimation in software projects and activities. Aims – This study describes the development and usage of a web application tocollect data generated from the Planning Poker estimation process and the analysis of the collected data to investigate the impact of revising previous estimates when conducting similar estimates in a Planning Poker context. Method – Software activities were estimated by Universidade Tecnológica Federal do Paraná (UTFPR) computer students, using Planning Poker, with and without revising previous similar activities, storing data regarding the decision-making process. And the collected data was used to investigate the impact that revising similar executed activities have in the software effort estimates' accuracy.Obtained Results – The UTFPR computer students were divided into 14 groups. Eight of them showed accuracy increase in more than half of their estimates. Three of them had almost the same accuracy in more than half of their estimates. And only three of them had loss of accuracy in more than half of their estimates. Conclusion – Reviewing the similar executed software activities, when using Planning Poker, led to more accurate software estimates in most cases, and, because of that, can improve the software development process.
|
297 |
Linguagem e compilador para o paradigma orientado a notificações (PON): avanços e comparaçõesFerreira, Cleverson Avelino 28 August 2015 (has links)
Atuais paradigmas correntes de programação de software, mais precisamente o Paradigma Imperativo (PI) e o Paradigma Declarativo (PD), apresentam deficiências que afetam o desempenho das aplicações e a obtenção de “desacoplamento” (ou acoplamento mínimo) entre elementos de software. Com o objetivo de amenizar essas deficiências, foi desenvolvido o Paradigma Orientado a Notificações (PON). O PON se inspira nos conceitos do PI (e.g. objetos) e do PD (e.g. base de fatos e regras), mas altera a essência da execução ou inferência lógica-causal. Basicamente, o PON usa objetos para tratar de fatos e regras na forma de composições de outros objetos menores que, entretanto, apresentam características comportamentais de certa autonomia, independência, reatividade e colaboração por meio de notificações pontuais para fins de inferência. Isto dito, salienta-se que a materialização dos conceitos do PON se deu por meio de um arquétipo ou Framework elaborado em linguagem de programação C++. Tal materialização do PON vem sendo utilizada como uma alternativa para o desenvolvimento de aplicações sob o domínio desse paradigma e possibilitou, de fato, a criação de aplicações para ambientes computacionais usuais baseados na chamada arquitetura Von Neumann. Apesar destas contribuições para com a sua materialização, o desenvolvimento de aplicações no PON ainda não apresentava resultados satisfatórios em termos de desempenho tal qual deveria a luz do seu cálculo assintótico, nem a facilidade de programação que seria uma das suas características principais. Nesse âmbito, o presente trabalho propõe como evolução para o estado da técnica do PON a criação de uma linguagem e compilador para o paradigma. Sendo assim, este trabalho apresenta a definição da linguagem criada com a utilização de exemplos práticos guiados pelo desenvolvimento de aplicações. Subsequentemente são apresentados detalhes do compilador bem como sua estrutura. Para demonstrar a evolução do estado da técnica do paradigma, no tocante a desempenho (e.g. tempo de processamento) e facilidade de programação foram realizados estudos comparativos com a utilização da linguagem e compilador. Os estudos comparativos foram guiados com a elaboração de dois softwares denominados aplicação Mira ao Alvo e aplicação de Vendas. Essas aplicações foram desenvolvidas com base na linguagem PON e foram realizados experimentos simulando sequências de execução com o intuito de avaliar o tempo de processamento para o resultado gerado pelo compilador PON. Ainda, tais experimentos possibilitaram a avaliação de maneira subjetiva da linguagem de programação PON no tocante a facilidade de programação. Deste modo, foi possível observar com tais estudos comparativos que os resultados apresentados pelo compilador PON foram satisfatórios quando comparados aos resultados obtidos pelo Framework e por aplicações equivalentes desenvolvidas baseadas no Paradigma Orientado a Objetos (POO). / The current software development paradigms, specifically the Imperative Paradigm (IP) and the Declarative Paradigm (DP), have weaknesses that affect the applications performance and decoupling (or minimal coupling) between the software modules. In order to provide a solution regarding these weaknesses, the Notification Oriented Paradigm (NOP) was developed. NOP is inspired by the concepts of the IP (e.g. objects) and DP (e.g. base of facts and Rules). Basically, NOP uses objects to deal with facts and Rules as compositions of other, smaller, objects. These objects have the following behavioral characteristics: autonomy, independence, responsiveness and collaboration through notifications. Thus, it’s highlighted that the realization of these concepts was firstly instantiated through a Framework developed in C++. Such NOP materialization has been used as an alternative for Application development in the domain of this paradigm and made possible, in fact, the creation of applications for typical computing environments based on Von Neumann architecture. The development of the C++ materialization of NOP has not presented satisfactory results in terms of performance as it should when taking into account its asymptotic calculation and programming facility. In this context, this work presents an evolution of NOP by creating a specific programming language, and its respective compiler, for this paradigm. Therefore, this work presents the language definition and the details of the development of its compiler. To evaluate the evolution regarding to performance (e.g. processing time) and programming facility, some comparative studies using the NOP language and compiler are presented. These comparative studies were performed by developing two software applications called Target and Sales Application. These applications have been developed based on NOP language, and the experiments were performed simulating sequences of execution in order to evaluate the processing time for the generated results by NOP compiler. Still, these experiments allowed the evaluation of NOP programming language, in a subjective way, regarding to ease programming. Thus, with such comparative studies, it was possible to observe that the results presented by the compiler NOP were satisfactory when compared to the results achieved via Framework and for equivalent applications developed based on the Oriented Object Paradigm (OOP).
|
298 |
Implante neural controlado em malha fechada / Closed loop controlled neural implantAraujo, Carlos Eduardo de 15 December 2015 (has links)
Um dos desafios propostos por pesquisadores em neurociência aos engenheiros biomédicos é a interação cérebro-máquina. O sistema nervoso comunica-se interpretando sinais eletroquímicos, e circuitos implantáveis podem tomar decisões de modo a interagir com o meio biológico. Sabe-se também que a doença de Parkinson está relacionada a um déficit do neurotransmissor dopamina. Para controlar a concentração de dopamina diferentes técnicas tem sido empregadas como estimuladores elétricos, magnéticos e drogas. Neste trabalho obteve-se o controle da concentração do neurotransmissor de maneira automática uma vez que atualmente isto não é realizado. Para tanto, projetou-se e desenvolveu-se quatro sistemas: a estimulação cerebral profunda ou deep brain stimulation (DBS), a estimulação transmagnética ou transmagnetic stimulation (TMS), um controle de bomba de infusão ou infusion pump control (IPC) para a entrega de drogas e um sistema de voltametria cíclica de varredura rápida ou fast scan ciclic voltammetry (FSCV) (circuito que detecta variações de concentração de neurotransmissores como a dopamina - DA). Também foi necessário o desenvolvimento de softwares para a visualização de dados e análises em sincronia com acontecimentos ou experimentos correntes, facilitando a utilização destes dispositivos quando emprega-se bombas de infusão e a sua flexibilidade é tal que a DBS ou a TMS podem ser utilizadas de maneira manual ou automática além de outras técnicas de estimulação como luzes, sons, etc. O sistema desenvolvido permite controlar de forma automática a concentração da DA. A resolução do sistema é de 0.4 µmol/L podendo-se ajustar o tempo para correção da concentração entre 1 e 90 segundos. O sistema permite controlar concentrações entre 1 e 10 µmol/L, com um erro de cerca de +/- 0,8 µmol/L. Embora desenhado para o controle da concentração de dopamina o sistema pode ser utilizado para controlar outros neurotransmissores. Propõe-se continuar o desenvolvimento em malha fechada empregando FSCV e DBS (ou TMS, ou infusão), utilizando modelos animais parkinsonianos. / One of the challenges to biomedical engineers proposed by researchers in neuroscience is brain machine interaction. The nervous system communicates by interpreting electrochemical signals, and implantable circuits make decisions in order to interact with the biological environment. It is well known that Parkinson’s disease is related to a deficit of dopamine (DA). Different methods has been employed to control dopamine concentration like magnetic or electrical stimulators or drugs. In this work was automatically controlled the neurotransmitter concentration since this is not currently employed. To do that, four systems were designed and developed: deep brain stimulation (DBS), transmagnetic stimulation (TMS), Infusion Pump Control (IPC) for drug delivery, and fast scan cyclic voltammetry (FSCV) (sensing circuits which detect varying concentrations of neurotransmitters like dopamine caused by these stimulations). Some softwares also were developed for data display and analysis in synchronously with current events in the experiments. This allowed the use of infusion pumps and their flexibility is such that DBS or TMS can be used in single mode and other stimulation techniques and combinations like lights, sounds, etc. The developed system allows to control automatically the concentration of DA. The resolution of the system is around 0.4 µmol/L with time correction of concentration adjustable between 1 and 90 seconds. The system allows controlling DA concentrations between 1 and 10 µmol/L, with an error about +/- 0.8 µmol/L. Although designed to control DA concentration, the system can be used to control, the concentration of other substances. It is proposed to continue the closed loop development with FSCV and DBS (or TMS, or infusion) using parkinsonian animals models.
|
299 |
Desenvolvimento de software e hardware para diagnóstico e acompanhamento de lesões dermatológicas suspeitas para câncer de peleOselame, Gleidson Brandão 28 August 2014 (has links)
O câncer é responsável por cerca de 7 milhões de óbitos anuais em todo o mundo. Estima-se que 25% de todos os cânceres são de pele, sendo no Brasil o tipo mais incidente em todas as regiões geográficas. Entre eles, o tipo melanoma, responsável por 4% dos cânceres de pele, cuja incidência dobrou mundialmente nos últimos dez anos. Entre os métodos diagnósticos empregados, cita-se a regra ABCD, que leva em consideração assimetria (A), bordas (B), cor (C) e diâmetro (D) de manchas ou nevos. O processamento digital de imagens tem mostrado um bom potencial para auxiliar no diagnóstico precoce de melanomas. Neste sentido, o objetivo do presente estudo foi desenvolver um software, na plataforma MATLAB®, associado a um hardware para padronizar a aquisição de imagens, visando realizar o diagnóstico e acompanhamento de lesões cutâneas suspeitas de malignidade (melanoma). Utilizou-se como norteador a regra ABCD para o desenvolvimento de métodos de análise computacional. Empregou-se o MATLAB como ambiente de programação para o desenvolvimento de um software para o processamento digital de imagens. As imagens utilizadas foram adquiridas de dois bancos de imagens de acesso livre. Foram inclusas imagens de melanomas (n=15) e imagens nevos (não câncer) (n=15). Utilizaram-se imagens no canal de cor RGB, as quais foram convertidas para escala de cinza, aplicação de filtro de mediana 8x8 e técnica de aproximação por vizinhança 3x3. Após, procedeu-se a binarização e inversão de preto e branco para posterior extração das características do contorno da lesão. Para a aquisição padronizada de imagens foi desenvolvido um protótipo de hardware, o qual não foi empregado neste estudo (que utilizou imagens com diagnóstico fechado, de bancos de imagem), mas foi validado para a avaliação do diâmetro das lesões (D). Utilizou-se a estatística descritiva onde os grupos foram submetidos ao teste não paramétrico para duas amostras independentes de Mann-Whitney U. Ainda, para avaliar a sensibilidade (SE) e especificidade (SP) de cada variável, empregou-se a curva ROC. O classificador utilizado foi uma rede neural artificial de base radial, obtendo acerto diagnóstico para as imagens melanomas de 100% e para imagens não câncer de 90,9%. Desta forma, o acerto global para predição diagnóstica foi de 95,5%. Em relação a SE e SP do método proposto, obteve uma área sob a curva ROC de 0,967, o que sugere uma excelente capacidade de predição diagnóstica, sobretudo, com baixo custo de utilização, visto que o software pode ser executado na grande maioria dos sistemas operacionais hoje utilizados. / Cancer is responsible for about 7 million deaths annually worldwide. It is estimated that 25% of all cancers are skin, and in Brazil the most frequent in all geographic regions type. Among them, the melanoma type, accounting for 4% of skin cancers, whose incidence has doubled worldwide in the past decade. Among the diagnostic methods employed, it is cited ABCD rule which considers asymmetry (A), edges (B), color (C) and diameter (D) stains or nevi. The digital image processing has shown good potential to aid in early diagnosis of melanoma. In this sense, the objective of this study was to develop software in MATLAB® platform, associated with hardware to standardize image acquisition aiming at performing the diagnosis and monitoring of suspected malignancy (melanoma) skin lesions. Was used as the ABCD rule for guiding the development of methods of computational analysis. We used MATLAB as a programming environment for the development of software for digital image processing. The images used were acquired two banks pictures free access. Images of melanomas (n = 15) and pictures nevi (not cancer) (n = 15) were included. We used the image in RGB color channel, which were converted to grayscale, application of 8x8 median filter and approximation technique for 3x3 neighborhood. After we preceded binarization and reversing black and white for subsequent feature extraction contours of the lesion. For the standardized image acquisition was developed a prototype hardware, which was not used in this study (that used with enclosed diagnostic images of image banks), but has been validated for evaluation of lesion diameter (D). We used descriptive statistics where the groups were subjected to non-parametric test for two independent samples Mann-Whitney U test yet, to evaluate the sensitivity (SE) and specificity (SP) of each variable, we used the ROC curve. The classifier used was an artificial neural network with radial basis function, obtaining diagnostic accuracy for melanoma images and 100% for images not cancer of 90.9%. Thus, the overall diagnostic accuracy for prediction was 95.5%. Regarding the SE and SP of the proposed method, obtained an area under the ROC curve of 0.967, which suggests an excellent diagnostic ability to predict, especially with low costs, since the software can be run in most systems operational use today.
|
300 |
Uma metodologia de desenvolvimento de diagnóstico guiado para veículos automotivosMori, Fernando Maruyama 18 June 2014 (has links)
A utilização de ferramentas externas de diagnóstico guiado tem se tornado cada vez mais importante nas atividades de pós-venda da indústria automotiva. Isso se dá principalmente devido ao uso extensivo de sistemas embarcados nos veículos, tornando-os mais complexos e difíceis de diagnosticar. Atualmente, as técnicas empregadas para o desenvolvimento da ferramenta de diagnóstico guiado são fortemente dependentes da experiência do projetista e centralizadas nas peças e subsistemas do veículo, possibilitando baixo grau de flexibilidade e reaproveitamento da informação. Este trabalho propõe uma nova metodologia para o desenvolvimento da ferramenta de diagnóstico guiado, aplicado a um estudo de caso da indústria automotiva, numa arquitetura de software em três camadas: peças e componentes do veículo, informações e estratégia para o diagnóstico e uma camada de apresentação. Isso permite grande flexibilidade no projeto da ferramenta de diagnóstico guiado para diferentes modelos de veículos, fabricantes de peças e sistemas automotivos. A metodologia proposta é aplicada em um estudo de caso de diagnóstico da Volvo caminhões, mostrando o processo de adaptação da arquitetura de software de três camadas à metodologia proposta e seu impacto no custo do desenvolvimento da ferramenta de diagnóstico. / External guided diagnostic tools are increasingly important to the aftermarket business of automotive industry. It occurs mainly due to the extensive using of embedded systems in vehicles, making them more complex and difficult to diagnose. Currently, the techniques used to develop a guided diagnostic tool are strongly dependent on designer’s experience and are usually focused on parts and vehicle’s subsystems, allowing low flexibility and reduced information reusage. This paper proposes a new methodology for development of a guided diagnostic tool applied to the automotive industry. This methodology is based on a three-tier software architecture composed of vehicle’s parts and components, diagnostic information and strategy, and presentation layer. It allows great flexibility for designing a guided diagnostic tool for different vehicle models, parts OEMs and automotive systems. The proposed methodology has been applied to a case study at Volvo Trucks. The corresponding adaptation process to the three-tier software architecture is presented as well as its impact on development costs. / 5000
|
Page generated in 0.1334 seconds