Spelling suggestions: "subject:"informática médica"" "subject:"informática védica""
161 |
Método de extração de coortes em bases de dados assistenciais para estudos da doença cardiovascular / A method for the cohort selection of cardiovascular disease records from an electronic health record systemAbrahão, Maria Tereza Fernandes 10 May 2016 (has links)
A informação coletada de prontuários manuais ou eletrônicos, quando usada para propósitos não diretamente relacionados ao atendimento do paciente, é chamado de uso secundário de dados. A adoção de um sistema de registro eletrônico em saúde (RES) pode facilitar a coleta de dados para uso secundário em pesquisa, aproveitando as melhorias na estruturação e recuperação da informação do paciente, recursos não disponíveis nos tradicionais prontuários em papel. Estudos observacionais baseados no uso secundário de dados têm o potencial de prover evidências para a construção de políticas em saúde. No entanto, a pesquisa através desses dados apresenta problemas característicos a essa fonte de dados. Ao longo do tempo, os sistemas e seus métodos de armazenar dados se tornam obsoletos ou são reestruturados, existem questões de privacidade para o compartilhamento dos dados dos indivíduos e questões relacionadas ao uso desses dados em um contexto diferente do seu propósito original. É necessária uma abordagem sistemática para contornar esses problemas, onde o processamento dos dados é efetuado antes do seu compartilhamento. O objetivo desta Tese é propor um método de extração de coortes de pacientes para estudos observacionais contemplando quatro etapas: (1) mapeamento: a reorganização de dados a partir de um esquema lógico existente em um esquema externo comum sobre o qual é aplicado o método; (2) limpeza: preparação dos dados, levantamento do perfil da base de dados e cálculo dos indicadores de qualidade; (3) seleção da coorte: aplicação dos parâmetros do estudo para seleção de dados longitudinais dos pacientes para a formação da coorte; (4) transformação: derivação de variáveis de estudo que não estão presentes nos dados originais e transformação dos dados longitudinais em dados anonimizados prontos para análise estatística e compartilhamento. O mapeamento é uma etapa específica para cada RES e não é objeto desse trabalho, mas foi realizada para a aplicação do método. As etapas de limpeza, seleção de coorte e transformação são comuns para qualquer RES. A utilização de um esquema externo possibilita o uso parâmetros que facilitam a extração de diferentes coortes para diferentes estudos sem a necessidade de alterações nos algoritmos e garante que a extração seja efetuada sem perda de informações por um processo idempotente. A geração de indicadores e a análise estatística fazem parte do processo e permitem descrever o perfil e qualidade da base de dados e os resultados do estudo. Os algoritmos computacionais e os dados são disponibilizados em um repositório versionado e podem ser usados a qualquer momento para reproduzir os resultados, permitindo a verificação, alterações e correções de erros. Este método foi aplicado no RES utilizado no Instituto do Coração - HC FMUSP, considerando uma base de dados de 1.116.848 pacientes cadastrados no período de 1999 até 2013, resultando em 312.469 registros de pacientes após o processo de limpeza. Para efetuar uma análise da doença cardiovascular em relação ao uso de estatinas na prevenção secundária de eventos evolutivos, foi constituída uma coorte de 27.915 pacientes, segundo os seguintes critérios: período de 2003 a 2013, pacientes do gênero masculino e feminino, maiores de 18 anos, com um diagnóstico no padrão CID-10 (códigos I20 a I25, I64 a I70 e G45) e com registro de no mínimo duas consultas ambulatoriais. Como resultados, cerca de 80% dos pacientes tiveram registro de estatinas, sendo que, 30% tiveram registro de estatinas por mais de 5 anos, 42% não tiveram registro de nenhum evento evolutivo e 9,7% tiveram registro de dois ou mais eventos. O tempo médio de sobrevida calculado pelo método Kaplan-Meier foi de 115 meses (intervalo de confiança 95% 114-116) e os pacientes sem registro de estatinas apresentaram uma maior probabilidade de óbito pelo teste log-rank p < 0,001. Conclui-se que a adoção de métodos sistematizados para a extração de coortes de pacientes a partir do RES pode ser uma abordagem viável para a condução de estudos epidemiológicos / Information collected from manual or electronic health records can also be used for purposes not directly related to patient care delivery, in which case it is termed secondary use. The adoption of electronic health record (EHR) systems can facilitate the collection of this secondary use data, which can be used for research purposes such as observational studies. These studies have the power to provide necessary evidence for the formation of healthcare policies. However, several problems arise when conducting research using this kind of data. For example, over time, systems and their methods of storing data become obsolete, data concerns arise since the data is being used in a different context to where it originated and privacy concerns arise when sharing data about individual subjects. To overcome these problems a systematic approach is required where local data processing is performed prior to data sharing. The objective of this thesis is to propose a method to extract patient cohorts for observational studies in four steps: (1) data mapping from an existing local logical schema into a common external schema over which information can be extracted; (2) cleaning of data, generation of the database profile and retrieval of indicators; (3) computation of derived variables from original variables; (4) application of study design parameters to transform longitudinal data into anonymized data sets ready for statistical analysis and sharing. Mapping is a specific stage for each EHR and although it is not the focus of this work, a detail of the mapping is included. The stages of cleaning, selection of cohort and transformation are common to all EHRs and form the main objective. The use of an external schema allows the use of parameters that facilitate the extraction of different cohorts for different studies without the need for changes to the extraction algorithms. This ensures that, given an immutable dataset, the extraction can be done by the idempotent process. The generation of indicators and statistical analysis form part of the process and allow profiling and qualitative description of the database. The set extraction / statistical processing is available in a version controlled repository and can be used at any time to reproduce results, allowing the verification of alterations and error corrections. The method was applied to EHR from the Heart Institute - HC FMUSP, with a dataset containing 1,116,848 patients\' records from 1999 up to 2013, resulting in 312,469 patients records after the cleaning process. An analysis of cardiovascular disease in relation to statin use in the prevention of secondary events was defined using a cohort selection of 27,915 patients with the following criteria: study period: 2003-2013, gender: Male, Female, age: >= 18 years old, at least 2 outpatient visits, diagnosis of CVD (ICD-10 codes: I20-I25, I64-I70 and G45). Results showed that around 80% of patients had a prescription for statins, of which 30% had a prescription for statins for more than 5 years. 42% had no record of a future event and 9,7% had two or more future events. Survival time was measured using a univariate Kaplan-Meier method resulting in 115 months (CI 95% 114-116) and patients without statin prescription showed a higher probability of death when measured by log-rank (p < 0.001) tests. The conclusion is that the adoption of systematised methods for cohort extraction of patients from EHRs can be a viable approach for conducting epidemiological studies
|
162 |
Um modelo para sistemas especialistas conexionistas híbridosReategui, Eliseo Berni January 1993 (has links)
O presente trabalho descreve um modelo híbrido para sistemas especialistas classificatórios que Integra os mecanismos de representação de conhecimento de frames e de redes neurais, assimilando qualidades inerentes de cada um dos dois paradigmas. O mecanismo de frames fornece tipos construtores flexíveis para a modelagem do conhecimento do domínio, enquanto as redes neurais possibilitam tanto a automação da aquisição de conhecimento, a partir de uma base de casos, quanto a implementação de aprendizado indutivo e dedutivo. Empregam-se dois tipos de frames para representar o conhecimento relativo aos problemas de classificação: frames de achado e frames de diagn6stico. Os primeiros descrevem os objetos elementares da aplicação que podem influenciar na detecção de certos diagnósticos. Os frames de diagnóstico, por sua vez, são descritos em termos de achados e correspondem as descrições dos problemas de classificação tratados pelo sistema especialista. E utilizado o Modelo Neural Combinatório (MNC), caracterizado por sua capacidade de aprendizado heurístico através do reconhecimento de regularidades observadas no mundo exterior. A integração do mecanismo de representação de frames e do MNC se da ao nível dos frames de diagn6stico, armazenando representações simbólicas do conhecimento das redes neurais que explicitam o conhecimento armazenado nas camadas intermediarias das Últimas. O motor de inferência do sistema opera de maneira integrada sobre ambos os paradigmas, o conexionista e o simbólico. A máquina de aprendizado fornece meios para a automação da aquisição de conhecimento a partir de um banco de casos, bem como para o refinamento do conhecimento do sistema. A máquina de aprendizado dividida em dois componentes principais: o componente de aprendizado indutivo e o componente de aprendizado dedutivo. O primeiro se volta para o componente indutivo e utiliza os métodos de aprendizado por casos de treinamento, descritos para o MNC, para refinar o conhecimento das redes neurais. O componente dedutivo faz use de uma estratégia de reorganização das redes neurais, para gerar novos modelos de resolução de problemas. 0 sistema implementado, denominado HYCONES (the HYbrid CONnectionist Expert System) é apresentado corn detalhamento da integragao entre os paradigmas simbOlico e conexionista. Para validar HYCONES, foram construfdas e testadas 5 versoes de uma base de conhecimento hfbrida para o diagnostico das 3 cardiopatias congenitas mais freqfjentes no Institute de Cardiologia - RS. A primeira delas (B1) baseou-se no conhecimento extrafdo de 22 especialistas em cardiologia pediatrica, de 4 instituicaes brasileiras. Os grafos medios de conhecimento destes especialistas foram diretamente traduzidos para redes neurais MNC, dando origem a primeria versao do sistema. A segunda versao (B2) baseou-se no refinamento da base de conhecimento da versao B1, atraves da reorganizacao e treinamento das redes neurais dos especialistas, corn aplicagao dos metodos de aprendizado dedutivo. A terceira versão (B3) baseou-se no conhecimento de 23 não especialistas, cardiologistas gerais, na sua maioria oriundos do Institute de Cardiologia - RS. A mesma técnica aplicada para a construção da versão B1 foi utilizada para construir esta versão da base de conhecimento hibrida. A quarta versao (B4) corresponde ao refinamento e reorganização da base de conhecimento da versão B3, com as mesmas técnicas de aprendizado dedutivo, aplicadas na construção da versão B2. Finalmente, na quinta versão (B5), a base de conhecimento foi construída, automaticamente, a partir de base de casos, valendo-se do método de explicitação automática de conhecimento do MNC. Os resultados obtidos na validação do sistema comprovaram a eficiência dos métodos de explicitação automática de conhecimento, a partir do banco de casos e de aprendizado dedutivo, por reorganização e treinamento das redes neurais. As principais contribuições deste trabalho foram: a definição do mecanismo para integração de frames a redes neurais; a especificação dos métodos de aquisição automática do conhecimento, a partir de um banco de casos e seu posterior treinamento e aprendizado, por métodos indutivos e dedutivos; finalmente, a incorporação das medidas de especificidade e sensibilidade no processo de explicitação automática do conhecimento do banco de casos. / This dissertation describes a hybrid model for classification expert systems - HYCONES (HYbrid CoNnectionist Expert System), which integrates the knowledge representation mechanism of frames and neural networks, incorporating qualities inherent to each of the knowledge representation paradigms. The mechanism of frames provides flexible constructs for modeling the domain knowledge. The neural networks provide the means for automatic knowledge acquisition and enable the implementation of deductive and inductive learning. The frames mechanism makes use of semantic modeling concepts to make the new model more generic and to provide flexible constructs for knowledge representation. It employs two basic types of frames to represent the knowledge involved in classification problems: finding frames and diagnosis frames. The finding frames describe the elementary objects of the application world that can influence in the detection of certain diagnoses. Diagnosis frames, on the other hand, are described in terms of findings and correspond to the descriptions of the classification problems addressed by the expert system. The Combinatorial Neural Model (CNM) was the architecture chosen for the neural network environment. This model is characterized by its capacity of learning through the recognition of regularities observed in the outside world. The integration of the knowledge representation mechanism of frames with the CNM happens at the diagnosis frames level. The diagnosis frames store symbolic representations of knowledge contained in the neural networks. The system's inference machine operates under an integrated manner with both knowledge representation paradigms. The learning machine provides the means for automatic knowledge acquisition and for knowledge refinement. It is composed by two modules: the inductive and the deductive learning component. The first one uses CNM methods to refine the neural network knowledge. The latter follows a strategy that reorganizes the neural networks, generating new problem solving models. The implemented HYCONES system is presented, detailing the integration between the symbolic and the connectionist approach. To validate HYCONES, five versions of a hybrid knowledge base (HKB) for the diagnosis of the three most common congenital heart diseases at the Institute de Cardiologia - RS were constructed and tested. The first version of the HKB, named B1 for validation purposes, is based on the mean knowledge graphs of 22 experts in congenital heart diseases, from four important Brazilian cardiological institutions. These KG were directly translated to CNM neural networks. The second version of the HKB, named B3 for validation purposes, contains the mean knowledge graphs of 23 non-experts, i.e., general cardiologists, from the Institute of Cardiology of RS. The same method used to built B1 was invoked here: direct translation from the knowledge graphs to CNM neural networks. The second and fourth versions of HKB, named B2 and B4 respectively, consist of trained versions of B1 and B3. To create these trained versions, the CNM neural networks of B1 and B3 were submitted to deductive learning procedures. Finally, the fifth version of HKB, B5, was automatically created, based on the training of the case database. The results obtained and presented in this document point out to the efficiency of the automatic knowledge acquisition methods and the deductive learning techniques implemented, through the reorganization and training of the neural networks. The main contributions of this research are the design of a mechanism for the integration of frames and neural networks, the specification of the learning methods for the hybrid model and the analysis of factors such as specificity and sensibility in the process of automatic knowledge acquisition.
|
163 |
Sistema de solução de problemas cooperativos : um estudo de caso / Cooperative problems solving system: a case of studyFlores, Cecilia Dias January 1995 (has links)
Os avanços tecnológicos da última década tem feito dos computadores um elemento de contribuição essencial para os processos de solução de problemas e de tomada de decisão cooperativos. Hoje, alem do interesse mantido nos sistemas de solução de problemas, cujo raciocínio a baseado no processo de decisão de um único individuo (conhecidos por SE's), o esforço das pesquisas, em Inteligência Artificial, esta centrado no sentido de conceber sistemas que permitam a interação cooperativa entre diversos indivíduos participantes do processo, sejam esses humanos ou sistemas computacionais. A solução de problemas cooperativos, dentro do escopo geral da Inteligência Artificial (IA), é assunto analisado sob dois aspectos diferentes. O primeiro, mais antigo, identifica, como agentes de um dialogo, o sistema computacional e o seu usuário, onde pesquisas estão centradas no estudo da interação homem-máquina. Os esforços desta área de pesquisa tem sido no sentido de conceber, aos sistemas, capacidades de comunicação muito mais ricas do que aquelas oferecidas por sistemas de solução de problemas tradicionais, isto é, permitir aos sistemas compartilhar a solução de um problema, tomando o usuário um agente muito mais ativo e participativo. O segundo aspecto situa-se na área de Inteligência Artificial Distribuída (IAD), uma nova concepção de IA que acompanha o avanço da tecnologia de desenvolvimento de maquinas paralelas e a difusão, em larga escala, de sistemas computacionais distribuídos. Seus esforços são no sentido de conceber sistemas compostos de múltiplos sub-sistemas, capazes de resolver problemas complexos autonomamente. de forma cooperativa. Este trabalho se insere no contexto da interação homem-máquina. São apresentados métodos e estratégias para o fornecimento de capacidades cooperativas ao sistema. A descrição de uma arquitetura para Sistemas Especialistas (SE), baseada em raciocínio meta-nível, é apresentada com o intuito de enriquecer as capacidades de explanação e aquisição de conhecimentos desses sistemas. Consideramos que as ferramentas de explanação e aquisição de conhecimentos são fundamentais para a construção de diálogos cooperativos entre o sistema e o usuário. A ferramenta de explanação é o componente do SE responsável pela geração de justificativas sobre as conclusões do sistema. Ela permite ao sistema tornar explicito o seu raciocínio, fornecendo capacidades de argumentação sobre a validade de suas conclusões. O sistema, através desta ferramenta, tem condições de explicar suas ações, conclusões. escolhas e perguntas feitas ao usuário, permitindo, dessa forma, ao próprio usuário. através de um diálogo cooperativo. comparar seus conhecimentos e estratégias. concordando ou discordando do sistema. A ferramenta de aquisição de conhecimento. outro modulo importante num processo cooperativo, permite ao sistema aprender incrementalmente, através da aquisição de novos conhecimentos, bem como da reestruturação de alguns conhecimentos ou regras com falhas. Analisa-se um problema real, cuja solução e concebida através da interação homem-máquina. embora, intuitivamente, seja apresentada uma abordagem multi-agente para o problema, no final deste trabalho, com o intuito de apontar a evolução que terá essa pesquisa. Como produto deste trabalho de pesquisa, desenvolveu-se, dentro do projeto Inteligência Artificial Distribuída do grupo de Inteligência Artificial do CPGCC da UFRGS. urn sistema denominado SETA. O sistema permite a criação de SE's dedicados a auxiliar o medico na prescrição farmacológica de qualquer grupo de patologia clinica. A representação do conhecimento aplicado foi desenvolvida com o intuito de facilitar a atividade de formulação de prescrições onde o conhecimento esta estruturado em níveis de representação que denotam os conhecimentos clínico e farmacológico separadamente. Cada SE, desenvolvido pelo SETA, permite oferecer justificativas claras ao usuário sobre a prescrição farmacológica indicada pelo sistema, através de explanações do tipo how. why e why not. Oferece, ainda, facilidades de aquisição de conhecimento, permitindo a modificação do conhecimento do sistema através de um modulo interativo, cuja interface foi construída no sentido de permitir uma comunicacc7o natural entre os agentes. ou seja. o sistema e o medico especialista. Resumindo, a interação cooperativa homem-máquina é concebida através das facilidades de explanação e aquisição de conhecimento, levando a incorporação explicita de meta-conhecimento ao sistema. / The technological advance of the past decade turned computers into an element of essential contribution for the cooperative problem-solving and decision-taking processes. Today, besides the interest kept in problem-solving systems, whose reasoning is based upon the process of decision of a single individual (known as ES), the effort of researchs in Artificial Intelligence is to create systems that allow cooperative interaction among various individuals participating in the process, these being either human beings or computer systems. The solution of cooperative problems, within the general scope of Artificial Intelligence, is a subject analysed under two different aspects. The first one, out of date, identifies the computer system and its user as agents in a dialogue, and the researches are concentrated on the study of man-machine interaction. The efforts in this area of research have been to grant the systems communication abilities much richer than those offered by tradicional problem-solving systems. that is, that allow the systems to share the solution of a problem. causing the user to be more active and participating. The second aspect is located in the area of Distributed Artificial Intelligence (DAI), a new conception of AI that goes with the improvement of the technology of development of parallel machines and the diffusion on a large scale of distributed computer systems. Efforts have been made to create systems made up of multiple sub-systems capable of solving complex problems by themselves, in a cooperative way. This work is inserted in the context of man-machine interaction. It presents methods and strategies to supply the system with cooperative abilities. The description of an architecture for Expert Systems (ES), based upon meta-level reasoning, is presented with the purpose of improving the abilities of explanation and knowledge acquisition of these systems. We consider explanation tools and knowledge acquisition to be fundamental to the construction of cooperative dialogues between the system and the user. The explanation tool is the ES component responsible for the generation of justifications about the system conclusions. It allows the system to make its reasoning explicit, providing it with arguing abilities about the effectiveness of its conclusions. The system. through this tool, is able to explain its actions, conclusions, choices and questions put to the user, thus allowing the user, through a cooperative dialogue, to compare his knowledge and strategies, to agree or disagree with the system. The knowledge acquisition tool, another important unit in a cooperative process, allows the system to learn more and more through the acquisition of new knowledge as well as through the restructuration of knowledge or rules that have failed. A real problem is analysed here and its solution is conceived through manmachine interaction. We also present, at the end of this work, a multi-agent approach for the problem, in order to show how this research will evolve. This research work resulted in the development, within the Distributed Artificial Intelligence project of the Artificial Intelligence group of the CPGCC of UFRGS, of a system called SETA. This system permits the creation of ES dedicated to help doctors prescribe medicines for any groups of clinical pathology. The knowledge representation used was developed with a view to facilitate the making of prescriptions, and the knowledge is organized in levels of representation that express clinical knowledge and pharmacological knowledge separately. Each ES developed by SETA can offer reasonable justifications to users about the pharmacological prescription indicated by the system through explanations such as how, why and why not. It is also ready to acquire knowledge. allowing the system to alter knowledge through an interactive unit whose interface was built to permit a natural communication between the agents. that is, the system and the medical specialist. In short, man-machine cooperative interaction is based upon readiness for explanation and knowledge acquisition, leading to an explicit assimilation of meta-knowledge by the system.
|
164 |
Recuperação de imagens cardiacas tridimensionais por conteúdo / Content-Based 3D cardiac images retrievalLeila Cristina Carneiro Bergamasco 31 July 2013 (has links)
Os modelos tridimensionais fornecem uma visão mais completa dos objetos analisados por considerarem a profundidade de cada um deles. Com o crescimento de modelos tridimensionais disponíveis atualmente na área de saúde, se faz necessária a implementação de mecanismos eficientes de busca, que ofereçam formas alternativas para localizar casos de pacientes com determinadas características. A disponibilização de um histórico de imagens similares em relação àquelas pertencentes ao exame do paciente pode auxiliar no diagnóstico oferecendo casos semelhantes. O presente projeto visou desenvolver técnicas para recuperação de imagens médicas tridimensionais com base em seu conteúdo, com foco no contexto médico, mais especificamente na área cardíaca. Pretendeu-se contribuir com a detecção de anomalias por meio da disponibilização de quadros clínicos similares por meio de um protótipo de sistema de consulta. Para alcançar o objetivo proposto foram realizadas as seguintes etapas: revisão bibliográfica, definição da base de dados, implementação de extratores e funções de similaridade, construção de um protótipo de sistema de recuperação, realização de testes com imagens médicas e análises dos resultados. Os resultados obtidos com os métodos desenvolvidos foram positivos, alcançando em alguns testes 90% de precisão no retorno da busca. Verificou-se que extratores que levaram em consideração a informação espacial das deformações obtiveram um resultado melhor do que os métodos que analisaram os modelos sob uma perspectiva global. Estes resultados confirmaram o potencial que a recuperação por conteúdo possui no contexto médico podendo auxiliar na composição de diagnósticos, além de contribuir com a área de Computação no sentido de ter desenvolvido técnicas para recuperação por conteúdo no domínio de modelos tridimensionais. / Three-dimensional models provide a more complete view about objects analyzed by considering their depth. Considering the growth of three-dimensional models currently available in Health area, it is necessary to implement ecient query mechanisms that oer alternative ways to locate cases of patients with certain characteristics. Providing a images historical similar to those belonging to the patient can aided the diagnosis oering similar clinical cases. This project aimed to develop techniques to recovery three-dimensional medical images based on their content and apply them in the medical context, specically in the Cardiology area. This project intended to contribute to the detection of anomalies making available similar clinical cases, throught a prototype of query system. To achieve the proposed objectives the following phases are planned: literature review, denition of the database that will be used, extractors and similarity functions implementation, cons-truction of a retrieval system prototype, conduction of tests with medical imaging and analysis of results. The results obtained with the methods developed were positive, in some tests were achieved 90% of accuracy in the search return. It was found that descrip-tors that took into account the spatial information of the deformations obtained a better result than the methods which analyzed the models from a global perspective. These results conrmed the potential of content based retrieval has in the medical context to assist in diagnosis composition as well as contributing to the Computing eld in the sense of had developed content based retrieval methods on three-dimensional models domain.
|
165 |
Photorealistic models for pupil light reflex and iridal pattern deformation / Modelos fotorealistas para dinâmica pupilar em função da iluminação e deformação dos padrões da irisPamplona, Vitor Fernando January 2008 (has links)
Este trabalho introduz um modelo fisiológico para o reflexo pupilar em função das condições de iluminação (Pupil Light Reflex - PLR), e um modelo baseado em imagem para deformação dos padrões da íris. O modelo para PLR expressa o diâmetro da pupila ao longo do tempo e em função da iluminação ambiental, sendo descrito por uma equação diferencial com atraso, adaptando naturalmente o tamanho da pupila a mudanças bruscas de iluminação. Como os parâmetros do nosso modelo são derivados a partir de modelos baseados em experimentos científicos, ele simula corretamente o comportamento da pupila humana para um indivíduo médio. O modelo é então estendido para dar suporte a diferenças individuais e a hippus, além de utilizar modelos para latência e velocidade de dilatação e contração. Outra contribuição deste trabalho é um modelo para deformação realista dos padrões da íris em função da contração e dilatação da pupila. Após capturar várias imagens de íris de diversos voluntários durante diferentes estágios de dilatação, as trajetórias das estruturas das íris foram mapeadas e foi identificado um comportamento médio para as mesmas. Demonstramos a eficácia e qualidade dos resultados obtidos, comparando-os com fotografias e vídeos capturados de íris reais. Os modelos aqui apresentados produzem efeitos foto-realistas e podem ser utilizados para produzir animações preditivas da pupila e da íris em tempo real, na presença de variações na iluminação. Combinados, os dois modelos permitem elevar a qualidade de animações faciais, mais especificamente, animações da íris humana. / This thesis introduces a physiologically-based model for pupil light reflex (PLR) and an image-based model for iridal pattern deformation. The PLR model expresses the pupil diameter as a function of the environment lighting, naturally adapting the pupil diameter even to abrupt changes in light conditions. Since the parameters of the PLR model were derived from measured data, it correctly simulates the actual behavior of the human pupil. The model is extended to include latency, constriction and dilation velocities, individual differences and some constrained random noise to model hippus. The predictability and quality of the simulations were validated through comparisons of modeled results against measured data derived from experiments also described in this work. Another contribution is a model for realist deformation of the iris pattern as a function of pupil dilation and constriction. The salient features of the iris are tracked in photographs, taken from several volunteers during an induced pupil-dilation process, and an average behavior of the iridal features is defined. The effectiveness and quality of the results are demonstrated by comparing the renderings produced by the models with photographs and videos captured from real irises. The resulting models produce high-fidelity appearance effects and can be used to produce real-time predictive animations of the pupil and iris under variable lighting conditions. Combined, the proposed models can bring facial animation to new photorealistic standards.
|
166 |
Modelo de qualidade para o desenvolvimento e avaliação da viabilidade clínica de sistemas de recuperação de imagens médicas baseadas em conteúdo / A quality model to develop content-based image retrieval systems and assess their clinical feasibilitySouza, Juliana Pereira de 04 December 2012 (has links)
Com a crescente utilização de imagens médicas na prática clínica, torna-se necessária a introdução de tecnologias que garantam o armazenamento, indexação e recuperação eficaz dessas imagens. O sistema de recuperação de imagens médicas baseada em conteúdo (S-CBIR) compõe a base de tecnologias computacionais que oferecem aos usuários médicos aplicativos para apoio ao diagnóstico, sendo capaz de responder a consultas por similaridade por meio de características pictóricas extraídas das imagens médicas. Embora as pesquisas em S-CBIR tenham iniciado há quase duas décadas, atualmente existe uma discrepância em relação à quantidade de trabalhos publicados na literatura e os sistemas que, de fato, foram implementados e avaliados. Além disso, muitos protótipos vêm sendo discutidos, mas até o final da escrita desta tese, não foram encontradas evidências de que algum deles esteja disponível comercialmente. Essa limitação é conhecida pela comunidade científica da área por gap de aplicação. Em geral, isso ocorre devido à dificuldade dessas aplicações em superar alguns desafios, como a divergência entre os resultados obtidos automaticamente pelo sistema e aqueles esperados pelos médicos (gap semântico), entre outros gap. Outros fatores também podem ser relatados, como a tendência da não utilização de modelos de qualidade sistematizados para o desenvolvimento dos sistemas, e a carência de modelos que sejam específicos no domínio de aplicação. Com base nesses desafios e em boas práticas de métodos, técnicas e ferramentas da Engenharia de Software, esta tese apresenta um Modelo de Qualidade para melhorias de S-CBIR (MQ-SCBIR), que tem por objetivo apoiar o desenvolvimento e avaliação de S-CBIR, a partir de diretrizes para aumentar o nível de qualidade, buscando a superação do gap de aplicação. O MQ-SCBIR foi construído com base em: evidências adquiridas por meio de uma revisão sistemática e pesquisa empírica sobre como esses sistemas vêm sendo desenvolvidos e avaliados na literatura e na prática; resultados da avaliação de um S-CBIR baseados em testes heurísticos em um ambiente real; modelos bem estabelecidos, como o Capability Maturity Model Integration e Melhoria de Processo do Software Brasileiro; e em experiências pessoais. O uso do MQ-SCBIR pode trazer benefícios para as organizações desenvolvedoras, como a redução da complexidade no desenvolvimento, incluindo a garantia de implementação de boas práticas de qualidade de software e práticas específicas para a superação das limitações de S-CBIR durante o processo de desenvolvimento. / The development of technologies for storing, indexing and recovering clinical images is paramount to support the increasing use of these images in clinical diagnostic evaluation. Content-based image retrieval systems (CBIR-S) are some of the main computational technologies which offer physicians different applications to aid diagnostic processes. They allow similarity queries by extracting pictorial features from medical images. Even though research on S-CBIR started almost two decades ago, there are discrepancies regarding the amount of studies available in the literature and the number of systems which have actually been implemented and evaluated. Many prototypes have been discussed, but up to the moment this study was completed we found no evidence that any of those systems are either commercially available or being currently used in clinical practice. This limitation is known as application gap. In general, this happens due to the difficulty to overcome some obstacles, such as the differences between the results retrieved automatically by the system and those expected by the physicians (semantic gap). Other factors can also be described, such as the tendency towards not using systematic quality models to develop these systems and the lack of specific models for this domain of application. Based on these challenges and also on best practice methods, techniques and tools from software engineering, this work presents a quality model to improve S-CBIR systems (QM-CBIRS). It strives to tackle limitations during the development process by overcoming the semantic gap. The QM-CBIRS was built upon evidence gathered by means of a systematic review on the state-of-the-art and empiric research on the development and evaluation of these systems. Apart from that, results from the assessment of a CBIR-S based on empiric tests and on diagnostic tasks in radiology and well-established software quality models, such as CMMI and the Brazilian Software Improvement Process are presented. Apart from that, results from the assessment of a CBIR-S based on empiric tests and on diagnostic tasks in radiology and well-established software quality models, such as CMMI and the Brazilian Software Improvement Process are presented. The use of QM-CBIRS might be beneficial to development teams in many ways, for example, by increasing the quality of CBIR systems and reducing complexity, thus surpassing limitations from CBIR systems during the development process.
|
167 |
Tecnologia computacional para gerenciar o cuidado e indicadores relacionados à lesão por pressão / Computational technology to manage care and indicators related to pressure injuryCherman, Chris Mayara Tibes 10 December 2018 (has links)
A maioria dos casos de Lesões por Pressão são evitáveis desde que os pacientes em risco sejam identificados precocemente e haja uma correta definição de estratégias de prevenção. Quando as medidas preventivas não são suficientes e surge uma lesão é imprescindível uma correta avaliação e monitoramento da sua evolução. No entanto, a avaliação e monitoramento baseados apenas no olhar e documentação manual do profissional de saúde são subjetivos e muitas vezes imprecisos. As Tecnologias da Informação e Comunicação podem auxiliar nesse sentido, pois essas ferramentas possibilitam a divulgação e atualização de conhecimentos, além de possuírem ferramentas que apoiam a tomada de decisão na prática clínica. Neste espoco, esta pesquisa teve por objetivo desenvolver e avaliar um sistema computacional para gerenciar o cuidado e os indicadores relacionados às lesões por pressão. Trata-se de um estudo aplicado, metodológico e descritivo do tipo coorte prospectivo. A pesquisa foi realizada em etapas que envolveram o desenvolvimento de um sistema computacional, composto por um aplicativo e um sistema web, e testar na prática clínica essa ferramenta. O aplicativo auxilia na avaliação beira-leito do risco do paciente para desenvolver lesão por pressão, sugere cuidados preventivos personalizados e, se o paciente possuir lesão, auxilia na avaliação e registro do estado da lesão por meio de um algoritmo de processamento de imagens. O sistema web, realiza o armazenamento e processamento dos dados baseado nas avaliações beira-leito, nesse sistema é possível consultar estatísticas, tais como incidência, área de tecidos lesado, tempo médio de permanência na unidade, entre outras. Para testar na prática clínica, utilizou-se o sistema em duas Unidades de Terapia Intensiva durante o período de 60 dias, nesse período 126 pacientes foram acompanhados desde sua internação até alta, transferência ou óbito. A pesquisa demonstrou que, apesar das unidades estudadas apresentarem taxas de incidências semelhantes, quando considerado o tempo de internação dos pacientes e área da lesão, observou-se uma significativa diferença entre as unidades. Ainda, nos testes realizados com os usuários finais, o sistema computacional se mostrou altamente preciso e confiável, comprovando sua qualidade técnica e funcional. Neste sentido, o sistema computacional desta pesquisa pode ser uma ferramenta potencial para auxiliar na assistência aos pacientes institucionalizados e no monitoramento de indicadores relacionados as lesões por pressão. Ainda, espera-se que este trabalho contribua para a ampliação de pesquisas cujos objetos de estudo sejam o desenvolvimento de softwares para a saúde / Most cases of Pressure Injury are preventable as long as patients at risk are early identified and strategies for prevention are correctly defined. When preventive measures are not enough and an injury arises, a correct assessment and monitoring of its evolution is essential. However, evaluation and monitoring based only on the healthcare professional\'s observation and manual record is subjective and often inaccurate. The Information and Communication Technologies can help this issue, since these tools allow the dissemination and updating of knowledge, besides having tools that support decision making in clinical practice. In this context, this research aimed to develop and evaluate a computational system to manage care and indicators related to pressure injuries. It is an applied, methodological and descriptive study of the prospective cohort type. The research was carried out in stages that involved the development of a computational system, composed of an application and a web system, and the test in the clinical practice of this tool. The application assists in assessing the patient\'s risk of developing pressure injury, suggests personalized preventive care and, if the patient has an injury, assists in assessing and recording the lesion\'s condition through a digital image processing algorithm. The web system performs data storage and processing based on bedside assessments, which makes it possible to consult statistics such as incidence, area of damaged tissue, average time of permanence in the unit, among others. In the clinical practice test, the system was used in two Intensive Care Units during a 60-day period. During this period, 126 patients were followed from their hospitalization until discharge, transference or death. The research showed that, although the units studied presented similar incidence rates, when considering the length of hospital stay and the area of the lesion, a significant difference was observed between the units. Furthermore, in the tests performed with the application users, the computational system proved to be highly accurate and reliable, proving its technical and functional quality. In this sense, the computational system of this research can be a potential tool to assist healthcare professionals to care of patients and to monitor indicators related to pressure injuries. Still, it is expected that this work contributes to the expansion of research whose objectives are the development of healthcare softwares
|
168 |
Photorealistic models for pupil light reflex and iridal pattern deformation / Modelos fotorealistas para dinâmica pupilar em função da iluminação e deformação dos padrões da irisPamplona, Vitor Fernando January 2008 (has links)
Este trabalho introduz um modelo fisiológico para o reflexo pupilar em função das condições de iluminação (Pupil Light Reflex - PLR), e um modelo baseado em imagem para deformação dos padrões da íris. O modelo para PLR expressa o diâmetro da pupila ao longo do tempo e em função da iluminação ambiental, sendo descrito por uma equação diferencial com atraso, adaptando naturalmente o tamanho da pupila a mudanças bruscas de iluminação. Como os parâmetros do nosso modelo são derivados a partir de modelos baseados em experimentos científicos, ele simula corretamente o comportamento da pupila humana para um indivíduo médio. O modelo é então estendido para dar suporte a diferenças individuais e a hippus, além de utilizar modelos para latência e velocidade de dilatação e contração. Outra contribuição deste trabalho é um modelo para deformação realista dos padrões da íris em função da contração e dilatação da pupila. Após capturar várias imagens de íris de diversos voluntários durante diferentes estágios de dilatação, as trajetórias das estruturas das íris foram mapeadas e foi identificado um comportamento médio para as mesmas. Demonstramos a eficácia e qualidade dos resultados obtidos, comparando-os com fotografias e vídeos capturados de íris reais. Os modelos aqui apresentados produzem efeitos foto-realistas e podem ser utilizados para produzir animações preditivas da pupila e da íris em tempo real, na presença de variações na iluminação. Combinados, os dois modelos permitem elevar a qualidade de animações faciais, mais especificamente, animações da íris humana. / This thesis introduces a physiologically-based model for pupil light reflex (PLR) and an image-based model for iridal pattern deformation. The PLR model expresses the pupil diameter as a function of the environment lighting, naturally adapting the pupil diameter even to abrupt changes in light conditions. Since the parameters of the PLR model were derived from measured data, it correctly simulates the actual behavior of the human pupil. The model is extended to include latency, constriction and dilation velocities, individual differences and some constrained random noise to model hippus. The predictability and quality of the simulations were validated through comparisons of modeled results against measured data derived from experiments also described in this work. Another contribution is a model for realist deformation of the iris pattern as a function of pupil dilation and constriction. The salient features of the iris are tracked in photographs, taken from several volunteers during an induced pupil-dilation process, and an average behavior of the iridal features is defined. The effectiveness and quality of the results are demonstrated by comparing the renderings produced by the models with photographs and videos captured from real irises. The resulting models produce high-fidelity appearance effects and can be used to produce real-time predictive animations of the pupil and iris under variable lighting conditions. Combined, the proposed models can bring facial animation to new photorealistic standards.
|
169 |
Métodos computacionais para identificar automaticamente estruturas da retina e quantificar a severidade do edema macular diabético em imagens de fundo de olhoWelfer, Daniel January 2011 (has links)
Através das imagens de fundo do olho, os especialistas em oftalmologia podem detectar possíveis complicações relacionadas ao Diabetes como a diminuição ou até a perda da capacidade de visão. O Edema Macular Diabético (EMD) é uma das complicações que lideram os casos de danos à visão em pessoas em idade de trabalho. Sendo assim, esta tese apresenta métodos para automaticamente identificar os diferentes níveis de gravidade do Edema Macular Diabético visando auxiliar o especialista no diagnóstico dessa patologia. Como resultado final, propõe-se automaticamente e rapidamente identificar, a partir da imagem, se o paciente possui o EMD leve, moderado ou grave. Utilizando imagens de fundo do olho de um banco de dados livremente disponível na internet (ou seja, o DIARETDB1), o método proposto para a identificação automática do EMD obteve uma precisão de 94,29%. Alguns métodos intermediários necessários para a solução desse problema foram propostos e os resultados publicados na literatura científica. / Through color eye fundus images, the eye care specialists can detect possible complications related to diabetes as the vision impairment or vision loss. The Diabetic Macular Edema (DME) is the most common cause of vision damage in working-age people. Therefore, this thesis presents an approach to automatically identify the different levels of severity of diabetic macular edema aiming to assist the expert in the diagnosis of this pathology. As a final result, a methodology to automatically and quickly identify, from the eye fundus image, if a patient has the EMD mild, moderate or severe EMD is proposed. In a preliminary evaluation of our DME grading scheme using publicly available eye fundus images (i.e., DIARETDB1 image database), an accuracy of 94.29% was obtained. Some intermediate methods needed to solve this problem have been proposed and the results published in scientific literature.
|
170 |
Implantação de prontuário eletrônico em um hospital de grande porte: estudo de casoMurahovschi, Denis 31 March 2000 (has links)
Made available in DSpace on 2010-04-20T20:15:13Z (GMT). No. of bitstreams: 0
Previous issue date: 2000-03-31T00:00:00Z / O presente trabalho analisa um caso de implantação de prontuário eletrônico em um hospital brasileiro privado e de grande porte, que presta assistência de alta complexidade. A pesquisa exploratória serviu-se de uma metodologia qualitativa, que investigou o primeiro ano de funcionamento do prontuário eletrônico e os respectivos antecedentes e se centrou nas percepções expressas, através de entrevistas, por profissionais de nível superior que atuam no referido hospital (implantadores, usuários administrativos e usuários clínicos). As entrevistas foram pessoais e todas realizadas pelo próprio pesquisador. O objetivo foi entender as mudanças decorrentes da implantação do prontuário eletrônico no hospital e examinar resistências ao processo. O trabalho fornece, também, uma perspectiva histórica do processo de informatização hospitalar e do desenvolvimento de sistemas de prontuário eletrônico. / The present work analyses a case-study ofthe implantation ofa computer-based patient records system in a large private Brazilian hospital that provides high complexity assistance. The exploratory study investigated the first year of functioning of the computer-based patient records system and the respective antecedents and centered on feelings expressed, in interviews, by high leveI professionals employed in the referred hospital (administrators and practitioners). The interviews were personal and were carried out by the researcher himself The objective was to understand the ongoing changes in the implementation of the computer-based patient records system in the hospital and examine resistance to the implantation processo Furthermore, the work provides a historical insight into hospital informatics systems implementation and ofthe development of computer-based patient record systems.
|
Page generated in 0.0735 seconds