• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 177
  • 26
  • 4
  • Tagged with
  • 207
  • 207
  • 63
  • 62
  • 56
  • 47
  • 45
  • 36
  • 36
  • 25
  • 24
  • 24
  • 24
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Reconhecimento automático de padrões em imagens ecocardiográficas / Automatic pattern recognition in echocardiographic images

Siqueira, Mozart Lemos de January 2010 (has links)
Ecocardiografia fetal é uma importante ferramenta para diagnóstico. Esta tese apresenta um método que provê localização automática de cavidades cardíacas em imagens ecocardiografias fetais, onde o diagnóstico de problemas congênitos do coração pode melhorar os resultados do tratamento. As estruturas de interesse são as quatro cavidades cardíacas (átrio direito, átrio esquerdo, ventrículo direito e ventrículo esquerdo). O método é baseado na busca por cavidades cardíacas através de uma molde de busca (template) para encontrar padrões de interesse. Este molde é calculado usando uma função densidade probabilidade que recebe como parâmetro os níveis de cinza de uma região representativa da cavidade, na imagem. Além disso, em alguns testes também foram utilizadas características espaciais da imagem para cálculo do molde de busca. Nesse sentido a busca é implementada de uma forma hierárquica: (i) primeiro, é localizada a região do coração; e (ii) em seguida, baseando na região do coração a cavidade de interesse á buscada. A comparação do molde de busca e as regiões de interesse na imagem é feita utilizando o Coeficiente de Bhattacharyya, o qual é analisado ao longo dos testes para justificar sua escolha. Uma das principais características do método é a invariância a rotação apresentada pelas estruturas. / Fetal echocardiography is an important tool for diagnosing. This thesis presents a method to provide automatic localization of cardiac cavities in fetal echocardiography images, where the early diagnostics of heart congenital diseases can greatly improve results from medical treatment. The structures of interest are the four cardiac cavities (left and right atrium, left and right ventricle). The method is based in the search of cardiac structures with a mold to find the pattern of interest. This mold is calculated using a probability density function that receives as parameter the gray level of a representative image and also uses spatial features of the images to calculate the mold. A hierarchical search is performed: (i) first, the region of interest is covered to locate the heart; and (ii) based on the position of the heart, the desired structure is found in the image. The comparison of the mold and the candidate image is made using the Bhattacharyya coefficient, which our experimental tests have shown good results. One of the main characteristics of the method is its rotation invariance.
152

Ontology-based approach for standard formats integration in reservoir modeling / Abordagem baseada em ontologias para integração de formatos padrões em modelagem de reservatórios

Werlang, Ricardo January 2015 (has links)
A integração de dados oriundos de fontes autônomas e heterogêneas ainda é um grande problema para diversas aplicações. Na indústria de petróleo e gás, uma grande quantidade de dados é gerada diariamente a partir de múltiplas fontes, tais como dados sísmicos, dados de poços, dados de perfuração, dados de transporte e dados de marketing. No entanto, estes dados são adquiridos através da aplicação de diferentes técnicas e representados em diferentes formatos e padrões. Assim, estes dados existem de formas estruturadas em banco de dados e de formas semi-estruturadas em planilhas e documentos, tais como relatórios e coleções multimídia. Para lidar com a heterogeneidade dos formatos de dados, a informação precisa ser padronizada e integrada em todos os sistemas, disciplinas e fronteiras organizacionais. Como resultado, este processo de integração permitirá uma melhor tomada de decisão dentro de colaborações, uma vez que dados de alta qualidade poderão ser acessados em tempo hábil. A indústria do petróleo depende do uso eficiente desses dados para a construção de modelos computacionais, a fim de simplificar a realidade geológica e para ajudar a compreende-la. Tal modelo, que contém objetos geológicos analisados por diferentes profissionais—geólogos, geofísicos e engenheiros — não representa a realidade propriamente dita, mas a conceitualização do especialista. Como resultado, os objetos geológicos modelados assumem representações semânticas distintas e complementares no apoio à tomada de decisões. Para manter os significados pretendidos originalmente, ontologias estão sendo usadas para explicitar a semântica dos modelos e para integrar os dados e arquivos gerados nas etapas da cadeia de exploração. A principal reivindicação deste trabalho é que a interoperabilidade entre modelos da terra construídos e manipulados por diferentes profissionais e sistemas pode ser alcançada evidenciando o significado dos objetos geológicos representados nos modelos. Nós mostramos que ontologias de domínio desenvolvidas com o apoio de conceitos teórico de ontologias de fundamentação demonstraram ser uma ferramenta adequada para esclarecer a semântica dos conceitos geológicos. Nós exemplificamos essa capacidade através da análise dos formatos de comunicação padrões mais utilizados na cadeia de modelagem (LAS, WITSML e RESQML), em busca de entidades semanticamente relacionadas com os conceitos geológicos descritos em ontologias de Geociências. Mostramos como as noções de identidade, rigidez, essencialidade e unidade, aplicadas a conceitos ontológicos, conduzem o modelador à definir mais precisamente os objetos geológicos no modelo. Ao tornar explícitas as propriedades de identidade dos objetos modelados, o modelador pode superar as ambiguidades da terminologia geológica. Ao fazer isso, explicitamos os objetos e propriedades relevantes que podem ser mapeados a partir de um modelo para outro, mesmo quando eles estão representados em diferentes nomes e formatos. / The integration of data issued from autonomous and heterogeneous sources is still a significant problem for an important number of applications. In the oil and gas industry, a large amount of data is generated every day from multiple sources such as seismic data, well data, drilling data, transportation data, and marketing data. However, these data are acquired by the application of different techniques and represented in different standards and formats. Thus, these data exist in a structured form in databases, and in semi-structured forms in spreadsheets and documents such as reports and multimedia collections. To deal with this large amount of information, as well as the heterogeneous data formats of the data, the information needs to be standardized and integrated across systems, disciplines and organizational boundaries. As a result, this information integration will enable better decision making within collaborations, once high quality data will be accessible timely. The petroleum industry depends on the efficient use of these data to the construction of computer models in order to simplify the geological reality and to help understanding it. Such a model, which contains geological objects analyzed by different professionals – geologists, geophysicists and engineers – does not represent the reality itself, but the expert’s conceptualization. As a result, the geological objects modeled assume distinct semantic representations and complementary in supporting decision-making. For keeping the original intended meanings, ontologies were used for expliciting the semantic of the models and for integrating the data and files generated in the various stages of the exploration chain. The major claim of this work is that interoperability among earth models built and manipulated by different professionals and systems can be achieved by making apparent the meaning of the geological objects represented in the models. We show that domain ontologies developed with support of theoretical background of foundational ontologies show to be an adequate tool to clarify the semantic of geology concepts. We exemplify this capability by analyzing the communication standard formats most used in the modeling chain (LAS,WITSML, and RESQML), searching for entities semantically related with the geological concepts described in ontologies for Geosciences. We show how the notions of identity, rigidity, essentiality and unity applied to ontological concepts lead the modeler to more precisely define the geological objects in the model. By making explicit the identity properties of the modeled objects, the modeler who applies data standards can overcome the ambiguities of the geological terminology. In doing that, we clarify which are the relevant objects and properties that can be mapped from one model to another, even when they are represented with different names and formats.
153

A constituição de um acervo permanente : uma história contada através de documentos / The constitution of a permanent archive : a history told through document

Simone de Camargo Silva 17 April 2008 (has links)
A presente pesquisa tem por principal objetivo apresentar um panorama histórico da Clínica Psicológica \'Dr Durval Marcondes\' através da análise de seus prontuários clínicos, provenientes dos atendimentos realizados desde o seu início, em 1964. Para atingir tal objetivo, foram necessárias duas etapas distintas de trabalho: na primeira, realizada manualmente, procedeu-se a alocação física dos prontuários, o que viabilizou a construção da sede do arquivo com toda a sistematização necessária para a determinação de um acervo permanente. Na segunda, desenvolveu-se um projeto piloto que buscou inserir parte do acervo no PsicoUsp, software regularmente utilizado na CP desde 1999. Como resultado da segunda etapa do trabalho obteve-se a inclusão de dois novos campos ao PsicoUsp, inclusão esta que já está sendo utilizada rotineiramente, facilitando a comunicação entre os acervos permanente e corrente da CP. Também nessa fase, pode-se realizar uma análise de dados em quatro décadas de trabalho da CP, de 1964 a 2004, que buscou ilustrar, por exemplo, como se deu a distribuição de gênero e faixa etária nos atendimentos realizados, que tipo de trabalho foi desenvolvido com os clientes, quais os testes utilizados e em que freqüência. Ressalta-se que a análise aqui apresentada apenas ilustra a enormidade das informações que podem ser obtidas com esse acervo, salientando uma vez mais a importância para a CP, para o PSC e para o IPUSP da aquisição da sede do arquivo permanente. / The main objective of the present research is to show a historic perspective of \'Dr Durval Marcondes\' Psychological Clinic through the analysis of its clinical client records, coming from cases attended since its foundation, in 1964. In order to achieve this goal, two distinct work stages were necessary: first, the physical allocation of the client records, manually accomplished, which enabled the construction of the archives head office with the full systematization necessary to the formation of a permanent archive. Second, the development of a pilot project to insert part of the archive in PsicoUsp, a regularly used software in the PC since 1999. As a result of the second stage of the work, two new fields have been included in PsicoUsp and routinely used, simplifying the communication between permanent and current archives of the PC. Also in this stage, four decades worth of data were analyzed concerning the work of the PC between 1964 and 2004. This analysis tried to illustrate, for instance, how the distribution by gender and age was done; what kind of work was developed with the patients; which tests were made and how frequently. It must be emphasized that the present analysis only illustrates the immensity of information that can be obtained with this archive, stressing once more the importance to the PC, the PSC and the IPUSP of the setting of a permanent archive.
154

Telemedicina : análise da sua evolução no Brasil / Telemedicine: analysis of its evolution in Brazil.

Sumaia Georges El Khouri 19 August 2003 (has links)
O presente estudo consiste em descrever e analisar a evolução da Telemedicina no Brasil, abrangendo as experiências efetivamente implantadas até dezembro de 2000. Várias instituições no país têm adotado programas de telemedicina, tais como hospitais, laboratórios de análises clínicas, clínicas especializadas em realização de eletrocardiogramas à distância, universidades, o Exército e o próprio Governo. Cada uma das experiências tem diferentes objetivos e não há nenhuma integração entre elas. As aplicações estudadas variam desde aquelas que requerem uma estrutura tecnológica simples como a realização de eletrocardiogramas à distância, até outras mais sofisticadas tecnologicamente como a realização de teleconferências com transmissão de imagens clínicas para segunda opinião médica e monitoração remota de leitos. Para a realização do estudo foram feitas entrevistas com os responsáveis pelos programas e um levantamento de dados em publicações especializadas. As conclusões apontam para a falta de coordenação entre os modelos adotados, para a resistência cultural relativa à informática médica e à telemedicina e para o papel tímido do Governo no fomento da telemedicina. / The present study consists in describing and analyzing the evolution of Telemedicine in Brazil, comprehending the experiences established until December 2000. Several institutions in the country use telemedicine programs, as hospitals, pathology analysis clinics, remote electrocardiograms clinics, universities, the Brazilian Army and the federal Government. Each experience has its own goals and there is no integration among them. The telemedicine programs comprehend a wide range of applications: while some require a plain technological structure as remote electrocardiograms, others demand more sophisticated resources as teleconferences with clinical images transmission and remote bedside monitoring. To accomplish this study it was necessary to conduct interviews with the leaders of the projects and also data mining in specialized publications. The conclusions indicate that there is lack of coordination among the experiences, that there is a cultural resistence both to medical informatics and telemedicine, and the faint Goverment role in stimulating telemedicine.
155

Concepção, desenvolvimento e avaliação de um sistema de ensino virtual / Design, development and assessment of a virtual teaching system

Botelho, Maria Lucia de Azevedo 08 August 2018 (has links)
Orientador: Saide Jorge Calil / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-08T01:44:24Z (GMT). No. of bitstreams: 1 Botelho_MariaLuciadeAzevedo_D.pdf: 2737756 bytes, checksum: 9bd75c71b8b603eca3b3c8d5482e2050 (MD5) Previous issue date: 2006 / Resumo: Um detalhado levantamento de programas de computador aplicados ao ensino foi realizado tendo como objetivo conhecer os recursos disponíveis no mercado. Paralelamente, foi feita uma pesquisa bibliográfica buscando as necessidades da comunidade acadêmica em termos de recursos computacionais. Foi constatado, então, que apesar de serem consideradas importantes, havia poucas alternativas para a realização de aulas virtuais que demandassem pequeno esforço operacional e recursos simples de infra-estrutura para utilização. O objetivo do trabalho foi definido então, como sendo desenvolver e avaliar um sistema que viabiliza a realização de aulas virtuais de dois tipos, as on-line e as off-line, exigindo pouca experiência de informática dos usuários, e adequado aos recursos mais comumente disponíveis nas universidades. Alguns requisitos básicos de funcionalidade foram definidos, visando dotar o sistema com máxima facilidade de operação, como por exemplo, interface padrão, ou seja, aparência idêntica em todas as operações, ajuda disponível em todos os níveis e permitir aproveitamento de shows de slides e textos já existentes. Foram elaboradas duas plataformas de trabalho, uma para o professor, que permite criar, alterar e realizar uma aula, e outra plataforma para o aluno, que permite assistir à aula. A avaliação do sistema foi realizada através da execução de dois Planos de Testes, que utilizaram instrumentos padronizados como os Critérios de Avaliação de Qualidade de Software, aos quais foram atribuídas notas, e os Questionários de Avaliação do sistema, que foram preenchidos pelos professores e pelos alunos envolvidos. As aulas off-line obtiveram notas máximas em todos os quesitos, e as aulas on-line obtiveram médias acima de 1,78 (numa escala de 0 a 2). Todos os professores responderam que gostaram de realizar as aulas utilizando o sistema; 75% disseram que gostariam de empregá-lo em seu trabalho e 25% disseram que talvez pudessem utilizá-lo. Dentre os alunos, somente 2,33% responderam que não gostaram da aula virtual, e 4,65% informaram que não gostariam de ter mais aulas realizadas com o sistema no seu curso. Foi desenvolvida uma Discussão sobre os motivos que resultaram no pior desempenho das aulas on-line, e a principal causa detectada foi a dificuldade de realização deste tipo de evento utilizando a Internet comercial, que apresenta problemas de grande volume de tráfego de dados. Dentre as conclusões apresentadas, destaca-se que o VirtuAula é uma interessante alternativa para instituições de ensino público brasileiras, pois sua aplicação é original, não se encontrando similares nacionais com todas as funcionalidades reunidas, e por ter baixo custo operacional, não apresentando ônus nem risco de contravenção, por haver a possibilidade de cessão gratuita de uso / Abstract: A detailed search for digital programs applied to teaching processes was performed to identify the available resources on the world market. It was also carried out a survey on public and private libraries looking for the requirements of the academic community regarding computational resources to such purpose. It was found that although considered important, there were few alternatives for the development of virtual classes that demands little operational effort as well as a simplified infrastructure for its use. The goal of this work is to develop and assess a system - VirtuAula - to assemble and present on-line and off-line virtual classes, requiring low experience on informatics for its users as well as being adequate to common resources available in universities. The basic functional requirements defined for developing the VirtuAula were a standard interface, which means identical browse for all operations, a user-friendly help desk and the possibility to use already prepared slide shows and texts. Two work platforms were elaborated, one for teachers, which allow them to create, change and carry out the virtual class, and a second platform for students to attend this virtual class. For the system assessment two tests plans were used; standard tools as the Evaluation Criteria of the Software Quality (grading method), and questionnaires that were filled by the involved teachers and students. The off-line classes reached the maximum grading score in all the evaluation topics, while on-line classes reached an average score over 1,78 (in a 0-2 scale). All the involved teachers answered that they would like to carry out virtual classes using this system; 75% declared that they would like to use it for their work, and 25% declared that they could use it. Among the students, only 2,33% dislike the virtual classes using the VirtuAula while 4,65% informed that they would not like to have such kind of classes in their courses. Looking for the reas ons for the lower performance of on-line classes in this survey, the major cause was the difficulty to carry out such event on the present commercial Internet system due to its low performance during very heavy data transfer. Among the conclusions presented here, it can be depicted that the system is an interesting alternative tool for public schools in Brazil due to its originality (no similar software), low cost and user free possibility / Doutorado / Engenharia Biomedica / Doutor em Engenharia Elétrica
156

Clinical Decision Support Systems for Brain Tumour Diagnosis: Classification and Evaluation Approaches

Vicente Robledo, Javier 15 October 2012 (has links)
A lo largo de las últimas décadas, la disponibilidad cada vez mayor de grandes cantidades de información biomédica ha potenciado el desarrollo de herramientas que permiten extraer e inferir conocimiento. El aumento de tecnologías biomédicas que asisten a los expertos médicos en sus decisiones ha contribuido a la incorporación de un paradigma de medicina basada en la evidencia centrada en el paciente. Las contribuciones de esta Tesis se centran en el desarrollo de herramientas que asisten al médico en su proceso de toma de decisiones en el diagnóstico de tumores cerebrales (TC) mediante Espectros de Resonancia Magnética (ERM). En esta Tesis se contribuye con el desarrollo de clasificadores basados en Reconocimiento de Patrones (RP) entrenados con ERM de pacientes pediátricos y adultos para establecer el tipo y grado del tumor. Estos clasificadores especializados son capaces de aprovechar las diferencias bioquímicas existentes entre los TC infantiles y de adultos. Una de las principales contribuciones de esta Tesis consiste en el desarrollo de modelos de clasificación enfocados a discriminar los tres tipos de tumores cerebrales pediátricos más prevalentes. El cerebelo suele ser una localización habitual de estos tumores, resultando muy difícil distinguir el tipo mediante el uso de Imagen de Resonancia Magnética. Por lo tanto, obtener un alto acierto en la discriminación de astrocitomas pilocíticos, ependimomas y meduloblastomas mediante ERM resulta crucial para establecer una estrategia de cirugía, ya que cada tipo de tumor requiere de unas acciones diferentes si se quiere obtener un buen pronóstico del paciente. Asimismo, esta Tesis contribuye en la extracción de características para ERM mediante el estudio de la combinación de señales de ERM adquiridas en dos tiempos de eco: tiempo de eco corto y tiempo de eco largo; concluyendo que dicha combinación mejora la clasificación de tumores cerebrales pediátricos frente al hecho de usar únicamente los ERM de un / Vicente Robledo, J. (2012). Clinical Decision Support Systems for Brain Tumour Diagnosis: Classification and Evaluation Approaches [Tesis doctoral]. Editorial Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/17468 / Palancia
157

Desenvolvimento de aplicativo digital para avaliar resultados funcionais dos pacientes submetidos à prostatectomia radical robótica assistida / Digital application developed for evaluation of functional results following assisted robotic radical prostatectomy

Faria, Leandro Freitas 27 May 2019 (has links)
Introdução: O século XXI trouxe novos paradigmas na tecnologia da informação, com repercussões nos mais diversos aspectos da vida cotidiana. Aplicativos móveis, sites, softwares desenvolvidos para smartphones e tablets são cada vez mais utilizados na área da saúde, permitindo o suporte remoto ao paciente ou a autopromoção dos cuidados com a saúde. O rastreio do câncer de próstata (CP) permitiu o diagnóstico de CP em fases iniciais, resultando em procedimentos mais curativos, como a prostatectomia radical. Entre as principais complicações após a cirurgia estão a incontinência urinária e a disfunção erétil. No entanto, os números exatos relacionados a essas morbidades estão sempre escassos devido à breve entrevista durante a consulta no consultório médico. Portanto, o objetivo do estudo foi construir um aplicativo para coletar dados de pacientes sobre a recuperação após o tratamento em um ambiente informal e mais confortável. Métodos: O aplicativo foi construído usando o sistema IONIC Framework e aplicado aos pacientes através de um estudo prospectivo randomizado. Foram incluídos 100 pacientes divididos em dois grupos 1. Pacientes que usaram o aplicativo (n = 50) 2. Pacientes que responderam através de questionários impressos validados (grupo controle) (n = 50). Todos os pacientes receberam aconselhamento de alta para responder aos questionários 1, 3, 6 e 12 meses após o procedimento. O grupo de aplicativos após orientações verbais sobre como o monitoramento ocorreria recebeu um SMS com um nome de usuário e senha permitindo o acesso ao sistema e enviou alertas aos usuários para responder aos questionários. Resultados: O aplicativo desenvolvido é chamado UroHealth e está disponível para download na loja da Apple ou no site www.urohealth.com.br. A média de idade dos pacientes foi de 64,45 anos (± 8,33). Idade, PSA, volume da próstata, grau ISUP e estadiamento patológico foram semelhantes entre os grupos. Quando avaliamos as taxas de resposta, encontramos que 43,8% dos pacientes responderam ao questionário pré-operatório no grupo app, enquanto 16,3% responderam no grupo controle (p = 0,003). O acompanhamento em um, três, seis e 12 meses manteve taxas de resposta mais altas no grupo app, mas não houve significância estatística para nenhum deles (p > 0,05). Conclusão: O desenvolvimento de aplicativos, como o UroHealth, pode ser de grande valor no acompanhamento de pacientes após procedimentos cirúrgicos, permitindo informações de boa qualidade quanto à recuperação e morbidade relacionada ao tratamento. Nossos resultados iniciais indicam que pode se tornar uma ferramenta útil na obtenção de respostas mais frequentes e realistas, auxiliando na melhora das técnicas cirúrgica / Introduction: The 21st century brought new paradigms in information technology, with repercussions in the most diverse aspects of daily life. Mobile applications, websites, softwares developed for smartphones and tablets are increasingly used in healthcare, allowing remote patient support or self-promotion of health care. The prostate cancer (PC) screening allowed PC diagnosis in early stages resulting in more curative procedures as radical prostatectomy. Among the main complications following surgery are urinary incontinence and erectile dysfunction. However, the exact numbers related to these morbidities are often missing due to the brief interview during consultation in the medical office. Therefore, the objective of the study was to build an app to collect data of patients regarding recovery after treatment in an informal and more comfortable environment. Methods:The app was built using the IONIC Framework system and applied to patients through a prospective randomized study. We included 100 patients divided into two groups 1. Patients who used the app (n = 50) 2. Patients who responded via validated printed questionnaires (control group) (n = 50). All patients received discharge counseling to respond to questionnaires 1, 3, 6 and 12 months after the procedure. The app group after verbal guidance on how the monitoring would occur received an SMS with a user name and password allowing access to the system and sent alerts to users to respond the questionnaires. Results: The app developed is called UroHealth and is available for download in the Apple store or at www.urohealth.com.br. The mean age of patients was 64.45 years-old (± 8.33). Age, PSA, prostate volume, ISUP grade and pathological staging were similar between groups. When we evaluated response rates, we found that 43.8% of the patients answered the preoperative questionnaire in the app group while 16.3% responded in the control group (p = 0.003). The follow up in one, three, six and 12 months maintained higher response rates in the app group, but there was no statistical significance for any of them (p > 0.05). Conclusion: The app development, such as UroHealth may be of great value in monitoring patients after surgical procedures, allowing information of good quality regarding recovery and morbidity related to treatment. Our initial results indicate that it may become a useful tool in obtaining more frequent and realistic answers, helping the improvement of surgical techniques
158

Recuperação de imagens cardiacas tridimensionais por conteúdo / Content-Based 3D cardiac images retrieval

Bergamasco, Leila Cristina Carneiro 31 July 2013 (has links)
Os modelos tridimensionais fornecem uma visão mais completa dos objetos analisados por considerarem a profundidade de cada um deles. Com o crescimento de modelos tridimensionais disponíveis atualmente na área de saúde, se faz necessária a implementação de mecanismos eficientes de busca, que ofereçam formas alternativas para localizar casos de pacientes com determinadas características. A disponibilização de um histórico de imagens similares em relação àquelas pertencentes ao exame do paciente pode auxiliar no diagnóstico oferecendo casos semelhantes. O presente projeto visou desenvolver técnicas para recuperação de imagens médicas tridimensionais com base em seu conteúdo, com foco no contexto médico, mais especificamente na área cardíaca. Pretendeu-se contribuir com a detecção de anomalias por meio da disponibilização de quadros clínicos similares por meio de um protótipo de sistema de consulta. Para alcançar o objetivo proposto foram realizadas as seguintes etapas: revisão bibliográfica, definição da base de dados, implementação de extratores e funções de similaridade, construção de um protótipo de sistema de recuperação, realização de testes com imagens médicas e análises dos resultados. Os resultados obtidos com os métodos desenvolvidos foram positivos, alcançando em alguns testes 90% de precisão no retorno da busca. Verificou-se que extratores que levaram em consideração a informação espacial das deformações obtiveram um resultado melhor do que os métodos que analisaram os modelos sob uma perspectiva global. Estes resultados confirmaram o potencial que a recuperação por conteúdo possui no contexto médico podendo auxiliar na composição de diagnósticos, além de contribuir com a área de Computação no sentido de ter desenvolvido técnicas para recuperação por conteúdo no domínio de modelos tridimensionais. / Three-dimensional models provide a more complete view about objects analyzed by considering their depth. Considering the growth of three-dimensional models currently available in Health area, it is necessary to implement ecient query mechanisms that oer alternative ways to locate cases of patients with certain characteristics. Providing a images historical similar to those belonging to the patient can aided the diagnosis oering similar clinical cases. This project aimed to develop techniques to recovery three-dimensional medical images based on their content and apply them in the medical context, specically in the Cardiology area. This project intended to contribute to the detection of anomalies making available similar clinical cases, throught a prototype of query system. To achieve the proposed objectives the following phases are planned: literature review, denition of the database that will be used, extractors and similarity functions implementation, cons-truction of a retrieval system prototype, conduction of tests with medical imaging and analysis of results. The results obtained with the methods developed were positive, in some tests were achieved 90% of accuracy in the search return. It was found that descrip-tors that took into account the spatial information of the deformations obtained a better result than the methods which analyzed the models from a global perspective. These results conrmed the potential of content based retrieval has in the medical context to assist in diagnosis composition as well as contributing to the Computing eld in the sense of had developed content based retrieval methods on three-dimensional models domain.
159

Modelo baseado em processamento de dados heterogêneos para aplicações de apoio clínico

Rönnau, Rodrigo Freiberger 06 December 2017 (has links)
Submitted by JOSIANE SANTOS DE OLIVEIRA (josianeso) on 2018-02-08T12:32:48Z No. of bitstreams: 1 Rodrigo Freiberger Rönnau_.pdf: 4107183 bytes, checksum: a19ee8d2e8f8964708c6b3baf34e7ad2 (MD5) / Made available in DSpace on 2018-02-08T12:32:48Z (GMT). No. of bitstreams: 1 Rodrigo Freiberger Rönnau_.pdf: 4107183 bytes, checksum: a19ee8d2e8f8964708c6b3baf34e7ad2 (MD5) Previous issue date: 2017-12-06 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O uso de sistemas computacionais no auxílio à prática clínica vem sendo amplamente estudado atualmente, buscando a avaliação de suas possibilidades na melhoria da qualidade do atendimento prestado aos pacientes. Dentre as aplicações com essa finalidade, podem-se destacar aquelas que atuam sobre laudos médicos ou sobre os exames por imagem, em atividades que realizam a extração, disponibilização e uso de características adquiridas através do processamento desses documentos. Entretanto, ao observar a literatura da área, percebe-se que há uma lacuna na utilização combinada das informações obtidas em cada tipo de processamento, ao mesmo tempo em que são indicadas possibilidades relevantes de criação de aplicações compartilhando e integrando estas informações. Outra lacuna identificada está relacionada à interoperabilidade dos dados e dos resultados obtidos entre os diferentes sistemas já existentes. Com o intuito de contribuir para a solução das questões apresentadas, neste trabalho é proposto um modelo, com estrutura modular e expansível, que viabiliza o emprego de diferentes formatos de entrada com o objetivo de prover, de forma integrada, informações de apoio ao médico ou especialista. Os dados extraídos são disponibilizados de maneira estruturada através de padrões reconhecidos, viabilizando a interoperabilidade entre os sistemas e o seu uso a partir de diferentes aplicações computacionais. Foram construídos dois protótipos, utilizando como base o modelo proposto. Para apresentar o funcionamento e os benefícios de uso do modelo, bem como possibilitar a sua avaliação, foram descritos cenários que demonstram seu emprego. Tanto o modelo como os protótipos foram apresentados a 12 profissionais da saúde e a 35 profissionais da computação. Os participantes preencheram um questionário de avaliação. Como resultado, 97,8% dos entrevistados indicaram que o modelo proposto é útil e 76,6% pretendem utilizá-lo e/ou divulgá-lo. / The use of computer systems to aid in the clinical practice has been widely studied, seeking an evaluation of its possibilities in improving the quality of the care provided to patients. Among the applications for this purpose, it is possible to highlight those that act on medical reports or medical images, in activities that perform the extraction, storage and use of characteristics acquired through the processing of these documents. However, observing the literature of the area, it is noticed that there is a gap in the combined use of information obtained in each type of processing, while indicating, at the same time, relevant possibilities of applications sharing and integrating this information. Another identified gap is related to the interoperability of the data and results obtained between different existing systems. In order to contribute to the solution of the presented questions, this work proposes a model, with a modular and expandable structure, which makes possible the use of different input formats with the objective of providing, in an integrated way, support information to the physician or specialist. The extracted data are made available in a structured manner through recognized standards, allowing the interoperability between the systems and their use from different computational applications. Two prototypes were constructed, using as basis the proposed model. Scenarios that demonstrate the use and benefits of the model have been described and used in its evaluation. Both the model and the prototypes were presented to 12 health professionals and 35 computer professionals. Participants completed an evaluation questionnaire. As result, 97.8% of respondents indicated that the proposed model is useful and 76.6% intend to use it and/or disseminate it.
160

Método de extração  de coortes em bases de dados assistenciais para estudos da doença cardiovascular / A method for the cohort selection of cardiovascular disease records from an electronic health record system

Abrahão, Maria Tereza Fernandes 10 May 2016 (has links)
A informação coletada de prontuários manuais ou eletrônicos, quando usada para propósitos não diretamente relacionados ao atendimento do paciente, é chamado de uso secundário de dados. A adoção de um sistema de registro eletrônico em saúde (RES) pode facilitar a coleta de dados para uso secundário em pesquisa, aproveitando as melhorias na estruturação e recuperação da informação do paciente, recursos não disponíveis nos tradicionais prontuários em papel. Estudos observacionais baseados no uso secundário de dados têm o potencial de prover evidências para a construção de políticas em saúde. No entanto, a pesquisa através desses dados apresenta problemas característicos a essa fonte de dados. Ao longo do tempo, os sistemas e seus métodos de armazenar dados se tornam obsoletos ou são reestruturados, existem questões de privacidade para o compartilhamento dos dados dos indivíduos e questões relacionadas ao uso desses dados em um contexto diferente do seu propósito original. É necessária uma abordagem sistemática para contornar esses problemas, onde o processamento dos dados é efetuado antes do seu compartilhamento. O objetivo desta Tese é propor um método de extração de coortes de pacientes para estudos observacionais contemplando quatro etapas: (1) mapeamento: a reorganização de dados a partir de um esquema lógico existente em um esquema externo comum sobre o qual é aplicado o método; (2) limpeza: preparação dos dados, levantamento do perfil da base de dados e cálculo dos indicadores de qualidade; (3) seleção da coorte: aplicação dos parâmetros do estudo para seleção de dados longitudinais dos pacientes para a formação da coorte; (4) transformação: derivação de variáveis de estudo que não estão presentes nos dados originais e transformação dos dados longitudinais em dados anonimizados prontos para análise estatística e compartilhamento. O mapeamento é uma etapa específica para cada RES e não é objeto desse trabalho, mas foi realizada para a aplicação do método. As etapas de limpeza, seleção de coorte e transformação são comuns para qualquer RES. A utilização de um esquema externo possibilita o uso parâmetros que facilitam a extração de diferentes coortes para diferentes estudos sem a necessidade de alterações nos algoritmos e garante que a extração seja efetuada sem perda de informações por um processo idempotente. A geração de indicadores e a análise estatística fazem parte do processo e permitem descrever o perfil e qualidade da base de dados e os resultados do estudo. Os algoritmos computacionais e os dados são disponibilizados em um repositório versionado e podem ser usados a qualquer momento para reproduzir os resultados, permitindo a verificação, alterações e correções de erros. Este método foi aplicado no RES utilizado no Instituto do Coração - HC FMUSP, considerando uma base de dados de 1.116.848 pacientes cadastrados no período de 1999 até 2013, resultando em 312.469 registros de pacientes após o processo de limpeza. Para efetuar uma análise da doença cardiovascular em relação ao uso de estatinas na prevenção secundária de eventos evolutivos, foi constituída uma coorte de 27.915 pacientes, segundo os seguintes critérios: período de 2003 a 2013, pacientes do gênero masculino e feminino, maiores de 18 anos, com um diagnóstico no padrão CID-10 (códigos I20 a I25, I64 a I70 e G45) e com registro de no mínimo duas consultas ambulatoriais. Como resultados, cerca de 80% dos pacientes tiveram registro de estatinas, sendo que, 30% tiveram registro de estatinas por mais de 5 anos, 42% não tiveram registro de nenhum evento evolutivo e 9,7% tiveram registro de dois ou mais eventos. O tempo médio de sobrevida calculado pelo método Kaplan-Meier foi de 115 meses (intervalo de confiança 95% 114-116) e os pacientes sem registro de estatinas apresentaram uma maior probabilidade de óbito pelo teste log-rank p < 0,001. Conclui-se que a adoção de métodos sistematizados para a extração de coortes de pacientes a partir do RES pode ser uma abordagem viável para a condução de estudos epidemiológicos / Information collected from manual or electronic health records can also be used for purposes not directly related to patient care delivery, in which case it is termed secondary use. The adoption of electronic health record (EHR) systems can facilitate the collection of this secondary use data, which can be used for research purposes such as observational studies. These studies have the power to provide necessary evidence for the formation of healthcare policies. However, several problems arise when conducting research using this kind of data. For example, over time, systems and their methods of storing data become obsolete, data concerns arise since the data is being used in a different context to where it originated and privacy concerns arise when sharing data about individual subjects. To overcome these problems a systematic approach is required where local data processing is performed prior to data sharing. The objective of this thesis is to propose a method to extract patient cohorts for observational studies in four steps: (1) data mapping from an existing local logical schema into a common external schema over which information can be extracted; (2) cleaning of data, generation of the database profile and retrieval of indicators; (3) computation of derived variables from original variables; (4) application of study design parameters to transform longitudinal data into anonymized data sets ready for statistical analysis and sharing. Mapping is a specific stage for each EHR and although it is not the focus of this work, a detail of the mapping is included. The stages of cleaning, selection of cohort and transformation are common to all EHRs and form the main objective. The use of an external schema allows the use of parameters that facilitate the extraction of different cohorts for different studies without the need for changes to the extraction algorithms. This ensures that, given an immutable dataset, the extraction can be done by the idempotent process. The generation of indicators and statistical analysis form part of the process and allow profiling and qualitative description of the database. The set extraction / statistical processing is available in a version controlled repository and can be used at any time to reproduce results, allowing the verification of alterations and error corrections. The method was applied to EHR from the Heart Institute - HC FMUSP, with a dataset containing 1,116,848 patients\' records from 1999 up to 2013, resulting in 312,469 patients records after the cleaning process. An analysis of cardiovascular disease in relation to statin use in the prevention of secondary events was defined using a cohort selection of 27,915 patients with the following criteria: study period: 2003-2013, gender: Male, Female, age: >= 18 years old, at least 2 outpatient visits, diagnosis of CVD (ICD-10 codes: I20-I25, I64-I70 and G45). Results showed that around 80% of patients had a prescription for statins, of which 30% had a prescription for statins for more than 5 years. 42% had no record of a future event and 9,7% had two or more future events. Survival time was measured using a univariate Kaplan-Meier method resulting in 115 months (CI 95% 114-116) and patients without statin prescription showed a higher probability of death when measured by log-rank (p < 0.001) tests. The conclusion is that the adoption of systematised methods for cohort extraction of patients from EHRs can be a viable approach for conducting epidemiological studies

Page generated in 0.0724 seconds