• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 17
  • 1
  • Tagged with
  • 18
  • 18
  • 7
  • 5
  • 5
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

SimDB: :simulações numéricas em modelo de dados de matrizes multidimensionais / SimDB: numerical simulation in multidimensional array data model

Costa, Ramon Gomes 21 July 2014 (has links)
Made available in DSpace on 2015-03-04T18:58:02Z (GMT). No. of bitstreams: 1 tese-RamonGomesCosta.pdf: 7300075 bytes, checksum: 798b5b705351c27584fa52cd559b8588 (MD5) Previous issue date: 2014-07-21 / SimDB: Numerical Simulation in Multidimensional Array Data Model Computational Modelling is a science wherein scientists conceive mathematical models that strive to reproduce the behavior of a studied phenomenon. By means of simulations, predicting variables are computed, usually, through a multidimensional space-time frame. State of the art simulations use a class of software named Solvers to solve equations and compute the values of predicting variables. Moreover, to guide the computation in the physical domain space, polygonal meshes pinpoint the spots where values get computed and the time dimension brings the system dynamics by indicating successive values for the same mesh spot. Finally, in order to test the model with different parameter sets, the scientist may run thousands of simulations. Despite the huge amount of data produced by such simulations, the process is basically not supported by an efficient data management solution. Typical implementation stores parameters and simulated data in standard files organized with a sort of directory structure with no support for high level query language and distribution query processing. In this context, this paper investigates the adoption of the Multidimensional Array Data Model over the SciDB DBMS to manage multidimensional numerical simulation data. We model the 3D spatio-temporal dimensions and the simulation as indexes in the Multidimensional Array Data Model and the predicted variables as values in cells. We present a new strategy to map unstructured 3D spatial meshes into arrays. An orchestrated set of spatial transformations map the original spatial model into a dense multidimensional array, radically reducing the number of sparse chunks produced by a naive mapping. Our strategy is particularly interesting for large queries that would retrieve a huge number of sparsely loaded data chunks. We have run a series of experiments over a real case scenario for the simulation of the cardio-vascular system, developed at LNCC. We show that in some queries we present an improvement in query elapsed-time of approximately 25 times, compared to the standard SciDB implementation. / Modelagem Computacional e uma area na qual cientistas concebem modelos matematicos para reproduzir o comportamento de um fenomeno estudado. Por meio de simulacoes computacionais, variaveis dependentes do modelo sao calculadas, ao longo de uma amostra multidimensional espaco-temporal. O estado da arte em simulacoes numericas adota um tipo de softwares, chamado Resolvedor numerico (Solver), de forma a resolver equacoes matematicas e calcular os valores das variaveis dependentes. Para orientar o calculo no espaco do dominio fsico, malhas poligonais identicam os pontos onde os valores devem ser computados, enquanto que a dimensao temporal introduz a dinamica do sistema, indicando valores sucessivos para o mesmo ponto da malha. Finalmente, a m de testar o modelo com diferentes conjuntos de parametros, cientistas podem executar uma serie de simulacoes. Apesar da enorme quantidade de dados produzidos por tais simulacoes, o processo nao tem apoio de solucoes ecientes para o gerenciamento dos dados. Uma implementacao tipica armazena parametros e dados simulados em arquivos de texto simples, organizados em uma estrutura de diretorios, sem o interesse de permitir o uso de linguagem de consulta de alto nivel e o processamento distribuido de consultas. Neste contexto, esta tese investiga a adocao do Modelo de dados de Matrizes Multidimensionais e sua implementacao atraves do Sistema Gerenciador de Bancos de Dados SciDB, para gerenciar os dados de simulacao numerica. Modelamos as dimensoes espaco-temporais e a simulacao como indices da matriz em um Modelo de Dados de Matrizes Multidimensionais e suas variaveis dependentes como atributos de celulas. Apresentamos uma nova estrategia para mapear a representacao de pontos em malhas nao ortogonais para estruturas em array. Um conjunto orquestrado de transformacoes espaciais fazem o mapeamento do modelo espacial original em um array multidimensional denso, reduzindo radicalmente o numero de particoes (chunks) esparsas produzidas por um mapeamento simples. Nossa estrategia e particularmente interessante para consultas realizadas sobre um fragmento grande do array. Realizamos uma serie de experimentos sobre um cenario real, provido por simulacoes do sistema cardiovascular humano, desenvolvido no LNCC. Mostramos que em algumas consultas, obtem-se um desempenho 25 vezes melhor no tempo de resposta realizado sobre consultas de usuario, em comparaçao com a implementacao padrao usando o SciDB.
12

Uma metodologia para criação de cérebros médios e mensuração da atrofia relativa do córtex

Abdala, Daniel Duarte January 2005 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2013-07-16T01:36:27Z (GMT). No. of bitstreams: 1 222903.pdf: 10700721 bytes, checksum: febbe9a0a9cd44dffbe0ca92a0187d2e (MD5) / Devido à grande variabilidade anatômica relativa ao cérebro do ser humano, o seu estudo implica uma área incerta da ciência, e esforços direcionados ao objetivo de gerar um mapeamento dessa complexa estrutura obtêm constantes sucessos, mas também fracassos. Atualmente, com a crescente capacidade computacional e com a disponibilidade de metodologias para alinhamento de imagens, novos passos direcionados ao esforço de mapear o cérebro humano estão sendo dados. A existência de um "cérebro médio", que seja estatisticamente representativo em relação às características de uma dada população, pode vir a auxiliar o acompanhamento da evolução de doenças degenerativas cerebrais, ao fornecer uma base sólida para identificação de anomalias, assim como para servir de base para a tomada de decisão clínica. Este trabalho apresenta o resultado de dois anos de pesquisa e desenvolvimento junto ao projeto Cyclops, no intuito da elaboração de uma metodologia de registro volumétrico de imagens médicas e conseqüente geração de mapas médios do cérebro humano. Como fator motivador deste trabalho desenvolveu-se uma metodologia para a avaliação do grau de atrofia global e local do córtex cerebral, com o intuito de auxiliar os médicos neurorradiologistas no processo de diagnóstico precoce da doença de Alzheimer, assim como no acompanhamento e predição da evolução estatisticamente representativa do estado de MCI- Mild Cognitive Inparment para a doença de Alzheimer. Ao final da pesquisa obteve-se: a) descrição metodológica de geração de cérebros médios. b) uma ferramenta para registro de imagens mono-modais/multi-subject; c) ferramenta para geração de cérebros médios; d) ferramenta de geração de mapas de cores para salientar regiões atrofiadas do córtex; e) todas as funcionalidades discutidas neste trabalho sob a forma de um framework extensível.
13

Desenvolvimento e implementação de um editor de documentos estruturados no padrão Dicom Structured Report

Bortoluzzi, Mariana Kessler January 2003 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-20T12:22:07Z (GMT). No. of bitstreams: 1 195362.pdf: 1894061 bytes, checksum: a79f99dd7cf59ec149b7f2d4113ad4df (MD5)
14

Uma abordagem distribuída baseada no algoritmo do carteiro chinês para diagnóstico de redes de topologia arbitrária

Cestari, José Marcelo Almeida Prado January 2001 (has links)
Orientador: Elias Procópio Duarte Jr / Dissertação (mestrado) - Universidade Federal do Paraná / Resumo: Neste trabalho é apresentado um novo algoritmo para o diagnóstico distribuído de redes de topologia arbitrária baseado no algoritmo do Carteiro Chinês. Um agente móvel, isto é, um processo que é executado e transmitido entre os nodos da rede, percorre seqüencialmente todos os enlaces, de acordo com o caminho determinado pelo algoritmo do Carteiro Chinês. O agente, chamado Agente Chinês, vai testando os enlaces detectando novos eventos e disseminando as informações obtidas para os demais nodos da rede. Quando todos os nodos do sistema recebem a informação sobre um evento, o diagnóstico se completa. Neste trabalho assume-se que falhas não particionam a rede, e que um novo evento só ocorre após o diagnóstico do evento anterior. São apresentadas provas rigorosas do melhor e pior caso da latência do algoritmo, isto é, o tempo necessário para completar um diagnóstico. São apresentados também resultados experimentais obtidos através da simulação do algoritmo em vários tipos diferentes de topologia, dentre eles, hipercubos de 16, 64 e 128 vértices, grafo D 1,2 com 9 vértices, além de um grafo randômico com 50 vértices e probabilidade de aresta igual a 10%, e a topologia da Rede Nacional de Pesquisa (RNP). São simuladas falhas de um enlace em cada grafo, são medidos o número de mensagens geradas e o tempo necessário para que o diagnóstico se complete. Os resultados indicam que o tempo necessário para realizar o diagnóstico é, na média, menor que o pior caso apresentado, e que o número de mensagens disseminadas é freqüentemente menor que o requerido por outros algoritmos semelhantes. / Abstract: This work presents a new algorithm for distributed diagnosis of general topology networks. A mobile agent visits all links sequentially, following the path generated by the Chinese Postman algorithm. The agent, called Chinese Agent, tests the links detecting new events and disseminates event information to the rest of the network. When all nodes of the system receive the information about the event, the diagnosis is complete. This work assumes that faults do not partition the network, and that a new event only occurs after the previous event has been diagnosed. Rigorous proofs of the best and the worst case of the latency of the algorithm are presented. Experimental results are also presented which were obtained from the simulation of the algorithm on different types of topologies, like hypercubes with 16, 64 and 128 nodes, the D 1,2 graph with 9 nodes, a random graph with 50 nodes and link probability equal to 10%, and the Brazilian National Research Network (RNP) topology. One link fault is simulated in each graph, both the number of messages and the algorithm's latency were measured. The results show that the time necessary to complete the diagnosis is, in average, smaller than the worst case. A comparison with other algorithms shows that the number of messages generated by the proposed algorithm is frequently smaller than the number of messages required by others similar algorithms.
15

Estudo da aplicação de redes neuronais artificiais para apoio à decisão na liberação do perfil lipídico e de glicemia em jejum.

Prado, Ademir Luiz do January 2011 (has links)
Orientadora : Profª Drª Jeroniza Nunes Marchaukoski / Co-Orientador: Prof. Dr. Geraldo Picheth / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Educação profissional e Tecnológica, Programa de Pós-Graduação em Bioinformática. Defesa: Curitiba, 21/02/2011 / Bibliografia: fls. 84-88 / Resumo: As determinações do perfil lipídico (colesterol total, HDL-colesterol, LDL-colesterol, triglicérides) e da glicemia em jejum são ensaios de grande demanda nos laboratórios clínicos. A liberação destes resultados por profissionais consome tempo e atenção. O estudo se propõe avaliar a aplicação das redes neuronais, Multilayer Perceptron (MLP) e Free Associative Neurons (FAN), como ferramentas de inteligência artificial para colaborar na liberação dos resultados, em processo designado "segunda opinião". O projeto tem a aprovação do Comitê de Ética em Pesquisa com Seres Humanos do HC-UFPR (CAE: 0253.0.208.000-10). Uma amostra contendo 60.006 registros obtidos do banco de dados do HC-UFPR foi analisada. A idade média dos pacientes foi cerca de 47 anos (amplitude de variação de 2 a 99 anos), com predomínio de mulheres (~65%). Esta amostra foi classificada em "liberado" quando todo os valores dentro dos critérios estabelecidos de normalidade e "retido" quando qualquer analito estudado se mostrou fora da referência. Esta classificação resultou em 62% da amostra classificada no grupo "retido". Quando as redes neuronais foram testadas com arquivos completos (n=30.003) a rede FAN apresentou divergência cerca de 6 vezes superior à rede MLP (7,6% vs. 1,2%) embora ambas tenham um desempenho satisfatório em acurácia (>90%). Foram treinadas e testadas as redes FAN e MLP com arquivos incompletos, aracterizados pela ausência de algum dos parâmetros em estudo com diferentes tamanhos de arquivos (30.536, 65.536 e 120.000 registros). Nesta condição que mimetiza os resultados liberados pelo laboratório clínico, a rede neuronal MLP apresentou desempenho superior à rede FAN. O estudo permitiu concluir que: (1) a rede neuronal FAN perde desempenho com arquivos incompletos, (2) a rede neuronal MLP apresentou desempenho superior à rede FAN quando estudada com arquivos completos ou incompletos, (3) o tamanho amostral utilizado para treinamento e teste não afetaram o desempenho da rede neuronal MLP, enquanto que a rede FAN é afetada por perda de sensibilidade, (4) resultados divergentes da rede neuronal MLP avaliados por especialistas humanos evidenciaram que os ensaios com valores alterados foram o principal elemento de inconsistência. Em síntese, a rede neuronal MLP é recomendada para outros estudos com desenho amostral semelhante e apresenta potencial para aplicação no laboratório clínico como suporte a decisão na liberação de resultados. / Abstract: The lipid profile (total cholesterol, HDL-cholesterol, LDL-cholesterol, triglycerides) and fasting blood glucose are tests of high throughput in clinical laboratories. In the process of liberate these results professionals needs to takes time and attention. The study aims to evaluate the application of neural networks, Multilayer Perceptron (MLP) and Free Associative Neurons (FAN), as artificial intelligence tools to assist in the release of the results, a process called "second opinion". The project was approved by the Ethic Committee in Human Research of the HC-UFPR (CAE: 0253.0.208.000-10). A sample containing 60,006 registers obtained from HC-UFPR Database was analyzed. The mean age of patients was about 47 years (range: 2-99 years) with predominance of women (~65%). This sample was classified as "released", when all values were within the established criteria of normality and "retained" when any studied analyte showed values outside the reference of normality. This classification resulted in 62% of the sample classified as "retained". When neural networks were tested with complete files (n=30,003) FAN network disagreement was about 6 times higher compared with the MLP network (7.6% vs. 1.2%) although both have a satisfactory performance in accuracy (> 90%). The FAN and MLP networks were also trained and tested with incomplete files, characterized by the absence of any of the parameters under study with different file sizes (30,536, 65,536 and 120,000 registers). In this condition that mimics the results released by a clinical laboratory, the MLP neural network showed a superior performance compared to the FAN network. The study concluded that: (1) the FAN neural network loses performance with incomplete files, (2) the performance of MLP neural network was superior to the FAN network when tested with complete or incomplete files, (3) the sample size used to training and testing did not affect the performance of MLP neural network, while FAN network that is affected by loss of sensitivity, (4) divergent results of the MLP neural network evaluated by human experts showed that the tests with high values were the main element of inconsistency. In summary, the MLP neural network is recommended for other studies with similar sample design and presents a potential for application in the clinical laboratory as a decision support system.
16

Aplicação de rede neural artificial para o reconhecimento do diabetes mellitus gestacional com marcadores não-glicêmicos

Bandeira, Ana Paula Filus January 2015 (has links)
Orientador : Prof. Dr. Geraldo Picheth / Co-orientadora : Profª. Drª. Jeroniza Nunes Marchaukoski / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Educação Profissional e Tecnológica, Programa de Pós-Graduação em Bioinformática. Defesa: Curitiba, 13/04/2015 / Inclui referências / Resumo: O Diabetes mellitus gestacional (DMG) afeta cerca de 7% das gestações e tem impacto importante para a gestante, o feto e o neonato. O diagnóstico do DMG é realizado com base na determinação da glicemia em jejum e após sobrecarga. A identificação de padrões com base em características antropométricas e laboratoriais pode ser de interesse no processo de triagem do DMG. Nesse trabalho, o toolbox, open source, "WEKA" foi empregado, utilizando os algoritmos simple k-means e simple logistic, para a classificação de variáveis não-glicêmicas. A rede neural artificial, multilayer perceptron (MLP), foi aplicada na busca da identificação automática do DMG. A base do estudo foi uma amostra de 997 gestantes (699 = gestantes saudáveis (controle); 298 = gestantes com diabetes gestacional (DMG)) utilizando critérios glicêmicos estabelecidos pela American Diabetes Association. Os marcadores discriminantes selecionados com auxílio dos algoritmos k-means e simple logistic foram idade, peso, índice de massa corporal, pressão arterial sistólica, pressão arterial diastólica, ácido úrico, triglicérides, colesterol não HDL e Log(TG/HDL-C). Estas variáveis foram aplicadas na rede neural MLP para a classificar gestantes com DMG. A MLP devidamente treinada e testada permitiu 88% de predições corretas, estabelecendo uma sensibilidade de 92,1%, especificidade de 83,8% e acurácia de 87,5%. Em síntese, a metodologia desenvolvida neste trabalho é de baixo custo e uma alternativa de "segunda opinião" para a triagem do DMG. Palavras-chave: Diabetes mellitus gestacional; sistemas de apoio à decisão clínica; WEKA, k-means, simple-logistic, redes neurais artificiais. / Abstract: The gestational diabetes mellitus (GDM) affects about 7% of pregnancies and has an important impact on the mother, the fetus and the newborn. The diagnosis of GDM is based on the determination of fasting and post-load glycemia. The identification of patterns based on anthropometric and laboratory parameters can be of interest in the screening process of DMG. In this work, the toolbox, open source, "WEKA" was employed, using the simple k-means and simple logistic algorithms, for non-glycemic variables rating. The artificial neural network, multilayer perceptron (MLP), was applied in the search for automatic identification of the DMG. The basis of the study was a sample of 997 patients (699 = healthy pregnant women (control); 298 = pregnant women with gestational diabetes (GDM)) using glycemic criteria established by the American Diabetes Association. The discriminant markers selected with the help of k-means and simple logistic algorithms were age, weight, body mass index, systolic blood pressure, diastolic blood pressure, uric acid, triglycerides, non-HDL cholesterol and Log(TG/HDL-C). These variables were applied in MLP to classify pregnant women with GDM. The MLP network properly trained and tested allowed 88% of correct predictions, establishing a sensitivity of 92.1%, specificity of 83.8% and accuracy of 87.5%. In summary, the methodology developed in this work is low cost and an appropriate alternative to "second opinion", allowing GDM screening. Keywords: gestational diabetes; decision support systems; WEKA; k-means; simple logistic; artificial neural networks.
17

Projeto de um controlador PID para controle de ganho de uma câmera com sensor CMOS utilizando computação reconfigurável / Project of a PID controller for CMOS sensor camera gain control using reconfigurable computing

Dráusio Linardi Rossi 10 November 2011 (has links)
Este trabalho propõe um controlador PID (Proporcional, Integrador, Derivativo), implementado em hardware reconfigurável, para controle de ganho de uma câmera com sensor CMOS. O conceito utilizado é o de sistemas SoC (System-on-a-Chip). As principais funções realizadas pelo sistema são: Aquisição da imagem, montagem do histograma, análise do histograma, controle de ganho baseado na análise do histograma. O sistema proposto tem como objetivo conter algumas funções básicas de controle de ganho que possam servir de base para construção de sistemas de visão computacional que possibilitem a otimização do tempo gasto na construção de novos sistemas, deixando o projetista concentrado na parte mais específica do sistema. O algoritmo de controle de ganho através da análise de histograma demonstrou ser além de funcional, altamente flexível, pois pode ser aplicado a qualquer câmera, independente do tipo do sensor. Este algoritmo pode ser aplicado a tipos diferentes de sensores, com diferentes taxas de aquisição e transmissão de imagens. Este ambiente baseado em computação reconfigurável proporciona alta performance e flexibilidade no modo de implementação, possibilitando que o hardware seja configurado para satisfazer situações que exigem alto desempenho, que pode ser obtido através do paralelismo de operações. Esta arquitetura ainda possibilita a configuração de processadores que executam operações em software em conjunto com operações executadas em hardware. O sistema final controla a câmera CMOS de maneira adequada às aplicações robóticas de tempo real / This paper proposes a PID controller (Proportional, Integrator, Derivative), implemented in reconfigurable hardware to control a CMOS sensor camera gain. The concept used is the system SoC (System-on-a-Chip). The main functions performed by the system are: image acquisition, assembly of the histogram, histogram analysis, gain control based analysis of the histogram. The proposed system aims to contain some basic gain control functions. These functions may serve as a basis for future construction of computer vision systems. This work will optimize the time spent in building new systems, leaving the designer free to concentrate on more specific development. The gain control algorithm through the analysis of histogram proved be functional, highly exible, and it can be applied to any camera, regardless of the type of sensor. This algorithm can be applied to different types of image sensors with different acquisition and transmission rates. This environment-based reconfigurable computing provides high performance and exibility in implementation, enabling the hardware to be confiogured to meet situations that require high performance, which can be obtained through parallelism of operations. This architecture also enables the configuration of processors that perform software operations in conjunction with hardware operations. The final system controls the CMOS camera accordingly to real-time robotic applications
18

Um portal de banco de imagens médicas distrubuído usando corba para integração de serviços de teleradiologia

Ribeiro, Leonardo Andrade January 2002 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-20T04:54:46Z (GMT). No. of bitstreams: 1 208066.pdf: 638412 bytes, checksum: c762b70508aada6ed9a0a59748b8d2c9 (MD5) / A área do diagnóstico por imagem é um dos campos da medicina mais propensos a uso da Telemedicina, porque normalmente não existe a obrigação do contato direto com o paciente pelo radiologista responsável durante a elaboração do diagnóstico. A carência de especialistas em locais distantes de grandes centros urbanos faz da Telemedicina uma importante ferramenta para melhorar os serviços de atenção à saúde. Neste trabalho é apresentado um modelo baseado em uma abordagem federada chamo Portal de Teleradiologia, para a integração de bancos de imagens médicas DICOM distribuído geograficamente. O objetivo é prover uma visão única e transparente dos dados compartilhados sem sacrificar a autonomia dos sistemas integrantes ou interferir com operações locais. Um requisito obrigatório para sistemas desta natureza é a garantia de um contexto seguro para a execução das operações. O modelo proposto prevê também a identificação única de pacientes entre as diversas bases de dados através de técnicas de relacionamento de registros. Para a implementação do protótipo do sistema foi utilizada a tecnologia de objetos distribuídos através da arquitetura CORBA.

Page generated in 0.094 seconds