• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 878
  • 59
  • 58
  • 11
  • 1
  • 1
  • 1
  • Tagged with
  • 1016
  • 706
  • 298
  • 242
  • 159
  • 157
  • 150
  • 148
  • 146
  • 141
  • 133
  • 130
  • 112
  • 108
  • 94
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Utilização de pulsos de radiofrequência fortemente modulados no processamento de informação quântica via ressonância magnética nuclear / Development of strongly modulated pulses for quantum information processing via Nuclear Magnetic Resonance

Ferreira, Arthur Gustavo de Araujo 13 March 2009 (has links)
Nesta dissertação apresentamos um trabalho de desenvolvimento e utilização de pulsos de radiofreqüência modulados simultaneamente em freqüência, amplitude e fase (pulsos fortemente modulados, SMP, do inglês Strongly Modulated Pulses) para criar estados iniciais e executar operações unitárias que servem como blocos básicos para processamento da informação quântica utilizando Ressonância Magnética Nuclear (RMN). As implementações experimentais foram realizas em um sistema de 3 q-bits constituído por spins nucleares de Césio 133 (spin nuclear 7/2) em uma amostra de cristal líquido em fase nemática. Os pulsos SMP´s foram construídos teoricamente utilizando um programa especialmente desenvolvido para esse fim, sendo o mesmo baseado no processo de otimização numérica Simplex Nelder-Mead. Através deste programa, os pulsos SMP foram otimizados de modo a executarem as operações lógicas desejadas com durações consideravelmente menores que aquelas realizadas usando o procedimento usual de RMN, ou seja, seqüências de pulsos e evoluções livres. Isso tem a vantagem de reduzir os efeitos de descoerência decorrentes da relaxação do sistema. Os conceitos teóricos envolvidos na criação dos SMPs são apresentados e as principais dificuldades (experimentais e teóricas) que podem surgir devido ao uso desses procedimentos são discutidas. Como exemplos de aplicação, foram produzidos os estados pseudo-puros usados como estados iniciais de operações lógicas em RMN, bem como operações lógicas que foram posteriormente aplicadas aos mesmos. Utilizando os SMP\'s também foi possível realizar experimentalmente os algoritmos quânticos de Grover e Deutsch-Jozsa para 3 q-bits. A fidelidade das implementações experimentais foi determinadas utilizando as matrizes densidade experimentais obtidas utilizando um método de tomografia da matriz densidade previamente desenvolvido. / This dissertation presents the development and use of radiofrequency pulses simultaneously modulated in frequency, amplitude and phase (Strongly Modulated Pulses, SMP) for creating initial states and executing logical operations used as building blocks for Quantum Information Processing via Nuclear Magnetic Resonance (NMR-QIP). The experimental implementations were carried out in a 3 qubits system accomplished by Cesium 133 nuclei (nuclear spin 7/2) in a nematic liquid crystal. The SMP pulses were theoretically constructed using a home made computer program, which is based in the Simplex Nelder-Mead optimization procedure. Using this program, the SMP were optimized to the desired quantum logical operation with shorter durations than those achieved with conventional sequence of pulses and free evolutions as used in most NMR applications. This has the advantage of reducing decoherence effects that may appear as a results of the system relaxation. The main theoretical concepts are discussed together with the main experimental difficulties found in the SMP optimizations and executions. As application examples, the pseudo-pure state used as input for NMR-QIP and a 3 qubit logical gate were obtained. Besides, using the SMP\'s, the Grover and Deutsch-Jozsa quantum algorithms were experimentally executed. The experimental performance of the implementations was evaluated by a fidelity parameter calculated from the output density matrix, which were obtained using a quantum state tomography method previously developed.
152

Experimentação e testes para o desenvolvimento de novos produtos financeiros. / Tests and experimentation for development of new financial products.

Abensur, Eder de Oliveira 18 October 2006 (has links)
A experimentação e testes com o uso de protótipos físicos ou simulação em computadores é uma prática utilizada para o desenvolvimento de diversos produtos industriais. As indústrias aeronáutica, automobilística, mecânica, naval, petrolífera e microeletrônica, entre outras, há muito empregam uma ou ambas as técnicas citadas. No entanto, inexistem referências ou estudos sobre a aplicação prática e conceitual desse assunto dentro do ambiente bancário mundial. O propósito desta pesquisa é descrever e interpretar os modos de experimentação empregados atualmente para a formação de fundos de investimento no mercado financeiro brasileiro e propor novos procedimentos para o seu desenvolvimento em analogia ao processo industrial. A metodologia proposta foi demonstrada com a utilização de dados reais levantados durante quatro anos no mercado financeiro para o desenvolvimento de um fundo aberto referenciado DI fictício simulados com o auxílio de técnicas de Dinâmica de Sistemas e de Inteligência Artificial. Os resultados reforçam as possibilidades de analogia entre o desenvolvimento de produtos industriais tangíveis e serviços intangíveis, quebrando paradigmas e propondo novos conceitos sob uma ótica renovadora para o desenvolvimento de produtos financeiros. O problema de otimização apresentado representa um novo campo de aplicação para o uso integrado de Dinâmica de Sistemas com algoritmos inteligentes, sendo que os algoritmos genéticos provaram ser uma ferramenta de suporte à decisão adequada para um ambiente competitivo e globalizado. / Experimentation and tests using physical prototypes or computer simulation are practices used in the development of various industrial products. The aeronautical, automobile, mechanical, naval, petroleum and micro-electronics industries have been using one or both of the mentioned techniques for a very long time. However, this issue has not been studied in detail in the banking area. The aim of this research is to describe and interpret the experimentation modes currently used in the Brazilian financial market in order to propose new procedures to develop investment funds akin to the industrial process. The proposed methodology was tested using 4 years of real data of the Brazilian financial market in order to develop a fictional investment fund based on Dynamic Systems and Artificial Intelligence (genetic algorithms) simulation principles. The results strengthen the possible analogy between the development of tangible industrial products and intangible services and propose new concepts according to an innovative development methodology for financial products. The related optimization problem represents a new field of application for Dynamic Systems combined with intelligent algorithms and, particularly, the Genetic Algorithms (GA) based model provided an efficient decision-making tool to be used in a competitive and globalized environment.
153

Algoritmos exatos para problemas de spanner em grafos / Exact algorithms for spanner problems in graphs

Braga, Hugo Vinicius Vaz 14 December 2018 (has links)
Seja (G,w,t) uma tripla formada por um grafo conexo G = (V,E), uma função peso não-negativa w definida em E e um número real t >= 1, chamado de fator de dilatação. Um t-spanner de G é um subgrafo gerador H de G tal que para cada par de vértices u, v, a distância entre u e v em H é no máximo t vezes a distância entre u e v em G. Quando H é uma árvore, dizemos que H é uma árvore t-spanner. Nesta tese focamos o problema da árvore t- spanner de peso mínimo (cuja sigla em inglês é MWTSP), definido a seguir. Dada uma tripla (G,w,t), encontrar uma árvore t-spanner em G de peso mínimo. É sabido que MWTSP é NP-difícil para cada t > 1 fixo. Propomos duas formulações lineares inteiras para MWTSP, baseadas em arborescência, de tamanho polinomial no tamanho de G. A formulação que possui variáveis representando distâncias entres os pares de vértices apresentou resultados melhores na prática. Também abordamos o problema de t-spanner de peso mínimo (cuja sigla em inglês é MWSP), cuja entrada é a mesma do MWTSP e cujo objetivo é encontrar um t-spanner de peso mínimo. Mesmo para grafos com peso unitário, MWSP é NP-difícil para cada t >= 2 fixo. Tratamos este problema de duas formas. Propomos uma formulação linear inteira para o MWSP que possui um número exponencial de restrições, mas cujo problema da separação para o programa linear relaxado correspondente é polinomial no tamanho de G. Apresentamos também uma implementação de um algoritmo de branch-and-price para o MWSP baseado numa formulação linear inteira proposta por Sigurd e Zachariasen (2004). Exibimos resultados de experimentos realizados com as duas formulações para o MWTSP e também com o algoritmo de branch-and-price para o MWSP. / Let (G, w, t) be a triplet consisting of a connected graph G = (V, E) with a nonnegative weight function w defined on E, and a real number t >= 1. A t-spanner of G is a spanning subgraph H of G such that for each pair of vertices u,v, the distance between u and v in H is at most t times the distance between u and v in G. If H is a tree then we call it a tree t-spanner of G. We address the Minimum Weight Tree Spanner Problem (MWTSP), defined as follows. Given a triplet (G, w, t), find a minimum weight tree t-spanner in G. It is known that MWTSP is NP-hard for every fixed t > 1. We propose two ILP formulations for MWTSP, based on arborescences, of polynomial size in the size of G. The formulation that has variables representing distances between pairs of vertices has shown to be better in practice. We also address the Minimum Weight t-Spanner Problem (MWSP) that has the same input as MWTSP and seeks for a minimum weight t-spanner in G. Even for unweighted graphs, it is known that MWSP is NP-hard for every fixed t >= 2. We approach this problem in two ways. We propose an ILP formulation for MWSP that has an an exponential number of restrictions but we show that the separation problem for the corresponding relaxed linear program can be solved in polynomial time in the size of G. We also present a branch-and-price algorithm for MWSP based on an ILP formulation proposed by Sigurd and Zachariasen (2004). We show results on the computational experiments with both formulations for MWTSP and also with the branch-and-price algorithm that we implemented for MWSP.
154

O algoritmo de simulação estocástica para o estudo do comportamento da epidemia de dengue em sua fase inicial / The stochastic simulation algorithm for the study of the behavior of the dengue epidemic in its initial phase

Nakashima, Anderson Tamotsu 24 August 2018 (has links)
O comportamento de sistemas epidêmicos é frequentemente descrito de maneira determinística, através do emprego de equações diferenciais ordinárias. Este trabalho visa fornecer uma visão estocástica do problema, traçando um paralelo entre o encontro de indivíduos em uma população e o choque entre partículas de uma reação química. Através dessa abordagem é apresentado o algoritmo de Gillespie, que fornece uma forma simples de simular a evolução de um sistema epidêmico. Fundamentos de processos estocásticos são apresentados para fundamentar uma técnica para a estimação de parâmetros através de dados reais. Apresentamos ainda o modelo de Tau-leaping e o modelo difusivo elaborados através de equações diferenciais estocásticas que são aproximações do modelo proposto por Gillespie. A aplicação dos modelos apresentados é exemplificada através do estudo de dados reais da epidemia de dengue ocorrida no estado do Rio de Janeiro entre os anos de 2012 e 2013. / The behavior of epidemic systems is often described in a deterministic way, through the use of ordinary differential equations. This paper aims to provide a stochastic view of the problem, drawing a parallel between the encounter between individuals in a population and the clash between particles of a chemical reaction. Through this approach is presented the Gillespie algorithm, which provides a simple way to simulate the evolution of an epidemic system. Fundamentals of stochastic process theory are presented to support a technique for estimating parameters through real data. We present the model of Tau-leaping and the diffusive model elaborated by stochastic differential equations that are approximations of the model proposed by Gillespie. The application of the presented models is exemplified through the study of real data of the dengue epidemic occurred in the state of Rio de Janeiro between the years of 2012 and 2013.
155

Clustering EBEM: modelos de mezclas gausianas basados en maximización de entropía

Peñalver Benavent, Antonio 17 December 2007 (has links)
D.L. A 227-2008
156

Aplicación del muestreo bayesiano en robots móviles: estrategias para localización y estimación de mapas del entorno

Gallardo López, Domingo 11 June 1999 (has links)
No description available.
157

Algoritmo de otimização bayesiano com detecção de comunidades / Bayesian optimization algorithm with community detection

Crocomo, Márcio Kassouf 02 October 2012 (has links)
ALGORITMOS de Estimação de Distribuição (EDAs) compõem uma frente de pesquisa em Computação Evolutiva que tem apresentado resultados promissores para lidar com problemas complexos de larga escala. Nesse contexto, destaca-se o Algoritmo de Otimização Bayesiano (BOA) que usa um modelo probabilístico multivariado (representado por uma rede Bayesiana) para gerar novas soluções a cada iteração. Baseado no BOA e na investigação de algoritmos de detecção de estrutura de comunidades (para melhorar os modelos multivariados construídos), propõe-se dois novos algoritmos denominados CD-BOA e StrOp. Mostra-se que ambos apresentam vantagens significativas em relação ao BOA. O CD-BOA mostra-se mais flexível que o BOA, ao apresentar uma maior robustez a variações dos valores de parâmetros de entrada, facilitando o tratamento de uma maior diversidade de problemas do mundo real. Diferentemente do CD-BOA e BOA, o StrOp mostra que a detecção de comunidades a partir de uma rede Bayesiana pode modelar mais adequadamente problemas decomponíveis, reestruturando-os em subproblemas mais simples, que podem ser resolvidos por uma busca gulosa, resultando em uma solução para o problema original que pode ser ótima no caso de problemas perfeitamente decomponíveis, ou uma aproximação, caso contrário. Também é proposta uma nova técnica de reamostragens para EDAs (denominada REDA). Essa técnica possibilita a obtenção de modelos probabilísticos mais representativos, aumentando significativamente o desempenho do CD-BOA e StrOp. De uma forma geral, é demonstrado que, para os casos testados, CD-BOA e StrOp necessitam de um menor tempo de execução do que o BOA. Tal comprovação é feita tanto experimentalmente quanto por análise das complexidades dos algoritmos. As características principais desses algoritmos são avaliadas para a resolução de diferentes problemas, mapeando assim suas contribuições para a área de Computação Evolutiva / ESTIMATION of Distribution Algorithms represent a research area which is showing promising results, especially in dealing with complex large scale problems. In this context, the Bayesian Optimization Algorithm (BOA) uses a multivariate model (represented by a Bayesian network) to find new solutions at each iteration. Based on BOA and in the study of community detection algorithms (to improve the constructed multivariate models), two new algorithms are proposed, named CD-BOA and StrOp. This paper indicates that both algorithms have significant advantages when compared to BOA. The CD-BOA is shown to be more flexible, being more robust when using different input parameters, what makes it easier to deal with a greater diversity of real-world problems. Unlike CD-BOA and BOA, StrOp shows that the detection of communities on a Bayesian network more adequately models decomposable problems, resulting in simpler subproblems that can be solved by a greedy search, resulting in a solution to the original problem which may be optimal in the case of perfectly decomposable problems, or a fair approximation if not. Another proposal is a new resampling technique for EDAs (called REDA). This technique results in multivariate models that are more representative, significantly improving the performance of CD-BOA and StrOp. In general, it is shown that, for the scenarios tested, CD-BOA and StrOp require lower running time than BOA. This indication is done experimentally and by the analysis of the computational complexity of the algorithms. The main features of these algorithms are evaluated for solving various problems, thus identifying their contributions to the field of Evolutionary Computation
158

Reconstrução de objetos simuladores segmentados aplicáveis à dosimetria de pele / Reconstruction of voxel phantoms for skin dosimetry

Antunes, Paula Cristina Guimarães 09 December 2010 (has links)
A radioterapia é uma modalidade terapêutica que utiliza radiações ionizantes para erradicar as células neoplásicas do organismo humano. Um dos requisitos para o sucesso desta metodologia de tratamento está na utilização adequada dos sistemas de planejamento, os quais, dentre outras informações, estimam a dose a ser administrada aos pacientes. Atualmente, códigos de transporte de radiação têm proporcionado grandes subsídios a estes sistemas de planejamento, uma vez que viabilizam avaliações dosimétricas acuradas nos órgãos e tecidos específicos de um paciente. O modelo utilizado por estes códigos para descrever a anatomia humana de forma realista é denominado Objeto Simulador Segmentado (OSS), que consiste na representação das estruturas anatômicas do corpo em discretos elementos de volume (voxels), os quais são diretamente associados aos dados tomográficos. Atualmente, os OSS possíveis de serem inseridos e processados pelo código de transporte MCNP (Monte Carlo N-Particle), apresentam voxels com resoluções da ordem de 3-4 mm. No entanto, tal resolução compromete a discriminação de algumas estruturas finas do corpo, tais como a pele. Neste contexto, o presente estudo propõe a criação de uma rotina de cálculo que discrimine a região da pele, com espessura e localização próximas do real, nos OSS e os habilite para avaliações dosimétricas acuradas. A metodologia proposta consiste na manipulação dos elementos de volume dos OSS de forma a segmentá-los e subdividi-los em diferentes espessuras de pele. A fim de validar os dados obtidos por cálculos, foram realizadas avaliações experimentais de dosimetria de pele em objetos simuladores antropomórficos com dosímetros termoluminescentes. Verificou-se, ao longo deste estudo, a importância de discriminar a região da pele com localização e espessuras próximas do real, uma vez que foram encontradas diferenças significativas entre as estimativas de dose absorvida na região pelas diferentes representações. A metodologia proposta neste estudo far-se-á útil para avaliações dosimétricas acuradas da região de pele para diversos procedimentos radioterápicos, com particular interesse na radioterapia com feixe de elétrons, na qual se destaca a terapia de irradiação de corpo inteiro (TSET Total Skin Electron Therapy), procedimento radioterápico em implementação no Hospital das Clínicas da Faculdade de Medicina da Universidade de São Paulo (HC-FMUSP). / Radiotherapy is a therapeutic modality that utilizes ionizing radiation for the destruction of neoplastic human cells. One of the requirements for this treatment methodology success lays on the appropriate use of planning systems, which performs, among other information, the patients dose distribution estimate. Nowadays, transport codes have been providing huge subsidies to these planning systems, once it enables specific and accurate patient organ and tissue dosimetry. The model utilized by these codes to describe the human anatomy in a realistic way is known as voxel phantoms, which are represented by discrete volume elements (voxels) directly associated to tomographic data. Nowadays, voxel phantoms doable of being inserted and processed by the transport code MCNP (Monte Carlo N-Particle) presents a 3-4 mm image resolution; however, such resolution limits some thin body structure discrimination, such as skin. In this context, this work proposes a calculus routine that discriminates this region with thickness and localization in the voxel phantoms similar to the real, leading to an accurate dosimetric skin dose assessment by the MCNP code. Moreover, this methodology consists in manipulating the voxel phantoms volume elements by segmenting and subdividing it in different skin thickness. In addition to validate the skin dose calculated data, a set of experimental evaluations with thermoluminescent dosimeters were performed in an anthropomorphic phantom. Due to significant differences observed on the dose distribution of several skin representations, it was found that is important to discriminate the skin thickness similar to the real. The presented methodology is useful to obtain an accurate skin dosimetric evaluation for several radiotherapy procedures, with particular interest on the electron beam radiotherapy, in which highlights the whole body irradiation therapy (TSET), a procedure under implementation at the Hospital das Clínicas da Faculdade de Medicina da Universidade de São Paulo (HC-FMUSP).
159

[en] RANKING OF WEB PAGES BY LEARNING MULTIPLE LATENT CATEGORIES / [pt] CLASSIFICAÇÃO DE PÁGINAS WEB POR APRENDIZAGEM DE MÚLTIPLAS CATEGORIAS LATENTES

FRANCISCO BENJAMIM FILHO 17 May 2012 (has links)
[pt] O crescimento explosivo e a acessibilidade generalizada da World Wide Web (WWW) levaram ao aumento da atividade de pesquisa na área da recuperação de informação para páginas Web. A WWW é um rico e imenso ambiente em que as páginas se assemelham a uma comunidade grande de elementos conectada através de hiperlinks em razão da semelhança entre o conteúdo das páginas, a popularidade da página, a autoridade sobre o assunto e assim por diante, sabendo-se que, em verdade, quando um autor de uma página a vincula à outra, está concebendo-a como importante para si. Por isso, a estrutura de hiperlink da WWW é conhecida por melhorar significativamente o desempenho das pesquisas para além do uso de estatísticas de distribuição simples de texto. Nesse sentido, a abordagem Hyperlink Induced Topic Search (HITS) introduz duas categorias básicas de páginas Web, hubs e autoridades, que revelam algumas informações semânticas ocultas a partir da estrutura de hiperlink. Em 2005, fizemos uma primeira extensão do HITS, denominada de Extended Hyperlink Induced Topic Search (XHITS), que inseriu duas novas categorias de páginas Web, quais sejam, novidades e portais. Na presente tese, revisamos o XHITS, transformando-o em uma generalização do HITS, ampliando o modelo de duas categorias para várias e apresentando um algoritmo eficiente de aprendizagem de máquina para calibrar o modelo proposto valendo-se de múltiplas categorias latentes. As descobertas aqui expostas indicam que a nova abordagem de aprendizagem fornece um modelo XHITS mais preciso. É importante registrar, por fim, que os experimentos realizados com a coleção ClueWeb09 25TB de páginas da WWW, baixadas em 2009, mostram que o XHITS pode melhorar significativamente a eficácia da pesquisa Web e produzir resultados comparáveis aos do TREC 2009/2010 Web Track, colocando-o na sexta posição, conforme os resultados publicados. / [en] The rapid growth and generalized accessibility of the World Wide Web (WWW) have led to an increase in research in the field of the information retrieval for Web pages. The WWW is an immense and prodigious environment in which Web pages resemble a huge community of elements. These elements are connected via hyperlinks on the basis of similarity between the content of the pages, the popularity of a given page, the extent to which the information provided is authoritative in relation to a given field etc. In fact, when the author of a Web page links it to another, s/he is acknowledging the importance of the linked page to his/her information. As such the hyperlink structure of the WWW significantly improves research performance beyond the use of simple text distribution statistics. To this effect, the HITS approach introduces two basic categories of Web pages, hubs and authorities which uncover certain hidden semantic information using the hyperlink structure. In 2005, we made a first extension of HITS, called Extended Hyperlink Induced Topic Search (XHITS), which inserted two new categories of Web pages, which are novelties and portals. In this thesis, we revised the XHITS, transforming it into a generalization of HITS, broadening the model from two categories to various and presenting an efficient machine learning algorithm to calibrate the proposed model using multiple latent categories. The findings we set out here indicate that the new learning approach provides a more precise XHITS model. It is important to note, in closing, that experiments with the ClueWeb09 25TB collection of Web pages, downloaded in 2009, demonstrated that the XHITS is capable of significantly improving Web research efficiency and producing results comparable to those of the TREC 2009/2010 Web Track.
160

O uso do algoritmo genético na construção de mapas de perfusão cerebral e sua aplicação em pacientes com anemia falciforme / The use of genetic algorithm to calculate brain perfusion MRI maps and its application to sickle-cell disease.

Nivia Aparecida da Silva 24 April 2008 (has links)
A imagem por ressonância magnética (IRM) tem se tornado uma poderosa ferramenta clínica na avaliação da anatomia cerebral. Recentemente, várias técnicas têm tornado possível a caracterização da função cerebral através da estimativa de alguns parâmetros metabólicos. Uma dessas técnicas é a perfusão cerebral, que descreve a passagem de sangue através da rede vascular cerebral, e permite estimar, não invasivamente, algumas características das funções hemodinâmicas tais como Volume de Sangue Cerebral (CBV), Fluxo de Sangue Cerebral (CBF) e Tempo de Trânsito Médio (MTT). Neste trabalho foi desenvolvido um programa computacional, baseado na plataforma Matlab, que analisa as imagens e cria mapas de perfusão. Primeiro foi comparado o desempenho do método de ajuste de curvas convencional Levenberg-Marquardt (LM) versus o Método que utiliza o Algoritmo Genético (AG). Os resultados mostraram que os AGS são muito mais estáveis, com relação aos seus parâmetros de controle, do que o método usual LM e, portanto, fornece evidencias da eficácia do AG em relação ao método convencional. Como um segundo e principal objetivo nós aplicamos o método para construir e examinar os mapas de perfusão em pacientes com anemia falciforme (sickle cell disease -SCD), particularmente em relação a complicações neurológicas e anormalidades vistas como uma técnica de imagem complementar. Além disso, os mapas de perfusão agregam informação a respeito de aspectos funcionais do sistema vascular, que é complementar a informação anatômica. Os nossos resultados com mostraram que esses mapas são uma ferramenta importante para auxiliar na avaliação clínica dos pacientes com anemia falciforme, como também podem ser aplicados para avaliar áreas em risco tão bem quanto ajudar no tratamento clínico de tais pacientes. / Magnetic Resonance Imaging (MRI) has become a powerful clinical tool for evaluation of brain anatomy. Several recently techniques have made possible the characterization of brain function via assessment of metabolic parameters. One of these techniques is the cerebral perfusion, which describes passage of blood through the brain\'s vascular network, and al- lows estimating, non-invasively, some characteristics of hemodynamic functions such as Cerebral Blood Volume (CBV), cerebral blood flow (CBF) and mean transit time (MTT). In this work a computational program was development, based on Matlab platform, which analyze perfusion images and create perfusion maps. First, the performance of conven- tional Levenberg-Marquardt Method (LM) versus a Genetic Algorithms (GAs) was com- pared. The results showed that the GAs are more stable than usual LM method with rela- tion to their control parameters and therefore provides evidence the effectiveness of the GAs with relation to a conventional method. As a second and principal objective we ap- plied the method to construct and examine perfusion maps of patients with sickle cell dis- ease (SCD), particularly in relation to the neurological complications and to abnormalities seen with complementary imaging techniques. Moreover, perfusion maps aggregate infor- mation about functional aspects of the vascular system, which is complementary to ana- tomical information. Our results show that these maps are an important tool to support clinical evaluation of sickle cell disease patients, as it may be applied to evaluate brain areas at risk as well as a help in the clinical treatment of such patients.

Page generated in 0.0505 seconds