• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 59
  • 4
  • Tagged with
  • 64
  • 64
  • 44
  • 38
  • 17
  • 16
  • 16
  • 15
  • 14
  • 14
  • 14
  • 12
  • 12
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Influência das correções de atenuação e espalhamento na quantificação de spect cerebral-HMPAO-Tc99m

Pozzo, Lorena, 1973- 25 November 1997 (has links)
Orientador: Sergio Querino Brunetto / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Fisica Gleb Wataghin / Made available in DSpace on 2018-07-23T11:36:27Z (GMT). No. of bitstreams: 1 Pozzo_Lorena_M.pdf: 4823485 bytes, checksum: f3b72b7b4077de76e438290ec15e34cb (MD5) Previous issue date: 1997 / Resumo: Em medicina nuclear, a atenuação e o espalhamento de raios g ao atravessar o meio material são fatores que afetam a qualidade e a quantificação das imagens adquiridas podendo comprometer o diagnóstico de um exame clínico. A interação dos g's pode se dar por Efeito Fotoelétrico ou por Espalhamento Compton, fazendo com que a radiação proveniente de um ponto interno ao corpo do paciente seja localizado numa posição diferente da posição de emissão ou que simplesmente não seja detectado. Dentre as correções para estes efeitos existentes na literatura foram escolhidos o método de correção de atenuação de Chang de 1ª ordem e os métodos de correção de espalhamento no domínio da energia de Janela Tripla de Aquisição, Janela Dupla de Fotopico e Razão entre Canais para serem implementados e analisados neste trabalho. Foram feitas aquisições com phantoms, sob condições controladas, em três montagens diferentes e duas aquisições cerebrais SPECT ( Single Photon Emission Computered Tomography ) de um voluntário normal. O efeito de Volume Parcial foi previamente analisado para ser convenientemente minimizado ao quantificar as imagens de phantoms corrigidas por espalhamento e atenuação. Para o estudo com phantoms foram utilizados ROI's ( Region Of Interest ) com pixels limitantes de 20% da máxima contagem. Os resultados das correções de espalhamento mostraram linearidade na correção de fontes de atividades diferentes e aumento de contraste. Além disso mostraram um aumento da diferença entre as contagens de fontes localizadas em profundidades distintas no phantom com água ( meio atenuador/espalhador ) ou seja, sujeitas a atenuação e espalhamento diferentes. Este aumento torna necessária a utilização de um coeficiente maior que o usual ao corrigir estas imagens por atenuação. Após a análise dos efeitos e correções do espalhamento e atenuação foi feita a quantificação destas imagens ao serem reconstruídas utilizando dois tipos diferentes de filtro utilizado no algoritmo de reconstrução tomo gráfica ( FBP- Filtered Back Projection ). Esta análise mostrou a independência da quantificação com o filtro utilizado . Com base nestes resultados foram feitas as correções de espalhamento e atenuação nas aquisições cerebrais reconstruídas com o filtro apropriado ( Butterworth ) / Abstract: Not informed. / Mestrado / Física / Mestre em Física
2

Desenvolvimento de softwares para aplicação em medicina nuclear : cálculo da blindagem PET/CT e otimização de dose para radiofármaco em PET/CT

Nascimento, Pedro Augusto do 01 July 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Ceilândia, Programa de Pós-Graduação em Ciências e Tecnologias em Saúde, 2016. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2017-08-14T16:18:57Z No. of bitstreams: 1 2016_PedroAugustodoNascimento.pdf: 3243139 bytes, checksum: 11f2328399cc0fe75d371464522a2803 (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2017-09-22T22:05:30Z (GMT) No. of bitstreams: 1 2016_PedroAugustodoNascimento.pdf: 3243139 bytes, checksum: 11f2328399cc0fe75d371464522a2803 (MD5) / Made available in DSpace on 2017-09-22T22:05:30Z (GMT). No. of bitstreams: 1 2016_PedroAugustodoNascimento.pdf: 3243139 bytes, checksum: 11f2328399cc0fe75d371464522a2803 (MD5) Previous issue date: 2017-09-22 / A PET/CT (Positron Emission Tomography/ Computed Tomography) é uma técnica de aquisição de imagem, de alta resolução da anatomia e fisiologia humana, extremante eficiente no diagnóstico de tumores metabolicamente ativos. A proteção radiológica do PET/CT tem um desafio especial, pois a alta energia de 511 keV dos fótons provenientes da aniquilação de pares diferencia-se de outros exames de diagnósticos que utilizam radiações ionizantes. O cálculo dos requisitos de blindagem para radiação por emissão de pósitrons de em instalações PET/CT proposto em 2006 pela Task Grupo 108 (TG 108), da American Association of Physicists in Medicine (AAMP), pode ser uma tarefa complexa. Nesse trabalho apresentamos dois softwares em forma de Aplicativos (App) que visam contribuir com a Medicina Nuclear. O primeiro, denominado BlindPet, calcula as espessuras das barreiras empregadas na blindagem de instalações destinadas à prática PET/CT e o segundo App, o DosePet, calcula os volumes e doses a serem administradas em pacientes e os resíduos radiação na sala de preparação de PET/CT. Os softwares foram projetados utilizando a ferramenta Web MIT App Inventor2 para plataforma Android. Os aplicativos permitem avaliar a quantidade de radiação ainda existente nas instalações após as aplicações, aumentando a segurança e diminuindo as exposições, além de possibilitar maior eficiência no aproveitamento do radiofármaco. / The PET / CT (Positron Emission Tomography / Computed Tomography) is an image capture technique, high resolution of the human anatomy and physiology, extremely efficient in the diagnosis of metabolically active tumors. Radiological protection of the PET / CT has a special challenge because the high energy of 511 keV photons from the annihilation of pairs differs from other tests diagnostics using ionizing radiation. The calculation of shielding requirements for radiation positron emission of PET / CT facilities proposed in 2006 by the Task Group 108 (TG 108), prepared by the American Association of Physicists in Medicine (AAPM), can be a complex task. In this paper we present two software in the form of Application (App) designed to help in the nuclear medicine. The first, called BlindPet calculates the thicknesses of the shielding barriers used in the installations intended for PET / CT and second App, DosePet calculates the volumes and doses to be administered to patients and residues radiation in the PET/CT preparation room. The software has been designed using the Web Inventor2 MIT App tool for Android platform. The application allows evaluating the amount of radiation still existing in the premises after the applications, increasing security and reducing exposures, and enable greater efficiency in the use of the radiopharmaceutical.
3

Estudo comparativo entre os algoritmos de reconstrução tomográfica por retro-projeção filtrada e interativos em SPECTs

Rinaldi Neto, Armando 29 July 2002 (has links)
Orientadores: Sergio Querino Brunetto, Julio Cesar Hadler Neto / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Fisica Gleb Wataghin / Made available in DSpace on 2018-08-03T21:53:15Z (GMT). No. of bitstreams: 1 RinaldiNeto_Armando_M.pdf: 121335035 bytes, checksum: 8434626a09cbadf4a90fbd22cc4474d6 (MD5) Previous issue date: 2002 / Resumo: A Medicina Nuclear se apresenta como uma área de grande importância dentre as especialidades médicas atualmente praticadas, utilizando equipamentos de tecnologia de ponta para o diagnóstico através de imagens e informações clínicas singulares. Em um ambiente de alta tecnologia como este se faz necessária a formação de uma equipe multidisciplinar, onde a presença de um profissional responsável pelo elo entre a tecnologia e as necessidades médicas torna¿se indispensável. Neste contexto surge o papel do físico e da Física Médica gerando e executando metodologias e procedimentos para o controle da Qualidade dos equipamentos e processos de aquisição, auxiliando médicos e técnicos na busca de soluções para a obtenção de melhores imagens e serviços associados, contribuindo para a melhoria continua dos serviços prestados. Dentre os trabalhos desenvolvidos pelo físico na área de Medicina Nuclear destacam-se a elaboração, estudo e otimização de algoritmos de reconstrução de cortes tomográficos na modalidade SPECT, buscando soluções para a visibilização da real distribuição do radiofármaco no órgão de interesse com o menor gasto computacional possível. Neste trabalho buscou-se a construção de um texto que não só dissertasse sobre os algoritmos de reconstrução tomográfica em Medicina Nuclear mas também fosse uma referência para o estudo da modalidade SPECT, abrangendo aspectos de equipamentos, controle da Qualidade e métodos de avaliação de imagens, dando uma noção da importância do trabalho do físico dentro da área. Como objetivo principal, buscou-se determinar as diferenças de performances entre os algoritmos de reconstrução Filtered Back Projection (FBP) e Iterativos, utilizando¿se conceitos do cotidiano da área de Física em Medicina Nuclear, tais como o cálculo de uniformidade tomográfica, estudo do contraste de objetos e estruturas das imagens de phantoms matemáticos, phantoms físicos e de estudos clínicos. Dentre os resultados mais importantes alcançados destaca¿se a construção de uma função r(s) variável com Dp (diferença entre a projeção medida e a calculada) como coeficiente de relaxação para os algoritmos Iterativos, onde s é um parâmetro de controle de uma função heurística. Através do emprego da função r(s) os algoritmos Iterativos tornam-se menos susceptíveis a ruídos, convergindo mais rapidamente para a distribuição do corte. Ao final dos testes e avaliações empregadas sobre os algoritmos implementados observa-se um padrão de comportamento para a reconstrução de cortes tomográficos de estudos de baixa densidade de informação : os algoritmos Iterativos , mesmo sem a otimização de filtros suavizadores pós processamento apresentam uma discreta superioridade de performance na reconstrução de objetos e estruturas quentes em relação aos reconstruídos com o algoritmo FBP, ocorrendo uma inversão da performance destes quando da reconstrução de objetos frios com freqüências próximas ou igual a de Nyquist / Abstract: Among the medical specialties in current practice the Nuclear Medicine arises as an important area that uses high technology equipments which enables through unique images and clinical information diagnoses. At such high technology atmosphere demands a highly skilled professional responsible for linking technology an medical needs. That is when the physicist and medical physics appears creating and carrying out methodologies and procedures for equipment¿s acquisition process and Quality control. This technician also helps physicians and operators find solutions in order to obtain the best images and other correlated issues therefore contributing for continuous improvement of final results. The reconstruction algorithms of the tomographic slices in SPECT stands outs as one of many important physicist¿s tasks in the Nuclear Medicine area, searching solutions to make visible the real tracer distribution in the organ of interest with the lowest computational time possible. In this work not only the construction of a text the lectured about the tomographic reconstruction algorithms in Nuclear Medicine was looked up for but, it also it is meant to be a reference to the study of the SPECT modality, embracing aspects of equipments, Quality control and evaluation of images methods, as well as a briefing on the importance of the physicist¿s work in this area. As main objective, the determination of the differences of performances between the reconstruction algorithms Filtered Back Projection (FBP) and Iteratives was looked up for , using daily concepts of the Physics area in Nuclear Medicine such as : calculation of tomographic uniformity, study of the objects and structures contrasts for mathematical and real phantoms images and clinical studies. Among the main obtained results the construction of a function r(s) variable with Dp (difference between projection and calculated projection) stands out as one relaxation coefficient for the Iteratives algorithms, where s is a control parameter of an heuristic function. Through the employment of r(s) the Iteratives algorithms becomes less susceptive to noises, converging more quickly to the slice distribution. At the end of the tests and evaluations employed on the implemented algorithms, a pattern of behavior for the slices tomographic reconstruction of studies of low density of information was observed : the Iteratives algorithms, even without the optimization of smoothing filters after processing they presented a discreet performance superiority on the reconstruction of hot objects and structures in relation to those reconstructed with the algorithm FBP, whereas for cold objects with close frequencies or equal the one of Nyquist an investment of performance of these algorithms, takes place / Mestrado / Física / Mestre em Física
4

Caracterización de la perfusión cerebral bajo dependencia alcohólica con tomografía SPECT-Tc99mEC

Cárdenas Lillo, Claudia, Roa Nova, David January 2000 (has links)
No description available.
5

Inclusão de MRI e informação multigrid a priori para inferência bayesiana de fontes de M/EEG / MRI image and multigrid a priori information for bayesian M/EEG source localization

Barbosa, Leonardo da Silva 28 April 2011 (has links)
A Neuroimagem Funcional evoluiu muito nos últimos anos com o aparecimento de técnicas como Positron Emission Tomography ou PET (Tomógrafo por Emissão de Pósitrons) e Functional Magnetic Ressonance Image ou fMRI (Imagem de RessonÂncia Magnética Funcional) [Belliveau et al., 1991]. Elas permitem a observação de atividade no cérebro com uma resolução de alguns milímetros, e devido a natureza do sinal medido, com uma resolução temporal da ordem de 5 segundos [Kim et al., 1997]. Magnetoencefalografia e Eletroencefalografia (M/EEG), por outro lado, possuem uma resoluçao temporal da ordem de milissegundos, já que o sinal é produzido pela movimentação do íons através das membranas celulares [Nunez and Srinivasan, 2006]. Porém a sua resoluçeo espacial é muito baixa jé que tipicamente são problemas mal postos, com muito mais variáveis do que dados. Um equipamento de M/EEG de alta resolução possui da ordem de O(200) canais, que permitem medidas do campo magnético (para o MEG) ou do potencial elétrico (para o EEG) em O(200) posições em torno da cabeça. Para uma escala com resolução de ordem l existem (L /l )3 variáveis, onde L = aprox. 15cm. Neste trabalho procuramos estudar métodos para aumentar a resolução espacial das técnicas de EEG, pois o mapeamento funcional do cérebro humano esta intimamente relacionado à localização da atividade no espaço bem como no tempo [Friston, 2009] (muitas relativo ao momento de um estímulo externo). Todo o trabalho de localização de fontes para EEG pode ser facilmente estendido para MEG. Métodos Bayesianos são o cenário natural para lidar com problemas mal postos [Wipf and Nagarajan, 2009]. Existem, essencialmente, duas direções nas quais os algoritmos Bayesianos podem ser melhoradas, através da construção de uma melhor verossimilhança ou uma distribuição a Priori. Embora reconheçamos que avanços importantes podem ser feitos no direção anterior, aqui nos concentramos na segunda. Neste trabalho nós introduzimos um método multiescala para construir uma melhor distribuição a Priori. Uma idéia similar foi estudada dentro do contexto mais simples de fMRI [Amaral et al., 2004]. Muitos novos problemas aparecem ao lidar com o caráter vetorial do EEG. O mais importante, é a construção de um conjunto de superfícies renormalizadas que aproximam a região cortical onde a fonte de atividade esta localizada e o problema relacionado de de nir as variáveis relevantes para representar o cérebro em uma escala com menor resolução. A validação do novo algoritmo é sempre um problema essencial. Nós apresentamos resultados que sugerem, em dados simulados, que nosso método pode ser uma alternativa válida para os atuais algoritmos, julgando ambos pela taxa de erros na localização de fontes bem como pelo tempo que eles levam para convergir. / Functional Neuroimaging has evolved in the last few decades with the introduction of techniques such as Positron Emission Tomography or PET and Functional Magnetic Ressonance Image or fMRI [Belliveau et al., 1991]. These allow observing brain activity with a resolution of a few millimeters and, due to the nature of the signal, a time resolution of the order of 5 seconds [Kim et al., 1997]. M/EEG, on the other hand, have a millisecond time resolution, since the signal is produced by the transport of ions through cell membranes [Nunez and Srinivasan, 2006]. However their space resolution is much lower since these are typically ill posed problems with many more unknowns than data points. A high resolution M/EEG has of the order of O(200) data channels, which allow measuring the magnetic or electric field at O(200) positions around the head. For a resolution scale of order l there are O(L l )3 variables, where L = 15cm. In this work we aim at studying methods to increase the spatial resolution of EEG techniques, since functional mapping of the human brain is intimately related to the localization of the activity in space as well as in time [Friston, 2009] (often relative to the time of external stimuli). Any advance in the inverse problem of source localization for EEG can rather easily be extended to deal with MEG. Bayesian methods are the natural setting to deal with ill posed problems [Wipf and Nagarajan, 2009]. There are essentially two directions in which Bayesian algorithms can be improved, by building a better likelihood or a prior distribution. While we recognize that important advances can be done in the former direction we here concentrate in the latter. In this work we introduce a multiscale method to build an improved prior distribution. A similar idea has been studied within an easier context of fMRI [Amaral et al., 2004]. Several new problems appear in dealing with the vectorial character of EEG. The most important, is the construction of a set of renormalized lattices that approximate the cortex region where the source activity is located and the related problem of de ning the relevant variables in coarser scale representation of the cortex. Validation of a new algorithm is always an essential problem. We present results which suggest on simulated data, that our method might be a valid alternative to current algorithms, judged both by the rate of errors in source localization as well as by the time it takes to converge.
6

Estudo morfológico e das propriedades elát¡cas de plaquetas humanas por microscopia de força atômica / Imaging and elastic properties study of human platelets using the atomic force microscope

Alencar, Luciana Magalhães Rebêlo January 2007 (has links)
ALENCAR, Luciana Magalhães Rebêlo. Estudo morfológico e das propriedades elát¡cas de plaquetas humanas por microscopia de força atômica. 2007. 134 f. Dissertação (Mestrado em Física) - Programa de Pós-Graduação em Física, Departamento de Física, Centro de Ciências, Universidade Federal do Ceará, Fortaleza, 2007. / Submitted by Edvander Pires (edvanderpires@gmail.com) on 2015-05-22T18:34:21Z No. of bitstreams: 1 2007_dis_lmralencar.pdf: 17960278 bytes, checksum: bd4d446f139d76d9eefba3eac3e2a62d (MD5) / Approved for entry into archive by Edvander Pires(edvanderpires@gmail.com) on 2015-05-22T18:41:43Z (GMT) No. of bitstreams: 1 2007_dis_lmralencar.pdf: 17960278 bytes, checksum: bd4d446f139d76d9eefba3eac3e2a62d (MD5) / Made available in DSpace on 2015-05-22T18:41:43Z (GMT). No. of bitstreams: 1 2007_dis_lmralencar.pdf: 17960278 bytes, checksum: bd4d446f139d76d9eefba3eac3e2a62d (MD5) Previous issue date: 2007 / As plaquetas são um grupo de células que têm participação fundamental nos processos hemostáticos. Durantes estes eventos, tais células passam por uma drástica transformação de sua estrutura, o que inclui alteração de forma, saindo de um perfil discóide para um completamente amorfo. Conseqüentemente, este fenômeno de reestruturação da arquitetura celular está intimamente ligado a um rearranjo do citoesqueleto plaquetário, estrutura localizada abaixo da membrana celular responsável pela forma, estabilidade, maleabilidade, dentre outras características mecânicas e fisiológicas da membrana plasmática. Neste contexto, a investigação das características elásticas de plaquetas ativadas, como são denominadas ao iniciar o processo acima citado, apresenta-se como uma alternativa viável ao aprofundamento no conhecimento da função plaquetária no organismo. Para tanto, a microscopia de força atômica (AFM), surge como uma técnica de grande utilidade a este tipo de investigação. Capaz de tocar a superfície celular com forças da ordem de piconewtons, o microscópio de força atômica pode ser utilizado como um nanoindentador, ou seja, de posse da geometria da sonda e da constante de mola do cantilever empregado, grandezas como elasticidade e viscosidade da amostra podem ser determinadas. Neste trabalho, duas subtécnicas de AFM foram empregadas no estudo de plaquetas humanas sadias ativadas, tais foram: Force Plot e Force Volume. A primeira fornece um gráfico chamado de curva de força, obtida com uma única indentação na superfície celular. Já a segunda reúne todas estas curvas numa imagem conhecida como imagem de volume de força. Tais ferramentas provêem informações que, trabalhadas com um modelo matemático adequado, no nosso caso o modelo de Hertz, tornam possíveis a determinação, não apenas pontual, mas em todo o corpo da célula, das propriedades mecânicas plaquetárias.
7

Inclusão de MRI e informação multigrid a priori para inferência bayesiana de fontes de M/EEG / MRI image and multigrid a priori information for bayesian M/EEG source localization

Leonardo da Silva Barbosa 28 April 2011 (has links)
A Neuroimagem Funcional evoluiu muito nos últimos anos com o aparecimento de técnicas como Positron Emission Tomography ou PET (Tomógrafo por Emissão de Pósitrons) e Functional Magnetic Ressonance Image ou fMRI (Imagem de RessonÂncia Magnética Funcional) [Belliveau et al., 1991]. Elas permitem a observação de atividade no cérebro com uma resolução de alguns milímetros, e devido a natureza do sinal medido, com uma resolução temporal da ordem de 5 segundos [Kim et al., 1997]. Magnetoencefalografia e Eletroencefalografia (M/EEG), por outro lado, possuem uma resoluçao temporal da ordem de milissegundos, já que o sinal é produzido pela movimentação do íons através das membranas celulares [Nunez and Srinivasan, 2006]. Porém a sua resoluçeo espacial é muito baixa jé que tipicamente são problemas mal postos, com muito mais variáveis do que dados. Um equipamento de M/EEG de alta resolução possui da ordem de O(200) canais, que permitem medidas do campo magnético (para o MEG) ou do potencial elétrico (para o EEG) em O(200) posições em torno da cabeça. Para uma escala com resolução de ordem l existem (L /l )3 variáveis, onde L = aprox. 15cm. Neste trabalho procuramos estudar métodos para aumentar a resolução espacial das técnicas de EEG, pois o mapeamento funcional do cérebro humano esta intimamente relacionado à localização da atividade no espaço bem como no tempo [Friston, 2009] (muitas relativo ao momento de um estímulo externo). Todo o trabalho de localização de fontes para EEG pode ser facilmente estendido para MEG. Métodos Bayesianos são o cenário natural para lidar com problemas mal postos [Wipf and Nagarajan, 2009]. Existem, essencialmente, duas direções nas quais os algoritmos Bayesianos podem ser melhoradas, através da construção de uma melhor verossimilhança ou uma distribuição a Priori. Embora reconheçamos que avanços importantes podem ser feitos no direção anterior, aqui nos concentramos na segunda. Neste trabalho nós introduzimos um método multiescala para construir uma melhor distribuição a Priori. Uma idéia similar foi estudada dentro do contexto mais simples de fMRI [Amaral et al., 2004]. Muitos novos problemas aparecem ao lidar com o caráter vetorial do EEG. O mais importante, é a construção de um conjunto de superfícies renormalizadas que aproximam a região cortical onde a fonte de atividade esta localizada e o problema relacionado de de nir as variáveis relevantes para representar o cérebro em uma escala com menor resolução. A validação do novo algoritmo é sempre um problema essencial. Nós apresentamos resultados que sugerem, em dados simulados, que nosso método pode ser uma alternativa válida para os atuais algoritmos, julgando ambos pela taxa de erros na localização de fontes bem como pelo tempo que eles levam para convergir. / Functional Neuroimaging has evolved in the last few decades with the introduction of techniques such as Positron Emission Tomography or PET and Functional Magnetic Ressonance Image or fMRI [Belliveau et al., 1991]. These allow observing brain activity with a resolution of a few millimeters and, due to the nature of the signal, a time resolution of the order of 5 seconds [Kim et al., 1997]. M/EEG, on the other hand, have a millisecond time resolution, since the signal is produced by the transport of ions through cell membranes [Nunez and Srinivasan, 2006]. However their space resolution is much lower since these are typically ill posed problems with many more unknowns than data points. A high resolution M/EEG has of the order of O(200) data channels, which allow measuring the magnetic or electric field at O(200) positions around the head. For a resolution scale of order l there are O(L l )3 variables, where L = 15cm. In this work we aim at studying methods to increase the spatial resolution of EEG techniques, since functional mapping of the human brain is intimately related to the localization of the activity in space as well as in time [Friston, 2009] (often relative to the time of external stimuli). Any advance in the inverse problem of source localization for EEG can rather easily be extended to deal with MEG. Bayesian methods are the natural setting to deal with ill posed problems [Wipf and Nagarajan, 2009]. There are essentially two directions in which Bayesian algorithms can be improved, by building a better likelihood or a prior distribution. While we recognize that important advances can be done in the former direction we here concentrate in the latter. In this work we introduce a multiscale method to build an improved prior distribution. A similar idea has been studied within an easier context of fMRI [Amaral et al., 2004]. Several new problems appear in dealing with the vectorial character of EEG. The most important, is the construction of a set of renormalized lattices that approximate the cortex region where the source activity is located and the related problem of de ning the relevant variables in coarser scale representation of the cortex. Validation of a new algorithm is always an essential problem. We present results which suggest on simulated data, that our method might be a valid alternative to current algorithms, judged both by the rate of errors in source localization as well as by the time it takes to converge.
8

Avaliação da correção de heterogeneidade em planejamentos 3D e IMRT de tratamentos radioterápicos de neoplasia de próstata / Evaluation of inhomogeneity correction in 3D and IMRT plannings of radiotherapy treatments of prostate cancer

Biazotto, Bruna, 1986- 24 August 2018 (has links)
Orientadores: Eduardo Tavares Costa, Paulo José Cecílio / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-24T11:03:55Z (GMT). No. of bitstreams: 1 Biazotto_Bruna_M.pdf: 4075478 bytes, checksum: 077630eb4f66ca28ec46de7251c31e3f (MD5) Previous issue date: 2013 / Resumo: A experiência clínica em tratamentos radioterápicos de neoplasia de próstata baseia-se no cálculo de doses em meios homogêneos. Entretanto, o feixe de radiação atravessa tecidos de densidades eletrônicas diferentes como os ossos, que alteram a distribuição de dose. Com o advento da tomografia computadorizada e de algoritmos mais avançados que modelam o feixe de radiação, as heterogeneidades entre os tecidos podem ser incorporadas nos planejamentos de tratamentos radioterápicos. Todavia, não há consenso se as alterações na dose por correções de heterogeneidade são significativas. Por tais razões, pretendeu-se no presente trabalho avaliar a necessidade das correções de heterogeneidade em planejamentos de tratamentos radioterápicos de câncer de próstata. Para isso, analisaram-se as médias das diferenças percentuais nas doses em volume alvo e órgãos de risco obtidas em cálculos com e sem correções de heterogeneidade utilizando imagens tomográficas reais de pacientes que trataram dessa neoplasia. Essa avaliação foi realizada para dois métodos de tratamentos diferentes. O primeiro é o conformacional tridimensional (25 casos), algoritmos de cálculo Convolution, Superposition e Fast Superposition do sistema de planejamento XiO/Elekta, feixes de 6 e 10 MV e 4 campos em box. O segundo por intensidade modulada (14 casos), algoritmo de cálculo Pencil Beam Convolution do sistema de planejamento Eclipse/Varian com dois métodos de correção Batho Modificado e Razão Tecido-Ar Equivalente, feixe de 6 MV e geometria de 5 campos oblíquos. As diferenças percentuais médias resultantes nos volumes estudados foram menores que a incerteza aceita atualmente no cálculo de dose de 3% para as duas modalidades de tratamento. Apesar disso, a variabilidade na anatomia dos pacientes, geometria de campos e energia dos feixes apontam para a necessidade de tais correções e a utilização de métodos ainda mais exatos para a diminuição dessa incerteza no futuro / Abstract: Clinical experience in radiotherapy treatments for prostate cancer is based on the calculation of doses in homogeneous media. However, the radiation beam traverses different electron densities in tissues such as bone, altering the dose distribution. With the advent of computed tomography and more advanced algorithms that model the radiation beam, the heterogeneity between tissues can be incorporated in the planning of radiotherapy treatments. However, there is no consensus whether changes in dose for inhomogeneity corrections are significant. For these reasons, this study intended to evaluate the need for inhomogeneity corrections in treatment planning for radiotherapy of prostate cancer. We have analyzed the average percentage differences in doses in the target volume and organs at risk obtained by calculations with and without heterogeneity corrections using actual CT images of patients treated for this cancer. This evaluation was performed for two different methods of treatments. The first is the three-dimensional conformational (25 cases), calculation algorithms Convolution, Superposition and Fast Superposition from the computerized planning system XiO/Elekta, beams of 6 and 10 MV and 4 fields in box. The second by intensity modulated (14 cases), calculation algorithm Pencil Beam Convolution from the computerized planning system Eclipse/Varian with two correction methods Modified Batho and Equivalent Tissue-Air Ratio, 6 MV beam and geometry of 5 oblique fields. The resulting average percentage differences in volumes studied were smaller than the currently accepted uncertainty in the dose calculation of 3% for both treatment modalities. Nevertheless, variability in anatomy of patients, geometry and field energy beams brings the need for these corrections and the use of more accurate methods to reduce this uncertainty in the future / Mestrado / Engenharia Biomedica / Mestra em Engenharia Elétrica
9

Evaluación de un filtro de silicona en cuña, en radiografía de pie antero posterior

Figueroa Pérez, Gustavo, Tapia Gómez, Cristián January 2000 (has links)
No description available.
10

Evaluación comparativa del grado de aporte de película de alta latitud en relación a película normal, en proyección de Waters

Lorca P., Fabián, Solovera S., Paulo January 2000 (has links)
No description available.

Page generated in 0.0595 seconds