• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 1
  • Tagged with
  • 13
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Um princípio do máximo para hipersuperfícies com um contato ideal no infinito e aplicações geométricas

SILVA, José Deibsom da 20 June 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-08-06T20:31:47Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE José Deibson da Silva .pdf: 577733 bytes, checksum: 54f2164b1d6cb0cd6d42121913bbfaf8 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-08T18:30:24Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE José Deibson da Silva .pdf: 577733 bytes, checksum: 54f2164b1d6cb0cd6d42121913bbfaf8 (MD5) / Made available in DSpace on 2018-08-08T18:30:24Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE José Deibson da Silva .pdf: 577733 bytes, checksum: 54f2164b1d6cb0cd6d42121913bbfaf8 (MD5) Previous issue date: 2017-06-20 / Vamos generalizar um Princípio do Máximo no Infinito no caso parabólico dado por Ronaldo F. de Lima em seu trabalho A Maximum Principles at Infinity for surfaces with Constant Mean Curvature in Euclidean Space e por Ronaldo F. de Lima e William Meeks no artigo Maximum Principles at Infinity for surfaces of Bounded Mean Curvature in R³ and H³ onde agora teremos hipersuperfícies M₁ e M₂ do Rⁿ⁺¹, disjuntas com bordos (possivelmente vazios) ∂M₁ e ∂M₂, de curvatura média limitada com um Contato Ideal no Infinito, porém agora sem restrição sobre a curvatura Gaussiana de qualquer hipersuperfície. Como aplicação geométrica apresentaremos alguns resultados que estendem para hipersuperfícies mergulhadas M₁ e M₂ do Rⁿ⁺¹ com bordos vazios, uma generalização do Princípio do Máximo de Hopf para hipersuperfícies disjuntas que se aproximam assintoticamente. Uma vez obtidos esses resultados, introduzimos uma estrutura de variedade Riemanniana ponderada em Rⁿ⁺¹ e obtemos algumas generalizações dos resultados antes obtidos sob hipóteses dos objetos agora existentes, tais como f-curvatura média, f -Laplaciano, variedades ponderadas f-parabólicas, para as hipersuperfícies M₁ e M₂ do Rfⁿ⁺¹ . / We will generalize a Maximum Principle at Infinity in the parabolic case given in paper A Maximum Principles at Infinity for surfaces with Constant Mean Curvature in Euclidean Space by Ronald F. de Lima and Ronaldo F. de Lima and William Meeks in paper Maximum Principles at Infinity for surfaces of Bounded Mean Curvature in R³ and H³ where we will now have hypersurfaces M₁ and M₂ of Rⁿ⁺¹ disjoints, with boundary (possibly empty) ∂M₁ e ∂M₂ of the bounded mean curvature and with Ideal Contact et Infinity, but now without restrictions on the Gaussian Curvature of any hypersurface. As geometric application we will present some results that extend for embedded hypersurfaces M₁ and M₂ in Rⁿ⁺¹ with empty boundaries a generalization of Hopf’s Maximum Principle for disjoint hypersurfaces that get close asymptotically. Once obtained these results, we inserted a structure of a weighted Riemannian Manifold in Rⁿ⁺¹ and obtained some generalizations of the results previously achieved under some hypothesis of the objects now found, such as f-mean curvature, f-Laplacian, f–parabolic weighted manifold, in the hypersurfaces M₁ and M₂ from Rfⁿ⁺¹ .
2

Um método de tractografia global usando imagens de ressonância magnética ponderadas por difusão / A global tractography method using diffusion magnetic resonance imaging

Manzo, Rafael Reggiani 13 March 2017 (has links)
As imagens de ressonância magnética ponderadas por difusão retratam a difusividade de moléculas de água presentes em tecidos biológicos. Em estruturas biológicas altamente organizadas e compactas como fibras nervosas e musculares, a difusividade é maior na direção paralela às fibras do que perpendicularmente às mesmas. Essa propriedade permite a reconstrução digital das trajetórias das fibras, técnica denominada tractografia, representando uma das poucas formas não invasivas de investigação da conectividade anatômica e organização estrutural do cérebro e do coração. A metodologia de tractografia mais difundida faz uso da integração numérica da direção principal de difusividade para reconstruir essas trajetórias. Porém, esta técnica apresenta problemas como o erro intrínseco a métodos de integração numérica e o erro associado a regiões de incerteza nos dados de difusividade. Uma metodologia considerada mais robusta consiste da modelagem da tractografia como a simulação de um sistema de partículas. No entanto, tal metodologia possui diversos parâmetros que precisam ser otimizados para cada caso e apresenta alta complexidade computacional. Esta dissertação apresenta uma metodologia de tractografia global baseada em sistema de partículas, mas com custo computacional reduzido pois evita passos desnecessários da otimização para reconstrução das trajetórias. Avaliamos sua acurácia em conjuntos de dados com graus de complexidade crescentes utilizando imagens sintéticas de difusão construídas digitalmente e em imagens reais de difusão do miocárdio humano. Nesses testes foram observadas reduções no consumo de tempo e maior acurácia para metodologia global apresentada com relação às descritas na literatura. Essa metodologia possui o potencial de evidenciar a organização e arquitetura de diversos tecidos do corpo humano com maior fidelidade e menor tempo de reconstrução. / The diffusion magnetic resonance imaging portray the diffusivity of water molecules present on biological tissues. High organized and compact biological structures like neuronal fibres and muscles present higher diffusivity parallel to the fibres than perpendicular to those. This property allows the digital reconstruction of fibres trajectories, technique named tractography, being one of the few non invasive ways of investigation of the anatomical connectivity and structural organization of the brain and heart. The most common tractography methodology uses numerical integration following the main diffusion direction in order to reconstruct trajectories. Yet, this technique is prone to intrinsic error to numeric integration and the error associated to uncertainty regions on diffusion data. A methodology considered more robust to such problems consists on modelling tractography as a particle system simulation. However, such methodology has several parameters that require fine tuning for each case and has a high computational complexity. This dissertation presents a global tractography methodology based on particle system but at lower computational cost because of the avoidance of unnecessary optimization steps on trajectory reconstruction. We evaluate its accuracy on synthetic diffusion datasets of increasing complexity and on real human cardiac diffusion images. Theses tests evidence reduced time consumption and increased accuracy for the presented methodology compared to the ones described in the literature. This methodology has the potential to reveal the organization and architecture of several tissues from the human body with higher fidelity and lower reconstruction time.
3

A influência das redes de coautoria na performance dos bolsistas de produtividade e nos Programas de Pós-Graduação em Engenharia de Produção

ANDRADE, Ricardo Lopes de 26 February 2016 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-07-05T18:26:41Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação-Ricardo-Lopes-de-Andrade.pdf: 4257006 bytes, checksum: b06c1952144b950bdfb3166592b318ff (MD5) / Made available in DSpace on 2016-07-05T18:26:41Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação-Ricardo-Lopes-de-Andrade.pdf: 4257006 bytes, checksum: b06c1952144b950bdfb3166592b318ff (MD5) Previous issue date: 2016-02-26 / CNPQ / O estudo, por meio da análise de redes sociais (ARS), das redes de coautoria permite identificar e analisar porque os pesquisadores colaboram e quais as consequências dessas colaborações. Pesquisas apontam a melhoria da qualidade dos artigos e o aumento do número de publicações como benefícios da colaboração. É crescente o número de estudos que buscam analisar as redes de coautorias e os impactos nos desempenhos dos autores, medidos, por exemplo, por meio dos índices h e g. Outros trabalhos também analisam o desempenho de grupos acadêmicos com base na estrutura e dinâmica de relacionamento entre os pesquisadores. O desempenho dos pesquisadores e dos grupos acadêmicos (programas de pós-graduação) também são avaliados por instituições de fomento à pesquisa como a CAPES e o CNPq. A CAPES avalia os programas de pós-graduação para assegura e manter a qualidade dos programas. O CNPq financia projetos de pesquisa e concede bolsas de produtividades a pesquisadores de diferentes áreas do conhecimento. Ambas têm como indicadores, entre outros, as produções bibliográficas dos pesquisadores. Esta dissertação buscou analisar como a estrutura social, por meio das métricas de ARS, influenciou o nível da bolsa de produtividade dos pesquisadores bolsistas de produtividade do CNPq na área de engenharia de produção e os conceitos dos programas de pós-graduação em engenharia de produção avaliados pelo CAPES. Foi desenvolvido também um método que integrou a importância do nó na estrutura da rede. Com as informações bibliométricas dos pesquisadores bolsistas foi criada uma rede de coautoria e calculadas as métricas de ARS de três maneiras distintas: não-ponderadas, ponderadas com pesos das arestas e ponderadas com pesos das arestas e dos nós. Essas métricas foram correlacionadas (correlação de Spearman) com os níveis de bolsa de produtividade dos pesquisadores e concluiu-se que as métricas ponderadas com os pesos das arestas e dos nós (E-I index, centralidade de intermediação, de proximidade e utilidade) e as métricas não-ponderadas (E-I index, PageRank, centralidade de grau e de autovetor) são as que obtiveram maiores correlações. Com as informações bibliográficas dos professores permanentes dos programas foram construídas, para cada triênio (2007-2009 e 2010-2012), três conjuntos de redes: redes entre professores de cada programa analisado, rede de coautoria entre os programas, e rede entre os professores de todos os programas. Para o primeiro conjunto de redes foram analisadas as variações das medidas globais entre os triênios e os impactos dessas variações nos conceitos e concluiu-se que: a variação da quantidade de artigos publicados (com ou sem coautoria) impacta nas variações dos conceitos dos programas; as variações do número de arestas, da média das arestas, da densidade, do coeficiente médio, do grau médio e do grau médio ponderado apontaram correlações fortes e significativas com os conceitos dos programas. Para o segundo conjunto de redes, onde cada programa é um nó da rede, foram analisadas as variações das métricas individuais de ARS entre os triênios e as correlações com os conceitos dos programas, nenhuma das métricas calculadas apresentou correlação significativa. O último conjunto de redes, os valores médios, de uma métrica, obtidos por um determinado grupo de professores pertencente a um dado programa foram considerados com o valor médio do programa. As variações das métricas foram correlacionadas com as variações dos conceitos dos programas, concluindo-se que as variações da centralidade de grau e do grau ponderado impactam os conceitos dos programas. / The study, through social network analysis (SNA), of co-authorship networks allows to identify and to analyze why researchers collaborate and which are the consequences of these collaborations. Researches suggest the improvement on the quality of papers and the increasing number of publications as benefits of collaboration. An incresing number of studies seek to analyze the co-authorship networks and the impact on the performance of the authors, measured, for example, through the h and the g indexes. Other works analyze the performance of academic groups based on the structure and relationship dynamics among researchers. The performance of researchers and academic groups (Graduate Programs) are also evaluated by funding institutions, such as CAPES and CNPq. CAPES evaluates Graduate Programs to ensure and maintain the quality of these programs. CNPq finances research projects and provides productivity fellowships to researchers from different areas of knowledge. Both have as indicators, among others, the bibliography production of the researchers. This dissertation sought to analyze how the social structure, through SNA metrics, influenced the level of productivity fellowship of CNPq’s research productivity fellows in the area of Industrial Engineering and the grades of Graduate Programs in Industrial Engineering evaluated by CAPES. A method that integrated the importance of the node in the network structure was developed. With bibliometric information of the fellows, it was created a network of co-authorship and calculated the SNA metrics in three distinct ways: unweighted, with weights of edges and with weights of both edges and nodes. These metrics were correlated (Spearman correlation) with the researchers' productivity fellowship levels and it was found that the metrics with weights of edges and nodes (E-I index, intermediary centrality, closeness and utility) and unweighted metrics (E-I index, PageRank, degree centrality and eigenvector) are the ones that had higher correlations. With the bibliographic information of the permanent professors of the Graduate Programs, three sets of networks were built for each three-year period (2007-2009 and 2010-2012): networks among professors in each program analyzed, co-authoring network among programs and network among professors of all programs. For the first set of networks, the variations of overall measures between the studied periods and the effects of these variations on the grades have been analyzed. It was found that: the variation of the amount of published articles (with or without co-authorship) impact on variations of the programs’ grades; variations in the number of edges, the mean edges, the density, the average coefficient, average weighted degree and average degree indicated strong and significant correlation with programs’ grades. For the second set of networks, where each program is a network node, variations of the individual metrics of SNA within the study periods and correlations with the grade of the programs were analyzed, none of the computed metrics presented significant correlation. For the last set of networks, the average values of a metric, obtained for a certain group of professors that belong to a certain program were considered to be the mean value of the program. Variations of the metrics were correlated with variations on the grades of the programs, so that the variations of the degree centrality and the weighted degree influence the grade of programs.
4

Um método de tractografia global usando imagens de ressonância magnética ponderadas por difusão / A global tractography method using diffusion magnetic resonance imaging

Rafael Reggiani Manzo 13 March 2017 (has links)
As imagens de ressonância magnética ponderadas por difusão retratam a difusividade de moléculas de água presentes em tecidos biológicos. Em estruturas biológicas altamente organizadas e compactas como fibras nervosas e musculares, a difusividade é maior na direção paralela às fibras do que perpendicularmente às mesmas. Essa propriedade permite a reconstrução digital das trajetórias das fibras, técnica denominada tractografia, representando uma das poucas formas não invasivas de investigação da conectividade anatômica e organização estrutural do cérebro e do coração. A metodologia de tractografia mais difundida faz uso da integração numérica da direção principal de difusividade para reconstruir essas trajetórias. Porém, esta técnica apresenta problemas como o erro intrínseco a métodos de integração numérica e o erro associado a regiões de incerteza nos dados de difusividade. Uma metodologia considerada mais robusta consiste da modelagem da tractografia como a simulação de um sistema de partículas. No entanto, tal metodologia possui diversos parâmetros que precisam ser otimizados para cada caso e apresenta alta complexidade computacional. Esta dissertação apresenta uma metodologia de tractografia global baseada em sistema de partículas, mas com custo computacional reduzido pois evita passos desnecessários da otimização para reconstrução das trajetórias. Avaliamos sua acurácia em conjuntos de dados com graus de complexidade crescentes utilizando imagens sintéticas de difusão construídas digitalmente e em imagens reais de difusão do miocárdio humano. Nesses testes foram observadas reduções no consumo de tempo e maior acurácia para metodologia global apresentada com relação às descritas na literatura. Essa metodologia possui o potencial de evidenciar a organização e arquitetura de diversos tecidos do corpo humano com maior fidelidade e menor tempo de reconstrução. / The diffusion magnetic resonance imaging portray the diffusivity of water molecules present on biological tissues. High organized and compact biological structures like neuronal fibres and muscles present higher diffusivity parallel to the fibres than perpendicular to those. This property allows the digital reconstruction of fibres trajectories, technique named tractography, being one of the few non invasive ways of investigation of the anatomical connectivity and structural organization of the brain and heart. The most common tractography methodology uses numerical integration following the main diffusion direction in order to reconstruct trajectories. Yet, this technique is prone to intrinsic error to numeric integration and the error associated to uncertainty regions on diffusion data. A methodology considered more robust to such problems consists on modelling tractography as a particle system simulation. However, such methodology has several parameters that require fine tuning for each case and has a high computational complexity. This dissertation presents a global tractography methodology based on particle system but at lower computational cost because of the avoidance of unnecessary optimization steps on trajectory reconstruction. We evaluate its accuracy on synthetic diffusion datasets of increasing complexity and on real human cardiac diffusion images. Theses tests evidence reduced time consumption and increased accuracy for the presented methodology compared to the ones described in the literature. This methodology has the potential to reveal the organization and architecture of several tissues from the human body with higher fidelity and lower reconstruction time.
5

Establecimiento del Modelo de Agregación más apropiado para Ingeniería del Software

Amatriain, Hernán Guillermo January 2014 (has links)
Antecedentes: la síntesis cuantitativa consiste en integrar los resultados de un conjunto de experimentos, previamente identificados, en una medida resumen. Al realizar este tipo de síntesis, se busca hallar un resultado que sea resumen representativo de los resultados de los estudios individuales, y por tanto que signifique una mejora sobre las estimaciones individuales. Este tipo de procedimientos recibe el nombre de Agregación o Meta-Análisis. Existen dos estrategias a la hora de agregar un conjunto de experimentos, la primera parte del supuesto de que las diferencias en los resultados de un experimento a otro obedecen a un error aleatorio propio de la experimentación y de que existe un único resultado o tamaño de efecto que es compartido por toda la población, la segunda estrategia parte del supuesto de que no existe un único tamaño de efecto representativo de toda la población, sino que dependiendo del origen o momento en que se realicen los experimentos los resultados van a modificarse debido a la influencia de variables no controladas, a pesar de esto puede obtenerse un promedio de los distintos resultados para una conclusión general. A la primera de las estrategias se la denominada modelo de efecto fijo y a la segunda se la denominada modelo de efectos aleatorios. Los autores que han comenzado a trabajar en Meta-Análisis, no muestran una línea de trabajo unificada. Este hecho hace que sea necesaria la unificación de criterios para la realización de este tipo de trabajos. Objetivo: establecer un conjunto de recomendaciones o guías que permitan, a los investigadores en Ingeniería del Software, determinar bajo qué condiciones es conveniente desarrollar un Meta-Análisis mediante modelo de efecto fijo y cuando es conveniente utilizar el modelo de efectos aleatorios. Métodos: la estrategia sería la de obtener los resultados de experimentos de características similares mediante el método de Monte Carlo. Todos ellos contarían con un número de sujetos bajo, ya que esa es la característica principal en el campo de la Ingeniería de Software y que genera la necesidad de tener que agregar el resultado de varios experimentos. Luego se agrega el resultado de estos experimentos con el método de Diferencia de Medias Ponderadas aplicada primero con el modelo de efecto fijo, y posteriormente con el modelo de efectos aleatorios. Con las combinaciones realizadas, se analiza y compara la fiabilidad y potencia estadística de ambos modelos de efectos.
6

Probabilidades assint?ticas da cauda de somas ponderadas de vari?veis aleat?rias dependentes com varia??o dominada

F?lix, Wenia Valdevino 20 February 2015 (has links)
Submitted by Automa??o e Estat?stica (sst@bczm.ufrn.br) on 2016-01-26T21:29:52Z No. of bitstreams: 1 WeniaValdevinoFelix_DISSERT.pdf: 1143907 bytes, checksum: 4ce4f7b611784dde68d2cc2278b2cf68 (MD5) / Approved for entry into archive by Arlan Eloi Leite Silva (eloihistoriador@yahoo.com.br) on 2016-02-02T19:29:21Z (GMT) No. of bitstreams: 1 WeniaValdevinoFelix_DISSERT.pdf: 1143907 bytes, checksum: 4ce4f7b611784dde68d2cc2278b2cf68 (MD5) / Made available in DSpace on 2016-02-02T19:29:21Z (GMT). No. of bitstreams: 1 WeniaValdevinoFelix_DISSERT.pdf: 1143907 bytes, checksum: 4ce4f7b611784dde68d2cc2278b2cf68 (MD5) Previous issue date: 2015-02-20 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior - CAPES / Neste trabalho estudamos o comportamento assint?tico das probabilidades da cauda das somas aleat?rias ponderadas de vari?veis aleat?rias com certa estrutura de depend?ncia e de varia??o dominada, baseados no artigo de Hai-zhong Yang, com t?tulo ?Asymptotic Tail Probability of Randomly Weighted Sums of Dependent Random Variables with Dominated Variation?. Para tanto, apresentamos resultados essenciais sobre a classe de distribui??es de cauda pesada que cont?m as seguintes subclasses: de cauda subexponencial, longa, varia??o regular,varia??o regular estendida e varia??o dominada, dentre outras. Nosso objetivo ? proporcionar todo um embasamento te?rico para esclarecer ao m?ximo a demonstra??o do Teorema de Yang. Para isto, apresentamos a demonstra??o de tr?s lemas principais e de alguns resultados que s?o utilizados na demonstra??o desses lemas.
7

Dependência espacial e convergência local da renda entre os municípios do Nordeste: 2000-2010

Cruz, Italo Spinelli da 29 August 2013 (has links)
Brazil s northeast, notably known because of its intraregional inequalities in its income and welfare, presented a process of considerable growth in its added product in the last decade. Although some improvements regarding that region s income growth can be verified, it is questioned if these improvements were enough to mitigate the inequalities found among Brazil s northeast cities in the recent decade. The process of income convergence in that region has been the object of empirical and econometric studies since the end of 1990s. However, some of these works do not take into account either spatial standard of cities growth or the spatial interactions that can occur among them. In this sense, this work aims at analysing the process of income convergence from the work in the northeast s cities between 2000 and 2010, taking into consideration the effects of the existing spatial interactions among cities in the aforementioned region. Moreover, it is used techniques from Exploratory Spatial Data Analysis (ESDA) and the models developed by the Spatial Econometrics as well as Geographically Weighted Regressions (GWR). Lall and Shalizi (2003) analysed the influence of spatial effects in the process of income convergence among northeast s cities in a previous period, and this is why their work is taken as an analytical reference. Initially, it is updated and incorporated in the modellings of those theorists as an alternative treatment to the spatial differentiation. It is analysed the process of local convergence concerning each northeast s town, which allows the discussion of the existing heterogeneity in that region. The results indicate a very slow process of convergence among northeast s cities. Nevertheless, it is possible to verify processes of convergence in which cities spatially associated present a process of a more intense convergence, while other groups of cities present a pattern of low convergence in the period. / A região Nordeste do Brasil, notoriamente marcada por suas desigualdades intrarregionais nos níveis de renda e bem-estar social, apresentou na última década um processo de crescimento considerável de seu produto agregado. Apesar das melhoras verificadas no crescimento da renda na região, indaga-se se estas melhoras foram suficientes para atenuar as desigualdades encontradas entre os municípios nordestinos, na década recente. O processo de convergência da renda na região tem sido objeto de estudos empíricos e econométricos desde o final da década de 90. Parte desses trabalhos, porém, não dá importância ao padrão espacial do crescimento dos municípios, nem as interações espaciais que podem ocorrer entre eles. Diante disto, este trabalho tem como objetivo analisar o processo de convergência da renda proveniente do trabalho nos municípios nordestinos entre os anos 2000 e 2010, considerandose os efeitos das interações espaciais existentes entre os municípios desta região. Para tanto, são utilizadas as técnicas de Análise Exploratória de Dados Espaciais (AEDE) e os modelos desenvolvidos na Econometria Espacial, além de Regressões Ponderadas Geograficamente (RPG). O trabalho de Lall e Shalizi (2003), que analisa a influência dos efeitos espaciais no processo de convergência da renda entre os municípios nordestinos em período anterior é tomado como referência analítica. Inicialmente, se atualiza e incorpora nas modelagens desses autores um tratamento alternativo para a diferenciação espacial. Analisa-se o processo de convergência local para cada município nordestino, o que permite tratar a heterogeneidade existente nesta região. Os resultados encontrados indicam a presença de um processo de convergência muito lento entre os municípios nordestinos. Contudo é possível verificar processos localizados de convergência, nos quais grupos de municípios associados espacialmente entre si, num processo de convergência mais intenso, e outros grupos de municípios que apresentam um padrão de baixa convergência no período.
8

Análise computadorizada dos discos intervertebrais lombares em imagens de ressonância magnética / Computer analysis of lumbar intervertebral disks in magnetic resonance imaging

Barreiro, Marcelo da Silva 16 November 2016 (has links)
O disco intervertebral é uma estrutura cuja função é receber, amortecer e distribuir o impacto das cargas impostas sobre a coluna vertebral. O aumento da idade e a postura adotada pelo indivíduo podem levar à degeneração do disco intervertebral. Atualmente, a Ressonância Magnética (RM) é considerada o melhor e mais sensível método não invasivo de avaliação por imagem do disco intervertebral. Neste trabalho foram desenvolvidos métodos quantitativos computadorizados para auxílio ao diagnóstico da degeneração do disco intervertebral em imagens de ressonância magnética ponderadas em T2 da coluna lombar, de acordo com a escala de Pfirrmann, uma escala semi-quantitativa, com cinco graus de degeneração. Os algoritmos computacionais foram testados em um conjunto de dados que consiste de imagens de 300 discos, obtidos de 102 indivíduos, com diferentes graus de degeneração. Máscaras binárias de discos segmentados manualmente foram utilizadas para calcular seus centroides, visando criar um ponto de referência para possibilitar a extração de atributos. Uma análise de textura foi realizada utilizando a abordagem proposta por Haralick. Para caracterização de forma, também foram calculados os momentos invariantes definidos por Hu e os momentos centrais para cada disco. A classificação do grau de degeneração foi realizada utilizando uma rede neural artificial e o conjunto de atributos extraídos de cada disco. Uma taxa média de acerto na classificação de 87%, com erro padrão de 6,59% e uma área média sob a curva ROC (Receiver Operating Characteristic) de 0,92 indicam o potencial de aplicação dos algoritmos desenvolvidos como ferramenta de apoio ao diagnóstico da degeneração do disco intervertebral. / The intervertebral disc is a structure whose function is to receive, absorb and transmit the impact loads imposed on the spine. Increasing age and the posture adopted by the individual can lead to degeneration of the intervertebral disc. Currently, Magnetic Resonance Imaging (MRI) is considered the best and most sensitive noninvasive method to imaging evaluation of the intervertebral disc. In this work were developed methods for quantitative computer-aided diagnosis of the intervertebral disc degeneration in MRI T2 weighted images of the lumbar column according to Pfirrmann scale, a semi-quantitative scale with five degrees of degeneration. The algorithms were tested on a dataset of 300 images obtained from 102 subjects with varying degrees of degeneration. Binary masks manually segmented of the discs were used to calculate their centroids, to create a reference point to enable extraction of attributes. A texture analysis was performed using the approach proposed by Haralick. For the shape characterization, invariant moments defined by Hu and central moments were also calculated for each disc. The rating of the degree of degeneration was performed using an artificial neural network and the set of extracted attributes of each disk. An average rate of correct classification of 87%, with standard error 6.59% and an average area under the ROC curve (Receiver Operating Characteristic) of 0.92 indicates the potential application of the algorithms developed as a diagnostic support tool to the degeneration of the intervertebral disc.
9

Tomada de decis?o em grupo e multi-atributos baseada na L?gica fuzzy intuicionista de Atanassov intervalarmente valorada

Silva, Ivanosca Andrade da 20 May 2016 (has links)
Submitted by Automa??o e Estat?stica (sst@bczm.ufrn.br) on 2017-01-27T12:26:53Z No. of bitstreams: 1 IvanoscaAndradeDaSilva_TESE.pdf: 841267 bytes, checksum: 867ca6ea3d9afe5c4ff3619961095540 (MD5) / Approved for entry into archive by Arlan Eloi Leite Silva (eloihistoriador@yahoo.com.br) on 2017-01-30T12:47:10Z (GMT) No. of bitstreams: 1 IvanoscaAndradeDaSilva_TESE.pdf: 841267 bytes, checksum: 867ca6ea3d9afe5c4ff3619961095540 (MD5) / Made available in DSpace on 2017-01-30T12:47:10Z (GMT). No. of bitstreams: 1 IvanoscaAndradeDaSilva_TESE.pdf: 841267 bytes, checksum: 867ca6ea3d9afe5c4ff3619961095540 (MD5) Previous issue date: 2016-05-20 / L?gica fuzzy surge em 1965 com o trabalho de Lotfi Zadeh que tem por objetivo tratar de forma rigorosa a incerteza inerente na defini??o de no??es e propriedades imprecisas ou vagas presentes em diversas situa??es do cotidiano, como por exemplo, temperatura alta, pendente acentuada, etc. Para isto, Zadeh considerou um grau (um valor no intervalo [0,1]) com que um determinado elemento pertence a um conjunto ou satisfaz uma determinada propriedade. No entanto, algumas cr?ticas a esta teoria foram feitas, principalmente por causa desta teoria lidar com incertezas usando valores exatos, o que motivou a v?rios pesquisadores (entre eles o pr?prio Zadeh) em 1975, e de forma independente, a estender esta teoria relaxando o conjunto onde os graus tomam seus valores. Uma destas extens?es, a l?gica fuzzy intuicionista de Atanassov intervalarmente valorada, proposta em 1989 por Atanassov e Gargov, que usa um par de subintervalos de [0,1], um deles representa o quanto, considerando alguma imprecis?o, se acredita que o elemento satisfaz a propriedade enquanto o outro descreve o quanto se acredita que n?o satisfaz a propriedade. Este par de graus intervalares visam capturar a hesita??o e imprecis?o presente ao momento de se atribuir o grau com que o elemento satisfaz a propriedade. A l?gica fuzzy e suas diversas extens?es, tem sido aplicada com sucesso nas mais variadas ?reas, como por exemplo, medicina, engenharia, agricultura, econ?mia e em administra??o. Em particular, uma das principais aplica??es de l?gica fuzzy em administra??o diz respeito ao apoio na tomada de decis?o. Um problema t?pico de tomada de decis?o consiste em escolher a melhor alternativa entre um conjunto delas ou em ordenar as alternativas de melhor a pior, considerando alguns crit?rios a serem satisfeitos assi como a opini?o de um ou mais especialistas. Os m?todos fuzzy para problemas de tomada de decis?o usam graus fuzzy (ou de suas extens?es) para expressar o quanto uma alternativa satisfaz um determinado atributo ou crit?rio, e alguma forma de agregar a opini?o de todos os especialistas, para chegar no final a uma pontua??o (que pode ser um valor num?rico ou n?o) que permita decidir qual ? a potencialmente melhor alternativa.Nesta tese s?o apresentados avan?os te?ricos significativos na teoria dos conjuntos fuzzy intuicionistas de Atanassov intervalarmente valorados assim como, s?o proposto dois novos m?todos de tomada de decis?o, considerando m?ltiplos atributos (ou crit?rios) e um grupo de especialistas, aplica??o desses m?todos em problemas espec?ficos e ? realizada uma compara??o com resultados obtidos com outros m?todos de tomada de decis?o. Por outro lado, um dos grandes problemas com os m?todos ou processos de tomada de decis?o ? que, quando aplicado em problemas reais, em geral, n?o ? poss?vel determinar a qualidade da solu??o (ordena??o das alternativas) obtida pelo m?todo. De fato, diferentes m?todos de tomada de decis?o para um mesmo problema podem resultar em diferentes solu??es. Nesta tese, se prop?e considerar os resultados obtidos por diferentes m?todos (independente do tipo de extens?o fuzzy usada e tipo de problema de tomada de decis?o) como meras evid?ncias que podem ser usadas por um outro m?todo capaz de determinar uma ordena??o das alternativas que de alguma maneira represente a fus?o ou consenso desses ordenamentos de alternativas. / Fuzzy logic emerged in 1965 with the work of Lotfi Zadeh that aims rigorously deal with the uncertainty inherent in the definition of notions and inaccurate or vague properties in several everyday situations, such as high temperature, sharp drop, etc. For this, Zadeh considered a degree (a value in the range [0,1]) in order to express how much an element belongs to a set, i.e. satisfies a given property. However, some criticism of this theory have been made, mainly because that this theory deal with uncertainties using exact values, which led to several researchers (including himself Zadeh) in 1975 and independently, to extend this theory relaxing the set where the membership degrees take their values. One of these extensions, interval-valued Atanassov?s intuitionistic fuzzy logic, proposed in 1989 by Atanassov and Gargov, uses a pair of subintervals of [0,1], the first represent how much, considering some inaccuracy, it is believed that the element satisfies the property while the second describes how much it is believed that does not satisfy the property. This pair of interval degrees aim to capture the hesitation and inaccuracy present at the time of assigning the degree to which the element satisfies the property. Fuzzy logic and its various extensions, has been successfully applied in various areas, such as: medicine, engineering, agriculture, economics and management. In particular, one of the main applications of fuzzy logic in management concerns with the support to the decision making. A typical decision-making problem is the choice of the best alternative among a set of them or the obtention of a ranking of the alternatives, considering some criteria to be satisfied, as well as the opinion of one or more experts. The fuzzy methods for decision making problems based on decision matrices, use fuzzy degrees (or of their extensions) to express how much an alternative satisfies a particular attribute or criterion. On the other hand, the methods of fuzzy decision making problems based on preference relations, use fuzzy degrees (or of their extensions) to express how much an alternative is preferred to other alternative. In both cases, the opinion of all experts is aggregated to determine only a single decision matrix or preference relation, according be the case, and from them extract a score (which can be a numeric value or not) in order to decide which is the potentially best alternative. In this thesis are presents significant theoretical advances in the theory of intervalvalued Atanassov?s intuitionistic fuzzy sets as well as are proposed two new decisionmaking methods, considering multiple attributes (or criteria) and a group of experts, these methods are applyed on specific problems and made a comparison with the results obtained by others decision-making methods. On the other hand, one of the major problems with the methods or processes of decision-making is that, when applied to real problems, in general, can not determine the quality of the solution (ranking of the alternatives) obtained by the method. In fact, different decision making methods to the same problem may result in different solutions. In this thesis, it is proposed to consider the results obtained by different methods (independent of the fuzzy extension considered and of the type of decision-making problem) as information that can be used by another method capable of determining a ranking of the alternatives representing the fusion or consensus of these rankings.
10

Análise computadorizada dos discos intervertebrais lombares em imagens de ressonância magnética / Computer analysis of lumbar intervertebral disks in magnetic resonance imaging

Marcelo da Silva Barreiro 16 November 2016 (has links)
O disco intervertebral é uma estrutura cuja função é receber, amortecer e distribuir o impacto das cargas impostas sobre a coluna vertebral. O aumento da idade e a postura adotada pelo indivíduo podem levar à degeneração do disco intervertebral. Atualmente, a Ressonância Magnética (RM) é considerada o melhor e mais sensível método não invasivo de avaliação por imagem do disco intervertebral. Neste trabalho foram desenvolvidos métodos quantitativos computadorizados para auxílio ao diagnóstico da degeneração do disco intervertebral em imagens de ressonância magnética ponderadas em T2 da coluna lombar, de acordo com a escala de Pfirrmann, uma escala semi-quantitativa, com cinco graus de degeneração. Os algoritmos computacionais foram testados em um conjunto de dados que consiste de imagens de 300 discos, obtidos de 102 indivíduos, com diferentes graus de degeneração. Máscaras binárias de discos segmentados manualmente foram utilizadas para calcular seus centroides, visando criar um ponto de referência para possibilitar a extração de atributos. Uma análise de textura foi realizada utilizando a abordagem proposta por Haralick. Para caracterização de forma, também foram calculados os momentos invariantes definidos por Hu e os momentos centrais para cada disco. A classificação do grau de degeneração foi realizada utilizando uma rede neural artificial e o conjunto de atributos extraídos de cada disco. Uma taxa média de acerto na classificação de 87%, com erro padrão de 6,59% e uma área média sob a curva ROC (Receiver Operating Characteristic) de 0,92 indicam o potencial de aplicação dos algoritmos desenvolvidos como ferramenta de apoio ao diagnóstico da degeneração do disco intervertebral. / The intervertebral disc is a structure whose function is to receive, absorb and transmit the impact loads imposed on the spine. Increasing age and the posture adopted by the individual can lead to degeneration of the intervertebral disc. Currently, Magnetic Resonance Imaging (MRI) is considered the best and most sensitive noninvasive method to imaging evaluation of the intervertebral disc. In this work were developed methods for quantitative computer-aided diagnosis of the intervertebral disc degeneration in MRI T2 weighted images of the lumbar column according to Pfirrmann scale, a semi-quantitative scale with five degrees of degeneration. The algorithms were tested on a dataset of 300 images obtained from 102 subjects with varying degrees of degeneration. Binary masks manually segmented of the discs were used to calculate their centroids, to create a reference point to enable extraction of attributes. A texture analysis was performed using the approach proposed by Haralick. For the shape characterization, invariant moments defined by Hu and central moments were also calculated for each disc. The rating of the degree of degeneration was performed using an artificial neural network and the set of extracted attributes of each disk. An average rate of correct classification of 87%, with standard error 6.59% and an average area under the ROC curve (Receiver Operating Characteristic) of 0.92 indicates the potential application of the algorithms developed as a diagnostic support tool to the degeneration of the intervertebral disc.

Page generated in 0.0958 seconds