• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • Tagged with
  • 7
  • 7
  • 6
  • 4
  • 4
  • 4
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Segmentação de sentenças manuscritas através de redes neurais artificiais

CARVALHO, César Augusto Mendonça de 31 January 2008 (has links)
Made available in DSpace on 2014-06-12T15:50:57Z (GMT). No. of bitstreams: 1 license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2008 / O reconhecimento automático de textos manuscritos vem a cada dia ganhando importância tanto no meio científico quanto no comercial. Como exemplos de aplicações, têm-se sistemas bancários onde os campos de valor dos cheques são validados, aplicativos presentes nos correios para leitura de endereço e código postal, e sistemas de indexação de documentos históricos. A segmentação automática do texto em palavras ou caracteres é um dos primeiros passos realizados pelos sistemas de reconhecimento dos textos manuscritos. Portanto, é essencial que seja alcançado um bom desempenho de segmentação para que as etapas posteriores produzam boas taxas de reconhecimento do texto manuscrito. O presente trabalho trata do problema de segmentação de sentenças manuscritas em palavras através de duas abordagens: (i) método baseado na métrica de distância Convex Hull com modificações que objetivam melhorar o desempenho de segmentação; (ii) um novo método baseado em Redes Neurais Artificiais que visa superar problemas existentes em outras técnicas de segmentação, tais como: o uso de heurísticas e limitação de vocabulário. O desempenho dos métodos de segmentação foi avaliado utilizando-se de uma base de dados pública de texto manuscrito. Os resultados experimentais mostram que houve melhora de desempenho das abordagens quando comparadas à abordagem tradicional baseada em distância Convex Hull
2

Segmentação de tecidos cerebrais usando entropia Q em imagens de ressonância magnética de pacientes com esclerose múltipla / Cerebral tissue segmentation using q-entropy in multiple sclerosis magnetic resonance images

Diniz, Paula Rejane Beserra 20 May 2008 (has links)
A perda volumétrica cerebral ou atrofia é um importante índice de destruição tecidual e pode ser usada para apoio ao diagnóstico e para quantificar a progressão de diversas doenças com componente degenerativo, como a esclerose múltipla (EM), por exemplo. Nesta doença ocorre perda tecidual regional, com reflexo no volume cerebral total. Assim, a presença e a progressão da atrofia podem ser usadas como um indexador da progressão da doença. A quantificação do volume cerebral é um procedimento relativamente simples, porém, quando feito manualmente é extremamente trabalhoso, consome grande tempo de trabalho e está sujeito a uma variação muito grande inter e intra-observador. Portanto, para a solução destes problemas há necessidade de um processo automatizado de segmentação do volume encefálico. Porém, o algoritmo computacional a ser utilizado deve ser preciso o suficiente para detectar pequenas diferenças e robusto para permitir medidas reprodutíveis a serem utilizadas em acompanhamentos evolutivos. Neste trabalho foi desenvolvido um algoritmo computacional baseado em Imagens de Ressonância Magnética para medir atrofia cerebral em controles saudáveis e em pacientes com EM, sendo que para a classificação dos tecidos foi utilizada a teoria da entropia generalizada de Tsallis. Foram utilizadas para análise exames de ressonância magnética de 43 pacientes e 10 controles saudáveis pareados quanto ao sexo e idade para validação do algoritmo. Os valores encontrados para o índice entrópico q foram: para o líquido cerebrorraquidiano 0,2; para a substância branca 0,1 e para a substância cinzenta 1,5. Nos resultados da extração do tecido não cerebral, foi possível constatar, visualmente, uma boa segmentação, fato este que foi confirmado através dos valores de volume intracraniano total. Estes valores mostraram-se com variações insignificantes (p>=0,05) ao longo do tempo. Para a classificação dos tecidos encontramos erros de falsos negativos e de falsos positivos, respectivamente, para o líquido cerebrorraquidiano de 15% e 11%, para a substância branca 8% e 14%, e substância cinzenta de 8% e 12%. Com a utilização deste algoritmo foi possível detectar um perda anual para os pacientes de 0,98% o que está de acordo com a literatura. Desta forma, podemos concluir que a entropia de Tsallis acrescenta vantagens ao processo de segmentação de classes de tecido, o que não havia sido demonstrado anteriormente. / The loss of brain volume or atrophy is an important index of tissue destruction and it can be used to diagnosis and to quantify the progression of neurodegenerative diseases, such as multiple sclerosis. In this disease, the regional tissue loss occurs which reflects in the whole brain volume. Similarly, the presence and the progression of the atrophy can be used as an index of the disease progression. The objective of this work was to determine a statistical segmentation parameter for each single class of brain tissue using generalized Tsallis entropy. However, the computer algorithm used should be accurate and robust enough to detect small differences and allow reproducible measurements in following evaluations. In this work we tested a new method for tissue segmentation based on pixel intensity threshold. We compared the performance of this method using different q parameter range. We could find a different optimal q parameter for white matter, gray matter, and cerebrospinal fluid. The results support the conclusion that the differences in structural correlations and scale invariant similarities present in each single tissue class can be accessed by the generalized Tsallis entropy, obtaining the intensity limits for these tissue class separations. Were used for analysis of magnetic resonance imaging examinations of 43 patients and 10 healthy controls matched on the sex and age for validation of the algorithm. The values found for the entropic index q were: for the cerebrospinal fluid 0.2; for the white matter 0.1 and for gray matter 1.5. The results of the extraction of the tissue not brain can be seen, visually, a good target, which was confirmed by the values of total intracranial volume. These figures showed itself with variations insignificant (p >= 0.05) over time. For classification of the tissues find errors of false negatives and false positives, respectively, for cerebrospinal fluid of 15% and 11% for white matter 8% and 14%, and gray matter of 8% and 12%. With the use of this algorithm could detect an annual loss for the patients of 0.98% which is in line with the literature. Thus, we can conclude that the entropy of Tsallis adds advantages to the process of target classes of tissue, which had not been demonstrated previously.
3

Segmentação de tecidos cerebrais usando entropia Q em imagens de ressonância magnética de pacientes com esclerose múltipla / Cerebral tissue segmentation using q-entropy in multiple sclerosis magnetic resonance images

Paula Rejane Beserra Diniz 20 May 2008 (has links)
A perda volumétrica cerebral ou atrofia é um importante índice de destruição tecidual e pode ser usada para apoio ao diagnóstico e para quantificar a progressão de diversas doenças com componente degenerativo, como a esclerose múltipla (EM), por exemplo. Nesta doença ocorre perda tecidual regional, com reflexo no volume cerebral total. Assim, a presença e a progressão da atrofia podem ser usadas como um indexador da progressão da doença. A quantificação do volume cerebral é um procedimento relativamente simples, porém, quando feito manualmente é extremamente trabalhoso, consome grande tempo de trabalho e está sujeito a uma variação muito grande inter e intra-observador. Portanto, para a solução destes problemas há necessidade de um processo automatizado de segmentação do volume encefálico. Porém, o algoritmo computacional a ser utilizado deve ser preciso o suficiente para detectar pequenas diferenças e robusto para permitir medidas reprodutíveis a serem utilizadas em acompanhamentos evolutivos. Neste trabalho foi desenvolvido um algoritmo computacional baseado em Imagens de Ressonância Magnética para medir atrofia cerebral em controles saudáveis e em pacientes com EM, sendo que para a classificação dos tecidos foi utilizada a teoria da entropia generalizada de Tsallis. Foram utilizadas para análise exames de ressonância magnética de 43 pacientes e 10 controles saudáveis pareados quanto ao sexo e idade para validação do algoritmo. Os valores encontrados para o índice entrópico q foram: para o líquido cerebrorraquidiano 0,2; para a substância branca 0,1 e para a substância cinzenta 1,5. Nos resultados da extração do tecido não cerebral, foi possível constatar, visualmente, uma boa segmentação, fato este que foi confirmado através dos valores de volume intracraniano total. Estes valores mostraram-se com variações insignificantes (p>=0,05) ao longo do tempo. Para a classificação dos tecidos encontramos erros de falsos negativos e de falsos positivos, respectivamente, para o líquido cerebrorraquidiano de 15% e 11%, para a substância branca 8% e 14%, e substância cinzenta de 8% e 12%. Com a utilização deste algoritmo foi possível detectar um perda anual para os pacientes de 0,98% o que está de acordo com a literatura. Desta forma, podemos concluir que a entropia de Tsallis acrescenta vantagens ao processo de segmentação de classes de tecido, o que não havia sido demonstrado anteriormente. / The loss of brain volume or atrophy is an important index of tissue destruction and it can be used to diagnosis and to quantify the progression of neurodegenerative diseases, such as multiple sclerosis. In this disease, the regional tissue loss occurs which reflects in the whole brain volume. Similarly, the presence and the progression of the atrophy can be used as an index of the disease progression. The objective of this work was to determine a statistical segmentation parameter for each single class of brain tissue using generalized Tsallis entropy. However, the computer algorithm used should be accurate and robust enough to detect small differences and allow reproducible measurements in following evaluations. In this work we tested a new method for tissue segmentation based on pixel intensity threshold. We compared the performance of this method using different q parameter range. We could find a different optimal q parameter for white matter, gray matter, and cerebrospinal fluid. The results support the conclusion that the differences in structural correlations and scale invariant similarities present in each single tissue class can be accessed by the generalized Tsallis entropy, obtaining the intensity limits for these tissue class separations. Were used for analysis of magnetic resonance imaging examinations of 43 patients and 10 healthy controls matched on the sex and age for validation of the algorithm. The values found for the entropic index q were: for the cerebrospinal fluid 0.2; for the white matter 0.1 and for gray matter 1.5. The results of the extraction of the tissue not brain can be seen, visually, a good target, which was confirmed by the values of total intracranial volume. These figures showed itself with variations insignificant (p >= 0.05) over time. For classification of the tissues find errors of false negatives and false positives, respectively, for cerebrospinal fluid of 15% and 11% for white matter 8% and 14%, and gray matter of 8% and 12%. With the use of this algorithm could detect an annual loss for the patients of 0.98% which is in line with the literature. Thus, we can conclude that the entropy of Tsallis adds advantages to the process of target classes of tissue, which had not been demonstrated previously.
4

A influência do contexto de discurso na segmentação automática das fases do gesto com aprendizado de máquina supervisionado / The influence of the speech context on the automatic segmentation of the phases of the gesture with supervised machine learning

Rocha, Jallysson Miranda 27 April 2018 (has links)
Gestos são ações que fazem parte da comunicação humana. Frequentemente, eles ocorrem junto com a fala e podem se manifestar por uma ação proposital, como o uso das mãos para explicar o formato de um objeto, ou como um padrão de comportamento, como coçar a cabeça ou ajeitar os óculos. Os gestos ajudam o locutor a construir sua fala e também ajudam o ouvinte a compreender a mensagem que está sendo transmitida. Pesquisadores de diversas áreas são interessados em entender como se dá a relação dos gestos com outros elementos do sistema linguístico, seja para suportar estudos das áreas da Linguística e da Psicolinguística, seja para melhorar a interação homem-máquina. Há diferentes linhas de estudo que exploram essa temática e entre elas está aquela que analisa os gestos a partir de fases: preparação, pré-stroke hold, stroke, pós-stroke hold, hold e retração. Assim, faz-se útil o desenvolvimento de sistemas capazes de automatizar a segmentação de um gesto em suas fases. Técnicas de aprendizado de máquina supervisionado já foram aplicadas a este problema e resultados promissores foram obtidos. Contudo, há uma dificuldade inerente à análise das fases do gesto, a qual se manifesta na alteração do contexto em que os gestos são executados. Embora existam algumas premissas básicas para definição do padrão de manifestação de cada fase do gesto, em contextos diferentes tais premissas podem sofrer variações que levariam a análise automática para um nível de alta complexidade. Este é o problema abordado neste trabalho, a qual estudou a variabilidade do padrão inerente à cada uma das fases do gesto, com apoio de aprendizado de máquina, quando a manifestação delas se dá a partir de um mesmo indivíduo, porém em diferentes contextos de produção do discurso. Os contextos de discurso considerados neste estudo são: contação de história, improvisação, descrição de cenas, entrevistas e aulas expositivas / Gestures are actions that make part of human communication. Commonly, gestures occur at the same time as the speech and they can manifest either through an intentional act, as using the hands to explain the format of an object, or as a pattern of behavior, as scratching the head or adjusting the glasses. Gestures help the speaker to build their speech and also help the audience to understand the message being communicated. Researchers from several areas are interested in understanding what the relationship of gestures with other elements of the linguistic system is like, whether in supporting studies in Linguistics or Psycho linguistics, or in improving the human-machine interaction. There are different lines of study that explore such a subject, and among them is the line that analyzes gestures according to their phases: preparation, pre-stroke hold, stroke, post-stroke hold, hold and retraction. Thus, the development of systems capable of automating the segmentation of gestures into their phases can be useful. Techniques that implement supervised machine learning have already been applied in this problem and promising results have been achieved. However, there is an inherent difficulty to the analysis of phases of gesture that is revealed when the context (in which the gestures are performed) changes. Although there are some elementary premises to set the pattern of expression of each gesture phase, such premises may vary and lead the automatic analysis to high levels of complexity. Such an issue is addressed in the work herein, whose purpose was to study the variability of the inherent pattern of each gesture phase, using machine learning techniques, when their execution is made by the same person, but in different contexts. The contexts of discourse considered in this study are: storytelling, improvisation, description of scenes, interviews and lectures
5

A influência do contexto de discurso na segmentação automática das fases do gesto com aprendizado de máquina supervisionado / The influence of the speech context on the automatic segmentation of the phases of the gesture with supervised machine learning

Jallysson Miranda Rocha 27 April 2018 (has links)
Gestos são ações que fazem parte da comunicação humana. Frequentemente, eles ocorrem junto com a fala e podem se manifestar por uma ação proposital, como o uso das mãos para explicar o formato de um objeto, ou como um padrão de comportamento, como coçar a cabeça ou ajeitar os óculos. Os gestos ajudam o locutor a construir sua fala e também ajudam o ouvinte a compreender a mensagem que está sendo transmitida. Pesquisadores de diversas áreas são interessados em entender como se dá a relação dos gestos com outros elementos do sistema linguístico, seja para suportar estudos das áreas da Linguística e da Psicolinguística, seja para melhorar a interação homem-máquina. Há diferentes linhas de estudo que exploram essa temática e entre elas está aquela que analisa os gestos a partir de fases: preparação, pré-stroke hold, stroke, pós-stroke hold, hold e retração. Assim, faz-se útil o desenvolvimento de sistemas capazes de automatizar a segmentação de um gesto em suas fases. Técnicas de aprendizado de máquina supervisionado já foram aplicadas a este problema e resultados promissores foram obtidos. Contudo, há uma dificuldade inerente à análise das fases do gesto, a qual se manifesta na alteração do contexto em que os gestos são executados. Embora existam algumas premissas básicas para definição do padrão de manifestação de cada fase do gesto, em contextos diferentes tais premissas podem sofrer variações que levariam a análise automática para um nível de alta complexidade. Este é o problema abordado neste trabalho, a qual estudou a variabilidade do padrão inerente à cada uma das fases do gesto, com apoio de aprendizado de máquina, quando a manifestação delas se dá a partir de um mesmo indivíduo, porém em diferentes contextos de produção do discurso. Os contextos de discurso considerados neste estudo são: contação de história, improvisação, descrição de cenas, entrevistas e aulas expositivas / Gestures are actions that make part of human communication. Commonly, gestures occur at the same time as the speech and they can manifest either through an intentional act, as using the hands to explain the format of an object, or as a pattern of behavior, as scratching the head or adjusting the glasses. Gestures help the speaker to build their speech and also help the audience to understand the message being communicated. Researchers from several areas are interested in understanding what the relationship of gestures with other elements of the linguistic system is like, whether in supporting studies in Linguistics or Psycho linguistics, or in improving the human-machine interaction. There are different lines of study that explore such a subject, and among them is the line that analyzes gestures according to their phases: preparation, pre-stroke hold, stroke, post-stroke hold, hold and retraction. Thus, the development of systems capable of automating the segmentation of gestures into their phases can be useful. Techniques that implement supervised machine learning have already been applied in this problem and promising results have been achieved. However, there is an inherent difficulty to the analysis of phases of gesture that is revealed when the context (in which the gestures are performed) changes. Although there are some elementary premises to set the pattern of expression of each gesture phase, such premises may vary and lead the automatic analysis to high levels of complexity. Such an issue is addressed in the work herein, whose purpose was to study the variability of the inherent pattern of each gesture phase, using machine learning techniques, when their execution is made by the same person, but in different contexts. The contexts of discourse considered in this study are: storytelling, improvisation, description of scenes, interviews and lectures
6

Segmentação da estrutura cerebral hipocampo por meio de nuvem de similaridade / Automatic hippocampus segmentation through similarity cloud

Athó, Fredy Edgar Carranza 03 August 2011 (has links)
O hipocampo é uma estrutura cerebral que possui importância primordial para o sistema de memória humana. Alterações no seus tecidos levam a doenças neurodegenerativas, tais como: epilepsia, esclerose múltipla e demência, entre outras. Para medir a atrofia do hipocampo é necessário isolá-lo do restante do cérebro. A separação do hipocampo das demais partes do cérebro ajuda aos especialistas na análise e o entendimento da redução de seu volume e detecção de qualquer anomalia presente. A extração do hipocampo é principalmente realizada de modo manual, a qual é demorada, pois depende da interação do usuário. A segmentação automática do hipocampo é investigada como uma alternativa para contornar tais limitações. Esta dissertação de mestrado apresenta um novo método de segmentação automático, denominado Modelo de Nuvem de Similaridade (Similarity Cloud Model - SimCM). O processo de segmentação é dividido em duas etapas principais: i) localização por similaridade e ii) ajuste de nuvem. A primeira operação utiliza a nuvem para localizar a posição mais provável do hipocampo no volume destino. A segunda etapa utiliza a nuvem para corrigir o delineamento final baseada em um novo método de cálculo de readequação dos pesos das arestas. Nosso método foi testado em um conjunto de 235 MRI combinando imagens de controle e de pacientes com epilepsia. Os resultados alcançados indicam um rendimento superior tanto em efetividade (qualidade da segmentação) e eficiência (tempo de processamento), comparado com modelos baseados em grafos e com modelos Bayesianos. Como trabalho futuro, pretendemos utilizar seleção de características para melhorar a construção da nuvem e o delineamento dos tecidos / The hippocampus is a particular structure that plays a main role in human memory systems. Tissue modifications of the hippocampus lead to neurodegenerative diseases as epilepsy, multiple sclerosis, and dementia, among others. To measure hippocampus atrophy, it is crucial to get its isolated representation from the whole brain volume. Separating the hippocampus from the brain helps physicians in better analyzing and understanding its volume reduction, and detecting any abnormal behavior. The extraction of the hippocampus is dominated by manual segmentation, which is time consuming mainly because it depends on user interaction. Therefore, automatic segmentation of the hippocampus has being investigated as an alternative solution to overcome such limitations. This master dissertation presents a new automatic segmentation method called Similarity Cloud Model (SimCM) based on hippocampus feature extraction. The segmentation process consists of two main operations: i) localization by similarity, and ii) cloud adjustment. The first operation uses the cloud to localize the most probable position of the hippocampus in a target volume. The second process invokes the cloud to correct the final labeling, based on a new method for arc-weight re-adjustment. Our method has been tested in a dataset of 235 MRIs combining healthy and epileptic patients. Results indicate superior performance, in terms of effectiveness (segmentation quality) and efficiency (processing time), in comparison with similar graph-based and Bayesian-based models. As future work, we intend to use feature selection to improve cloud construction and tissue delineation
7

Segmentação da estrutura cerebral hipocampo por meio de nuvem de similaridade / Automatic hippocampus segmentation through similarity cloud

Fredy Edgar Carranza Athó 03 August 2011 (has links)
O hipocampo é uma estrutura cerebral que possui importância primordial para o sistema de memória humana. Alterações no seus tecidos levam a doenças neurodegenerativas, tais como: epilepsia, esclerose múltipla e demência, entre outras. Para medir a atrofia do hipocampo é necessário isolá-lo do restante do cérebro. A separação do hipocampo das demais partes do cérebro ajuda aos especialistas na análise e o entendimento da redução de seu volume e detecção de qualquer anomalia presente. A extração do hipocampo é principalmente realizada de modo manual, a qual é demorada, pois depende da interação do usuário. A segmentação automática do hipocampo é investigada como uma alternativa para contornar tais limitações. Esta dissertação de mestrado apresenta um novo método de segmentação automático, denominado Modelo de Nuvem de Similaridade (Similarity Cloud Model - SimCM). O processo de segmentação é dividido em duas etapas principais: i) localização por similaridade e ii) ajuste de nuvem. A primeira operação utiliza a nuvem para localizar a posição mais provável do hipocampo no volume destino. A segunda etapa utiliza a nuvem para corrigir o delineamento final baseada em um novo método de cálculo de readequação dos pesos das arestas. Nosso método foi testado em um conjunto de 235 MRI combinando imagens de controle e de pacientes com epilepsia. Os resultados alcançados indicam um rendimento superior tanto em efetividade (qualidade da segmentação) e eficiência (tempo de processamento), comparado com modelos baseados em grafos e com modelos Bayesianos. Como trabalho futuro, pretendemos utilizar seleção de características para melhorar a construção da nuvem e o delineamento dos tecidos / The hippocampus is a particular structure that plays a main role in human memory systems. Tissue modifications of the hippocampus lead to neurodegenerative diseases as epilepsy, multiple sclerosis, and dementia, among others. To measure hippocampus atrophy, it is crucial to get its isolated representation from the whole brain volume. Separating the hippocampus from the brain helps physicians in better analyzing and understanding its volume reduction, and detecting any abnormal behavior. The extraction of the hippocampus is dominated by manual segmentation, which is time consuming mainly because it depends on user interaction. Therefore, automatic segmentation of the hippocampus has being investigated as an alternative solution to overcome such limitations. This master dissertation presents a new automatic segmentation method called Similarity Cloud Model (SimCM) based on hippocampus feature extraction. The segmentation process consists of two main operations: i) localization by similarity, and ii) cloud adjustment. The first operation uses the cloud to localize the most probable position of the hippocampus in a target volume. The second process invokes the cloud to correct the final labeling, based on a new method for arc-weight re-adjustment. Our method has been tested in a dataset of 235 MRIs combining healthy and epileptic patients. Results indicate superior performance, in terms of effectiveness (segmentation quality) and efficiency (processing time), in comparison with similar graph-based and Bayesian-based models. As future work, we intend to use feature selection to improve cloud construction and tissue delineation

Page generated in 0.0931 seconds