171 |
Class-test: classificação automática de testes para auxíio à criação de suítes de testede Souza Lima, Leonardo 31 January 2009 (has links)
Made available in DSpace on 2014-06-12T15:53:09Z (GMT). No. of bitstreams: 2
arquivo1903_1.pdf: 918157 bytes, checksum: 0dfd55458968c90c309a4c7e189c25fe (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2009 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Este trabalho apresenta o Class-Test, uma ferramenta idealizada para auxiliar os
profissionais de testes na criação de suítes de testes extensas. Em geral, as suítes de testes
devem conter um determinado número de testes de cada tipo (e.g., testes negativos, testes
de fronteira, testes de interação, etc), número este fixado pelo engenheiros/designers de
testes da empresa. Um dos maiores problemas enfrentados pelos testadores para montar
essas suítes é o tempo gasto na categorização manual dos testes pré-selecionados para
compor suítes extensas (com 1.000 testes, por exemplo).
O Class-Test é uma ferramenta para classificação automática de casos de testes,
que visa diminuir o esforço e o tempo gasto no processo de categorização dos testes. A
ferramenta foi construída com base em técnicas de Aprendizagem de Máquina, em
particular, da área de Categorização de Texto. Três classificadores automáticos foram
construídos utilizando-se um corpus composto por 879 casos de testes, com a distribuição
de 191 casos de testes do tipo Fronteira (Test Boundary), 338 do tipo Negativo (Test
Negative), e 350 do tipo interação (Test Interaction). Cada classificador é especializado
em apenas um desses três tipos de teste. Foi necessário criar três classificadores porque
alguns casos de teste podem ser associados a mais de uma classe de teste ao mesmo
tempo. Foram realizados dois estudos de casos. O primeiro estudo teve como objetivo
avaliar, dentre os quatro algoritmos de aprendizagem selecionados, qual apresentava
melhor precisão para o corpus em questão. O algoritmo SVM Máquina de Vetores de
Suporte apresentou melhor desempenho nesse estudo. O segundo estudo de caso visou
comparar a precisão da categorização automática versus a categorização manual, este
experimento será mostrado com mais detalhes no capítulo 5.
Este trabalho é parte do projeto Test Research Project do CIn/BTC, que está
sendo desenvolvido em uma parceria entre o CIn-UFPE e a Motorola. O propósito geral
desse projeto é automatizar a geração, seleção e avaliação de casos de teste para
aplicações de telefonia móvel
|
172 |
Busca e recuperação de componentes de software utilizando agrupamento de componentesVeras, Ronaldo Cisneiros 31 January 2008 (has links)
Made available in DSpace on 2014-06-12T15:54:38Z (GMT). No. of bitstreams: 2
arquivo1985_1.pdf: 1669122 bytes, checksum: d80eb6d9d156dc4d5fea44c91a40a019 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2008 / O desenvolvimento de software com reuso é uma abordagem que pode ser utilizada para alcançar
dois benefícios principais: 1) incremento de produtividade nos projetos de software e 2)
melhorias na qualidade final dos projetos. A abordagem de reuso de software pode ser instanciada
através da estratégia de desenvolvimento de software baseada em componentes. De acordo
com essa estratégia, grandes aplicações de software podem ser desenvolvidas a partir de partes
reutilizáveis e pré-existentes, que devem estabelecer uma colaboração entre elas para prover as
funcionalidade requeridas pela aplicação. Os locais onde esses componentes são armazenados
(repositórios), e os processos para a busca e recuperação dos mesmos, são considerados pontos
de constante pesquisa e discussão.
Em um outro contexto, soluções baseadas em aprendizagem de máquina e inteligência artificial
começam a produzir contribuições relevantes para problemas pertencentes ao ciclo de
desenvolvimento de projetos de software, compreendendo campos como a estimativa de esforço
de projetos de software e a predição de falhas, por exemplo. Esse trabalho possui o objetivo de
investigar a utilização de técnicas de agrupamento de dados (clustering) (que fazem parte das
técnicas de aprendizagem de máquina) ao problema do reuso de software. Para esse trabalho
foram analisadas as técnicas de agrupamento por mapas auto-organizáveis (SOM), mapas autoorganizáveis
que crescem hierarquicamente (GHSOM) e o agrupamento por árvores de sufixos
(STC). É importante ressaltar que a aplicação de STC a este problema foi feita originalmente
no nosso trabalho.
Nesse cenário, a solução proposta foi implementada, gerando uma ferramenta web para
busca e recuperação de componentes de software. A ferramenta Cluco (Clustering of Components)
apresenta os resultados de uma busca por componentes, que satisfazem os critérios de
uma consulta, na forma de grupos de componentes similares, onde esses grupos são gerados
pelo algoritmo STC. Essa característica pode ser considerada uma contribuição relevante, pois
o grande esforço manual em busca de similaridades, que deveria ser realizado pelos usuários, é
executado automaticamente pelo sistema, à medida que os resultados de uma busca tornam-se
disponíveis.
Esta dissertação apresenta avaliações qualitativas e quantitativas da solução proposta. Vários
usuários com vários níveis de experiência em engenharia de software avaliaram a ferramenta,
através de realização de buscas e respondendo a um questionário contendo perguntas relativas
à usabilidade e à qualidade da solução. Métricas para a avaliação de sistemas de recuperação
de informação como, por exemplo, as métricas recall e precision foram utilizadas para fornecer
validações quantitativas sobre a solução. Uma análise de desempenho comparando as técnicas
investigadas nesse trabalho foi realizada. Esta análise mostrou a superioridade da técnica STC
no problema de agrupamento dos componentes de software utilizados nesse trabalho (componentes Java). Considerando todos os resultados obtidos, pode ser concluído que a solução
proposta contribui de forma positiva e relevante para o problema de busca e recuperação de
componentes de software
|
173 |
ProfileTV: um sistema de gerenciamento de perfis em TVDiCOELHO, Andrino Soares de Souza 31 January 2008 (has links)
Made available in DSpace on 2014-06-12T15:56:03Z (GMT). No. of bitstreams: 2
arquivo2409_1.pdf: 4688487 bytes, checksum: 9b78d651e39e0ca0ca5fdde9cf6d2dd3 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2008 / Desde o fim do século XX, a televisão vem sendo alvo constante de discussões. A busca
incessante por melhoria na qualidade de imagem e de som levou ao surgimento de uma nova
mídia mais completa, complexa e abrangente, a chamada TV Digital Interativa. Neste novo
cenário, um telespectador tem acesso a diversos conteúdos através de vários dispositivos
utilizando meios distintos. São tantas as possibilidades de interação que o usuário pode se sentir
perdido em meio às configurações dos aparelhos e dos serviços, e simplesmente não usufruir de
todas as benesses disponíveis. A fim de evitar este problema e facilitar o uso dos aparelhos, faz-se
necessário o uso de técnicas de Interface Usuário-Máquina (IUM) e Ciência de Contexto, que
permitam uma captura natural das informações relevantes de uma interação entre telespectador e
o dispositivo digital interativo. Esta dissertação propõe o ProfileTV, uma infra-estrutura que
permita a criação de serviços de personalização com foco na interação entre telespectadores e
dispositivos ou serviços interativos.
Os conceitos de TV Digital Interativa são apresentados e discutidos ao longo desta
dissertação, atendo-se sempre aos problemas personalização da interação do telespectador com
dispositivos ou serviços interativos já evidenciados em trabalhos similares. O ProfileTV une
estes conceitos aos de Ciência de Contexto a fim de apresentar uma solução plausível para os
problemas já citados
|
174 |
Um sistema de extração de informação em referências bibliográficas baseado em aprendizagem e máquinaFraga do Amaral e Silva, Eduardo January 2004 (has links)
Made available in DSpace on 2014-06-12T15:58:49Z (GMT). No. of bitstreams: 2
arquivo4727_1.pdf: 1069518 bytes, checksum: f7d66b889164069c63fdfafe11edf163 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2004 / Existe atualmente uma gigantesca quantidade de informações disponibilizada em
formato de texto na Internet e nas redes das grandes corporações. Essas informações
encontram-se em um formato não estruturado, dificilmente manipulável por programas
de computador.
A Extração de Informação (EI) tem como objetivo transformar documentos
textuais em um formato estruturado, mapeando a informação contida em um documento
em uma estrutura tabular. Tal estrutura é mais facilmente tratável por programas de
computador, possibilitando assim a sua utilização por variadas aplicações inteligentes .
Dentro da Inteligência Artificial, vemos duas abordagens para tratar o problema da EI:
os sistemas baseados em conhecimento e a aprendizagem automática.
O trabalho apresentado tem como objetivo a construção de um sistema para
extrair informações a partir de textos contendo citações científicas (ou referências
bibliográficas) através de uma abordagem baseada em aprendizagem automática. Dentre
as diversas técnicas existentes, escolhemos tratar o problema através de uma abordagem
híbrida, que combina o uso de técnicas de classificação de textos com os Modelos de
Markov Escondidos (HMM). Esta combinação mostrou resultados superiores aos
obtidos usando exclusivamente as técnicas de classificação e sua idéia básica é gerar
com o uso das técnicas de classificação de textos para EI uma saída inicial para o
sistema e refiná-la depois por meio de um HMM. Experimentos realizados com um
conjunto de teste contendo 3000 referências resultaram em uma precisão de 87,48%.
|
175 |
Classificação de tráfego baseado em mineração de fluxos de dadosLopes Junior, Petrônio Gomes 31 January 2012 (has links)
Made available in DSpace on 2014-06-12T16:01:31Z (GMT). No. of bitstreams: 2
arquivo9422_1.pdf: 1276132 bytes, checksum: 3774a722066d704630a96e348e110df1 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2012 / Faculdade de Amparo à Ciência e Tecnologia do Estado de Pernambuco / Existem diversos tipos de aplicações de redes de computadores que produzem diferentes
perfis de tráfego. Para aperfeiçoar o desempenho destas aplicações ou da rede em que elas
estão incluídas, é interessante fazer medições e caracterizações do tráfego gerado por elas.
Nesse contexto, existem várias formas para classificação de tráfego como técnicas
baseadas em portas, técnicas baseadas em inspeção de pacotes e técnicas baseadas em
fluxos. De acordo com o cenário em que será aplicada, cada uma das técnicas apresenta
vantagens e desvantagens. Adicionalmente, a classificação tem que lidar com restrições de
tempo, sendo capaz de tratar os dados em tempo real.
Um possível método a ser utilizado é a classificação de tráfego baseada em fluxos
utilizando aprendizagem de máquina. No entanto, é notório que, quando se fala na
classificação de fluxos usando aprendizagem de máquina, a caracterização de tráfego ainda
necessita de uma abordagem que seja capaz de fornecer uma forma adaptativa de
treinamento além de equilibrar precisão e desempenho em um cenário de fluxo contínuo
de dados.
Este trabalho apresenta um algoritmo voltado para classificação do tráfego
baseado em técnicas de mineração de fluxos de dados aplicado a redes de alta velocidade,
denominado GSDT (GPU-based Streaming Decision Tree), além de um arcabouço para sua
aplicação. Esse algoritmo visa combinar a precisão das árvores de decisão tradicionais
com as características da mineração de fluxos de dados. O GSDT também explora o
potencial computacional fornecido por uma unidade de processamento gráfico. O
arcabouço proposto alia treinamento e classificação, a fim de obter ganhos no
desempenho da utilização do algoritmo em um ambiente real. Os experimentos realizados
avaliam a precisão do GSDT em relação às técnicas tradicionais e o desempenho das
abordagens propostas, demonstrando a viabilidade da aplicação do GSDT nos cenários
considerados e a alta performance obtida através da unidade de processamento gráfico
|
176 |
Desenvolvimento de ferramenta computacional para análise paramétrica da influência da posição e do tamanho de um tumor de mama em perfis de temperaturaCoelho dos Santos, Ladjane 31 January 2009 (has links)
Made available in DSpace on 2014-06-12T17:35:28Z (GMT). No. of bitstreams: 2
arquivo2040_1.pdf: 3533292 bytes, checksum: 07ed8a868276b7638a4ad97789d8a9e6 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2009 / Instituto Federal de Educação, Ciência e Tecnologia de Pernambuco / A segunda causa de mortes de mulheres no Brasil é o câncer de mama, apesar de ser
uma doença de diagnóstico relativamente fácil. Mesmo sendo antagônicas, essas informações
são coerentes, pois as mulheres ainda têm receio de procurar ajuda médica e só o fazem quando
a doença já está num estágio avançado, dificultando com isso o diagnóstico precoce. Devido
a isso, o Ministério da Saúde tem investido na divulgação do auto-exame, do exame clínico
e da mamografia que são vistas como as formas mais eficazes para detecção precoce do
câncer de mama. A termografia, técnica que capta a emissão de radiação infravermelha de um
objeto, aliada a estes exames tradicionais aumenta em 14% a chance de se detectar um câncer.
Trata-se de uma técnica não invasiva, indolor e sem contato físico com o paciente, além de
não emitir radiação. A existência de alguma patologia altera a temperatura do corpo que pode
ser captada pela termografia. O tumor mamário é uma dessas patologias que com o aumento
dos vasos sanguineos causam uma elevação da emissão de calor. Dependendo do tamanho e
da posição do tumor este aumento pode influenciar na temperatura na superfície da mama.
Dentro de um objetivo maior que é verificar a aplicabilidade do uso da termografia na detecção
precoce do câncer de mama, o trabalho em questão apresenta um programa computacional
desenvolvido na plataforma Matlab para automatizar várias análises de forma rápida e
organizada. O mesmo é capaz de gerenciar a utilização de um programa gerador de malhas e
um outro comercial CFD (Computational Fluid Dynamics), FLUENT, de forma seqüenciada,
e otimizando a memória de armazenamento de arquivos automatiza várias análises. Inicialmente
o programa foi testado com uma geometria bidimensional construída com dois domínios
circulares. Para uma análise mais realista foi utilizado um fantoma o qual foi preso a uma
máquina de medição de coordenadas para obter as coordenadas dos pontos da mama direita.
Sob o gerenciamento do programa implementado no presente trabalho, uma geometria mais
realista da mama foi construída com esses pontos e as simulações foram realizadas pelo
FLUENT, que usa o Método dos Volumes Finitos para resolver a Equação da Biotransferência
de Calor. Apesar de usar uma geometria diferente para o tumor do que se apresenta na
realidade, as análises confirmaram as expectativas
|
177 |
Estudo das atividades dos cirurgiões dentistas servidores públicos das Universidade Federal de Pernambuco, Federal Rural de Pernambuco e clínicas privadas: uma abordagem ergonômicaCOUCEIRO, Ruth Maria Costa 29 June 2016 (has links)
Submitted by Rafael Santana (rafael.silvasantana@ufpe.br) on 2017-12-22T15:00:49Z
No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
UNIVERSIDADE FEDERAL DE PERNAMBUCO.pdf: 5967502 bytes, checksum: 8ae5d4cbe53ca12ca7e2715b01aca67e (MD5) / Made available in DSpace on 2017-12-22T15:00:49Z (GMT). No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
UNIVERSIDADE FEDERAL DE PERNAMBUCO.pdf: 5967502 bytes, checksum: 8ae5d4cbe53ca12ca7e2715b01aca67e (MD5)
Previous issue date: 2016-06-29 / A ergonomia, disciplina que visa adequar o trabalho ao ser humano, através de elaboração de projetos de ambientes seguro, confortáveis e eficiente, tendo objetivo prioritário o bem estar do trabalhador, auxiliou na análise da nossa dissertação. Foi realizada uma análise ergonômica de três postos de trabalho de cirurgiões dentistas, dois postos da rede pública – NASS/UFPE e do DQV/UFRPE e um consultório da rede privada. Visando identificar as prevalências dos distúrbios osteomusculares comuns nesta profissão. Foi utilizado as duas primeiras fases da metodologia SHTM (Sistema x Humano x Tarefa x Máquina), a apreciação ergonômica e a diagnose ergonômica. Complementada com questionário sócio demográfico; o questionário Nórdico; o questionário de controle-demanda (JCQ) de Karasek, Finalizando com a análise antropométrica e o protocolo RULA. Foram identificados constrangimentos ergonômicos semelhantes em ambos os postos estudados. Na fase de apreciação, foi identificado as ausências dos auxiliares dos cirurgiões dentistas nos procedimentos, não permitindo o trabalho a quatro mãos e a presença de ruído com valor maior que o recomendado pela norma regulamentadora - NR17. Na diagnose ergonômica ficou evidente que as posturas inerentes aos procedimentos odontológicos podem levar a distúrbios osteomusculares e o ruído acima do preconizado pode levar a perda auditiva e ao estresse. No questionário sócio demográfico foi observado que a amostra de 24 CDs era composta por mais cirurgiões dentistas do sexo feminino 62,5%, e que 33,3% pertenciam a rede pública e 66,7% a rede privada. A prevalência de queixas de dor muscular nos últimos 12 meses foi de 91,66%, sendo mais frequente no sexo feminino e divido em 87,5% na rede pública e 93,75% na rede privada. E com a prevalência de afastamento nos últimos 12 meses de 41,66%, sendo 62% (5 CD em 8 participantes) na rede pública e 31,25% (5 CDs em 16 participantes) na rede privada. Os níveis de estresses medidos pelas avaliações, em ambos os grupos, ficaram no quadrante “2,” classifica o trabalho ativo, considerado um tipo de trabalho de boa qualidade e não propiciando desenvolvimento de estresse. Com a antropometria evidenciou uma estreita relação entre as características dimensionais existentes entre o equipamento – o mocho, com as posturas assumidas pelas cirurgiãs dentistas do NASS, podendo favorecer surgimentos de queixas de dores musculares. No protocolo RULA, verificou-se que em ambos os postos necessitam de mudanças ergonômica (nível de ação RULA do posto de trabalho público = 7 e no posto privado = 7), que através do nível de ação do protocolo RULA, classifica em uma postura muito ruim, com risco imediato de lesão e sugere investigar e mudar as condições de trabalho imediatamente. Os resultados obtidos neste trabalho, destacaram a importância de melhorar as posturas inerentes as atividades laborais odontológicas, baseadas em orientações ergonômicas, em futuro breve; desenvolver e/ou aperfeiçoar instrumentos, equipamentos, e orientar nova organização para o desenvolvimento do trabalho destes profissionais a fim de melhorar sua qualidade de vida / The ergonomics, discipline which aims to adapt the work to the human being, through projects elaboration of secure environments, comfortable and efficient, taking priority objective the well-being of the worker, helped in the analysis of our thesis. It was performed a comparative ergonomic analysis of three jobs of surgeons dentist, two posts of the public network - NASS/UFPE and the DQV/UFRPE and a clinic of the private. Aiming to identify and compare the prevalence of musculoskeletal disorders common in this profession. It was used the first two stages of the methodology SHTM (System X Human X Task X Machine), ergonomic assessment and the diagnosis of ergonomic. Complemented with socio demographic questionnaire,; the Nordic questionnaire; the demand-control questionnaire (JCQ) Karasek, . Finalizing with the anthropometric analysis and the ergonomic RULA protocol. Ergonomic constraint was identified similar in both jobs studied. At the assessment stage was identified absences of auxiliary of dental surgeons in procedures, in enabling the work to four hands and the presence of the noise with the value greater than recommended by regulatory norm - NR 17. In ergonomic diagnosis it became evident that the posture inherent to dental procedures can lead to musculoskeletal disorders and the noise above the recommended procedure may lead to hearing loss and to stress. In socio demographic questionnaire was observed that the sample was composed of more dental surgeons female 62.5%, and that 33.3% belonged to the public network and 66.7% the private network. The prevalence of complaints of muscle pain in the last 12 months was 91.66%, being more frequent in the female sex and divided in 87.5% in the public network and 93.75% in the private network and with the prevalence of remoteness in the last 12 months of 41.66%, being 62% in the public network and 31.25% in the private network. The levels of stress measured by the assessments in both groups were in the quadrant "2" which classifies the active work, being considered a type of work of good quality and not providing development of stress. With the anthropometry showed a close relationship between dimensional characteristics existing between the equipment - the owl with the postures assumed by surgeons dentists which may favor appearance of complaints of muscle pain. In the Protocol RULA it was found that in both jobs need ergonomic changes (action level RULA work station public = 7 and in private tour = 7), which through the action level protocol RULA classifies in a very bad posture, with immediate risk of lesion and suggests investigating and change the conditions of work immediately. The results obtained in this research was highlighted the importance of improvements the posture inherent activities dental labor based on ergonomic guidelines and if possible, in the near future, develop and/or improve instruments, equipment as well as a new orientation in the organization of the work of these professionals in order to improvements to their quality of life.
|
178 |
Investigações sobre métodos de classificação para uso em termografia de mamaVASCONCELOS, Jessica Hipolito de 10 March 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-03T19:42:57Z
No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
DISSERTAÇÃO Jéssica Hipólito de Vasconcelo.pdf: 2439062 bytes, checksum: 8b28b9f7e55ad3390f9f9a170c2acd83 (MD5) / Made available in DSpace on 2018-07-03T19:42:57Z (GMT). No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
DISSERTAÇÃO Jéssica Hipólito de Vasconcelo.pdf: 2439062 bytes, checksum: 8b28b9f7e55ad3390f9f9a170c2acd83 (MD5)
Previous issue date: 2017-03-10 / CNPQ / Estudos recentes mostram que a termografia vem se mostrando bastante promissora como ferramenta auxiliar na tarefa de detectar o câncer de mama precocemente, o que é fator fundamental para aumentar as chances de cura do paciente. Tumores pequenos podem ser detectados pelos termogramas por causa da elevada atividade metabólica das células cancerígenas, o que leva a um aumento de temperatura no local e que é captado pela termografia. As referidas variações na temperatura assim como as alterações vasculares podem estar entre os primeiros sinais de anormalidade na mama. A técnica é um procedimento de diagnóstico não invasivo, indolor, com ausência de qualquer tipo de contato com o corpo do paciente, além de não emitir qualquer tipo de radiação, sendo então um procedimento confortável e seguro. A termografia é realizada utilizando câmeras de infravermelho sensíveis e um software que permite a interpretação de imagens de alta resolução. O presente trabalho tem como objetivo analisar métodos de classificação de imagem digital por infravermelho (IR) de mama e avaliar os resultados obtidos com o objetivo de investigar a viabilidade do uso de imagens IR para a detecção do câncer de mama. Inicialmente, a imagem termográfica é obtida e processada. Em seguida, procede-se à extração de características, que se baseia nas faixas de temperatura obtidas a partir do termograma, determinando-se assim os dados de entrada para o processo de classificação. Foram avaliados sete classificadores e utilizados 233 termogramas de pacientes do Ambulatório de Mastologia do Hospital das Clínicas da Universidade Federal de Pernambuco. Obtiveram-se como resultado, 93,42% de acurácia, 94,73% de sensibilidade e 92,10% de especificidade para a Classe Câncer em uma análise binária (Câncer x Não-Câncer) e para uma análise multiclasse (Maligno, Benigno, Cisto e Normal), 63,46% de acurácia, 80,77% de sensibilidade e 86,54% de especificidade para a Classe Maligno. / Recent studies have stated that the thermography technique has shown to be very promising as an auxiliary tool in the task of early detection of breast cancer, which is a fundamental factor to increase the chances of cure of the patient. Small tumors can be detected by thermograms because of the high metabolic activity of cancer cells, which leads to an increase in temperature on the spot and is captured in thermography. Such variations in temperature as well as vascular changes may be among the first signs of abnormality in the breast. The technique is a non-invasive, painless diagnostic procedure without any type of contact with the patient's body, besides not emitting any type of radiation, and is therefore a comfortable and safe procedure. Thermography is performed using sensitive infrared cameras and software that allows the interpretation of high resolution images. The present work aims to analyze methods of digital image classification of breast infrared images (IR) and to evaluate the results obtained with the purpose of investigating the feasibility of the use of IR images for the detection of breast cancer. Initially, the thermographic images were obtained and processed. Then, the next step is the feature extraction and it is based on the several temperature ranges obtained from the thermogram, determining the input data for the classification process. Seven classifiers were evaluated and used 233 thermograms of patients from the Mastology Outpatient Clinic of the Hospital das Clínicas of the Federal University of Pernambuco. Finally, 93.42% of accuracy, 94.73% of sensitivity and 92.10% of specificity were obtained for the Cancer Class in a binary analysis (Cancer versus Non-cancer) for a multiclass analysis (Malignant, Benign, Cyst and Normal), the obtained results for the Malignant Class were 63.46% of accuracy, 80.77% of sensitivity and 86.54% of specificity.
|
179 |
Reconhecimento Automático de Expressões Faciais Baseado em Modelagem EstatísticaPEDROSO, F. J. C. 28 March 2013 (has links)
Made available in DSpace on 2018-08-02T00:00:57Z (GMT). No. of bitstreams: 1
tese_4712_DissPedroso.pdf: 11141579 bytes, checksum: 9c20fa3ab46c7740a5a5276bd6249932 (MD5)
Previous issue date: 2013-03-28 / As expressões faciais são alvos constante de estudos desde Charles Darwin, em 1872. Pesquisas
na área de psicologia e, em destaque, os trabalhos de Paul Ekman afirmam que
existem expressões faciais universais básicas e elas são manifestadas em todos os seres humanos
independente de fatores como gênero, idade, cultura e ambiente social. Ainda pode-se
criar novas expressões mais complexas combinando as expressões fundamentais de alegria,
tristeza, medo, nojo, raiva, surpresa e desprezo, além da face neutra. O assunto ainda é
atual, uma vez que há uma grande necessidade de implementar interfaces homem-máquinas
(IHM) capazes de identificar a expressão de um indivíduo e atribuir uma saída condizente
com a situação observada. Pode-se citar como exemplos iterações homem-robô, sistemas
de vigilância e animações gráficas. Nesse trabalho é proposto um sistema automático para
identificar expressões faciais. O sistema é dividido em três etapas: localização de face, extração
de características e identificação da expressão facial. O banco de dados Japanese
Facial Expression Database - JAFFE foi utilizado para treinamentos e testes . A localização
da face é realizada de maneira automática através do framework proposto por Viola-Jones e
é estimado o centro da face. Na sequência, utiliza-se o algoritmo Active Appearance Model -
AAM para descrever estatisticamente um modelo de forma e textura para o banco de dados.
Com esse descritor é possível gerar um vetor de aparência capaz de representar, com redução
de dimensão, uma face e, consequentemente, a expressão facial contida nela através de um
algoritmo iterativo de busca a partir de um modelo médio. Esse vetor é utilizado na etapa
de reconhecimento das expressões faciais, onde são testados os classificadores baseados no
vizinho mais próximo k-NN e a máquina de vetores de suporte - SVM com kernel RBF
para tratar o problema de forma não linear. É proposto um mecanismo de busca na saída
do bloco de detecção de faces para diminuir o erro do modelo, pois o sucesso do algoritmo
é altamente dependente do ponto inicial de busca. Também é proposto uma mudança no
algoritmo AAM para redução do erro de convergência entre a imagem real e o modelo sintético
que a representa, abordando o problema de forma não linear. Testes foram realizados
utilizando a validação cruzada leave one out para todas as expressões faciais e o classificador
SVM-RBF. O sistema apresentou um taxa de acerto de 55,4%, com sensibilidade 60,25% e
especificidade 93,95%.
|
180 |
Visualização de informação aplicada a resultados de mecanismos de buscaZaina, Claudio Maximiliano 22 July 2005 (has links)
Orientador: Maria Cecilia Calani Baranauskas / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-05T04:27:06Z (GMT). No. of bitstreams: 1
Zaina_ClaudioMaximiliano_M.pdf: 2330005 bytes, checksum: 1af5211319b60dbc78d826acd6854373 (MD5)
Previous issue date: 2005 / Resumo: A quantidade de informação disponível atualmente na Internet é tão vasta que localizar uma informação desejada em tal depósito toma-se uma tarefa quase impossível. Ferramentas conhecidas como mecanismos de busca retomam, a partir de palavras-chave fomecidas pelo usuário, uma lista de documentos que, supostamente, contêm a informação desejada, relacionada com as palavras-chave fomecidas. Entretanto, multiplicidade semântica das palavras-chave, jargões, entre outros problemas, fazem com que uma grande quantidade de documentos recuperados não tenham de modo algum relação com aquilo que se deseja obter. Para contornar este problema, novas abordagens têm sido introduzidas: categorização dos resultados dos mecanismos de busca, emprego de análise de aglomerados nos documentos etc. Este trabalho utiliza técnicas de Visualização de Informação para propor uma representação que auxilie o usuário a identificar visualmente, dentre os itens tidos como resposta, quais deles realmente têm possibilidade de sanar suas necessidades. Após uma pesquisa que visou identificar o perfil e os hábitos dos usuários de mecanismos de busca, desenvolvemos um sistema que incorpora vários princípios de Visualização de Informação. O sistema ReVEL - Representação Visual de Elementos de Lista - provê uma camada de representação gráfica sobre a lista de respostas obtida pelo usuário à consulta feita a mecanismos de busca. Testes de Usabilidade conduzidos com o sistema proposto mostraram sua efetividade comparativamente a sistemas similares e sugeriram novos elementos para continuidade de pesquisa / Abstract: The amount of information available in the Internet is so vast that fmding the desired information in such an unstructured repository easily becomes almost impossible. Search engipes were developed and made available to help people locate documents in the Web. These tools collect keywords ITom the user and return a document list that, supposedly, brings the desired information. A problem arise when ambiguous words are used as keywords: their multiple meanings make the search engine return lots of documents unrelated to the given keywords. New techniques were used to distinguish useful ITom ordinary documents: categorization of the search results itens, cluster analisys in the documents etc. This work applies Information Visualization techniques in order to aid the user identifY, in a visual way, the needed documents among all the others ITom the query. We ran a small survey aiming to acquire some information about the search engine user and his/her behavior. Then, we developed a system that makes uses of Information Visualization principIes expecting this to be an aid for the user. The system named Re VEL - Representação Visual de Elementos de Lista (Visual Representation ofList Elements) - provides a graphical representation layer over the result list returned to the user by the search engine. Usability tests realized with this proposed system show its effectiveness in comparation to similar systems. The results of these user tests also suggest directions for future work / Mestrado / Mestre em Ciência da Computação
|
Page generated in 0.0602 seconds