• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1029
  • 184
  • 34
  • 24
  • 24
  • 24
  • 19
  • 14
  • 5
  • 4
  • 4
  • 4
  • 1
  • Tagged with
  • 1259
  • 1020
  • 595
  • 413
  • 218
  • 178
  • 175
  • 151
  • 145
  • 135
  • 130
  • 129
  • 124
  • 123
  • 115
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

Ajudando a lembrar : aprendizado social e conformidade de mem?ria

Cecconello, William Weber 10 January 2017 (has links)
Submitted by Caroline Xavier (caroline.xavier@pucrs.br) on 2017-05-04T17:20:09Z No. of bitstreams: 1 DIS_WILLIAM_WEBER_CECCONELLO_PARCIAL.pdf: 1002071 bytes, checksum: 75371c2d716519fe9a163242c2963b40 (MD5) / Made available in DSpace on 2017-05-04T17:20:09Z (GMT). No. of bitstreams: 1 DIS_WILLIAM_WEBER_CECCONELLO_PARCIAL.pdf: 1002071 bytes, checksum: 75371c2d716519fe9a163242c2963b40 (MD5) Previous issue date: 2017-01-10 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior - CAPES / Conselho Nacional de Pesquisa e Desenvolvimento Cient?fico e Tecnol?gico - CNPq / This Master's thesis consists of two studies, one theoretical and one empirical, about memory conformity. Memory conformity occurs when information one person's report leads other people exposed it to remember the same information. The theoretical session consists of a narrative review presenting how and why memory conformity occurs, suggesting that this effect is a social learning product. This session approach evolutionary causes of memory conformity, suggesting a broader look to this phenomenon. The empirical session tests a new experimental paradigm to study memory conformity effect on learning, testing if choosing to know other?s answer increases the probability of remembering this information in the future. Thus, we performed an experiment with 124 undergraduate students divided among three groups. One group chose when access another?s person answer (n=47), another group was randomply exposed to another?s person answer (n=53) and a control group was not exposed to another?s person answer. The main results indicated that choosing to access another?s person answer lead to a immediate improve in the mean of correct information retrieved. This effect did not last when the subjects were tested again, four days after the exposition to another?s person answer, and the control group presented a higher mean of correct information retrieved. Also, choosing access another?s persons answer did not increase the memory conformity effect in long term memory. The findings suggest that information based mainly in other?s answer are less likely to remain in long term memory, when compared to information based mainly in one?s own memory. / A presente disserta??o de Mestrado ? constitu?da por dois estudos, um te?rico e um emp?rico sobre o efeito de conformidade de mem?ria. A conformidade de mem?ria ocorre quando a informa??o recordada por uma pessoa leva as demais pessoas expostas a este relato a recordarem a mesma informa??o. A se??o te?rica consiste em uma revis?o narrativa com o objetivo de apresentar como e porque a conformidade de mem?ria ocorre, propondo que este efeito seja produto da aprendizagem social. Esta se??o aborda as fun??es evolutivas que levam ? conformidade de mem?ria, propondo um olhar mais amplo para este fen?meno. A se??o emp?rica prop?e um novo paradigma experimental para investigar o efeito de conformidade de mem?ria no aprendizado, verificando se escolher ter acesso ? resposta de outra pessoa pode aumentar as chances desta informa??o ser recordada no futuro. Com este prop?sito, foi realizado um experimento com 124 estudantes universit?rios divididos em tr?s grupos. Um grupo p?de escolher quando ter acesso ? resposta de outra pessoa (n=47), um grupo foi exposto aleatoriamente ?s respostas de outra pessoa (n=53), e um grupo controle que n?o foi exposto ?s respostas de outra pessoa (n=24). Os principais achados foram que escolher quando acessar a respostas de outra pessoa levou a uma melhora imediata na m?dia de informa??es recordadas corretamente. Este feito n?o se manteve quando testados novamente, quatro dias depois ap?s a exposi??o ao relato de outra pessoa, sendo que o grupo controle apresentou m?dia de acertos maior que os demais grupos. Ainda, a possibilidade de escolher acessar a resposta de outra pessoa n?o manteve o efeito de conformidade na mem?ria de longo prazo. Os resultados sugerem que informa??es baseadas principalmente no relato de outras pessoas t?m menores chances de se manter na mem?ria de longo prazo, se comparadas a informa??es baseadas na pr?pria mem?ria.
272

An?lise de grafos aplicada a produ??es textuais de alunos do ensino fundamental e seu potencial preditivo da dislexia do desenvolvimento

Luz, Joana Paim da 25 January 2018 (has links)
Submitted by PPG Letras (letraspg@pucrs.br) on 2018-06-12T13:10:31Z No. of bitstreams: 1 Disserta??o_ Joana Paim da Luz.pdf: 3695641 bytes, checksum: 6a5e3a119df6d2f32296071f3b7bf759 (MD5) / Approved for entry into archive by Sheila Dias (sheila.dias@pucrs.br) on 2018-06-22T17:17:03Z (GMT) No. of bitstreams: 1 Disserta??o_ Joana Paim da Luz.pdf: 3695641 bytes, checksum: 6a5e3a119df6d2f32296071f3b7bf759 (MD5) / Made available in DSpace on 2018-06-22T17:25:39Z (GMT). No. of bitstreams: 1 Disserta??o_ Joana Paim da Luz.pdf: 3695641 bytes, checksum: 6a5e3a119df6d2f32296071f3b7bf759 (MD5) Previous issue date: 2018-01-25 / Conselho Nacional de Pesquisa e Desenvolvimento Cient?fico e Tecnol?gico - CNPq / Dyslexia is a learning disorder of neurobiological origin, which is characterized by an unexpected difficulty when decoding written texts, due to an unsatisfactory learning of the alphabetical principle and a deficient graphological-phonemic association. The ways dyslexia affects writing skills have been scientifically explored so as to investigate linguistic aspects associated with spelling and classes of words used by subjects who suffer from dyslexia. Quantitative studies focused on measuring the structure of their texts are unknown. The main objective of this study was to identify patterns of textual connectivity in good readers, bad readers and dyslexic children, based on the analysis of graph measures extracted from their texts and Machine Learning techniques. Essentially, it sought to investigate (a) whether the type of transcription of the texts - corrected or original - and the normalization of the graph attributes by the number of words of each text interfere significantly in sorting the children in their fluency and schooling groups; (b) whether there is significant differences among good readers?, bad readers? and the dyslexic participants? graph attributes; (c) whether measures of each year of data collection converge to similar values and if they are significantly different among the years; (d) whether the graph attributes obtained with Speech Graphs, when associated with Machine Learning techniques, can predict reading fluency levels and, specifically, developmental dyslexia. The hypotheses for the questions listed were all affirmative. To verify them, texts produced by 181 children and adolescents from the ACERTA Project were transcribed and divided in two experimental groups: Ambulatory (N = 52, all dyslexic) and Schools (N = 129, subdivided into good, medium and bad readers). These transcribed texts served as input for Speech Graphs software, which extracted graph attributes representative of the structure of each text. Descriptive and inferential statistical analyzes revealed (a) the prevalence of significance among graphs attributes extracted from non-normalized original transcripts (63.07% significance between analyzes); (b) patterns of textual connectivity by each reading fluency group and (c) patterns of textual connectivity by year of data collection based on significant differences found in five graphs attributes - nodes, edges, largest connected component, density and average smallest path; (d) 2016 as the best year to sort the children in their reading fluency groups by making use of SVM classifiers, considering they reached the highest accuracy (85%), recall (83%), precision (85%) and F1 score (83%) when sorting good readers and dyslexic children texts, based on 2016 graph measures. These findings provide evidences that indicate the possibility to explore and improve a new methodological frame to assess reading fluency through written texts and based on Graph Theory. / A dislexia ? um transtorno de aprendizagem de natureza neurobiol?gica, caracterizado por uma inesperada dificuldade em decodificar e compreender textos escritos, decorrente de um aprendizado insatisfat?rio do princ?pio alfab?tico e de uma associa??o grafo-fon?mica deficit?ria. A explora??o cient?fica da express?o escrita de disl?xicos tem se dedicado, em grande medida, a investigar aspectos lingu?sticos associados ? ortografia e ?s classes de palavras empregadas por sujeitos com dislexia. Estudos de natureza quantitativa focados em mensurar a estrutura dos textos deste grupo cl?nico s?o desconhecidos. O principal objetivo do presente trabalho foi identificar padr?es de conectividade textual em bons leitores, maus leitores e disl?xicos, a partir da an?lise de medidas de grafo extra?das de suas produ??es textuais e de t?cnicas de Aprendizado de M?quina. Essencialmente, buscou-se investigar (a) se o tipo de transcri??o dos textos - corrigidos ou originais - e a normaliza??o das medidas de grafo pelo n?mero de palavras interferem significativamente na classifica??o das crian?as entre grupos de flu?ncia e escolaridade; (b) se h? diferen?as significativas entre os atributos do grafo dos bons leitores, maus leitores e disl?xicos; (c) se as medidas de cada ano de coleta de dados convergem para valores semelhantes e se s?o significativamente diferentes entre os anos; (d) se os atributos de grafo obtidos com a utiliza??o do Speech Graphs, quando associados ?s t?cnicas de Aprendizado de M?quina, podem prever n?veis de flu?ncia de leitura e, especificamente, a dislexia de desenvolvimento. As hip?teses, para as quest?es listadas, eram todas afirmativas. Para verific?-las, os textos produzidos por 181 crian?as e adolescentes do Projeto ACERTA foram transcritos e divididos em dois grupos experimentais: Ambulat?rio (N = 52, todos disl?xicos) e Escolas (N = 129, subdividido em leitores bons, m?dios e maus leitores). Esses textos transcritos serviram de entrada para o software Speech Graphs, que extraiu atributos de grafo representativos da estrutura de cada texto. As an?lises estat?sticas descritivas e inferenciais revelaram (a) a preval?ncia de signific?ncia dos atributos de grafo extra?dos de transcri??es originais n?o normalizadas (63,07% de signific?ncia entre an?lises); (b) padr?es de conectividade textual por grupo de flu?ncia de leitura e (c) padr?es de conectividade textual por cada ano de coleta de dados com base em diferen?as significativas encontradas em cinco atributos de grafo: n?s, arestas, maior componente conectado, densidade e caminho menor m?dio; (d) 2016 como o melhor ano para classificar as crian?as em seus grupos de flu?ncia de leitura fazendo uso de classificadores SVM, considerando que eles alcan?aram a maior acur?cia (85%), revoca??o (83%), precis?o (85%) e pontua??o F1 ( 83%) ao classificar textos de bons leitores e de crian?as disl?xicas, com base em medidas de grafo de 2016. Estas descobertas fornecem evid?ncias que indicam a possibilidade de se explorar e aprimorar um novo aparato te?rico-metodol?gico para avaliar a flu?ncia de leitura, a partir de textos escritos e com base na Teoria dos Grafos.
273

Performance optimization of geophysics stencils on HPC architectures / Optimização de desempenho de estênceis geofísicos sobre arquiteturas HPC

Abaunza, Víctor Eduardo Martínez January 2018 (has links)
A simulação de propagação de onda é uma ferramenta crucial na pesquisa de geofísica (para análise eficiente dos terremotos, mitigação de riscos e a exploração de petróleo e gáz). Devido à sua simplicidade e sua eficiência numérica, o método de diferenças finitas é uma das técnicas implementadas para resolver as equações da propagação das ondas. Estas aplicações são conhecidas como estênceis porque consistem num padrão que replica a mesma computação num domínio multidimensional de dados. A Computação de Alto Desempenho é requerida para solucionar este tipo de problemas, como consequência do grande número de pontos envolvidos nas simulações tridimensionais do subsolo. A optimização do desempenho dos estênceis é um desafio e depende do arquitetura usada. Neste contexto, focamos nosso trabalho em duas partes. Primeiro, desenvolvemos nossa pesquisa nas arquiteturas multicore; analisamos a implementação padrão em OpenMP dos modelos numéricos da transferência de calor (um estêncil Jacobi de 7 pontos), e o aplicativo Ondes3D (um simulador sísmico desenvolvido pela Bureau de Recherches Géologiques et Minières); usamos dois algoritmos conhecidos (nativo, e bloqueio espacial) para encontrar correlações entre os parâmetros da configuração de entrada, na execução, e o desempenho computacional; depois, propusemos um modelo baseado no Aprendizado de Máquina para avaliar, predizer e melhorar o desempenho dos modelos estênceis na arquitetura usada; também usamos um modelo de propagação da onda acústica fornecido pela empresa Petrobras; e predizemos o desempenho com uma alta precisão (até 99%) nas arquiteturas multicore. Segundo, orientamos nossa pesquisa nas arquiteturas heterogêneas, analisamos uma implementação padrão do modelo de propagação de ondas em CUDA, para encontrar os fatores que afetam o desempenho quando o número de aceleradores é aumentado; então, propusemos uma implementação baseada em tarefas para amelhorar o desempenho, de acordo com um conjunto de configuração no tempo de execução (algoritmo de escalonamento, tamanho e número de tarefas), e comparamos o desempenho obtido com as versões de só CPU ou só GPU e o impacto no desempenho das arquiteturas heterogêneas; nossos resultados demostram um speedup significativo (até 25) em comparação com a melhor implementação disponível para arquiteturas multicore. / Wave modeling is a crucial tool in geophysics, for efficient strong motion analysis, risk mitigation and oil & gas exploration. Due to its simplicity and numerical efficiency, the finite-difference method is one of the standard techniques implemented to solve the wave propagation equations. This kind of applications is known as stencils because they consist in a pattern that replicates the same computation on a multi-dimensional domain. High Performance Computing is required to solve this class of problems, as a consequence of a large number of grid points involved in three-dimensional simulations of the underground. The performance optimization of stencil computations is a challenge and strongly depends on the underlying architecture. In this context, this work was directed toward a twofold aim. Firstly, we have led our research on multicore architectures and we have analyzed the standard OpenMP implementation of numerical kernels from the 3D heat transfer model (a 7-point Jacobi stencil) and the Ondes3D code (a full-fledged application developed by the French Geological Survey). We have considered two well-known implementations (naïve, and space blocking) to find correlations between parameters from the input configuration at runtime and the computing performance; thus, we have proposed a Machine Learning-based approach to evaluate, to predict, and to improve the performance of these stencil models on the underlying architecture. We have also used an acoustic wave propagation model provided by the Petrobras company and we have predicted the performance with high accuracy on multicore architectures. Secondly, we have oriented our research on heterogeneous architectures, we have analyzed the standard implementation for seismic wave propagation model in CUDA, to find which factors affect the performance; then, we have proposed a task-based implementation to improve the performance, according to the runtime configuration set (scheduling algorithm, size, and number of tasks), and we have compared the performance obtained with the classical CPU or GPU only versions with the results obtained on heterogeneous architectures.
274

Aprendizado de máquina em redes complexas / Machine learning in complex networks

Fabricio Aparecido Breve 23 August 2010 (has links)
Redes complexas é um campo de pesquisa científica recente e bastante ativo que estuda redes de larga escala com estruturas topológicas não triviais, tais como redes de computadores, redes de telecomunicações, redes de transporte, redes sociais e redes biológicas. Muitas destas redes são naturalmente divididas em comunidades ou módulos e, portanto, descobrir a estrutura dessas comunidades é um dos principais problemas abordados no estudo de redes complexas. Tal problema está relacionado com o campo de aprendizado de máquina, que tem como interesse projetar e desenvolver algoritmos e técnicas que permitem aos computadores aprender, ou melhorar seu desempenho através da experiência. Alguns dos problemas identificados nas técnicas tradicionais de aprendizado incluem: dificuldades em identificar formas irregulares no espaço de atributos; descobrir estruturas sobrepostas de grupos ou classes, que ocorre quando elementos pertencem a mais de um grupo ou classe; e a alta complexidade computacional de alguns modelos, que impedem sua aplicação em bases de dados maiores. Neste trabalho tratamos tais problemas através do desenvolvimento de novos modelos de aprendizado de máquina utilizando redes complexas e dinâmica espaço-temporal, com capacidade para tratar grupos e classes sobrepostas, além de fornecer graus de pertinência para cada elemento da rede com relação a cada cluster ou classe. Os modelos desenvolvidos tem desempenho similar ao de algoritmos do estado da arte, ao mesmo tempo em que apresentam ordem de complexidade computacional menor do que a maioria deles / Complex networks is a recent and active scientific research field, which concerns large scale networks with non-trivial topological structure, such as computer networks, telecommunication networks, transport networks, social networks and biological networks. Many of these networks are naturally divided into communities or modules and, therefore, uncovering their structure is one of the main problems related to complex networks study. This problem is related with the machine learning field, which is concerned with the design and development of algorithms and techniques which allow computers to learn, or increase their performance based on experience. Some of the problems identified in traditional learning techniques include: difficulties in identifying irregular forms in the attributes space; uncovering overlap structures of groups or classes, which occurs when elements belong to more than one group or class; and the high computational complexity of some models, which prevents their application in larger data bases. In this work, we deal with these problems through the development of new machine learning models using complex networks and space-temporal dynamics. The developed models have performance similar to those from some state-of-the-art algorithms, at the same time that they present lower computational complexity order than most of them
275

Evolutionary ensembles for imbalanced learning / Comitês evolucionários para aprendizado desbalanceado

Everlandio Rebouças Queiroz Fernandes 13 August 2018 (has links)
In many real classification problems, the data set used for model induction is significantly imbalanced. This occurs when the number of examples of some classes is much lower than the other classes. Imbalanced datasets can compromise the performance of most classical classification algorithms. The classification models induced by such datasets usually present a strong bias towards the majority classes, tending to classify new instances as belonging to these classes. A commonly adopted strategy for dealing with this problem is to train the classifier on a balanced sample from the original dataset. However, this procedure can discard examples that could be important for a better class discrimination, reducing classifier efficiency. On the other hand, in recent years several studies have shown that in different scenarios the strategy of combining several classifiers into structures known as ensembles has proved to be quite effective. This strategy has led to a stable predictive accuracy and, in particular, to a greater generalization ability than the classifiers that make up the ensemble. This generalization power of classifier ensembles has been the focus of research in the imbalanced learning field in order to reduce the bias toward the majority classes, despite the complexity involved in generating efficient ensembles. Optimization meta-heuristics, such as evolutionary algorithms, have many applications for ensemble learning, although they are little used for this purpose. For example, evolutionary algorithms maintain a set of possible solutions and diversify these solutions, which helps to escape out of the local optimal. In this context, this thesis investigates and develops approaches to deal with imbalanced datasets, using ensemble of classifiers induced by samples taken from the original dataset. More specifically, this theses propose three solutions based on evolutionary ensemble learning and a fourth proposal that uses a pruning mechanism based on dominance ranking, a common concept in multiobjective evolutionary algorithms. Experiments showed the potential of the developed solutions. / Em muitos problemas reais de classificação, o conjunto de dados usado para a indução do modelo é significativamente desbalanceado. Isso ocorre quando a quantidade de exemplos de algumas classes é muito inferior às das outras classes. Conjuntos de dados desbalanceados podem comprometer o desempenho da maioria dos algoritmos clássicos de classificação. Os modelos de classificação induzidos por tais conjuntos de dados geralmente apresentam um forte viés para as classes majoritárias, tendendo classificar novas instâncias como pertencentes a essas classes. Uma estratégia comumente adotada para lidar com esse problema, é treinar o classificador sobre uma amostra balanceada do conjunto de dados original. Entretanto, esse procedimento pode descartar exemplos que poderiam ser importantes para uma melhor discriminação das classes, diminuindo a eficiência do classificador. Por outro lado, nos últimos anos, vários estudos têm mostrado que em diferentes cenários a estratégia de combinar vários classificadores em estruturas conhecidas como comitês tem se mostrado bastante eficaz. Tal estratégia tem levado a uma acurácia preditiva estável e principalmente a apresentar maior habilidade de generalização que os classificadores que compõe o comitê. Esse poder de generalização dos comitês de classificadores tem sido foco de pesquisas no campo de aprendizado desbalanceado, com o objetivo de diminuir o viés em direção as classes majoritárias, apesar da complexidade que envolve gerar comitês de classificadores eficientes. Meta-heurísticas de otimização, como os algoritmos evolutivos, têm muitas aplicações para o aprendizado de comitês, apesar de serem pouco usadas para este fim. Por exemplo, algoritmos evolutivos mantêm um conjunto de soluções possíveis e diversificam essas soluções, o que auxilia na fuga dos ótimos locais. Nesse contexto, esta tese investiga e desenvolve abordagens para lidar com conjuntos de dados desbalanceados, utilizando comitês de classificadores induzidos a partir de amostras do conjunto de dados original por meio de metaheurísticas. Mais especificamente, são propostas três soluções baseadas em aprendizado evolucionário de comitês e uma quarta proposta que utiliza um mecanismo de poda baseado em ranking de dominância, conceito comum em algoritmos evolutivos multiobjetivos. Experimentos realizados mostraram o potencial das soluções desenvolvidas.
276

Identificação de pragas na agricultura utilizando APIs de visão computacional

Vilas Boas, Lenilson Lemos 26 November 2018 (has links)
Submitted by Filipe dos Santos (fsantos@pucsp.br) on 2018-12-14T11:45:48Z No. of bitstreams: 1 Lenilson Lemos Vilas Boas.pdf: 4297593 bytes, checksum: 1aa03b41410e014c8021095ee73b5e7b (MD5) / Made available in DSpace on 2018-12-14T11:45:48Z (GMT). No. of bitstreams: 1 Lenilson Lemos Vilas Boas.pdf: 4297593 bytes, checksum: 1aa03b41410e014c8021095ee73b5e7b (MD5) Previous issue date: 2018-11-26 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Systems that use Computer Vision Application Program Interfaces (APIs) can learn and identify patterns and thus perform associations to retrieve additional data. They are able to obtain results much faster than any human agent is. The study uses three computational vision APIs and evaluates their application in the identification of four plant leave diseases. Based on a corpus of fifty images, the API training was conducted in two stages, the first with thirty images and the second training with twenty more images. After the two trainings, the results of the diseases were collected for each API studied, which made it possible to evaluate the identification capacity and its evolution of learning after each training. The results corroborated the hypothesis. They gave evidence of the feasibility of identification of plant leaf diseases by means of computer vision APIs / Sistemas que utilizam APIs (Interfaces de Programação de Aplicação) de visão computacional têm a capacidade de aprender e identificar padrões, e assim realizar associações com outros resultados, sendo capaz de apresentar resultados mais rápidos do que uma pessoa. O trabalho identificou três APIs de visão computacional e avaliou sua aplicação na identificação de doenças em folhas de plantas, comparando os resultados de quatro diferentes doenças de plantas. Os treinamentos das APIs foram realizados em duas etapas, sendo o primeiro treinamento com uma quantidade de imagens e o segundo treinamento adicionando mais imagens. Após os dois treinamentos foram coletados os resultados das doenças para cada API estudada, sendo possível avaliar a capacidade de identificação e sua evolução de aprendizado após cada um dos treinamentos. Os resultados obtidos corroboram as expectativas, apontando para a viabilidade de identificação de doenças em folhas de plantas através de APIs de visão computacional
277

Detecção e classificação de objetos em imagens para rastreamento de veículos / Detection and classification of objects in images for vehicle tracking

Montanari, Raphael 28 August 2015 (has links)
A robótica é uma área multidisciplinar que cresce continuamente com a contribuição do avanço científico e aumento frequente do poder computacional do hardware. As pesquisas em robótica estão divididas em diversas linhas de investigação. A visão computacional é uma das linhas de pesquisa de grande interesse devido à farta variedade de métodos e técnicas oferecidas. Um dos maiores desafios para os robôs é descobrir e analisar o ambiente em que estão inseridos. Dentre os principais sensores que podem ser utilizados, as câmeras digitais oferecem um bom benefício: podem ser leves, pequenas e baratas, características fundamentais para alguns robôs. Este trabalho propõe o desenvolvimento e análise de um sistema de visão computacional para rastrear veículos usando sistemas de detecção e classificação de segmentos em imagens. Para atingir os objetivos são investigados métodos de extração de informações das imagens, modelos de atenção visual e modelos de aprendizado bioinspirados para detecção e classificação de veículos. Para a tarefa de atenção visual foram utilizadas as técnicas de geração de mapas de saliência iNVT e VOCUS2, enquanto que para classificação foi empregada a técnicas bag-of-features e finalmente, para o rastreamento do veículo especificado, durante seu percurso em uma rodovia, foi adotada a técnica Camshift com filtro de Kalman. O sistema desenvolvido foi implementado com um robô aéreo e testado com imagens reais contendo diferentes veículos em uma rodovia e os resultados de classificação e rastreamento obtidos foram muito satisfatórios. / Robotics is a multidisciplinary area that continually grows with the contribution of scientific advancement and frequent increase in computational hardware power. Research in robotics are divided into several lines of investigation. Computer vision is one of the research areas of great interest due to the abundant variety of methods and techniques offered. One of the biggest challenges for the robots is to discover and analyze the environment in which they are inserted. Among the main sensors that can be used, digital cameras offer good benefits: they can be lightweitgh, small and cheap, which are fundamental characteristics for some robots. This work undertakes the development and analysis of a computer vision system to track vehicles by detecting and classifying segments in imaging systems. To achieve the objectives, methods on image information extraction, visual attention models and bioinspired learning models were studied for detection and classification of vehicles. For the task of visual attention the INVT and VOCUS2 models were used to generate saliency maps, while for classification was applied the bag-of-features method and finally to track the specified vehicle during its journey on a highway, it was adopted CamShift technique joint with a Kalman filter. The developed system was implemented with an aerial robot and tested with real images containing different vehicles on a highway and the results of classification and tracking obtained were very satisfactory.
278

Aprendizado de máquina parcialmente supervisionado multidescrição para realimentação de relevância em recuperação de informação na WEB / Partially supervised multi-view machine learning for relevance feedback in WEB information retrieval

Soares, Matheus Victor Brum 28 May 2009 (has links)
Atualmente, o meio mais comum de busca de informações é a WEB. Assim, é importante procurar métodos eficientes para recuperar essa informação. As máquinas de busca na WEB usualmente utilizam palavras-chaves para expressar uma busca. Porém, não é trivial caracterizar a informação desejada. Usuários diferentes com necessidades diferentes podem estar interessados em informações relacionadas, mas distintas, ao realizar a mesma busca. O processo de realimentação de relevância torna possível a participação ativa do usuário no processo de busca. A idéia geral desse processo consiste em, após o usuário realizar uma busca na WEB permitir que indique, dentre os sites encontrados, quais deles considera relevantes e não relevantes. A opinião do usuário pode então ser considerada para reordenar os dados, de forma que os sites relevantes para o usuário sejam retornados mais facilmente. Nesse contexto, e considerando que, na grande maioria dos casos, uma consulta retorna um número muito grande de sites WEB que a satisfazem, das quais o usuário é responsável por indicar um pequeno número de sites relevantes e não relevantes, tem-se o cenário ideal para utilizar aprendizado parcialmente supervisionado, pois essa classe de algoritmos de aprendizado requer um número pequeno de exemplos rotulados e um grande número de exemplos não-rotulados. Assim, partindo da hipótese que a utilização de aprendizado parcialmente supervisionado é apropriada para induzir um classificador que pode ser utilizado como um filtro de realimentação de relevância para buscas na WEB, o objetivo deste trabalho consiste em explorar algoritmos de aprendizado parcialmente supervisionado, mais especificamente, aqueles que utilizam multidescrição de dados, para auxiliar na recuperação de sites na WEB. Para avaliar esta hipótese foi projetada e desenvolvida uma ferramenta denominada C-SEARCH que realiza esta reordenação dos sites a partir da indicação do usuário. Experimentos mostram que, em casos que buscas genéricas, que o resultado possui um bom diferencial entre sites relevantes e irrelevantes, o sistema consegue obter melhores resultados para o usuário / As nowadays the WEB is the most common source of information, it is very important to find reliable and efficient methods to retrieve this information. However, the WEB is a highly volatile and heterogeneous information source, thus keyword based querying may not be the best approach when few information is given. This is due to the fact that different users with different needs may want distinct information, although related to the same keyword query. The process of relevance feedback makes it possible for the user to interact actively with the search engine. The main idea is that after performing an initial search in the WEB, the process enables the user to indicate, among the retrieved sites, a small number of the ones considered relevant or irrelevant according with his/her required information. The users preferences can then be used to rearrange sites returned in the initial search, so that relevant sites are ranked first. As in most cases a search returns a large amount of WEB sites which fits the keyword query, this is an ideal situation to use partially supervised machine learning algorithms. This kind of learning algorithms require a small number of labeled examples, and a large number of unlabeled examples. Thus, based on the assumption that the use of partially supervised learning is appropriate to induce a classifier that can be used as a filter for relevance feedback in WEB information retrieval, the aim of this work is to explore the use of a partially supervised machine learning algorithm, more specifically, one that uses multi-description data, in order to assist the WEB search. To this end, a computational tool called C-SEARCH, which performs the reordering of the searched results using the users feedback, has been implemented. Experimental results show that in cases where the keyword query is generic and there is a clear distinction between relevant and irrelevant sites, which is recognized by the user, the system can achieve good results
279

Aprendizado nebuloso híbrido e incremental para classificar pixels por cores. / Hybrid and incremental fuzzy learning to classify pixels by colors.

Bonventi Junior, Waldemar 30 June 2005 (has links)
Segmentação de uma imagem é um processo de extrema importância em processamento de imagens e consiste em subdividir a imagem em partes constituintes correspondentes a objetos de interesse no domínio de aplicação. Objetos de interesse podem apresentar cores que se caracterizam numa imagem por um conjunto de pixels, que por sua vez possuem um número muito grande de valores cromáticos. Estes conjuntos podem ser denominados por relativamente poucos rótulos lingüísticos atribuídos por seres humanos, caracterizando as cores, representadas por classes. Entretanto, a fronteira entre estas classes é vaga, pois os valores cromáticos que definem a transição de uma cor para outra dependem de diversos fatores do domínio. Esta tese visa contribuir no processo de segmentação de imagens através da proposta de um classificador de pixels exclusivamente por meio do atributo cor. Para lidar com o problema da vagueza entre as classes de cores, emprega-se a teoria dos conjuntos nebulosos. Assim, propõe-se um aprendizado híbrido e incremental de modelos nebulosos de classes de cores constituintes do classificador. O aprendizado híbrido combina os paradigmas de aprendizado supervisionado e não-supervisionado, transferindo a rotulação individual das instâncias (muito custosa) para a rotulação dos grupos de instâncias similares, pelo agente supervisor. Estes grupos são combinados por meio da aplicação de operadores de agregação adequados, que possibilitam uma forma de aprendizado incremental, onde os modelos das classes existentes podem ser revisados ou novas classes, obtidas com a continuidade do treinamento, podem ser incorporadas aos modelos. Propõe-se, ainda, um processo de generalização do modelo, visando sua completude. O classificador proposto foi testado na modelagem da cor da pele humana em imagens adquiridas em condições ambientais controladas e em condições variadas. Os resultados obtidos mostram a eficácia do classificador proposto, obtendo uma detecção robusta e acurada da cor da pele em imagens digitais coloridas. / Image segmentation is a very important process, which aims at subdividing an image in parts that correspond to objects of interest in the application domain. Objects may depict few colors that are represented in an image by a set of pixels presenting a very large range of chromatic values. A relatively small number of human-defined linguistic labels can be assigned to these sets, and these labels characterize colors represented by classes. However, the borders among these classes are fuzzy, since the chromatic values that define the transition from a class to another depend on different domain factors. This thesis contributes in the image segmentation process by proposing a pixel classifier based exclusively on the color attribute. Fuzzy sets theory is used to deal with the problem of fuzziness among color classes. This thesis proposes a hybrid and incremental scheme for learning fuzzy models of color classes included in the classifier. The hybrid-learning scheme combines unsupervised and supervised learning paradigms, transferring the labeling by a supervisor from individual instances (a very computationally costly task) to groups of similar instances. These groups are combined by application of adequate aggregation operators, providing an incremental learning scheme to the classifier, so that models can be revised and new classes can be incorporated into the models. In order to provide completeness to the models, a generalization process is also proposed. The classifier was tested in the human skin color-modeling problem, by using digital color-images captured under controlled and uncontrolled conditions. Experimental results assess its effectiveness, providing a robust and accurate detection of skin color in digital color-images.
280

Transformando textos em mapas cognitivos: desenvolvimento e um exemplo de aplicação / Transforming texts in cognitive maps: development and an application example

Junqueira, Marianna Meirelles 14 June 2013 (has links)
O principal objetivo dessa pesquisa consistiu em desenvolver e analisar uma ferramenta de transformação de textos escritos por estudantes em mapas cognitivos para fornecer de forma visual, global e sintética, uma visão das principais relações conceituais citadas em um conjunto de textos. A ferramenta foi estruturada em dois momentos: primeiramente os textos foram lidos para a geração de uma matriz de associação que representa as relações encontradas entre cada par de conceitos. Em seguida, as matrizes foram somadas e, a partir da matriz final, foram construídos diferentes tipos de mapas cognitivos. Para o desenvolvimento de tal ferramenta, foram coletados dados na disciplina Introdução ao Ensino de Química do curso de licenciatura em química do IQ-USP. Essa disciplina foi organizada em três módulos denominados: natureza da ciência, concepções de ensino e aprendizagem, e natureza do conhecimento químico e a aprendizagem da química. No final de cada módulo, foi aplicada uma questão dissertativa com uma lista de conceitos pré-selecionados que objetivava conhecer as relações conceituais expressas pelos estudantes sobre o tema em questão. A partir das respostas dos alunos foram realizados alguns testes: (i) com o software ALA-Reader® e os seus modos de leitura L e S para a quantificação das relações entre conceitos presentes nos textos e geração da matriz de associação; (ii) para verificação da influência da natureza dos textos na contabilização das relações entre conceitos e na elaboração dos mapas e (iii) para a obtenção das representações gráficas do tipo vizinho(s) mais próximo(s) e corte percentual representativo. A partir dos testes realizados, foi possível concluir que o modo de leitura S do programa ALA-Reader® é mais coerente e deve ser utilizado para a leitura dos textos. Além disso, a matriz de associação gerada depende essencialmente da estrutura do texto em questão - texto original ou texto modificado para proposições, tendo em vista a diferença na contabilização das relações par a par encontradas nos textos. Os dois tipos de redes de conceitos apresentam diferentes focos, porém, podem ser considerados complementares. As redes vizinho(s) mais próximo(s) se mostraram interessantes para análises que requerem todos os conceitos fornecidos ou almejam buscar as relações feitas por determinados conceitos. As redes com corte percentual representativo apresentaram-se auxiliares para investigações que requeiram fazer um recorte nos pontos considerados principais pelos sujeitos. No discorrer do texto, também são apresentados alguns recursos que podem ser acrescidos nas redes de conceitos para auxiliar as análises, como a inserção das frases de ligação gerando um mapa conceitual ou o destaque dos conceitos centrais nas estruturas. Com o objetivo de ilustrar o uso das representações gráficas construídas, foi feita uma breve interpretação dessas no contexto da disciplina na qual os dados foram coletados. A partir dessa análise, foi possível, por exemplo, elencar as principais ideias explicitadas pelos alunos e relacioná-las ao que foi discutido em sala de aula. / The main objective of this research was to develop and analyze a tool to turn texts written by students into cognitive maps to provide a visual, global and synthetic representation of the key conceptual relationships mentioned in a set of texts. The tool was structured in two phases: first the texts were read to generate a proximity file representing the relationships found between each pair of concepts. Then, the proximity files were added and from the final file different types of cognitive maps were built. For the development of this tool, data were collected in the academic discipline entitled Introduction to Teaching Chemistry, for the degree in Chemistry at IQ-USP. This academic discipline was organized in three modules called: nature of science, conceptions of teaching and learning, and the nature of chemical knowledge and Chemistry learning. At the end of each module, an essay question was applied with a list of pre-selected concepts that aimed to investigate the conceptual relations established by the students on the topic in question. From students\' responses some tests were performed: (i) with the ALA-Reader® software and its reading modes L and S to quantify the relationships between concepts present in texts and generate the proximity file, (ii) to verify the influence of the nature of the texts in the accounting of the relationships between concepts and in the elaboration of maps, and (iii) to obtain graphical representations of close neighbors type and representative percentage cut. Based on the tests, it was concluded that the mode S of reading of the ALA Reader® program is more consistent and should be used for the reading of the texts. Furthermore, the proximity file generated depends essentially on the structure of the text in question - the original text or the modified one for propositions, in view of the difference in the accounting of conceptual relations found in the texts. The two types of networks of concepts have different focuses, however, they can be considered complementary. The close neighbors networks were interesting for analysis which require all concepts provided or aim to seek relations established by certain concepts. Networks with representative percentage cut proved to be auxiliary for those investigations which require a cut in the main points considered by the subjects. Throughout the text, some features that can be added to the networks to support the analysis are also presented, such as: the insertion of linking phrases generating a concept map or the highlight of the central concepts in the structures. In order to illustrate the use of graphical representations built, a brief interpretation of them was made based on the context of the academic discipline in which the data were collected. This study enabled, for example, the development of a list the main ideas conveyed by students and the possibility to relate them to what was discussed in class

Page generated in 0.0821 seconds