• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1029
  • 184
  • 34
  • 24
  • 24
  • 24
  • 19
  • 14
  • 5
  • 4
  • 4
  • 4
  • 1
  • Tagged with
  • 1259
  • 1020
  • 595
  • 413
  • 218
  • 178
  • 175
  • 151
  • 145
  • 135
  • 130
  • 129
  • 124
  • 123
  • 115
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
501

Técnicas de regularização para máquinas de aprendizado extremo / Regularization techniques for extreme learning machines

Kulaif, Andrea Carolina Peres, 1988- 26 August 2018 (has links)
Orientador: Fernando José Von Zuben / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-26T07:59:40Z (GMT). No. of bitstreams: 1 Kulaif_AndreaCarolinaPeres_M.pdf: 1163458 bytes, checksum: ce006fc65c25e72acbf0a2efeb2a3450 (MD5) Previous issue date: 2014 / Resumo: Máquinas de Aprendizado Extremo (ELMs, do inglês Extreme Learning Machines) são redes neurais com uma camada de entrada, uma camada intermediária e uma camada de saída. Sua arquitetura é equivalente à do perceptron de múltiplas camadas (MLP, do inglês Multilayer Perceptron), mas os pesos e o número de neurônios da camada intermediária em ELMs são definidos arbitrariamente e a priori, enquanto os pesos da camada de saída são os únicos parâmetros ajustáveis durante o processo de treinamento supervisionado. O ajuste desses pesos da camada de saída leva a um problema de otimização linear, responsável pelo fato de o treinamento de uma ELM ser ao menos uma ordem de magnitude mais rápido do que o treinamento de uma MLP. No entanto, o desempenho das ELMs é bastante influenciado pelo grau de regularização adotado no ajuste dos pesos da camada de saída. Além disso, por serem definidos de forma arbitrária e não estarem susceptíveis a treinamento, geralmente opera-se com um número elevado de neurônios na camada intermediária, sendo muito comum a presença de neurônios redundantes e pouco funcionais, de modo que sua extração não compromete o desempenho da rede neural como um todo. Em vista desse cenário, esta dissertação apresenta contribuições, junto a ELMs voltadas para tarefas de regressão, em duas frentes principais: (1) Definição de um grau apropriado de regularização no cálculo dos pesos da camada de saída de ELMs; e (2) Ajuste do número de neurônios na camada intermediária, pela extração automática de neurônios redundantes ou pouco funcionais. Mostra-se neste trabalho que, diferentemente do que é praticado na literatura, o grau de regularização mais indicado para uma ELM não varia apenas entre problemas de regressão distintos, mas dentro do mesmo problema de regressão, ainda que se mantenha constante o número de neurônios na camada intermediária. Uma vez detectada a necessidade do ajuste do grau de regularização a cada configuração de ELM, propõe-se aqui uma busca unidimensional mais refinada do que aquela já existente na literatura. Quanto à proposta apresentada para definição do número de neurônios na camada intermediária, faz-se uma análise do espaço de características gerado pelos neurônios dessa camada e aplica-se poda de neurônios que pouco ou nada contribuem para gerar este espaço de características. Além disso, propõe-se o emprego de LASSO e Elastic Net como técnicas de regularização, as quais promovem poda adicional de neurônios que não contribuem para a tarefa de regressão. Para as duas contribuições do trabalho, são apresentados resultados experimentais e comparações com outras propostas da literatura. Há um aumento de custo computacional com as propostas deste trabalho, mas é expressivo o ganho em desempenho em alguns cenários / Abstract: Extreme learning machines are neural networks composed of one input layer, one hidden layer, and one output layer. Their architecture is equivalent to the one of the multilayer perceptron, but the weights and the number of hidden neurons in ELMs are defined a priori and in an arbitrary manner, while the weights at the output layer are the only adjustable parameters during supervised learning. The adjustment of the weights at the output layer leads to a linear optimization problem, responsible for the fact that the training of an ELM be at least one order of magnitude faster than training an MLP. However, the performance of ELMs is greatly influenced by the regularization degree adopted when setting the weights of the output layer. Moreover, by being arbitrarily defined and not susceptible to learning, it is usual to adopt a large number of neurons in the hidden layer, thus promoting the presence of redundant and poorly functional neurons, so that their extraction does not compromise the neural network performance as a whole. Under those circumstances, this dissertation presents contributions to ELMs devoted to regression problems on two main fronts: (1) Definition of a proper degree of regularization when computing the weights at the output layer of ELMs; and (2) Adjustment of the number of neurons at the hidden layer, by the automatic extraction of redundant or poorly functional neurons. It is shown in this work that, different from what is done in the literature, the most suitable degree of regularization for an ELM varies not only among different regression problems, but within the same regression problem and even if it is kept constant the number of neurons at the hidden layer. Once detected the need for adjustment of the degree of regularization for each ELM configuration, it is proposed here a one-dimensional search endowed with more refined steps than that available in the literature. Regarding the proposal to properly define the number of neurons in the hidden layer, an analysis of the feature space generated by neurons in the hidden layer is performed and neurons with no or even a shallow contribution to span the feature space are pruned. Furthermore, the use of LASSO and Elastic Net as regularization techniques are proposed here, which promotes additional pruning of neurons that do not contribute to the regression task. For both contributions of this work, experimental results and comparisons with other proposals in the literature are presented. There is an increase in the computational cost with the proposals of this work, but it is significant the gain in performance in some scenarios / Mestrado / Engenharia de Computação / Mestra em Engenharia Elétrica
502

Contribuições ao combate de web spamming / Contributions to the battle against web spamming

Silva, Renato Moraes, 1988- 22 August 2018 (has links)
Orientadores: Akebo Yamakami, Tiago Agostinho de Almeida / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-22T13:22:48Z (GMT). No. of bitstreams: 1 Silva_RenatoMoraes_M.pdf: 4136928 bytes, checksum: 218846058592353cb167c8c2d61e1bfd (MD5) Previous issue date: 2013 / Resumo: Com o crescente aumento do volume de informações disponíveis na Web, as ferramentas de busca tornam-se cada vez mais importantes para os usuários da Internet. Consequentemente, com o objetivo de se tornar mais visíveis, os sites concorrem entre si para ganhar melhores posições nos resultados das buscas feitas por esses usuários. Porém, muitos ganham maior visibilidade através de estratégias que enganam as ferramentas de busca. Esses sites, conhecidos como Web spam, causam prejuízos pessoais e econômicos aos usuários. Diante desse cenário, este trabalho apresenta uma análise do desempenho de diversos métodos de aprendizado de máquina aplicados na detecção automática de Web hosts que propagam Web spam. Os experimentos foram realizados usando duas bases de dados reais, públicas e de grande porte, das quais foram extraídos três diferentes conjuntos de vetores de atributos: baseados no conteúdo das páginas Web, baseados nos links das páginas Web e formados pela transformação dos atributos baseados nos links. Também foi analisada a viabilidade da redução de dimensionalidade do espaço dos atributos. Outra contribuição desse trabalho é a proposta de uma abordagem de classificação de Web spam, em que as predições obtidas com cada tipo de vetor de atributos são combinadas e uma decisão final é obtida usando-se voto majoritário simples. Os resultados obtidos indicam que os métodos de bagging de árvores de decisão, redes neurais perceptron de múltiplas camadas, floresta aleatória e boosting adaptativo de árvores de decisão são promissores na tarefa de detecção de Web spam. Além disso, verificou-se que os métodos de aprendizado tem melhor desempenho quando os vetores de atributos baseados no conteúdo e os vetores formados pela transformação dos atributos baseados nos links são combinados. Por fim, a combinação das predições obtidas com cada tipo de vetor de atributos gera bons resultados e por isso, essa é uma abordagem recomendada para o combate de Web spamming / Abstract: Due to the increasing volume of information available on the Web, search engines become increasingly important to Internet users. Consequently, with the purpose of becoming more visible, the Web sites compete to achieve better positions in the results of the searches made by such users. However, many of them achieve a good visibility through strategies that try to circumvent the search engines. This kind of Web sites are known as Web spam and they are responsible for personal injury and economic losses to users. Given this scenario, this work presents a performance analysis of established machine learning techniques employed to automatically detect Web hosts that disseminate Web spam. The experiments were performed with two real, public and large datasets, from which were extracted three different sets of features vectors: contentbased ones, link-based ones and features vectors generated by the transformation of the link-based features. We also analyzed the viability of the dimensionality reduction of the feature space. Another contribution of this work is the proposal of a Web spam classification approach which combines the predictions achieved by each type of features vector and using a simple majority voting. The results indicate that bagging of decision trees, multilayer perceptron neural networks, random forest and adaptive boosting of decision trees are promising in the task of spam hosts classification. Furthermore, we have conclude that the learning techniques perform better when we have combined the content-based features vectors and the features vectors generated by the transformation of the link-based features. Finally, the combination of the predictions achieved with each type of features vector has achieved superior results and therefore it is a recommended approach to automatically detect Web spam / Mestrado / Automação / Mestre em Engenharia Elétrica
503

Hyper-parameter optimization for manifold regularization learning = Otimização de hiperparâmetros para aprendizado do computador por regularização em variedades / Otimização de hiperparâmetros para aprendizado do computador por regularização em variedades

Becker, Cassiano Otávio, 1977- 08 December 2013 (has links)
Orientador: Paulo Augusto Valente Ferreira / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-23T18:31:10Z (GMT). No. of bitstreams: 1 Becker_CassianoOtavio_M.pdf: 861514 bytes, checksum: 07ea364d206309cbabdf79f51037f481 (MD5) Previous issue date: 2013 / Resumo: Esta dissertação investiga o problema de otimização de hiperparâmetros para modelos de aprendizado do computador baseados em regularização. Uma revisão destes algoritmos é apresentada, abordando diferentes funções de perda e tarefas de aprendizado, incluindo Máquinas de Vetores de Suporte, Mínimos Quadrados Regularizados e sua extensão para modelos de aprendizado semi-supervisionado, mais especificamente, Regularização em Variedades. Uma abordagem baseada em otimização por gradiente é proposta, através da utilização de um método eficiente de cálculo da função de validação por exclusão unitária. Com o intuito de avaliar os métodos propostos em termos de qualidade de generalização dos modelos gerados, uma aplicação deste método a diferentes conjuntos de dados e exemplos numéricos é apresentada / Abstract: This dissertation investigates the problem of hyper-parameter optimization for regularization based learning models. A review of different learning algorithms is provided in terms of different losses and learning tasks, including Support Vector Machines, Regularized Least Squares and their extension to semi-supervised learning models, more specifically, Manifold Regularization. A gradient based optimization approach is proposed, using an efficient calculation of the Leave-one-out Cross Validation procedure. Datasets and numerical examples are provided in order to evaluate the methods proposed in terms of their generalization capability of the generated models / Mestrado / Automação / Mestre em Engenharia Elétrica
504

Tem que ter categoria: construção do saber futebolístico / It must have cateory: construction of soccer knowledge

Enrico Spaggiari 23 October 2009 (has links)
Esta pesquisa teve como objetivo principal investigar o ensino e aprendizado da prática futebolística para crianças e jovens de alguns bairros da Zona Leste de São Paulo. Acompanhei as aulas, treinos e jogos relacionados à escolinha do CDM Cidade Líder, como também as demais atividades praticadas naquele espaço, principalmente, as partidas de futebol de várzea aos finais de semana. A partir da observação das relações construídas entre os diversos atores (crianças, jovens, jogadores de várzea, pais e mães, olheiros, empresários e outros), pude identificar diferentes aspectos ligados ao ensino e aprendizado do futebol, que aparecem articulados na etnografia: trabalho, corpo, dom, peneiras, masculinidade, modelos pedagógicos, profissionalização etc. Se, por um lado, observava o processo de ensino e aprendizado do futebol entre os alunos, pais e professores, por outro, percebia que, concomitante ao ensino, trabalhava-se a idéia da formação de jovens jogadores. Tal questão me fez pensar em estender a pesquisa a novas espacialidades. Marcada, inicialmente, pela observação no bairro Cidade Líder, na Zona Leste paulistana, a pesquisa posteriormente ganhou uma amplitude de atores, experiências, trajetórias e situações, o que me fez atentar às redes de relações entre os diversos atores. Com este fim, tracei uma rede futebolística, entre outras tantas possíveis, que se inicia no bairro de Guaianases, também na Zona Leste, com o objetivo de investigar a diversidade de situações, atores e questões conectadas ao processo de formação de jovens jogadores de futebol. Assim, temas como peneiras, empresários, clientelismo, política municipal e futebol de várzea aparecem entrelaçados e mostram-se decisivos no processo de formação dos jogadores. Por meio desta rede, pesquisei atores e práticas que se encontram numa posição de invisibilidade quando observados somente por meio de classificações dicotômicas: jogo/esporte, amadorismo/profissionalismo e cotidiano/ritual. Trata-se, portanto, de um esforço de investigação de algumas das inúmeras mudanças estruturais do universo futebolístico, tanto no plano profissional, quanto nas formas cotidianamente ativadas nos espaços urbanos. / This study aimed to investigate the main teaching and learning of football practices for children and young people in some districts of the East Zone of São Paulo. I followed the instruction, drills and games related to the CDM Cidade Líder football school, as well as other activities conducted in that area, especially the amateur football games in the weekends. From the observation of the relationships built between the various actors (children, young people, amateur players, parents and mothers, scouts, agents and others), I could identify different aspects of teaching and learning of football, which appear in the pleadings ethnography: working, body, Dom, screens, masculinity, pedagogical models, professionalism etc. If, on the one hand, I watched the process of teaching and learning football between students, parents and teachers, on the other hand, I understood that, concurrent to education, the idea of training young players was also developed. This question made me think of extending the search to a new space. Marked, initially, for observation in the Cidade Líder district in East Sao Paulo, the search later won a range of actors, experiences, histories and situations, which made me look at the networks of relationships between different actors. To this end, a specific football network was plotted, among many others that are possible, which begins in the neighborhood of Guaianases, also in the East, aiming to investigate the diversity of situations, actors and issues connected to the process of training young football players. Thus, issues such as sieves, business, patronage, local politics and amateur football appear interwoven and are crucial in the training of players. Through this network, I researched actors and practices that are in a position of invisibility when seen only by means of dichotomous classifications: game/sport, amateurism/professionalism and everyday/ritual. It is therefore an effort to research some of the many structural changes in world of football, in the professional and in the everyday forms that turn up in urban spaces.
505

[en] A COMPARATIVE STUDY OF WEB PAGE CLASSIFICATION STRATEGIES / [pt] ESTUDO COMPARATIVO DE ESTRATÉGIAS DE CLASSIFICAÇÃO DE PÁGINAS WEB

THORAN ARAGUEZ RODRIGUES 20 July 2009 (has links)
[pt] A quantidade de informações na Internet aumenta a cada dia. Embora esta proliferação aumente as chances de que o tema sendo buscado por um usuário esteja presente na rede, ela também torna encontrar a informação desejada mais difícil. A classificação automática de páginas é, portanto, uma importante ferramenta na organização de conteúdo da Web, com aplicações específicas na melhoria dos resultados retornados por máquinas de busca. Nesta dissertação foi realizado um estudo comparativo de diferentes conjuntos de atributos e métodos de classificação aplicados ao problema da classificação funcional de páginas web, com foco em 4 classes: Blogs, Blog Posts, Portais de Notícias e Notícias. Ao longo dos experimentos, foi possível constatar que a melhor abordagem para esta tarefa é a utilização de atributos tanto da estrutura quanto do texto das páginas. Foi apresentada também uma estratégia nova de construção de conjuntos de atributos de texto, que leva em consideração os diferentes estilos de escrita das classes de páginas. / [en] The amount of information on the Internet increases every day. Even though this proliferation increases the chances that the subject being searched for by an user is on the Web, it also makes finding the desired information much harder. The automated classification of pages is, therefore, an important tool for organizing Web content, with specific applications on the improvement of results displayed by search engines. In this dissertation, a comparative study of different attribute sets and classification methods for the functional classification of web pages was made, focusing on 4 classes: Blogs, Blog Posts, News Portals and News. Throughout the experiments, it became evident the best approach for this task is to employ attributes that come both from the structure and the text of the web pages. We also presented a new strategy for extracting and building text attribute sets, that takes into account the different writing styles for each page class.
506

[en] EFFICIENT METHODS FOR INFORMATION EXTRACTION IN NEWS WEBPAGES / [pt] MÉTODOS EFICIENTES PARA EXTRAÇÃO DE INFORMAÇÃO EM PÁGINAS DE NOTÍCIAS

EDUARDO TEIXEIRA CARDOSO 03 February 2017 (has links)
[pt] Nós abordamos a tarefa de segmentação de páginas de notícias; mais especificamente identificação do título, data de publicação e corpo da notícia. Embora existam resultados muito bons na literatura, a maioria deles depende da renderização da página, que é uma tarefa muito demorada. Nós focamos em cenários com um alto volume de documentos, onde desempenho de tempo é uma necessidade. A abordagem escolhida estende nosso trabalho prévio na área, combinando propriedades estruturais com traços de atributos visuais, calculados através de um método mais rápido do que a renderização tradicional, e algoritmos de aprendizado de máquina. Em nossos experimentos, nos atentamos para alguns fatos não comumente abordados na literatura, como tempo de processamento e a generalização dos nossos resultados para domínios desconhecidos. Nossa abordagem se mostrou aproximadamente uma ordem de magnitude mais rápida do que alternativas equivalentes que se apoiam na renderização completa da página e manteve uma boa qualidade de extração. / [en] We tackle the task of news webpage segmentation, specifically identifying the news title, publication date and story body. While there are very good results in the literature, most of them rely on webpage rendering, which is a very time-consuming step. We focus on scenarios with a high volume of documents, where a short execution time is a must. The chosen approach extends our previous work in the area, combining structural properties with hints of visual presentation styles, computed with a faster method than regular rendering, and machine learning algorithms. In our experiments, we took special attention to some aspects that are often overlooked in the literature, such as processing time and the generalization of the extraction results for unseen domains. Our approach has shown to be about an order of magnitude faster than an equivalent full rendering alternative while retaining a good quality of extraction.
507

Aprendizagem de máquina para análise de indicadores em processos de software /

Bodo, Leandro. January 2015 (has links)
Orientador: Hilda Carvalho de Oliveira / Coorientador: Fabricio Aparecido Breve / Banca: João Paulo Papa / Banca: Fabiano Cutigi Ferrari / Resumo: As organizações produtoras de software vêm enfrentando problemas e desafios em relação à qualidade do software há muitas décadas. O gerenciamento da qualidade envolve três processos básicos: planejamento da qualidade, garantia da qualidade e controle da qualidade. O processo de controle da qualidade provê informações para avaliação do desempenho e mudanças nos projetos, processos ou produtos. Para isso, indicadores de desempenho devem ser definidos e analisados para apoiar as tomadas de decisão. Durante o monitoramento dos processos da produção de software, dados dos indicadores de desempenho são coletados e armazenados em bases históricas para serem analisados pelos administradores dos processos. Técnicas de controle estatístico da qualidade auxiliam a avaliação dos dados coletados. Contudo, alguns aspectos dificultam a análise adequada para as tomadas de decisão em tempo hábil. O controle da qualidade pode requerer análise de grupos de indicadores, compostos por indicadores de vários processos e de diferentes granularidades, tipos e frequencias de coleta. Além disso, à medida que o volume de dados dos indicadores aumenta, a complexidade das análises também tende a aumentar. Nesse contexto, este trabalho apresenta uma sistemática para análise dos indicadores de desempenho, utilizando técnicas de aprendizado de máquina semi-supervisionado. Essa sistemática é composta por etapas que abrangem a seleção dos indicadores, o processo de rotulagem e a análise dos dados coletados no monitoramento. Adicionalmente, o trabalho apresenta um modelo de referência para apoiar a seleção dos indicadores, baseado nos processos dos níveis G e F do modelo de qualidade MPS-SW. Outro modelo de referência desenvolvido é baseado nas perspectivas do modelo Balanced Scorecard, com a finalidade de apoiar a definição de grupos de indicadores. Os processos de rotulagem e análise dos dados são feitos em um único passo... / Abstract: Software development companies have been facing problems and challenges in relation to software quality for decades. Quality management involves three basic processes: quality planning, quality assurance and quality control. The quality control process provides information to evaluate the performance and changes in projects, processes or products. For this, performance indicators should be defined and analyzed in order to help decision-making. During the monitoring of the software production processes, data of the performance indicators is collected and stored in historical bases in order to be analyzed by the managers of the processes. Statistical quality control techniques aid the evaluation of the collected data. However, some aspects complicate the appropriate analysis to timely decision-making. The quality control may require analyzing groups of indicators, composed of indicators of various processes and with different granularity, types and collect frequency. Furthermore, as the volume of indicator data increases, the complexity of analysis also tends to increase. In this context, this work presents a systematic for analysis of performance indicators, using semi-supervised machine learning techniques.This systematic consists of steps that cover the selection of indicators, the process of labeling and the analysis of data collected in monitoring. In addition, the work presents a reference model to support the selection of indicators, considering the processes of the levels G and F of the MPS model for software (MPS-SW). The other developed reference model is based on the perspectives of the Balanced Scorecard model, in order to support the definition of groups of indicators. The labeling process and the data analysis process are done in a single step. Information visualization techniques are used to support the labeling process. The work presents a case study on the systematic presented, using real data from a software development ... / Mestre
508

Jogos digitais como artefatos pedagógicos : o desenvolvimento de jogos digitais como estratégia educacional / Digital games as pedagogical artefacts : game-making as an educational strategy

Paula, Bruno Henrique de, 1987- 26 August 2018 (has links)
Orientador: José Armando Valente / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Artes / Made available in DSpace on 2018-08-26T17:13:59Z (GMT). No. of bitstreams: 1 Paula_BrunoHenriquede_M.pdf: 4362042 bytes, checksum: 6f3afbfc8ebe39bb7d3985f8ff4bf5d5 (MD5) Previous issue date: 2015 / Resumo: Nos últimos anos, nota-se um grande aumento do interesse quanto ao uso de jogos digitais na Educação. Esta aproximação se dá especialmente como uma tentativa para modificar o processo educacional, de modo a conectá-lo às tecnologias digitais, tão ubíquas na atualidade. Contudo, não se pode imaginar que a integração entre videogames e Educação seja trivial: é preciso conhecer as especificidades destes artefatos para então poder explorar ao máximo seu potencial educacional. Da mesma forma, esta integração pode ser realizada de diferentes maneiras, das mais tradicionais, utilizando jogos educativos ou comerciais em contextos escolares, ou através de uma nova abordagem, que propõe que os educandos criem seus próprios jogos e, com isso, possam construir conhecimento e desenvolverem habilidades importantes para a vida contemporânea nesse processo. Destaca-se ainda como essa última abordagem é ainda pouco explorada no Brasil. Através deste projeto, pretende-se refletir tanto sobre as características específicas de um jogo digital, bem como sobre as maneiras nas quais a integração entre jogos digitais e Educação podem ser realizadas, suas potencialidades e dificuldades, com especial atenção ao uso pedagógico da criação de jogos digitais. Dessa forma, espera-se produzir referencial teórico que seja capaz de auxiliar educadores interessados no uso de jogos digitais, bem como disseminar, através de uma experiência de aplicação, a abordagem pedagógica que defende a criação de jogos digitais por parte dos educandos. / Abstract: In recent years, there has been a great interest in the use of digital games in Education. This could be analysed as an attempt to modify the educational process, in order to connect it to digital technologies, which are becoming even more pervasive nowadays. However, one cannot imagine this integration between games and education as trivial: the specific features of these artefacts must be understood to explore their educational potential. Likewise, this integration can be accomplished in different ways, from the most traditional ones, like those which propose the use of commercial or educational games in schools, to new ones, such as students producing their own games and, through this production, construct knowledge and develop relevant skills and competences. It is important to remark that there has been little exploration of this latter approach (game production by students) in Brazil. Through this project, I intend to reflect both on the specific characteristics of a digital game, as well as the ways in which the integration between digital games and education can be carried out, their strengths and difficulties, with special attention to the pedagogical use of game-making. By doing so, I expect to produce a theoretical framework that would assist educators interested in using digital games, as well as to disseminate, through an applied experience, the pedagogical approach which advocates for the creation of digital games by students / Mestrado / Artes Visuais / Mestre em Artes Visuais
509

Online social networks = knowledge extraction from information diffusion and analysis of spatio-temporal phenomena = Redes sociais online: extração de conhecimento e análise espaço-temporal de eventos de difusão de informação / Redes sociais online : extração de conhecimento e análise espaço-temporal de eventos de difusão de informação

Kurka, David Burth, 1988- 05 August 2015 (has links)
Orientador: Fernando José Von Zuben / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-27T03:14:35Z (GMT). No. of bitstreams: 1 Kurka_DavidBurth_M.pdf: 1660677 bytes, checksum: 7258daf8129b4dac9d1f647195775d3c (MD5) Previous issue date: 2015 / Resumo: Com o surgimento e a popularização de Redes Sociais Online e de Serviços de Redes Sociais, pesquisadores da área de computação têm encontrado um campo fértil para o desenvolvimento de trabalhos com grande volume de dados, modelos envolvendo múltiplos agentes e dinâmicas espaço-temporais. Entretanto, mesmo com significativo elenco de pesquisas já publicadas no assunto, ainda existem aspectos das redes sociais cuja explicação é incipiente. Visando o aprofundamento do conhecimento da área, este trabalho investiga fenômenos de compartilhamento coletivo na rede, que caracterizam eventos de difusão de informação. A partir da observação de dados reais oriundos do serviço online Twitter, tais eventos são modelados, caracterizados e analisados. Com o uso de técnicas de aprendizado de máquina, são encontrados padrões nos processos espaço-temporais da rede, tornando possível a construção de classificadores de mensagens baseados em comportamento e a caracterização de comportamentos individuais, a partir de conexões sociais / Abstract: With the advent and popularization of Online Social Networks and Social Networking Services, computer science researchers have found fertile field for the development of studies using large volumes of data, multiple agents models and spatio-temporal dynamics. However, even with a significant amount of published research on the subject, there are still aspects of social networks whose explanation is incipient. In order to deepen the knowledge of the area, this work investigates phenomena of collective sharing on the network, characterizing information diffusion events. From the observation of real data obtained from the online service Twitter, we collect, model and characterize such events. Finally, using machine learning and computational data analysis, patterns are found on the network's spatio-temporal processes, making it possible to classify a message's topic from users behaviour and the characterization of individual behaviour, from social connections / Mestrado / Engenharia de Computação / Mestre em Engenharia Elétrica
510

Aplicação de técnicas de reconhecimento de padrões usando os descritores estruturais de proteínas da base de dados do software STING para discriminação do sítio catalítico de enzimas / Pattern recognition using structural protein descriptors from STING database to discriminate the active site of enzymes

Salim, José Augusto, 1986- 27 August 2018 (has links)
Orientadores: Fernando José Von Zuben, Goran Neshich / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-27T03:11:20Z (GMT). No. of bitstreams: 1 Salim_JoseAugusto_M.pdf: 12514135 bytes, checksum: e429e34406344ef77064e5f5e46194be (MD5) Previous issue date: 2015 / Resumo: As enzimas têm sua função determinada essencialmente por alguns resíduos específicos, denominados resíduos de aminoácidos catalíticos. A função de uma determinada proteína é mantida por milhares de anos de pressão seletiva que ocasionam a preservação de uma estrutura composta por padrões físicos, químicos e estruturais necessários para mantê-la. É frequente observar que enzimas quaisquer presentes em organismos distantemente relacionados exerçam exatamente a mesma função biológica e possuam o mesmo conjunto de resíduos de aminoácidos catalíticos, apesar de possuírem sequências proteicas muito dissimilares. Estes padrões que se conservaram por anos de evolução para manter a função das enzimas têm sido bastante estudados na literatura. Assim, o presente trabalho buscou identificar, dentre os descritores estruturais de proteínas (disponíveis na base de dados da plataforma Blue Star STING) aqueles de maior relevância para discriminar os resíduos de aminoácidos catalíticos dos não catalíticos, por meio do nanoambiente no qual estes se inserem. Buscou-se por modelos classificadores capazes de favorecerem uma interpretação de suas escolhas através de regras na forma SE-ENTÃO, compostas por descritores e seus respectivos valores. Regras foram extraídas para conjuntos de enzimas responsáveis pela catálise da mesma reação enzimática (mesma sub-subclasse EC), de forma a caracterizar o nanoambiente comum aos seus resíduos de aminoácidos catalíticos. Primeiramente, foram considerados apenas descritores estruturais de proteínas, ou seja, excluem-se descritores de conservação de estrutura primária. Esta opção foi feita com base no fato de a conservação de um determinado resíduo em uma determinada posição ser uma consequência (e não causa) de sua crucial função para a atividade de uma enzima. Buscou-se, portanto, compreender a fundo o "por que" de um resíduo ser conservado, utilizando uma "linguagem" puramente estrutural. As doze mais representativas sub-subclasses EC foram escolhidas e regras foram extraídas de forma a caracterizar os resíduos de aminoácido catalíticos de seus membros. Os resultados obtidos variam de acordo com o número de amostras catalíticas disponíveis, sendo as classes com maior número de amostras as que resultaram em regras com maior capacidade de generalização. Ainda que a caracterização dos resíduos de aminoácidos catalíticos possa ser feita apenas com os dados disponíveis, a predição de novas amostras introduz diversos desafios discutidos neste trabalho. Diferentes técnicas de amostragem e seleção de atributos foram estudadas e o impacto de tais técnicas no treinamento é também discutido. Novos descritores estruturais de proteína foram adicionados ao Blue Star STING, assim como foi feito o desenvolvimento de uma biblioteca de programação para facilitar e agilizar a extensão do conjunto de descritores do Blue Star STING / Abstract: The function of enzymes are determined by specific residues, called catalytic amino acids residues. The protein function is maintained for thousands of years of selective pressure which preserves in its structure many physical-chemical and structural patterns. Frequently, enzymes from distinct organisms exert exactly the same biological function due to similar catalytic amino acid residues, even with low sequence similarities. The majority of catalytic amino acid residues prediction methods use sequence conservation features to provide classification. Seeking to understand these conserved patterns in enzyme structures, that even after years of evolution perform the same biological function, the present work searches to identify which protein structural descriptors (available in Blue Star STING platform) are capable of discriminating the amino acid catalytic residues from non-catalytic residues by means of their nanoenvironments properties. Therefore, we studied the use of classification methods available in the literature and STING structural protein descriptors to predict amino acid catalytic residues with no dependency of homologous enzymes. Considering methods capable of extracting IF-THEN rules composed of descriptors and their respective values, sets of rules were built to characterize the amino acid catalytic residues of enzymes catalyzing the same chemical reaction (same EC sub-subclass). Furthermore, it was considered only structural protein descriptors, i.e. no sequence conservation descriptor were considered. The conservation of certain amino acid in a given position is a consequence (not cause) of its crucial function for the enzyme activity. Therefore, the main purpose was to understand in depth the reason why a residue is preserved, employing a purely structural language. Twelve most representative EC sub-subclasses were considered and rules were extracted to characterize the amino acid catalytic residues of their members. The results vary as the number of available structures for each sub-subclass increases. Once it is possible to characterize the amino acid residues of a set of enzymes catalyzing the same chemical reaction, the prediction of amino acid residues in new enzymes faces several challenges discussed in this work, been the major problem the lack of data for amino acid catalytic residues in available databases. Many different techniques as sampling and feature selection methods are employed to alleviate the imbalance of data, and their impact on training are discussed. As a result, we also incorporate new structural protein descriptors to Blue Star STING and developed a new programming library to allow faster and easier extension of the Blue Star STING descriptors set / Mestrado / Engenharia de Computação / Mestre em Engenharia Elétrica

Page generated in 0.0499 seconds