• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 990
  • 64
  • 51
  • 27
  • 20
  • 11
  • 11
  • 11
  • 8
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • Tagged with
  • 1171
  • 626
  • 447
  • 413
  • 239
  • 212
  • 141
  • 140
  • 132
  • 123
  • 123
  • 119
  • 116
  • 109
  • 102
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
491

Seleção e avaliação de marcadores moleculares com grande informatividade para a predição do valor genômico

Silva, Bruno Zonovelli da 07 March 2018 (has links)
Submitted by Geandra Rodrigues (geandrar@gmail.com) on 2018-06-27T13:01:17Z No. of bitstreams: 1 Brunozonovellidasilva.pdf: 25114600 bytes, checksum: 87ca3e31048c3dd0c1068b3c39f6f7a8 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2018-06-27T13:50:08Z (GMT) No. of bitstreams: 1 Brunozonovellidasilva.pdf: 25114600 bytes, checksum: 87ca3e31048c3dd0c1068b3c39f6f7a8 (MD5) / Made available in DSpace on 2018-06-27T13:50:09Z (GMT). No. of bitstreams: 1 Brunozonovellidasilva.pdf: 25114600 bytes, checksum: 87ca3e31048c3dd0c1068b3c39f6f7a8 (MD5) Previous issue date: 2018-03-07 / A seleção dos melhores indivíduos busca aprimorar uma característica ao longo do tempo. O uso de dados genômicos deram origem ao que é conhecido como seleção genômica. A construção de modelos genéticos eficientes para a avaliação do mérito de um indivíduo é complexa e no geral se baseia no pressuposto da herança aditiva. Entretanto, na presença de variabilidade genética não-aditiva os modelos podem não comportar toda a complexidade de possíveis interações entre os genes, a epistasia. O S4GS é um simulador de dados genômicos que busca mimetizar características importantes para o estudo em seleção genômica como, desequilíbrio de ligação, inseminação artificial e cruzamento geracional. Outro fator relevante é a capacidade de simular diferentes ações gênicas e interações em múltiplos níveis. Sendo utilizado na simulação de 8 cenários de estudo, com destaque para o cenário 8 que procurou simular o cruzamento do Girolando opção B. O método proposto consiste em duas etapas: seleção e a avaliação, gerando uma combinação ótima para o aumento de acurácia. Os algoritmos escolhidos para a etapa de seleção de atributos foram: o FFS; O SMS; e a CART como uma alternativa rápida. A etapa de avaliação utilizou duas técnicas clássicas o RR-BLUP e o BLASSO como referência, e o SVR. A associação das técnicas utilizadas na etapa de seleção e avaliação levam a três modelos: SVR + FFS; SVR + SMS; e SVR + CART. Nos resultados obtidos a seleção de atributos se mostrou um importante recurso no aumento da acurácia, em todos os 8 cenários. O processo de simulação possibilitou a obtenção de dados até a 15a geração permitindo treinar os modelos na 1a ou 4a e aplicá-los nas subsequentes. A seleção de atributos aumentou de forma significativa a acurácia dos modelos utilizando dados genômicos, com exceção para o conjunto com amostra pequena e em dados totalmente lineares. O método proposto conseguiu para as bases com as características descristas serem eficientes, gerando um aumento significativo na correlação final. / The animal breeding seeks to maximize of a characteristic over time. The use of genomic data gave rise that we know as genomic selection. The made of efficient models for evaluate the merit of an animal is complex and generally is based on the assumption of additive genetic effects. However, in the presence of non-additive genetic variability, the models may not contain all the complexity of possible interactions between the genes, the epistasis. The S4GS is a genomic data simulator developed in this thesis, which seeks to mimic important features for the study in genomic selection such as linkage disequilibrium, artificial insemination and crossing over. Another relevant factor is the ability to simulate different gene actions and interactions at multiple levels. It was used in the creation of 8 study scenarios, highlighting the scenario 8 that sought to simulate the Girolando option B. The proposed method consists of a two-step selection and evaluation, generating an optimal combination for the increase of accuracy. The algorithms chosen for the feature selection step were: the FFS that was developed in this thesis; The SMS; and CART as a quick alternative. The evaluation stage used two classical techniques, the RR-BLUP and the BLASSO as a reference, and the SVR. The association of the techniques used in the selection and evaluation stage leads us to three models: SVR + FFS; SVR + SMS; and SVR + CART. In the results obtained, the selection of attributes proved to be an important resource in increasing accuracy in all 8 scenarios. The simulation process allowed data to be obtained up to 15th generation allowing the models generated in 1th or 4th to in subsequent ones to be applied. The application of feature selection significantly increased accuracy in genomic data, except for the small sample set and in completely linear data. The proposed method was able to the bases with the descriptive characteristics to be efficient, generating a significant increase in the final correlation.
492

Educational RPG games : design and development contextualized in the XO laptop / Jogos educacionais tipo RPG : design e desenvolvimento contextualizados no laptop XO

Maike, Vanessa Regina Margareth Lima, 1985- 12 February 2013 (has links)
Orientador: Maria Cecília Calani Baranauskas / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-24T16:34:36Z (GMT). No. of bitstreams: 1 Maike_VanessaReginaMargarethLima_M.pdf: 5180251 bytes, checksum: a5d3e94b56b16fe26f5e66182c41dfde (MD5) Previous issue date: 2013 / Resumo: Motivar os alunos na sala de aula é um desafio constante para os educadores. Jogos e tecnologia figuram, a princípio, como facilitadores dessa tarefa, mas empregá-los no contexto educacional também apresenta diversas dificuldades a serem vencidas. Em primeiro lugar, há o desafio de juntar harmoniosamente a mecânica do jogo com o conteúdo a ser ensinado. Em seguida, está a dificuldade em fazer o professor entender o jogo e/ou aceita-lo como educacionalmente válido. Na intersecção entre esses dois desafios há um terceiro, que é possibilitar aos professores criarem jogos, integrando seus próprios conteúdo e estilo. Portanto, nesta dissertação, buscamos superar tais desafios utilizando os jogos do tipo RPG (Role Playing Game), da modalidade "de mesa". As investigações conduzidas obtiveram como principais contribuições um framework para a criação de aventuras educacionais de RPG, bem como os requisitos e o design de uma ferramenta de autoria que implementa esse framework. O framework proposto, denominado "Beginning, Middle and End (BME)", busca sistematizar o processo de criação de aventuras, tornando-o mais fácil de entender e mais rápido de utilizar. O design tanto do framework quanto da ferramenta foi feito em conjunto com as partes interessadas (professores, alunos e pesquisadores), resultando em uma das muitas possíveis interpretações do uso do RPG "de mesa" na sala de aula. Esta interpretação é, portanto, um reflexo do contexto em que este trabalho foi desenvolvido, mas as investigações estão detalhadas de maneira a permitir que sejam repetidas em outros contextos. Esta dissertação relata, então, esforços no sentido de apoiar e alavancar o uso de jogos educacionais do tipo RPG na sala de aula. Assim, a ferramenta de autoria proposta é uma consequência desses esforços e espera-se que o processo de seu design, aqui descrito, contribua para fomentar a utilização, em contexto educacional, não apenas de jogos de RPG, mas também de computadores e de outros tipos de jogos / Abstract: Motivating students in the classroom is a constant challenge for educators. At a first glance, games and technology seem like facilitators in this task, but employing them in the educational context also presents several difficulties to be overcomed. First, there¿s the challenge of harmoniously joining the game mechanics with the content being taught. Then, there¿s the difficulty in making the teacher understand and/or accept the game as educationally valid. In the intersection between these two challenges there¿s a third one, which is allowing teachers to create games, integrating their own content and style. Thus, in this dissertation we seek to overcome such challenges by using the table-top modality of the Role Playing Game (RPG) category of games. The conducted investigations obtained as main contributions a framework for the creation of educational table-top RPG adventures, as well as the requirements and the design of an authoring tool that implements this framework. The proposed framework, named "Beginning, Middle and End (BME)", seeks to systematize the process of creating adventures, making it easier to understand and quicker to use. The design of both the framework and the tool was made along with the interested parties (teachers, students and researchers), resulting in one of the many possible interpretations of the use of table-top RPGs in the classroom. This interpretation is, therefore, a reflection of the context in which this work was developed, but the investigations are detailed enough so that they can be repeated in other contexts. So, this dissertation reports the efforts aimed at supporting and ignite the use, in the classroom, of educational games of the RPG category. Hence, the proposed authoring tool is a consequence of these efforts, and it is hoped that its design process described here contributes to promote the utilization, in educational context, not only of RPG games, but also of computers and other kinds of games / Mestrado / Ciência da Computação / Mestra em Ciência da Computação
493

Illumination inconsistency sleuthing for exposing fauxtography and uncovering composition telltales in digital images / Investigando inconsistências de iluminação para detectar fotos fraudulentas e descobrir traços de composições em imagens digitais

Carvalho, Tiago José de, 1985- 25 August 2018 (has links)
Orientadores: Anderson de Rezende Rocha, Hélio Pedrini / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-25T12:33:40Z (GMT). No. of bitstreams: 1 Carvalho_TiagoJosede_D.pdf: 74759719 bytes, checksum: dc371f3262b700f91afa5e0269df1e05 (MD5) Previous issue date: 2014 / Resumo: Antes tomadas como naturalmente genuínas, fotografias não mais podem ser consideradas como sinônimo de verdade. Com os avanços nas técnicas de processamento de imagens e computação gráfica, manipular imagens tornou-se mais fácil do que nunca, permitindo que pessoas sejam capazes de criar novas realidades em minutos. Infelizmente, tais modificações, na maioria das vezes, têm como objetivo enganar os observadores, mudar opiniões ou ainda, afetar como as pessoas enxergam a realidade. Assim, torna-se imprescindível o desenvolvimento de técnicas de detecção de falsificações eficientes e eficazes. De todos os tipos de falsificações de imagens, composições são de especial interesse. Esse tipo de falsificação usa partes de duas ou mais imagens para construir uma nova realidade exibindo para o observador situações que nunca aconteceram. Entre todos os diferentes tipos de pistas investigadas para detecção de composições, as abordagens baseadas em inconsistências de iluminação são consideradas as mais promissoras uma vez que um ajuste perfeito de iluminação em uma imagem falsificada é extremamente difícil de ser alcançado. Neste contexto, esta tese, a qual é fundamentada na hipótese de que inconsistências de iluminação encontradas em uma imagem são fortes evidências de que a mesma é produto de uma composição, apresenta abordagens originais e eficazes para detecção de imagens falsificadas. O primeiro método apresentado explora o reflexo da luz nos olhos para estimar as posições da fonte de luz e do observador da cena. A segunda e a terceira abordagens apresentadas exploram um fenômeno, que ocorre com as cores, denominado metamerismo, o qual descreve o fato de que duas cores podem aparentar similaridade quando iluminadas por uma fonte de luz mas podem parecer totalmente diferentes quando iluminadas por outra fonte de luz. Por fim, nossa última abordagem baseia-se na interação com o usuário que deve inserir normais 3-D em objetos suspeitos da imagem de modo a permitir um cálculo mais preciso da posição 3-D da fonte de luz na imagem. Juntas, essas quatro abordagens trazem importantes contribuições para a comunidade forense e certamente serão uma poderosa ferramenta contra falsificações de imagens / Abstract: Once taken for granted as genuine, photographs are no longer considered as a piece of truth. With the advance of digital image processing and computer graphics techniques, it has been easier than ever to manipulate images and forge new realities within minutes. Unfortunately, most of the times, these modifications seek to deceive viewers, change opinions or even affect how people perceive reality. Therefore, it is paramount to devise and deploy efficient and effective detection techniques. From all types of image forgeries, composition images are specially interesting. This type of forgery uses parts of two or more images to construct a new reality from scenes that never happened. Among all different telltales investigated for detecting image compositions, image-illumination inconsistencies are considered the most promising since a perfect light matching in a forged image is still difficult to achieve. This thesis builds upon the hypothesis that image illumination inconsistencies are strong and powerful evidence of image composition and presents four original and effective approaches to detect image forgeries. The first method explores eye specular highlight telltales to estimate the light source and viewer positions in an image. The second and third approaches explore metamerism, when the colors of two objects may appear to match under one light source but appear completely different under another one. Finally, the last approach relies on user¿s interaction to specify 3-D normals of suspect objects in an image from which the 3-D light source position can be estimated. Together, these approaches bring to the forensic community important contributions which certainly will be a strong tool against image forgeries / Doutorado / Ciência da Computação / Doutor em Ciência da Computação
494

Técnicas de regularização para máquinas de aprendizado extremo / Regularization techniques for extreme learning machines

Kulaif, Andrea Carolina Peres, 1988- 26 August 2018 (has links)
Orientador: Fernando José Von Zuben / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-26T07:59:40Z (GMT). No. of bitstreams: 1 Kulaif_AndreaCarolinaPeres_M.pdf: 1163458 bytes, checksum: ce006fc65c25e72acbf0a2efeb2a3450 (MD5) Previous issue date: 2014 / Resumo: Máquinas de Aprendizado Extremo (ELMs, do inglês Extreme Learning Machines) são redes neurais com uma camada de entrada, uma camada intermediária e uma camada de saída. Sua arquitetura é equivalente à do perceptron de múltiplas camadas (MLP, do inglês Multilayer Perceptron), mas os pesos e o número de neurônios da camada intermediária em ELMs são definidos arbitrariamente e a priori, enquanto os pesos da camada de saída são os únicos parâmetros ajustáveis durante o processo de treinamento supervisionado. O ajuste desses pesos da camada de saída leva a um problema de otimização linear, responsável pelo fato de o treinamento de uma ELM ser ao menos uma ordem de magnitude mais rápido do que o treinamento de uma MLP. No entanto, o desempenho das ELMs é bastante influenciado pelo grau de regularização adotado no ajuste dos pesos da camada de saída. Além disso, por serem definidos de forma arbitrária e não estarem susceptíveis a treinamento, geralmente opera-se com um número elevado de neurônios na camada intermediária, sendo muito comum a presença de neurônios redundantes e pouco funcionais, de modo que sua extração não compromete o desempenho da rede neural como um todo. Em vista desse cenário, esta dissertação apresenta contribuições, junto a ELMs voltadas para tarefas de regressão, em duas frentes principais: (1) Definição de um grau apropriado de regularização no cálculo dos pesos da camada de saída de ELMs; e (2) Ajuste do número de neurônios na camada intermediária, pela extração automática de neurônios redundantes ou pouco funcionais. Mostra-se neste trabalho que, diferentemente do que é praticado na literatura, o grau de regularização mais indicado para uma ELM não varia apenas entre problemas de regressão distintos, mas dentro do mesmo problema de regressão, ainda que se mantenha constante o número de neurônios na camada intermediária. Uma vez detectada a necessidade do ajuste do grau de regularização a cada configuração de ELM, propõe-se aqui uma busca unidimensional mais refinada do que aquela já existente na literatura. Quanto à proposta apresentada para definição do número de neurônios na camada intermediária, faz-se uma análise do espaço de características gerado pelos neurônios dessa camada e aplica-se poda de neurônios que pouco ou nada contribuem para gerar este espaço de características. Além disso, propõe-se o emprego de LASSO e Elastic Net como técnicas de regularização, as quais promovem poda adicional de neurônios que não contribuem para a tarefa de regressão. Para as duas contribuições do trabalho, são apresentados resultados experimentais e comparações com outras propostas da literatura. Há um aumento de custo computacional com as propostas deste trabalho, mas é expressivo o ganho em desempenho em alguns cenários / Abstract: Extreme learning machines are neural networks composed of one input layer, one hidden layer, and one output layer. Their architecture is equivalent to the one of the multilayer perceptron, but the weights and the number of hidden neurons in ELMs are defined a priori and in an arbitrary manner, while the weights at the output layer are the only adjustable parameters during supervised learning. The adjustment of the weights at the output layer leads to a linear optimization problem, responsible for the fact that the training of an ELM be at least one order of magnitude faster than training an MLP. However, the performance of ELMs is greatly influenced by the regularization degree adopted when setting the weights of the output layer. Moreover, by being arbitrarily defined and not susceptible to learning, it is usual to adopt a large number of neurons in the hidden layer, thus promoting the presence of redundant and poorly functional neurons, so that their extraction does not compromise the neural network performance as a whole. Under those circumstances, this dissertation presents contributions to ELMs devoted to regression problems on two main fronts: (1) Definition of a proper degree of regularization when computing the weights at the output layer of ELMs; and (2) Adjustment of the number of neurons at the hidden layer, by the automatic extraction of redundant or poorly functional neurons. It is shown in this work that, different from what is done in the literature, the most suitable degree of regularization for an ELM varies not only among different regression problems, but within the same regression problem and even if it is kept constant the number of neurons at the hidden layer. Once detected the need for adjustment of the degree of regularization for each ELM configuration, it is proposed here a one-dimensional search endowed with more refined steps than that available in the literature. Regarding the proposal to properly define the number of neurons in the hidden layer, an analysis of the feature space generated by neurons in the hidden layer is performed and neurons with no or even a shallow contribution to span the feature space are pruned. Furthermore, the use of LASSO and Elastic Net as regularization techniques are proposed here, which promotes additional pruning of neurons that do not contribute to the regression task. For both contributions of this work, experimental results and comparisons with other proposals in the literature are presented. There is an increase in the computational cost with the proposals of this work, but it is significant the gain in performance in some scenarios / Mestrado / Engenharia de Computação / Mestra em Engenharia Elétrica
495

Contribuições ao combate de web spamming / Contributions to the battle against web spamming

Silva, Renato Moraes, 1988- 22 August 2018 (has links)
Orientadores: Akebo Yamakami, Tiago Agostinho de Almeida / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-22T13:22:48Z (GMT). No. of bitstreams: 1 Silva_RenatoMoraes_M.pdf: 4136928 bytes, checksum: 218846058592353cb167c8c2d61e1bfd (MD5) Previous issue date: 2013 / Resumo: Com o crescente aumento do volume de informações disponíveis na Web, as ferramentas de busca tornam-se cada vez mais importantes para os usuários da Internet. Consequentemente, com o objetivo de se tornar mais visíveis, os sites concorrem entre si para ganhar melhores posições nos resultados das buscas feitas por esses usuários. Porém, muitos ganham maior visibilidade através de estratégias que enganam as ferramentas de busca. Esses sites, conhecidos como Web spam, causam prejuízos pessoais e econômicos aos usuários. Diante desse cenário, este trabalho apresenta uma análise do desempenho de diversos métodos de aprendizado de máquina aplicados na detecção automática de Web hosts que propagam Web spam. Os experimentos foram realizados usando duas bases de dados reais, públicas e de grande porte, das quais foram extraídos três diferentes conjuntos de vetores de atributos: baseados no conteúdo das páginas Web, baseados nos links das páginas Web e formados pela transformação dos atributos baseados nos links. Também foi analisada a viabilidade da redução de dimensionalidade do espaço dos atributos. Outra contribuição desse trabalho é a proposta de uma abordagem de classificação de Web spam, em que as predições obtidas com cada tipo de vetor de atributos são combinadas e uma decisão final é obtida usando-se voto majoritário simples. Os resultados obtidos indicam que os métodos de bagging de árvores de decisão, redes neurais perceptron de múltiplas camadas, floresta aleatória e boosting adaptativo de árvores de decisão são promissores na tarefa de detecção de Web spam. Além disso, verificou-se que os métodos de aprendizado tem melhor desempenho quando os vetores de atributos baseados no conteúdo e os vetores formados pela transformação dos atributos baseados nos links são combinados. Por fim, a combinação das predições obtidas com cada tipo de vetor de atributos gera bons resultados e por isso, essa é uma abordagem recomendada para o combate de Web spamming / Abstract: Due to the increasing volume of information available on the Web, search engines become increasingly important to Internet users. Consequently, with the purpose of becoming more visible, the Web sites compete to achieve better positions in the results of the searches made by such users. However, many of them achieve a good visibility through strategies that try to circumvent the search engines. This kind of Web sites are known as Web spam and they are responsible for personal injury and economic losses to users. Given this scenario, this work presents a performance analysis of established machine learning techniques employed to automatically detect Web hosts that disseminate Web spam. The experiments were performed with two real, public and large datasets, from which were extracted three different sets of features vectors: contentbased ones, link-based ones and features vectors generated by the transformation of the link-based features. We also analyzed the viability of the dimensionality reduction of the feature space. Another contribution of this work is the proposal of a Web spam classification approach which combines the predictions achieved by each type of features vector and using a simple majority voting. The results indicate that bagging of decision trees, multilayer perceptron neural networks, random forest and adaptive boosting of decision trees are promising in the task of spam hosts classification. Furthermore, we have conclude that the learning techniques perform better when we have combined the content-based features vectors and the features vectors generated by the transformation of the link-based features. Finally, the combination of the predictions achieved with each type of features vector has achieved superior results and therefore it is a recommended approach to automatically detect Web spam / Mestrado / Automação / Mestre em Engenharia Elétrica
496

Hyper-parameter optimization for manifold regularization learning = Otimização de hiperparâmetros para aprendizado do computador por regularização em variedades / Otimização de hiperparâmetros para aprendizado do computador por regularização em variedades

Becker, Cassiano Otávio, 1977- 08 December 2013 (has links)
Orientador: Paulo Augusto Valente Ferreira / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-23T18:31:10Z (GMT). No. of bitstreams: 1 Becker_CassianoOtavio_M.pdf: 861514 bytes, checksum: 07ea364d206309cbabdf79f51037f481 (MD5) Previous issue date: 2013 / Resumo: Esta dissertação investiga o problema de otimização de hiperparâmetros para modelos de aprendizado do computador baseados em regularização. Uma revisão destes algoritmos é apresentada, abordando diferentes funções de perda e tarefas de aprendizado, incluindo Máquinas de Vetores de Suporte, Mínimos Quadrados Regularizados e sua extensão para modelos de aprendizado semi-supervisionado, mais especificamente, Regularização em Variedades. Uma abordagem baseada em otimização por gradiente é proposta, através da utilização de um método eficiente de cálculo da função de validação por exclusão unitária. Com o intuito de avaliar os métodos propostos em termos de qualidade de generalização dos modelos gerados, uma aplicação deste método a diferentes conjuntos de dados e exemplos numéricos é apresentada / Abstract: This dissertation investigates the problem of hyper-parameter optimization for regularization based learning models. A review of different learning algorithms is provided in terms of different losses and learning tasks, including Support Vector Machines, Regularized Least Squares and their extension to semi-supervised learning models, more specifically, Manifold Regularization. A gradient based optimization approach is proposed, using an efficient calculation of the Leave-one-out Cross Validation procedure. Datasets and numerical examples are provided in order to evaluate the methods proposed in terms of their generalization capability of the generated models / Mestrado / Automação / Mestre em Engenharia Elétrica
497

Estendendo ambientes de suporte a trabalho cooperativo com base no conceito de workflow

Souza, Sofia Mara de 03 August 2018 (has links)
Orientador : Maria Cecilia Calani Baranauskas / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-03T14:39:23Z (GMT). No. of bitstreams: 1 Souza_SofiaMarade_M.pdf: 15200201 bytes, checksum: b9309acd4682e2a0e8538477dfc45fed (MD5) Previous issue date: 2003 / Mestrado
498

Um modelo de desenvolvimento de sistemas para suporte a cooperação fundamentado em design participativo e semiotica organizacional

Bonacin, Rodrigo, 1976- 03 August 2018 (has links)
Orientador : Maria Cecilia Calani Baranauskas / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-03T21:58:37Z (GMT). No. of bitstreams: 1 Bonacin_Rodrigo_D.pdf: 6235445 bytes, checksum: a42f3aeee2570d086313262907b5da5f (MD5) Previous issue date: 2004 / Doutorado
499

Da fotomontagem as poeticas digitais

Carvalho, Helio Jorge Pereira de 18 January 1999 (has links)
Orientador: Gilberto dos Santos Prado / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Artes / Made available in DSpace on 2018-07-25T11:43:38Z (GMT). No. of bitstreams: 1 Carvalho_HelioJorgePereirade_M.pdf: 9606768 bytes, checksum: 014b1818e3a6d019c8dedd4e96100231 (MD5) Previous issue date: 1999 / Resumo: A imagem dentro da cultura digital expressa uma tendência à construção híbrida, isto é, pode resultar de uma combinação de outras imagens, o que se deve principalmente à essência de sua constituição. Gerada por códigos numéricos que permitem rearranjos e transformações instântaneas, a imagem composta por meios eletrônicos, ao mesmo tempo resgata e reinventa as experiências expressivas e poéticas da fotomontagem do início do século xx. Tomando como ponto de partida o estudo da fotomontagem, esta pesquisa discute os processos de produção de imagens que se estruturam a partir da recombinação de fragmentos e investiga as possibilidades renovadoras para a criação plástica introduzidas pela tecnologia digital nesta área, através do desenvolvimento de um projeto multimídia. Sendo assim o foco da pesquisa recai sobre a análise dos meios técnicos conjugada à discussão sobre as operações de atribuição de sentido inerentes às transformações desta forma de expressão, a partir de uma abordagem experimental / Abstract: Not informed. / Mestrado / Mestre em Multimeios
500

Elementos para implementação de sistemas automatizados de produção

Georgini, João Marcelo 16 December 1999 (has links)
Orientador: João Mauricio Rosario / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecanica / Made available in DSpace on 2018-07-25T21:59:31Z (GMT). No. of bitstreams: 1 Georgini_JoaoMarcelo_M.pdf: 14985263 bytes, checksum: ee7789e674343d6bf01b264ee83a0d72 (MD5) Previous issue date: 1999 / Resumo: Este trabalho aborda os aspectos referentes à descrição e implementação de sistemas automatizados de produção. São apresentados norma para descrição de sistemas seqüenciais (SFC -Sequential Function Chart) e equipamentos industriais para controle (PLC ¿ Controlador Lógico Programável e Sistema Supervisório), visando a implementação de sistemas automatizados através de um modelo consistente que garanta conectividade e flexibilidade. Os conceitos apresentados são validados através de um exemplo de aplicação industrial, utilizando a Plataforma Industrial para Pesquisa, Ensino e Formação em Automação (PIPEFA), representando um sistema automatizado de produção composto por postos operacionais controlados por PLC e Sistema Supervisório. A apresentação didática desses elementos proporcionou a elaboração de uma referência bibliográfica para utilização acadêmica e industrial / Abstract: This work approaches the aspects relative to description and implementation of automated manufacturing systems. Intemational Standard for description of sequential systems (SFC - Sequential Function Chart) and industrial equipment for controlling (PLC ¿ Programmable Logical Controller and SCADA - Supervisory Control And Data Acquisition) are described aiming the implementation of automated systems based on consistent modei, allowing connectivity and flexibility. Approached concepts are validated through an industrial application example, under Industrial Platform to the Research, Education and Formation in Automation (PIPEFA - Plataforma Industrial para Pesquisa, Ensino e Formação em Automação), that represents an automated manufacturing system with manufacturer cells controlled by PLC and SCADA. Didactic presentation of these elements originated a bibliographical reference for academic and industrial use / Mestrado / Mecanica dos Sólidos e Projeto Mecanico / Mestre em Engenharia Mecânica

Page generated in 0.1139 seconds