• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1424
  • 147
  • 56
  • 50
  • 50
  • 50
  • 39
  • 38
  • 38
  • 38
  • 12
  • 11
  • 1
  • 1
  • 1
  • Tagged with
  • 1601
  • 1601
  • 523
  • 448
  • 401
  • 331
  • 296
  • 221
  • 219
  • 177
  • 165
  • 145
  • 141
  • 125
  • 124
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
561

Modelo de agente inteligente para otimização de planejamento em linhas de produção de software

Denis Ávila Montini 05 December 2014 (has links)
A proposição de um Modelo de Agente Inteligente foi realizada, utilizando da área de pesquisa de algoritmos de Inteligência Artificial, e aplicada na Otimização de Planejamento em Linhas de Produção de Células de Manufatura de software. Em um ambiente de Planejamento e Controle da Produção, um exemplo de Agente Inteligente GQIMP Petri Bayesiano foi (i) algoritmizado, (ii) formalizado, (iii) implementado e (v) integrado em um ciclo de desenvolvimento de sistemas, a partir deste Modelo de Agente Inteligente. No entanto, este Agente precisou ser concebido estruturadamente para um processo da Fábrica por meio das diretrizes de integração, descritas em um Meta-algoritmo. Esta integração entre (i) Modelo, (ii) Agente e (iii) processos de Fábrica foi orquestrada pelo Meta-algoritmo para viabilizar fundamentalmente: (i) atividades metrológicas, (ii) coletas de dados e (iii) geração de indicadores. Com esta integração estabilizada, a obtenção de cálculos de estimativas foi viabilizada para o desempenho dos analistas desenvolvedores nos projetos de software, contendo previsões mais realistas. Como consequência do uso destes indicadores, a identificação da capacidade instalada de produção de código, de uma linguagem de programação específica, foi viabilizada por este Agente, fornecendo informações de desempenho mais precisas e utilizando os dados para realizar correções recursivas, visando a Otimização do Planejamento nos novos projetos de desenvolvimento de software.
562

Abordagem para verificação de sistemas de controle para automação flexível

Guilherme Kisseloff Coracini 15 December 2014 (has links)
A verificação de software é uma etapa essencial do ciclo de desenvolvimento de sistemas de automação industrial. O objetivo da verificação é a identificação de defeitos ainda na fase de projeto, tendo em vista que o custo de correção na fase final de desenvolvimento ou após a implementação do sistema é significativamente mais elevado do que nas fases iniciais do projeto. Neste contexto, este trabalho tem por objetivo propor uma abordagem para verificação de sistemas de automação que combina duas técnicas de verificação distintas: model checking e model based testing. Para análise da proposta, a abordagem é aplicada ao projeto do programa supervisório de uma célula robótica. A célula robótica utilizada como estudo de caso foi desenvolvida no Centro de Competência em Manufatura (CCM) com o objetivo de automatizar o processo de acondicionamento de tampas de alumínio para transporte. Em particular, o programa supervisório desta célula foi desenvolvido em LabVIEW. Os resultados obtidos com o estudo de caso indicam que a abordagem proposta contribui para a robustez do sistema. Além, o estudo de caso permitiu identificar pontos para melhoria e detalhamento na abordagem proposta
563

Um método baseado em ontologias para interpretação e catalogação de elementos pouco evidentes em imagens

Tiago Josué Diedrich 28 November 2014 (has links)
Utilizam-se imagens nos mais variados ramos de interesse, quer seja nas áreas militares, médicas, redes sociais, notícias, sensoriamento remoto, entre outras. A presente pesquisa tem a finalidade de apoiar o processo de representação de imagens, utilizando-se de um método para interpretar e catalogar cenas de interesse. Explora-se o processo de anotação em mídias, de forma a reconhecer elementos pouco evidentes nas imagens. O problema observado expõe a dificuldade do usuário para interpretar e catalogar um maior número de elementos contidos numa cena, pois intérpretes nem sempre conseguem identificar o contexto das mídias, o que acarreta desperdício de recursos envolvidos. O objetivo direciona-se para a elaboração de um método, a fim de apoiar a tarefa de interpretação e de catalogação do analista de imagens, por meio de marcações padronizadas, oriundas de uma ontologia de domínio, associando sistemas baseados em regras. Consolidou-se o método proposto por meio da implementação de um plugin de inteligência de imagens para a Plataforma AEROGRAF, um sistema de informações georreferenciadas. A fim de validar o plugin, realizou-se um estudo de caso baseado em imagens de aeródromos. As cenas foram classificadas em três níveis de dificuldade. Dividiu-se o time de analistas em dois grupos: controle e experimental. O primeiro realizou o processo de catalogação apenas por meio visual. O segundo valeu-se do método proposto. Ferramentas estatísticas foram usadas para avaliar e validar os resultados do estudo de caso. Constatou-se que o método elevou o nível de compreensão dos intérpretes, pois o grupo experimental identificou um número maior de elementos existentes nas cenas. Além disso, obteve-se comprovação estatística de que quanto maior o nível de dificuldade das imagens, maior o ganho.
564

Uma infraestrutura baseada em tecnologias da web semântica para o controle de versão de software

Juliano de Almeida Monte-Mor 12 December 2014 (has links)
Durante o desenvolvimento de software, diversos artefatos inter-relacionados são gerados, tais como: requisitos, modelos, códigos-fonte, entre outros. Apesar das vantagens obtidas com a adoção das ferramentas atuais de controle de versão em projetos de software, os sistemas tradicionais têm controlado as versões no nível de arquivos, dificultando o versionamento dos relacionamentos entre artefatos e a composição de artefatos complexos. Existem poucos esforços no sentido de proporcionar uma granularidade mais fina no controle de versão de artefatos estruturados ou semi-estruturados. Além disto, os principais mecanismos para comparação e fusão de versões encontram-se orientados à linhas de texto, dificultando o cálculo das diferenças entre versões de artefatos estruturados como grafos, e.g., diagramas UML. Assim, os sistemas atuais não proveem uma base apropriada para construção de mecanismos para apoiar atividades da Engenharia de Software (ES), como reusabilidade, rastreabilidade e análise do impacto de mudanças. De forma a mitigar este problema, considerou-se a aplicação de tecnologias da Web Semântica em projetos de software, provendo um formalismo para possibilitar um versionamento com granularidade mais fina e mecanismos automatizados para apoiar outras atividades da Engenharia de Software. Neste contexto, foi proposta uma infraestrutura, denominada GALO, para controle de versão de software, com base nas tecnologias da Web Semântica, buscando proporcionar um versionamento com granularidade mais fina e também reduzir os recursos necessários para o cálculo do delta entre versões. Para isto, considerou-se relacionamentos de agregação no modelo de versionamento, representado por uma ontologia. Além disso, criou-se um método heurístico, chamado ApproxMap, para calcular os deltas entre versões, que pode assumir uma complexidade de O(n2), no seu pior caso. Ele busca encontrar um mapeamento entre blank nodes, i.e., recursos não identificados, de dois grafos RDF, que reduza o tamanho do delta entre versões. Buscando avaliar a infraestrutura GALO, desenvolveu-se uma prova de conceito, com a instanciação da ontologia e a construção de um protótipo. Nela, os conceitos definidos na ontologia retrataram com sucesso as situações exploradas. As tecnologias da Web Semântica também foram aplicadas com sucesso, sendo base para mecanismos que apoiam outras atividades da ES. Elas proporcionaram o controle de versão de relacionamentos entre artefatos, além de verificações, validações e inferências de conhecimentos. O ApproxMap também foi aplicado com sucesso no cálculo do delta de versões dos artefatos da prova de conceito e dos demais experimentos realizados. Ele obteve um desempenho satisfatório, sendo o algoritmo que mais se aproximou dos valores ótimos. Assim, recomenda-se a aplicação da infraestrutura GALO e do seu algoritmo ApproxMap na construção de sistemas para controle de versão de artefatos, como os produzidos por processos com desenvolvimento iterativo e incremental.
565

An attentional model for intelligent robotics agents

Esther Luna Colombini 16 May 2014 (has links)
As the field of autonomous robotics grows and its applications broaden up, an enormous amount of sensors and actuators, sometimes redundant, have been added to mobile robots. These now fully equipped entities are expected to perceive and act in their surrounding world in a human-like fashion, through perception, reasoning, planning and decision making processes. The higher complexity level of the resulting system and the nature of the environments where autonomous robots are usually expected to operate - continuous, partially unknown and usually unpredictable - demand the application of techniques to deal with this overload of data. In humans, that face the same problem when sounds, images and smells are presented to their sensors in a daily scene, a natural filter is applied: Attention. Although there are many computational models that apply attentive systems to Robotics, they usually are restricted to two classes of systems: a) those that have complex biologically-based attentional visual systems and b) those that have simpler attentional mechanisms with a larger variety of sensors. In order to evaluate an attentional system that operates with other robotics sensors than visual ones, this work presents a biologically inspired computational attentional model that can handle both top-down and bottom-up attention and that is able to learn how to re-distribute its limited resources over time and space. Experiments performed on a high fidelity simulator demonstrates the feasibility of the proposed attentional model and its capability on performing decision making and learning processes over attentional modulated data. The proposed system promotes a significant reduction on the original state space (96%) that was created over multiple sensory systems.
566

Aplicação de métodos computacionais inteligentes à física atômica e molecular

Kallaran Cavalcante Barros 20 February 2015 (has links)
Tradicionalmente, a tabela periódica convenientemente apresenta elementos químicos em linhas, chamadas períodos e em colunas, chamadas grupos ou famílias. Em um trabalho anterior, alguns de nós, com base exclusivamente nas informações disponíveis na época de Mendeleev, têm usado redes neurais artificiais e mapas auto-organizaveis para gerar um arranjo bidimensional dos elementos químicos. Agora, nesta investigação, temos tentado determinar quais propriedades dos elementos favorecem a formação dos períodos e quais favorecem a formação de famílias. Aqui, nós projetamos um modelo baseado no problema do caixeiro viajante. As propriedades físico-químicas dos elementos representaram as coordenadas das cidades percorridas pelo caixeiro viajante. Assim, através da determinação do melhor caminho, encontramos que elementos químicos são mais semelhantes de acordo com um conjunto de propriedades pré-selecionadas. Os testes foram realizados em 3 grupos distintos de propriedades. No ensaio 1, as propriedades seleccionadas foram: peso atômico, temperatura de fusão, temperatura de ebulição, densidade; no Teste 2, as propriedades selecionadas foram: peso atômico, temperatura de fusão, temperatura de ebulição, energia de ionização; e no teste 3, as propriedades selecionadas foram densidade, temperatura de fusão, temperatura de ebulição, energia de ionização. A análise detalhada mostrou que o peso atômico favorece a formação dos períodos e a substituição do peso atômico pela densidade beneficiou a formação de grupos. A sequência deste trabalho consiste em uma classificação de aminoácidos. Para isso, fizemos uso de redes de Kohonen (mapas auto-organizáveis) e analisamos os agrupamentos formados no mapa. Dessa forma obtivemos um mapa bidimensional onde aminoácidos com características similares ficaram próximos uns dos outros. Dentre as propriedades utilizadas para treinamento, destacamos o softness químico local. Ao todo foram feitos cinco testes com dados de entrada diferente. O primeiro teste foi realizado com as seguintes propriedades: softness da cadeia lateral, softness do radical, softness molecular, fator de empilhamento e espectros na faixa de 0-50, 50-100 e 100-150; no segundo teste fizemos uso de: softness da cadeia lateral, softness do radical, softness molecular, fator de empilhamento e potencial de hidratação; no terceiro teste os dados de entrada foram: softness da cadeia lateral, softness do radical, softness molecular, volume e potencial de hidratação; no quarto teste utilizamos: softness da cadeia lateral, softness do radical, softness molecular e potencial de hidratação; no último teste os dados de entrada foram apenas: softness da cadeia lateral, softness do radical e softness molecular. Nos testes realizados muitos grupos foram identificados, tais como: pequenos, carregados, carregados positivamente, alifáticos e aromáticos. Por fim, notamos que, como citado por Zhou e Parr, softness, de fato, se mostrou um bom indicador de aromaticidade.
567

Representação semântica de trajetórias para detecção de anomalias marítimas

Paulo Augusto Neves de Carvalho Elias 05 December 2014 (has links)
A vigilância de uma área marítima é realizada utilizando vários sensores, cujos dados são fusionados a fim de obtermos uma melhor consciência situacional e detectarmos anomalias marítimas. Dados de anomalias marítimas podem ser escassos, fato que dificulta o estudo dessas anomalias. Uma alternativa adequada para o estudo dessas anomalias é a geração de dados por meio de simulação. Este trabalho tem como objetivo elaborar um modelo semântico capaz de representar e possibilitar inferências sobre embarcações em situações anômalas dentro de um cenário marítimo, a partir de anotações semânticas de trajetórias de embarcações. Para atingir esse objetivo, foi idealizada uma abordagem que envolve a construção de um modelo semântico, a elaboração de consultas e a execução dessas consultas ao modelo. Para testar a utilidade dessa abordagem, foram realizados experimentos utilizando dados sintéticos. Trajetórias podem receber anotações semânticas, de forma a marcar episódios de movimentação e de parada em seus dados espaço-temporais. Isso permite uma representação rica semanticamente para investigar padrões de comportamento de embarcações. Com esta pesquisa, pretende-se contribuir com uma abordagem para facilitar a análise semântica de trajetórias em cenários diversos.
568

Omnidirectional ZMP-based walking for a humanoid robot

Marcos Ricardo Omena de Albuquerque Maximo 09 April 2015 (has links)
Humanoid walking is considered one of the hardest problems in Robotics. Current state-of-the-art humanoid robots are able to achieve high speeds on flat ground. However, they still exhibit agility, dexterity, robustness, flexibility and energy efficiency far below a typical human does. In this thesis, our main goal is to develop an omnidirectional walking engine for a humanoid robot. We follow an approach based on the Zero Moment Point (ZMP) concept, which provides an useful criterion for biped stability. To avoid dealing directly with the complex dynamics of a high degrees of freedom humanoid robot, we used the 3D Linear Inverted Pendulum Model (3D-LIPM) to approximate the robot dynamics. The resulting equations allowed us to find a suitable center of mass (CoM) trajectory to maintain the robot balance analytically by solving a boundary value problem. Furthermore, we employed strategies to improve the walking robustness: we make the robot move its arms in order to compensate the yaw moment induced by the legs and we developed a feedback controller that uses the torso angular velocities to stabilize the walk. Taking advantage of the methods developed for walking, we also developed a kicking motion. Finally, experiments were done to validate the methods developed in this work.
569

Modelos de regressão para análise de demanda de formação de mão de obra qualificada da indústria local

Marcus Vinicius Begossi 24 September 2015 (has links)
O Serviço Nacional de Aprendizagem Industrial (SENAI) foi criado em 1942 com o objetivo de oferecer um ensino profissional de qualidade para a recém-criada indústria de base e, passados mais de 70 anos de sua criação, permanece firme no propósito de aumentar a competitividade do setor industrial. Considerando as unidades escolares do SENAI no Estado de São Paulo, verifica-se, como grande desafio, manter a oferta de cursos alinhada à demanda das indústrias. Para tanto, é imprescindível que haja rapidez na tomada de decisão referente à adequação e renovação da infraestrutura instalada. Com base no problema exposto, o presente trabalho visa verificar a quantidade de mão de obra qualificada requerida pelas indústrias da região onde estão instaladas as unidades do SENAI - SP, utilizando-se de modelos preditivos de regressão que auxiliem os gestores no direcionamento de novos investimentos. Os recursos empregados foram a consulta aos especialistas de diversas áreas do SENAI-SP, assim como a literatura e trabalhos acadêmicos atinentes ao tema. Como métodos, utilizou-se questionários, pesquisas - exploratória, bibliográfica e documental - mineração de dados e ferramentas de regressão linear e não linear, com as variáveis identificadas, para verificar qual das regressões apresenta melhor capacidade preditiva para a demanda por formação de mão de obra. Em particular, o modelo de regressão não linear considerado é uma rede neural artificial feedforward, treinada com o algoritmo backpropagtion para atualização de pesos. Os dados utilizados nos modelos de regressão referem-se à região de Campinas/SP, com o intuito de identificar a necessidade da indústria por mão de obra formada no curso Técnico em Eletrônica. A rede neural artificial foi o modelo de regressão que apresentou o melhor desempenho preditivo da demanda, constituindo-se, desta forma, como um importante instrumento de auxílio ao processo decisório dos gestores das unidades escolares do SENAI-SP em funcionamento.
570

Aprendizado nebuloso híbrido e incremental para classificar pixels por cores. / Hybrid and incremental fuzzy learning to classify pixels by colors.

Bonventi Junior, Waldemar 30 June 2005 (has links)
Segmentação de uma imagem é um processo de extrema importância em processamento de imagens e consiste em subdividir a imagem em partes constituintes correspondentes a objetos de interesse no domínio de aplicação. Objetos de interesse podem apresentar cores que se caracterizam numa imagem por um conjunto de pixels, que por sua vez possuem um número muito grande de valores cromáticos. Estes conjuntos podem ser denominados por relativamente poucos rótulos lingüísticos atribuídos por seres humanos, caracterizando as cores, representadas por classes. Entretanto, a fronteira entre estas classes é vaga, pois os valores cromáticos que definem a transição de uma cor para outra dependem de diversos fatores do domínio. Esta tese visa contribuir no processo de segmentação de imagens através da proposta de um classificador de pixels exclusivamente por meio do atributo cor. Para lidar com o problema da vagueza entre as classes de cores, emprega-se a teoria dos conjuntos nebulosos. Assim, propõe-se um aprendizado híbrido e incremental de modelos nebulosos de classes de cores constituintes do classificador. O aprendizado híbrido combina os paradigmas de aprendizado supervisionado e não-supervisionado, transferindo a rotulação individual das instâncias (muito custosa) para a rotulação dos grupos de instâncias similares, pelo agente supervisor. Estes grupos são combinados por meio da aplicação de operadores de agregação adequados, que possibilitam uma forma de aprendizado incremental, onde os modelos das classes existentes podem ser revisados ou novas classes, obtidas com a continuidade do treinamento, podem ser incorporadas aos modelos. Propõe-se, ainda, um processo de generalização do modelo, visando sua completude. O classificador proposto foi testado na modelagem da cor da pele humana em imagens adquiridas em condições ambientais controladas e em condições variadas. Os resultados obtidos mostram a eficácia do classificador proposto, obtendo uma detecção robusta e acurada da cor da pele em imagens digitais coloridas. / Image segmentation is a very important process, which aims at subdividing an image in parts that correspond to objects of interest in the application domain. Objects may depict few colors that are represented in an image by a set of pixels presenting a very large range of chromatic values. A relatively small number of human-defined linguistic labels can be assigned to these sets, and these labels characterize colors represented by classes. However, the borders among these classes are fuzzy, since the chromatic values that define the transition from a class to another depend on different domain factors. This thesis contributes in the image segmentation process by proposing a pixel classifier based exclusively on the color attribute. Fuzzy sets theory is used to deal with the problem of fuzziness among color classes. This thesis proposes a hybrid and incremental scheme for learning fuzzy models of color classes included in the classifier. The hybrid-learning scheme combines unsupervised and supervised learning paradigms, transferring the labeling by a supervisor from individual instances (a very computationally costly task) to groups of similar instances. These groups are combined by application of adequate aggregation operators, providing an incremental learning scheme to the classifier, so that models can be revised and new classes can be incorporated into the models. In order to provide completeness to the models, a generalization process is also proposed. The classifier was tested in the human skin color-modeling problem, by using digital color-images captured under controlled and uncontrolled conditions. Experimental results assess its effectiveness, providing a robust and accurate detection of skin color in digital color-images.

Page generated in 0.063 seconds