• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3347
  • 195
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 3545
  • 3130
  • 2816
  • 2814
  • 2810
  • 1929
  • 1048
  • 591
  • 508
  • 497
  • 483
  • 420
  • 401
  • 391
  • 369
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Genetic algorithms assisted by similarity-based metamodels / Algoritmos genéticos assistidos por metamodelos baseados em similaridade

Leonardo Goliatt da Fonseca 24 June 2010 (has links)
Vários problemas de interesse em Ciência e Engenharia são formulados como problemas de otimização. A complexidade dos problemas modernos tem levado ao desenvolvimento de modelos matemáticos de complexidade crescente, resultando em modelos de simulação computacionalmente custosos. Algoritmos Genéticos (AG), inspirados na Teoria de Evolução por seleção natural, são ferramentas versáteis em problemas difíceis de busca e otimização. Entretanto, eles usualmente requerem um elevado número de avaliações até a obtenção de uma solução viável ou satisfatória. Em um cenário de simulações dispendiosas, o uso de Algoritmos Genéticos pode tornar-se proibitivo. Uma possível solução para este problema é o uso de um metamodelo, para ser usado no processo de otimização no lugar do modelo de simulação. Nesta tese desenvolveu-se uma metodologia para o uso combinado de AG e metamodelos para otimização mono- e multi-objetivo de alto custo computacional, onde metamodelos baseados em similaridade são incorporados nos AG com o objetivo de melhorar o seu desempenho. A metodologia foi aplicada em problemas de otimização coletados da literatura, e em problemas de Otimização Estrutural, demonstrando sua aplicabilidade e estabelecendo esta como uma alternativa para o melhoramento de soluções em um contexto de orçamento fixo de simulações.
132

Um esquema de Assimilação de dados Oceanográficos para o Modelo Oceânico HYCOM ao largo da Costa Sudeste Brasileira / A Data Assimilation Scheme Using The Ocean Model HYCOM For Southeastern Brazilian Bight

Jean Felix de Oliveira 00 December 2009 (has links)
Neste trabalho é apresentado um esquema de assimilação de dados a ser realizado com o Modelo Oceânico de Coordenadas Híbridas HYCOM ao largo da costa sudeste brasileira. O HYCOM utiliza 3 diferentes coordenadas verticais, a saber: coordenada-z na camada de mistura, coordenada isopicnal no oceano profundo estratificado e coordenada sigma-z nas regiões mais rasas e costeiras. Entretanto, como os perfis verticais das principais variáveis oceânicas, como temperatura, salinidade e densidade, são observados e disponibilizados em coordenadas-z, a assimilação desses dados não é tão trivial. Por esse motivo, uma técnica de transformação de coordenadas verticais de isopicnal para z é aqui proposta como uma alternativa para a realização da assimilação de dados no HYCOM. Essa técnica utiliza multiplicadores de Lagrange juntamente com um processo de otimização que garante a conservação do fluxo de massa barotrópico. A técnica de transformação é aplicada juntamente com o método de assimilação de dados proposto por Ezer & Mellor (1997). Esse método utiliza interpolação estatística e correlações, calculadas a priori com resultados do modelo, entre dados de superfície - temperatura (TSM) e /ou altura (ASM) - e a estrutura de subsuperfície de temperatura e densidade potenciais. Com base nos experimentos numéricos realizados, pode-se verificar que o esquema de assimilação de dados foi capaz de reproduzir eficientemente a circulação oceânica do domínio proposto e com os melhores resultados quando utilizando conjuntamente ASM e TSM nas correlações. / The present work presents a data assimilation scheme customized to work with the Hybrid Coordinate Ocean Model (HYCOM) for the Southeastern Brazilian Bights. HYCOM uses hybrid vertical coordinates, i.e., it uses z coordinates in the mixed layer, isopycnal coordinates in the deep ocean and sigma-z coordinates in the continental shelf. However, since vertical profiles of the main ocean variables, like temperature, density and salinity, are observed in z -coordinates, the assimilation of these data into HYCOM is not trivial. For this reason, a technique to transform vertical profiles from isopycnal coordinates to z -coordinates is here proposed as an alternative to realize data assimilation in HYCOM. This technique uses Lagrangian multipliers with a optmization process that guarantees the conservation of the barotropic mass ux. The technique of transformation is applied with the data assimilation method proposed by Ezer & Mellor (1997). The method uses statistical interpolation and correlations, a priori calculated with the models output, between the sea surface data - temperature (SST) and/or height (SSH) - and subsurface potential temperature and density structures. Numerical experiments showed that the data assimilation scheme is able to reproduce eficiently the local ocean circulation. The best performance scheme included the correlation with both SST and SSH.
133

Identificação e Análise de Comportamentos Anômalos

Anderson Fernandes Pereira dos Santos 10 August 2009 (has links)
Um processo pode ser monitorado de várias maneiras diferentes. A mais usual é a medição de alguma característica do processo. O acompanhamento desta característica, agora representada através de uma variável de controle, permite a identificação de um comportamento não usual, também dito anômalo. Existem diversas medidas que podem ser realizadas sobre um fenômeno.Estas medidas podem sofrer alterações durante todo o ciclo de vida do fenômeno. Destas, algumas podem representar o fenômeno em seus vários estados de transição,permitindo assim,que seja possível acompanhar o fenômeno pela monitoração desta medida.Desta forma, se o fenômeno for interpretado como um processo, esta medida pode ser interpretada como um produto deste processo. Na área de controle estatístico da qualidade há inúmeras ferramentas que permitem o acompanhamento de um processo, em especial de um processo de fabricação.Dentre estas ferramentas há o gráfico de controle que, a partir da interpretação da normalidade de um processo, pode indicar quando um processo torna-se não controlável. A partir de um gráfico de controle para processos não normais e de lógica fuzzy, foi desenvolvido o Algoritmo de Detecção de Anomalias com Janelas Adaptativas. Esse algoritmo foi aplicado nas áreas de Segurança da Informação e Vazão em uma rede de distribuição. No primeiro caso foi utilizado na identificação de ataques de negação de serviço.Ataques deste tipo são caracterizados pelo aumento do número de solicitações a um servidor.O intervalo de tempo entre os pacotes foi a variável selecionada para monitorar o processo. No segundo caso foi utilizado na identificação de vazamentos em redes de distribuição de água.A variável de controle utilizada neste caso foi da vazão obtida em ponto de rede.
134

Métodos não lineares descontínuos submalha para a equação de convecção-difusão-reação

Natalia Cristina Braga Arruda Alves da Silva 16 July 2010 (has links)
Neste trabalho três novas formulações de Galekin descontínuo são desenvolvidas utilizando a estrutura submalha de duas escalas para resolver as equações de convecção-difusão-reação. A primeira, inspirada no método NSGS (Nonlinear Subgrid Stabilization) introduz um termo não-linear de viscosidade submalha agindo apenas nas escalas menores da malha de elementos finitos. A segunda, baseada nas arestas, introduz dois termos de estabilização submalha considerando o resíduo da solução aproximada na escala resolvida em cada elemento, e o salto da solução submalha nas arestas entre os elementos. A terceira, acrescenta viscosidade artificial que atua em todas as escalas, que também é controlada pela solução na escala resolvida a nível de elemento. Todas as formulações podem ser consideradas adaptativas, no sentido de que a estabilização atua somente onde é necessária. Para as duas primeiras formulações as estimativas de erro revelam taxas de convergência semelhantes `as de métodos estabilizados, embora se obtenha taxas ótimas para os três métodos em problemas regulares. Experimentos numéricos são realizados a fim de demonstrar o comportamento dos novos métodos em comparação com outros métodos encontrados na literatura
135

SoCManager: uma ferramenta de apoio ao gerenciamento de configuração de software.

Cunha, João Ronaldo Del-ducca 17 March 2005 (has links)
Made available in DSpace on 2016-06-02T19:06:27Z (GMT). No. of bitstreams: 1 DissJRDDC.pdf: 2103456 bytes, checksum: 111297fe91dcd0df911f41768fdae874 (MD5) Previous issue date: 2005-03-17 / The processes of Software development contribute to the success of software projects by means of the execution of activities that contribute to the fulfillment of the deadlines and the requirements agreed with the customer. The Software Configuration Management (SCM) process, for instance, defines activities for Identification, Control, Status Management and Configuration Audit, that contribute for the rise and leverage of the quality of the project through the control of the produced artifacts and the assistance to the other processes especially maintenance. However, there are still many software companies which yet have not implemented the SCM process, due to the difficulties in turning the execution of this this process in something actually operational. These difficulties include the lack of a policy to the implementation of SCM process and the lack of tools that support SCM activities. In this context and searching to take care of the needs of software companies in improving the quality of its projects, this research project was developed with the objective of assisting the implementation of the SCM process, in software companies. So this research it was divided in three parts: a) an approach for the implementation of a SCM process in software companies; b) a proposal of an approach for the SCM process, which defines the agents and activities inside the process; and c) the implementation of a tool to support the SCM process approach proposed in this research. / Os processos de desenvolvimento de software buscam promover o sucesso dos projetos por meio da execução de atividades que contribuem com o cumprimento de prazos e o atendimento dos requisitos estabelecidos pelo cliente. O Processo de Gerenciamento de Configuração de Software (GCS), por exemplo, auxilia no desenvolvimento do projeto definindo atividades para Identificação, Controle, Administração de Estado e Auditagem da Configuração, que contribuem para a elevação da qualidade do projeto através do controle dos artefatos produzidos e do auxílio aos demais processos, com destaque, o de manutenção. No entanto, muitas empresas de software ainda não implantaram o processo de GCS, devido às dificuldades de tornar a execução deste processo em algo realmente operacional. Estas dificuldades vão desde a falta de abordagens para a implantação do processo de GCS até a escassez de ferramentas que dêem apoio a todas as atividades de um processo de GCS. Neste contexto e buscando atender as necessidades das empresas de software em melhorar a qualidade de seus projetos, este projeto de pesquisa foi desenvolvido com o objetivo de auxiliar a implantação do processo de GCS, em empresas de software. Para tanto esta pesquisa foi dividida em três partes: proposição de uma abordagem para implantação do processo de GCS em empresas de software; proposição de uma abordagem para o processo de GCS, que define os agentes e atividades dentro do processo; e construção de uma ferramenta de apoio à execução do processo de GCS, implementada com base na abordagem para o processo de GCS proposta nesta pesquisa.
136

Explorando Abordagens de Classificação Contextual para Floresta de Caminhos Ótimos

Osaku, Daniel 24 June 2016 (has links)
Submitted by Izabel Franco (izabel-franco@ufscar.br) on 2016-10-10T19:02:01Z No. of bitstreams: 1 TeseDO.pdf: 5356561 bytes, checksum: b2dfa29e88731d9e552bdb0ce8eda412 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-10-21T12:02:00Z (GMT) No. of bitstreams: 1 TeseDO.pdf: 5356561 bytes, checksum: b2dfa29e88731d9e552bdb0ce8eda412 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-10-21T12:02:05Z (GMT) No. of bitstreams: 1 TeseDO.pdf: 5356561 bytes, checksum: b2dfa29e88731d9e552bdb0ce8eda412 (MD5) / Made available in DSpace on 2016-10-21T12:02:11Z (GMT). No. of bitstreams: 1 TeseDO.pdf: 5356561 bytes, checksum: b2dfa29e88731d9e552bdb0ce8eda412 (MD5) Previous issue date: 2016-06-24 / Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) / Pattern recognition techniques have been widely studied and disseminated in order to develop ways to improve the e ectiveness of the pattern classi ers using labeled samples. However, such techniques usually work following the premise that the samples are independent and identically distributed in the feature space, taking into account only the local properties of the image and no information about the correlations between neighboring pixels are employed. The Optimum-Path Forest (OPF) classi er models the instances as the nodes of a graph, being the problem now is reduced to a partition of this graph. Although there are approaches that consider the context in the pattern recognition process, there is no such version for Optimum-Path Forest up to date. Thus, one of the main goal of the presented thesis is to propose a contextual version for the OPF classi er, which would employes contextual informations to support the data classi cation task using methods based on information theory and Markov Random Fields for such purpose. Since the Markov models are parameter-dependent and it is not a straightforward task to nd out the optimal values for such parameters because can assume in nite solutions, another contribution of this work is to propose an approach for modeling the process of nd out the parameters as a optimization problem, being the tness function to be maximized is the OPF accuracy over a labeled set. The results obtained by contextual classi cation were better than traditional classi cation results, as well as the optimization methods applied seemed to be a good alternative to ne-tune parameters of the Markov models as well. / Técnicas de reconhecimento de padrões em imagens foram amplamente estudadas e difundidas com o intuito de desenvolver maneiras para melhorar a eficácia dos classificadores de padrões utilizando amostras rotuladas. Contudo, muitas dessas técnicas classificam seguindo a premissa de que as instâncias são independentes e identicamente distribuídas no espaço de características, levando-se em consideração apenas as propriedades locais da imagem e nenhuma informação sobre as correlações entre pixels vizinhos são utilizadas. O classificador Floresta de Caminhos Ótimos modela as instâncias como sendo os nós de um grafo, sendo que o problema agora é reduzido para um particionamento desse grafo. Embora existam abordagens que levam em consideração o contexto no processo de reconhecimento de padrões, ainda não existe nenhuma versão do classificador Floresta de Caminhos Ótimos nesse sentido. Assim sendo, um dos objetivos principais da presente tese de doutorado _e propor uma versão contextual para a técnica Floresta de Caminhos Ótimos, a qual faria uso então de informações contextuais para auxiliar na tarefa de classificação de dados utilizando métodos baseados em Teoria da Informação e Campos Aleatórios Markovianos para tal finalidade. Uma vez que os modelos Markovianos são dependentes de parâmetros e não é possível encontrar o valor ótimo, pois podem assumir infinitas soluções, uma outra principal contribuição deste trabalho é propor uma abordagem. para modelar o processo de encontrar tais parâmetros como sendo um problema de otimização, em que a função de aptidão a ser maximizada é a acurasse da técnica Floresta de Caminhos Ótimos sobre um conjunto rotulado. Os resultados obtidos foram melhores para classificação contextual do que para o método de classificação tradicional, bem como também os métodos de otimização aplicados demonstraram ser uma boa alternativa para a definição dos parâmetros dos modelos Markovianos.
137

Sistemas com ganho discretamente variado: uma técnica de análise

Rangel Netto, José Lucas Mourão 16 May 1967 (has links)
Submitted by Algacilda Conceição (algacilda@sibi.ufrj.br) on 2018-03-05T18:34:16Z No. of bitstreams: 1 118229.pdf: 1121620 bytes, checksum: df4061b57df5cb1690c0b7f43d939e0c (MD5) / Made available in DSpace on 2018-03-05T18:34:16Z (GMT). No. of bitstreams: 1 118229.pdf: 1121620 bytes, checksum: df4061b57df5cb1690c0b7f43d939e0c (MD5) Previous issue date: 1967-05-16 / Um método de análise baseado numa relação entre operadores é desenvolvido para sistemas lineares variantes no tempo, que admitam o modelo apresentado. Aplicações deste método são apresentadas, como exemplo, para amplificadores com ganho digitalmente controlado, e amplificadores tipo chopper.
138

Redução de alguns problemas de controle ótimo a problemas de programação matemática

Gonzaga, Clóvis Caesar 22 April 1970 (has links)
Submitted by Algacilda Conceição (algacilda@sibi.ufrj.br) on 2018-03-05T20:28:23Z No. of bitstreams: 1 122797.pdf: 3238492 bytes, checksum: 3bca663e6c808e3599e132112d3a01ff (MD5) / Made available in DSpace on 2018-03-05T20:28:23Z (GMT). No. of bitstreams: 1 122797.pdf: 3238492 bytes, checksum: 3bca663e6c808e3599e132112d3a01ff (MD5) Previous issue date: 1970-04-22 / O princípio do mínimo de Pontryagin fornece condições necessárias para que seja minimizada uma funcional condicionada a um problema de controle. Como resultado, obtém-se, em geral, sistemas de equações diferenciais que as variáveis de controle e parâmetros do problema devem satisfazer. Neste trabalho mostramos que cestos tipos de problemas de controle podem ser aproximados, dentro de certo critério, por problemas de programação matemática, cujas soluções devem satisfazer certas condições. Estas aproximações não são do tipo "discretização no tempo", mas são aproximações nas funções de controle usadas. Estudamos, neste trabalho, condições necessárias e suficientes para os problemas simplificados, assim como alguns métodos numéricos para sua solução.
139

Uma sistematização do processamento de dados: aplicação em automatização de bibliotecas

Szwarcfiter, Jayme Luiz 04 1900 (has links)
Submitted by Algacilda Conceição (algacilda@sibi.ufrj.br) on 2018-03-08T17:38:05Z No. of bitstreams: 1 125220.pdf: 5959517 bytes, checksum: 6c906912d9792a506cee2f49291eebe6 (MD5) / Made available in DSpace on 2018-03-08T17:38:05Z (GMT). No. of bitstreams: 1 125220.pdf: 5959517 bytes, checksum: 6c906912d9792a506cee2f49291eebe6 (MD5) Previous issue date: 1971-04 / Os conhecimentos adquiridos na área da aplicação de computadores conhecida como processamento de dados são empíricos e não formalizados. Este trabalho se propõe a sistematizar, classificar e denominar os diferentes processos, meios, elementos e técnicas utilizadas nesta área de atividade. Como aplicação, é desenvolvido um projeto de automação de bibliotecas, que visa dotar uma biblioteca de um sistema de informações internas e externas, de acordo com os princípios teorizados de processamento de dados. / The knowledge acquired in the computer aplication area known as data processing are empiric and not formalized. This work aims at systematizing, classifying and naming the different processes, means, elements and techniques used in this area of activity. As an aplication a library automation project is developed which will provide an internal and external information system to a library, according with the principles presented in the data processing theory.
140

Análise de estabilidade em dinâmica industrial

Kaszkurewicz, Eugenius 12 1900 (has links)
Submitted by Algacilda Conceição (algacilda@sibi.ufrj.br) on 2018-03-15T16:52:02Z No. of bitstreams: 1 131560.pdf: 3141784 bytes, checksum: 8df4c5c2a8f3a0709f0f14ec78ea6152 (MD5) / Made available in DSpace on 2018-03-15T16:52:02Z (GMT). No. of bitstreams: 1 131560.pdf: 3141784 bytes, checksum: 8df4c5c2a8f3a0709f0f14ec78ea6152 (MD5) Previous issue date: 1972-12 / O escopo principal deste trabalho está em dar uma contribuição para o estudo e análise da estabilidade de sistemas descritos por modelos da "Dinâmica Industrial". Para tanto, os modelos são colocados sob uma formulação matemática adequada à aplicação de resultados conhecidos sobre estabilidade; basicamente, o segundo método de Liapunov. Com base em tais resultados, juntamente com outras técnicas e a utilização do computador digital, procura-se fornecer as ferramentas necessárias para a análise de tais sistemas. Os dois primeiros capítulos estão reservados à formulação do problema e à apresentação das definições e resultados mais importantes sobre estabilidade. Os capítulos subsequentes tratam do problema da busca e determinação dos pontos de equilíbrio, da análise de sensibilidade desses pontos em relação à variação dos parâmetros do sistema e da maneira como foi abordado o problema da determinação de um domínio de estabilidade assintótica para o caso exemplo. / The main objective of this work is to give a contribution to the study and analysis of the stability of systems described by models for "Industrial Dynamics”. To this end, the models are placed under a mathematical formulation suitable for the application of known results about stability; specifically, the second method of Liapunov. Based on such results, with the use of other techniques and the digital computer, an attempt is made to furnish the necessary tools to analize such systems. The first two chapters cover the formulation of the problem, definitions and the most important results on stability. The following chapters consider search and determination of equilibrium points, analysis of sensitivity of these points with respect to changes of the system parameters, and the approach taken for the solution of the problem of determination of the domain of asymptotic stability. A specific example is treated in detail.

Page generated in 0.0773 seconds