Spelling suggestions: "subject:"dão disponíveis."" "subject:"cão disponíveis.""
311 |
Cálculo do Risco de Falha no Controle de Cheias: Uma Abordagem por Equações Diferenciais Estocásticas / Not availableMeira, Silvana Aparecida 21 December 1998 (has links)
Este trabalho propõe um modelo estocástico em conjunto com conceitos de análise de confiabilidade. Nestes modelos, a afluência que atinge o reservatório durante uma cheia é considerada como uma carga, e a capacidade do reservatório para amortecer esta cheia é considerada como uma resistência que o reservatório oferece à sua propagação. Aqui, a carga e a resistência são modeladas como processo do tipo difusão, e utili7a-se a fórmula de Itô para calcular o volume de espera associado a um determinado risco de falha A inferência dos parâmetros do modelo é feita por meio de inferência bayesiana usando-se o algoritmo de simulação de Monte Carlo em cadeias de Markov. Os estimadores de máxima verossimilhança são usados para comparação. O método foi aplicado para um conjunto de dados utilizando-se nove anos de vazões afluentes diárias em período de cheia que chegam à usina de Xavantes. O volume de espera foi calculado pelo método proposto, usando-se descarga de referência constante, e comparado com os volumes obtidos por outros métodos existentes. O método da curva volume x duração deixa um volume de espera constante durante todo o período chuvoso, usando-se somente 83,6% da capacidade do reservatório. O método proposto faz uma alocação dinâmica do volume de espera, utilizando-se 96.5% e 95.3% da capacidade do reservatório quando a abordagem bayesiana e o método de máxima verossimilhança são adotados, respectivamente. Dentre os métodos propostos, o método bayesiano mostrou-se mais vantajoso em relação ao desperdício de energia devido à utilinção da capacidade do reservatório. O método das trajetórias críticas necessita de séries com um comprimento significativo de vazões diárias, e na prática só pode ser aplicado com séries sintéticas de vazões. / This work proposes a stochastic model together with the concepts of reliability analysis. In these models, the inflow that reaches the reservoir during the flood is considered as a load, and the capacity of the reservoir for deaden this flood is considered as a resistance that the reservoir offers to its spreading. Here, the load and the resistance are modelled like a diffusion process, and it is used the 11(3 formula to calculate the waiting volume associate with a fali risk. The inference of the parameter of the model is done by Bayesian inference using the MCMC. The estimates of the maximum likelihood are used to compare. The method was applied together with the date record of mine year of daily streamflow during the period of the flood that come to Xavantes Power Station. The wait volume was calculated by the proposed method, using the discharge of the constant reference, and comparing with the volumes obtained through other existing methods. The curve volume x duration, leave a constant wait volume during the whole wet period, using onty 83.6% of the reservoir capacity. The method proposed does a dinamic allocation of the wait volume, using 96.5% and 95.3% of the capacity from the reservoir when the Bayesian approach and the maximum likelihood method are adopted, respectively. Within the proposed methods, the Bayesian method showed to be with more advantageons in relation to the waste of the energy due to the urilization of the reservoir capacity. The method of the critical trajectories need some series with the significant lenght of the daily discharge, in practive this only can applied with synthetic streamflow series.
|
312 |
Teste de Mutação: subsídios para a redução do custo de aplicação / Mutation test: elements for reducing the costJorge, Rodrigo Funabashi 22 March 2002 (has links)
PARA sistematizar os testes e contornar as restrições de tempo e custo a ele associadas, diversas técnicas, critérios e ferramentas têm sido desenvolvidas. Além disso, visando ao estabelecimento de uma estratégia de teste que apresente baixo custo de aplicação e alta eficácia em revelar a presença de erros, estudos teóricos e empíricos vêm sendo conduzidos pela comunidade de teste. Os critérios de teste, Análise de Mutantes e Mutação de Interface, apresentam problemas de custo relacionados ao grande número de mutantes gerados e equivalentes, sendo de fundamental importância o desenvolvimento de abordagens que viabilizem a sua aplicação prática. O presente trabalho está inserido nesse contexto e tem como objetivo analisar os operadores de mutação implementados nas ferramentas Proteum e PROTEUM/IM, que apoiam a aplicação dos critérios Análise de Mutantes e Mutação de Interface, respectivamente, levando em consideração não só o número de mutantes gerados mas também o esforço requerido na identificação e eliminação de mutantes equivalentes e mutantes que morrem facilmente. Tal análise permitiu a determinação de heurísticas para eliminação de mutantes equivalentes e o estabelecimento de estratégias incrementais para aplicação dos operadores de mutação, reduzindo com isso o custo do teste em nível de unidade e de integração sem comprometer sua qualidade e contribuindo para a evolução dessas ferramentas para a sua aplicação em ambientes industriais de produção de software. / TO systematize testing and to outline the constraints of time and cost associated to testing activity, several techniques, criteria and tools have been developed. Besides, aiming at establishing testing strategies of low cost and high effectiveness in revealing the presence of errors, theoretical and empirical studies have been carried out by the testing community. Testing criteria such as, Mutation Analysis and Interface Mutation, present cost problems related to the large number of mutants and equivalency, being of fundamental importance the development of approaches to make possible their practical application. In this context, the present work aims at analyzing the mutant operators implemented in the Proteum and PROTEUM/IM tools, that support the application of the Mutation Analysis and Interface Mutation, respectively, considering not only the number of generated mutants but also the effort required in the identification and elimination of equivalent mutants and mutants that die easily. Such analysis allowed the determination of heuristics for elimination of equivalent mutants and the development of incremental strategies to apply mutant operators, reducing the cost of unit and integration testing without compromising quality. This work might also contribute to the evolution of these testing tools and to their application in software production industrial environments.
|
313 |
Problemas de otimização linear canalizados e esparsos / Sparse two-bounded linear optImization problemsGhidini, Carla Taviane Lucke da Silva 17 December 2002 (has links)
A otimização linear tem sido objeto de estudo desde a publicação do método simplex em 1947, o qual vem sendo utilizado na prática com relativa eficiência. Com isso, inúmeras variantes deste método surgiram na tentativa de se obter métodos mais eficientes, além de várias implementações objetivando a resolução de problemas de grande porte. Os problemas de otimização linear canalizados e esparsos, objeto principal deste trabalho, são problemas de grande interesse prático, pois representam vários problemas reais, como por exemplo, problemas da programação da produção, problemas de mistura e muitos outros. O método dual simplex canalizado com busca linear por partes é um método do tipo simplex especializado para os problemas de otimização linear canalizados e será detalhado neste trabalho. Experiências computacionais foram realizadas para algumas classes de problemas de otimização linear com o objetivo de analisar o desempenho deste método, o qual foi implementado com algumas heurísticas de pivoteamento e formas de atualização da matriz básica para tentar manter a esparsidade presente e reduzir o tempo de resolução dos problemas. / Linear optimization has been studied since 1947 when the simplex method was published by George Dantzig, and ií is still successlully used in practice. A number of varianls to the simplex method have been proposed trying to obtain better efficiency. In addition, various implementations have been proposed to deal with large scale problems. Two-side constraints and sparse linear optimization problems, the main object of this work, are of great interest in practice, since they represent a number of real problems, such as, production planning problems. mix problems and others. This work presents a simplex-typed method, named two-side constraint dual simplex method with piecewise linear search. This method was implemented together with some heuristics to handle sparsity and run to solve a set of linear optimization problems in order to analyse their computational performance.
|
314 |
Teoria métrica de curvas reais e complexas / Metric theory of real and complex curvesFernandes, Alexandre César Gurgel 27 March 2002 (has links)
Neste trabalho abordamos o problema de classificação de conjuntos singulares sob o ponto de vista métrico. Como resultado principal, apresentamos um teorema de classificação de germes de curvas complexas, munidos da métrica euclidina induzida, módulo homeomorfismos bi-Lipschitz. A estratégia usada para a obtenção deste resultado foi o estudo do contato de arcos reais convenientes nessas curvas. / In this work we approach the problem of classification of singular sets under the metric viewpoint. As the main result, we present a theorem of classification of germs of complex curves, equipped with the induced Euclidean metric, module bi-Lipschitz homeomorphisms. The used strategy for the attainment of this result was the study of the contact of convenient real arcs in these curves.
|
315 |
Emeet/Inca: captura e acesso de informação multimídia em reuniões distribuídas / Emeet/Inca: capture and access of multimedia information in distributed meetingsBila, Wagner da Silva 29 April 2002 (has links)
Sistemas baseados na captura de experiências ao vivo têm sido investigados em diversos contextos. O presente trabalho teve como objetivo investigar mecanismos para a captura de informação multimídia em ambientes de reuniões de modo a permitir a geração de documentos hipermídia associados na World Wide Web. O foco do trabalho é na captura e no acesso à informação multimídia associada a reuniões distribuídas síncronas. A investigação resultou no levantamento de requisitos necessários para a construção de uma ferramenta instrumentada para capturar informação multimídia associada; no levantamento das limitações existentes para a implementação da ferramenta; na modelagem e na implementação de uma ferramenta, eMeet/InCA, que atende aos requisitos levantados, consideradas as limitações identificadas. / Computing systems based on the capture of live experiences have been investigated in several contexts. This work aimed at investigating mechanisms for capturing multimédia information in meeting environments so as to allow the generation of multimédia enhanced hyperdocuments in the World Wide Web. The focus of the work has been in the capture and access of multimédia information associated to synchronous distributed meetings. The results include: investigation of the requirements demanded from an application instrumented to automatically capture multimédia information in the distributed meetings domain; investigation of the current limitations imposed when such an application is implemented; modeling and implementation of the eMeet/InCA application that, given the limitations discussed, attend the requirements.
|
316 |
Investigando abordagens para a criação automática de ligações entre repositórios web / Approaches for the automatic linking of web repositoriesGuerrero, Jose Antonio Camacho 20 December 2002 (has links)
Muitas de nossas experiências cotidianas são apoiadas pela troca de informações a. qual pode ser capturada de modo a suportar a geração automática de hiperdocumentos que correspondem às experiências capturadas. O Projeto eClass do Geórgia Institute of Technology utiliza computação ubíqua para a captura de informações em ambientes de sala de aula a fim de permitir a produção automática de documentos hipermídia que refletem o conteúdo capturado. Ambientes como os do Projeto eClass permitem a autoria automática de ligações liipertexto a partir da interação do usuário com o ambiente ubíquo. Serviços de criação automática de ligações entre repositórios Web podem explorar técnica, de Recuperação de Informação, como demonstram trabalhos que veem sendo desenvolvidos pelo grupo de pesquisa no qual este trabalho está inserido. No entanto, tais técnicas normalmente permitem a identificação de ligações que não deveriam ser geradas (ligações imprecisas), ao mesmo tempo que não permitem identificar todas as ligações que deveriam ter sido geradas (ligações relevantes). Esses fatos motivaram o trabalho apresentado, que tem como objetivo aprimorar a precisão dos resultados obtidos pelos serviços de criação automática de ligações e. consequentemente, aproximar as ligações criadas àquelas esperadas pelos usuários. Para alcançar esse objetivo. foram utilizadas abordagens de Recuperação de Informação e de Sistemas Hipermídia Abertos para armazenamento das ligações criadas. Através das investigações, foi possível a verificação e a seleção de informações que representam melhor o conteúdo das coleções de informações manipuladas no sentido de prover ligações mais precisas. Como resultado, foram definidos procedimentos, que deram origem a um serviço configurável de criação automática de ligações. / Many everyday experiences aro based on lhe exchange of information which can be captured to support the automatic generation of multimédia hyperdocument.s corresponding to those experientes. The eClass Project, developed at. the Geórgia Inslitute of Technology, exploit s ubiquitous computing technologies to capture information in classrooms towards allowing the automatic generation of hypermedia documents corresponding to live lectures. Such environments allow the automatic generation of hypertext. links from the interaction between users and their ubiquitous computing environments. When the documents generated are made available in the Web, there is a, demand for services that support. the automatic indentification of hypertext links among the documents themselves or among those documents and other web-based material; such services can make use of Information Retrieval techniques. However. Information Retrieval techniques usually lead to the identification of relationships that should not have been generated (generating non-relevant links) at the same time that fail to identify ali relevant relationships (poor recall). The aim of this work is to build upon automatic linking services in order to further investigate information retrieval techniques towards improving the quality of the relationships identified. The investigations have used a collection of documents from online Brazilian Newspapers and t.he Cvstic Fibrosis Collection. The relationships identified have been used to generate links among t.he repositories investigated, while the links have been stored in an open hypermedia. linkbase to allow their use by any applications. The positive results of the investigations have defined the requirenients for a configurable automatic linking service made available as a contribuition of this work.
|
317 |
Investigação de regressão no processo de mineração de dados / Investigation of regression in the data mining process.Dosualdo, Daniel Gomes 30 May 2003 (has links)
Mineração de dados refere-se ao processo responsável por identificar padrões em grandes conjuntos de dados com o objetivo de extrair um novo conhecimento. Depois de extraídos os padrões, a etapa de pós-processamento tem como objetivo avaliar alguns aspectos desses padrões, como precisão, compreensibilidade e interessabilidade. Um dos problemas da mineração de dados preditiva conhecido como regressão tenta predizer o valor de um atributo-meta contínuo baseado em um conjunto de atributos de entrada. No entanto, a regressão em mineração de dados preditivo é uma questão pouco explorada nas áreas de aprendizado de máquina e mineração de dados, uma vez que a maioria das pesquisas são voltadas para os problemas de classificação. Por outro lado, o DISCOVER é um projeto que está sendo desenvolvido no Laboratório de Inteligência Computacional. Ele tem como objetivo fornecer um ambiente integrado para apoiar as etapas do processo de descoberta de conhecimento, oferecendo funcionalidades voltadas para aprendizado de máquina e mineração de dados e textos. O DISCOVER tem motivado a realização de muitos trabalhos em diversas áreas, sendo este mais um projeto a ele integrado. Para auxiliar na preparação dos dados para a construção de um modelo de regressão simbólico e na posterior avaliação desse modelo foi proposto e implementado neste trabalho o ambiente computacional DISCOVER POSTPROCESSING ENVIRONMENT OF REGRESSION - DiPER. Esse ambiente é composto por uma biblioteca de classes, implementada de acordo com as especificações do DISCOVER, que oferece uma série de métodos para serem utilizados na etapa de pós-processamento do processo de mineração de dados. / Data mining refers to the process which are able to find patterns from big amounts of data in order to discover knowledge. After found the patterns, the post-processing stage of Data Mining evaluates some aspects of these patterns such as precision, compreensibility and interessability. The activity of regression in Data Mining tries to predict the values of a continuous target variable based on a set of other variables. Beside the fact of many researches in Machine Learning and Data Mining are concerned to classification problems, there are many real world regression problems. This fact motivates the study of methods related to post-processing in symbolic regression. Moreover, a group of researchers of Computational Intelligence Laboratoiy (LABIC) is developing a research project, called DISCOVER. The aim of DISCOVER is to support the stages of knowledge discovery offering methods to Machine Learning, Data Mining and Text Mining. This work, that is related to regression problems, is one of the projects integrated into the DISCOVER. In this work we proposed and implemented a computational environment, the DISCOVER POST-PROCESSING ENVIRONMENT OF REGRESSION - DiPER - which is a framework implemented according the specifications of DISCOVER project, that offers a collection of methods to be used in the post-processing stage of Data Mining.
|
318 |
Ambiente para exploração de regras / Rule Exploration EnvironmentPaula, Marcos Ferreira de 31 March 2003 (has links)
Recentemente, o desenvolvimento das tecnologias de coleta e armazenamento de dados, a popularização da Internet, e a evolução das necessidades de informação fazem com que qualquer esforço para facilitar a manipulação e o entendimento humano em relação a esse grande leque de informações ganhe grande importância. Nesse sentido, as organizações têm visto com crescente interesse o desenvolvimento de tecnologias automatizadas para extração de conhecimento de grandes volumes de dados. Estas tecnologias têm sido referenciada na literatura como Extração de Conhecimento de Bases de Dados ou Mineração de Dados (MD). Um dos objetivos do processo de Extração de Conhecimento de Bases de Dados é que seus usuários finais possam analisar, compreender e utilizar o conhecimento extraído em um processo de tomada de decisão. Entretanto, do ponto de vista desses usuários, um problema encontrado no íinal do processo de Extração de Conhecimento é que muitos dos algoritmos utilizados geram uma enorme quantidade de padrões, dificultando consideravelmente sua análise. Outro problema frequentemente identificado é a dificuldade na compreensão dos modelos extraídos dos dados. Nesse sentido, diversos trabalhos têm sido desenvolvidos para apoiar os usuários na avaliação e interpretação do conhecimento extraído a partir dos dados. A existência de um Ambiente para Exploração de Regras em que as regras encontradas em um processo de Extração de Conhecimento estejam armazenadas, disponibilizadas aos usuários e que apresente diversos tipos de métodos para sua avaliação pode representar um auxílio efetivo para os usuários na compreensão, identificação das regras interessante e utilização das mesmas. Nesta dissertação, são apresentadas algumas características importantes de um Ambiente para Exploração de Regras, uma arquitetura geral e a implementação de um ambiente deste tipo, o Ambiente RulEE. É também apresentado um estudo de caso realizado com objetivo de mostrar essas características na análise e disponibilização de regras extraídas a partir de um conjunto de dados financeiros. / Recently, the development of the data collection and storage technologies, the popularization of the Internet, and the evolution of the necessities of information give great impor - tance to any effort to facilitate the manipulation and the human comprehension of this great amount of information. In this way, the organizations have seen, with increasing interest, the development of automatized technologies for knowledge extraction from great volumes of data. These technologies have been referenced in literature as Knowledge Discovery in Databases or Data Mining (DM). One of the objectives of the Knowledge Discovery in Database process is to make its final users able to analyze, understand and use the knowledge in a decision making process. However, from the point of view of these users, a problem found in the end of the Knowledge Discovery process is that many of the used algorithms generate an enormous amount of patterns, making difficult its analysis. Another problem frequently identified is the difficulty to understand the models extracted from the data. In this way, several works have been developed to help the users in the evaluation and interpretation of the knowledge extracted from the data. The existence of a Rule Exploration Environment where the rules found in a Knowledge Discovery in Databases process are stored, made available to the users and that presents several types of methods for its evaluation can represent an effective aid for the users in the understanding, identification and use of the interesting rules. In this work, it is prescnted some important characteristics of a Rule Exploration Environment, a general architecture, and an implementation of an environment of this type, the RulEE environment. A case study is also presented showing these characteristics in the exploration of rules extracted from a financial data set.
|
319 |
O oscilador de morse sob a ação de campos externos / Not availableLima, Emanuel Fernandes de 07 April 2006 (has links)
Nesta tese, desenvolvemos um método para obter as soluções do oscilador de Morse sob a ação de campos externos dependentes do tempo. A técnica consiste em expandir o coeficiente relacionado ao contínuo de energias em uma base construída a partir dos polinômios de Laguerre generalizados. Deduzimos fórmulas analíticas para todos os elementos de matriz considerando diversas formas funcionais para o acoplamento de dipolo. Na aproximação linear, expressamos o acoplamento no subespaço contínuo em termos de distribuições de Schwartz enquanto os outros cálculos envolvem séries hipergeométricas. Com aplicação, investigamos os processos de excitação vibracional, dissociação por múltiplos fótonse associação seletiva. Em particular, estudamos o controle desses fenômenos na escala de femtosegundos pelo uso de superposições otimizadas de pulsos externos / In this thesis, we have developed a method to solve the Morse oscillator under time-dependent external fields. The technique consists of expanding the coefficient related to the continuum spectrum in a basis derived from the Laguerre polynomials. We have also deduced analytical formulas for all matrix elements considering several functional forms for the dipole coupling. As an application, we have ivestigated some molecular processes: vibrational excitation, multiphoton dissociation and selective association. We have shown that is possible to control those phenomena in the femto-picosecond timescale by the use of optimized superpositions of external pulses
|
320 |
Síntese, dopagem, propriedades elétricas e caracterização do poli-(para-fenileno) (PPP) / Not availableBello Júnior, Braz 25 September 1991 (has links)
O poli- (para-fenileno) (ppp) foi obtido na forma de pó, utilizando-se um processo de preparação química onde o benzeno foi polimerizado na presença de cloreto de Alumínio e cloreto de cobre. Amostras sólidas na forma de discos, com diâmetro da ordem de 1.25cm e espessuras variáveis entre 0.4 e 1mm foram obtidas pela compactação do pó à uma pressão de 2.28x105N/m2. Para medidas elétricas foram depositados, por evaporação no vácuo, contatos de alumínio nas duas faces das amostars. O ppp na forma de pó, foi dopado com diferentes concentrações de cloreto de ferro dissolvido em nitrometano. Para a caracterização das amostras dopadas e não dopadas foram utilizadas técnicas de medida da condutividade elétrica em função do campo elétrico e da temperatura, medidas do espectro de infravermelho, difração de raios-x, espalhamento de raios-x à baixo angulo e ressonância paramagnética eletrônica. A análise da condutividade em função da temperatura, mostrou que o processo de condução pode ser explicado por um modelo de hopping desenvolvido para semicondutores amorfos. Por difração de raios-x foi possível calcular os parâmetros de cada cela unitária. Por espalhamento de raios-x a baixo angulo, caracterizar as superfícies como fractais por medidas da intensidade do feixe espalhado em função do vetor de espalhamento. Por ressonância magnética nuclear de alta resolução, foi possível observar como o ferro entra na cadeia do polímero, como também verificar uma possível aplicação do modelo de solitons ao PPP / Poly-(p-phenylene) (PPP) was obtained in powder form, using a chemical processes where benzene was polimerizated by treatment with aluminum chloride-cupric chloride. The solid samples in disc form, with diameter of 1.25cm and thickness between 0.4 and 1 mm, has been obtained by powder compactation with pression of 2.28 N/m2. For electrical measurements, vacuum deposition of aluminum eletrodes in the two sides of the samples were used. PPP in powder form was doped with different concentrations of the iron chloride dissolved in dry nitronethane. Measurements of the electrical condutivity as a function of the electric field and temperature, infrared absorption, x-ray diffraction, small angle x-ray diffraction and electron paramagnetic resonance were made. Analysis of the electrical conductivity as a function of temperature showed that the conduction processes could be explained by a hopping model developed for amorphous semiconductors. Using x-ray diffraction was possible to calculate the unit cell parameters. For the small angle x-ray scattering was possible to characterize the surface of the polymer as a fractal using the intensities of the scattered beam as a function of the scattering vector. With high resolution nuclear magnetic resonance technique has been possible to observe not only how the iron atoms enter in the polymer chain but also to show one application of the soliton model for PPP.
|
Page generated in 0.0767 seconds