• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 22
  • 12
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 40
  • 40
  • 10
  • 9
  • 9
  • 8
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Interval methods for global optimization

Moa, Belaid 22 August 2007 (has links)
We propose interval arithmetic and interval constraint algorithms for global optimization. Both of these compute lower and upper bounds of a function over a box, and return a lower and an upper bound for the global minimum. In interval arithmetic methods, the bounds are computed using interval arithmetic evaluations. Interval constraint methods instead use domain reduction operators and consistency algorithms. The usual interval arithmetic algorithms for global optimization suffer from at least one of the following drawbacks: - Mixing the fathoming problem, in which we ask for the global minimum only, with the localization problem, in which we ask for the set of points at which the global minimum occurs. - Not handling the inner and outer approximations for epsilon-minimizer, which is the set of points at which the objective function is within epsilon of the global minimum. - Nothing is said about the quality for their results in actual computation. The properties of the algorithms are stated only in the limit for infinite running time, infinite memory, and infinite precision of the floating-point number system. To handle these drawbacks, we propose interval arithmetic algorithms for fathoming problems and for localization problems. For these algorithms we state properties that can be verified in actual executions of the algorithms. Moreover, the algorithms proposed return the best results that can be computed with given expressions for the objective function and the conditions, and a given hardware. Interval constraint methods combine interval arithmetic and constraint processing techniques, namely consistency algorithms, to obtain tighter bounds for the objective function over a box. The basic building block of interval constraint methods is the generic propagation algorithm. This explains our efforts to improve the generic propagation algorithm as much as possible. All our algorithms, namely dual, clustered, deterministic, and selective propagation algorithms, are developed as an attempt to improve the efficiency of the generic propagation algorithm. The relational box-consistency algorithm is another key algorithm in interval constraints. This algorithm keeps squashing the left and right bounds of the intervals of the variables until no further narrowing is possible. A drawback of this way of squashing is that as we proceed further, the process of squashing becomes slow. Another drawback is that, for some cases, the actual narrowing occurs late. To address these problems, we propose the following algorithms: - Dynamic Box-Consistency algorithm: instead of pruning the left and then the right bound of each domain, we alternate the pruning between all the domains. - Adaptive Box-Consistency algorithm: the idea behind this algorithm is to get rid of the boxes as soon as possible: start with small boxes and extend them or shrink them depending on the pruning outcome. This adaptive behavior makes this algorithm very suitable for quick squashing. Since the efficiency of interval constraint optimization methods depends heavily on the sharpness of the upper bound for the global minimum, we must make some effort to find the appropriate point or box to use for computing the upper bound, and not to randomly pick one as is commonly done. So, we introduce interval constraints with exploration. These methods use non-interval methods as an exploratory step in solving a global optimization problem. The results of the exploration are then used to guide interval constraint algorithms, and thus improve their efficiency.
22

Feature extraction and visualization from higher-order CFD data / Extração de estruturas e visualização de soluções de DFC de alta ordem

Pagot, Christian Azambuja January 2011 (has links)
Métodos de simulação baseados em dinâmica de fluidos computacional (DFC) têm sido empregado em diversas areas de estudo, tais como aeroacústica, dinâmica dos gases, fluidos viscoelásticos, entre outros. Entretanto, a necessidade de maior acurácia e desempenho destes métodos têm dado origem a soluções representadas por conjuntos de dados cada vez mais complexos. Neste contexto, técnicas voltadas à extração de estruturas relevantes (features), e sua posterior visualização, têm um papel muito importante, tornando mais fácil e intuitiva a análise dos dados gerados por simulações. Os métodos de extração de estruturas detectam e isolam elementos significativos no contexto da análise dos dados. No caso da análise de fluidos, estas estruturas podem ser isosuperfícies de pressão, vórtices, linhas de separação, etc. A visualização, por outro lado, confere atributos visuais a estas estruturas, permitindo uma análise mais intuitiva através de sua inspeção visual. Tradicionalmente, métodos de DFC representam suas soluções como funções lineares definidas sobre elementos do domínio. Entretanto, a evolução desses métodos tem dado origem a soluções representadas analiticamente através de funções de alta ordem. Apesar destes métodos apresentarem características desejáveis do ponto de vista de eficiência e acurácia, os dados gerados não são compatíveis com os métodos de extração de estruturas ou de visualização desenvolvidos originalmente para dados interpolados linearmente. Uma alternativa para este problema consiste na redução da ordem dos dados através de reamostragem e posterior aplicação de métodos tradicionais para extração de estruturas e visualização. Porém, o processo de amostragem pode introduzir erros nos dados ou resultar em excessivo consumo de memória, necessária ao armazenamento das amostras. Desta forma, torna-se necessário o desenvolvimento de métodos de extração e visualização que possam operar diretamente sobre os dados de alta ordem. As principais contribuições deste trabalho consistem em dois métodos que operam diretamente sobre dados de alta ordem. O primeiro consiste em um método para extração e visualização de isosuperfícies. O método baseia-se em uma abordagem híbrida que, ao distribuir o esforço computacional envolvido na extração e visualização das isosuperfícies em operações executadas nos espaços do objeto e da imagem, permite a exploração interativa de isosuperfícies através da troca de isovalores. O segundo método consiste em uma técnica para extração de estruturas lineares, onde a avaliação da forma intervalar do operador parallel vectors, em conjunto com métodos de subdivisão adaptativa, é utilizada como critério de pesquisa destas estruturas. Ambos os métodos foram projetados para tirarem proveito do paralelismo do hardware gráfico. Os resultados obtidos são apresentados tanto para dados sintéticos quanto para dados de simulações gerados através do método de Galerkin discontínuo. / Computational fluid dynamics (CFD) methods have been employed in the studies of subjects such as aeroacoustics, gas dynamics, turbo machinery, viscoelastic fluids, among others. However, the need for accuracy and high performance resulted in methods whose solutions are becoming increasingly more complex. In this context, feature extraction and visualization methods play a key role, making it easier and more intuitive to explore and analyze the simulation data. Feature extraction methods detect and isolate relevant structures in the context of data analysis. In the case of flow analysis, these structures could be pressure isocontours, vortex cores, detachment lines, etc. By assigning visual attributes to these structures, visualization methods allow for a more intuitive analysis through visual inspection. Traditionally, CFD methods represent the solution as piecewise linear basis functions defined over domain elements. However, the evolution of CFD methods has led to solutions represented analytically by higher-order functions. Despite their accuracy and efficiency, data generated by these methods are not compatible with feature extraction and visualization methods targeted to linearly interpolated data. An alternative approach is resampling, which allows the use of existing low order feature extraction and visualization methods. However, resampling is not desirable since it may introduce error due to subsampling and increase memory consumption associated to samples storage. To overcome these limitations, attention has recently been given to methods that handle higher-order data directly. The main contributions of this thesis are two methods developed to operate directly over higher-order data. The first method consists of an isocontouring method. It relies on a hybrid technique that, by splitting the isocontouring workload over image and object space computations, allows for interactive data exploration by dynamically changing isovalues. The second method is a line-type feature extraction method. The search for features is accomplished using adaptive subdivision methods driven by the evaluation of the inclusion form of the parallel vectors operator. Both methods were designed to take advantage of the parallelism of current graphics hardware. The obtained results are presented for synthetic and real simulation higher-order data generated with the discontinuous Galerkin method.
23

Feature extraction and visualization from higher-order CFD data / Extração de estruturas e visualização de soluções de DFC de alta ordem

Pagot, Christian Azambuja January 2011 (has links)
Métodos de simulação baseados em dinâmica de fluidos computacional (DFC) têm sido empregado em diversas areas de estudo, tais como aeroacústica, dinâmica dos gases, fluidos viscoelásticos, entre outros. Entretanto, a necessidade de maior acurácia e desempenho destes métodos têm dado origem a soluções representadas por conjuntos de dados cada vez mais complexos. Neste contexto, técnicas voltadas à extração de estruturas relevantes (features), e sua posterior visualização, têm um papel muito importante, tornando mais fácil e intuitiva a análise dos dados gerados por simulações. Os métodos de extração de estruturas detectam e isolam elementos significativos no contexto da análise dos dados. No caso da análise de fluidos, estas estruturas podem ser isosuperfícies de pressão, vórtices, linhas de separação, etc. A visualização, por outro lado, confere atributos visuais a estas estruturas, permitindo uma análise mais intuitiva através de sua inspeção visual. Tradicionalmente, métodos de DFC representam suas soluções como funções lineares definidas sobre elementos do domínio. Entretanto, a evolução desses métodos tem dado origem a soluções representadas analiticamente através de funções de alta ordem. Apesar destes métodos apresentarem características desejáveis do ponto de vista de eficiência e acurácia, os dados gerados não são compatíveis com os métodos de extração de estruturas ou de visualização desenvolvidos originalmente para dados interpolados linearmente. Uma alternativa para este problema consiste na redução da ordem dos dados através de reamostragem e posterior aplicação de métodos tradicionais para extração de estruturas e visualização. Porém, o processo de amostragem pode introduzir erros nos dados ou resultar em excessivo consumo de memória, necessária ao armazenamento das amostras. Desta forma, torna-se necessário o desenvolvimento de métodos de extração e visualização que possam operar diretamente sobre os dados de alta ordem. As principais contribuições deste trabalho consistem em dois métodos que operam diretamente sobre dados de alta ordem. O primeiro consiste em um método para extração e visualização de isosuperfícies. O método baseia-se em uma abordagem híbrida que, ao distribuir o esforço computacional envolvido na extração e visualização das isosuperfícies em operações executadas nos espaços do objeto e da imagem, permite a exploração interativa de isosuperfícies através da troca de isovalores. O segundo método consiste em uma técnica para extração de estruturas lineares, onde a avaliação da forma intervalar do operador parallel vectors, em conjunto com métodos de subdivisão adaptativa, é utilizada como critério de pesquisa destas estruturas. Ambos os métodos foram projetados para tirarem proveito do paralelismo do hardware gráfico. Os resultados obtidos são apresentados tanto para dados sintéticos quanto para dados de simulações gerados através do método de Galerkin discontínuo. / Computational fluid dynamics (CFD) methods have been employed in the studies of subjects such as aeroacoustics, gas dynamics, turbo machinery, viscoelastic fluids, among others. However, the need for accuracy and high performance resulted in methods whose solutions are becoming increasingly more complex. In this context, feature extraction and visualization methods play a key role, making it easier and more intuitive to explore and analyze the simulation data. Feature extraction methods detect and isolate relevant structures in the context of data analysis. In the case of flow analysis, these structures could be pressure isocontours, vortex cores, detachment lines, etc. By assigning visual attributes to these structures, visualization methods allow for a more intuitive analysis through visual inspection. Traditionally, CFD methods represent the solution as piecewise linear basis functions defined over domain elements. However, the evolution of CFD methods has led to solutions represented analytically by higher-order functions. Despite their accuracy and efficiency, data generated by these methods are not compatible with feature extraction and visualization methods targeted to linearly interpolated data. An alternative approach is resampling, which allows the use of existing low order feature extraction and visualization methods. However, resampling is not desirable since it may introduce error due to subsampling and increase memory consumption associated to samples storage. To overcome these limitations, attention has recently been given to methods that handle higher-order data directly. The main contributions of this thesis are two methods developed to operate directly over higher-order data. The first method consists of an isocontouring method. It relies on a hybrid technique that, by splitting the isocontouring workload over image and object space computations, allows for interactive data exploration by dynamically changing isovalues. The second method is a line-type feature extraction method. The search for features is accomplished using adaptive subdivision methods driven by the evaluation of the inclusion form of the parallel vectors operator. Both methods were designed to take advantage of the parallelism of current graphics hardware. The obtained results are presented for synthetic and real simulation higher-order data generated with the discontinuous Galerkin method.
24

Feature extraction and visualization from higher-order CFD data / Extração de estruturas e visualização de soluções de DFC de alta ordem

Pagot, Christian Azambuja January 2011 (has links)
Métodos de simulação baseados em dinâmica de fluidos computacional (DFC) têm sido empregado em diversas areas de estudo, tais como aeroacústica, dinâmica dos gases, fluidos viscoelásticos, entre outros. Entretanto, a necessidade de maior acurácia e desempenho destes métodos têm dado origem a soluções representadas por conjuntos de dados cada vez mais complexos. Neste contexto, técnicas voltadas à extração de estruturas relevantes (features), e sua posterior visualização, têm um papel muito importante, tornando mais fácil e intuitiva a análise dos dados gerados por simulações. Os métodos de extração de estruturas detectam e isolam elementos significativos no contexto da análise dos dados. No caso da análise de fluidos, estas estruturas podem ser isosuperfícies de pressão, vórtices, linhas de separação, etc. A visualização, por outro lado, confere atributos visuais a estas estruturas, permitindo uma análise mais intuitiva através de sua inspeção visual. Tradicionalmente, métodos de DFC representam suas soluções como funções lineares definidas sobre elementos do domínio. Entretanto, a evolução desses métodos tem dado origem a soluções representadas analiticamente através de funções de alta ordem. Apesar destes métodos apresentarem características desejáveis do ponto de vista de eficiência e acurácia, os dados gerados não são compatíveis com os métodos de extração de estruturas ou de visualização desenvolvidos originalmente para dados interpolados linearmente. Uma alternativa para este problema consiste na redução da ordem dos dados através de reamostragem e posterior aplicação de métodos tradicionais para extração de estruturas e visualização. Porém, o processo de amostragem pode introduzir erros nos dados ou resultar em excessivo consumo de memória, necessária ao armazenamento das amostras. Desta forma, torna-se necessário o desenvolvimento de métodos de extração e visualização que possam operar diretamente sobre os dados de alta ordem. As principais contribuições deste trabalho consistem em dois métodos que operam diretamente sobre dados de alta ordem. O primeiro consiste em um método para extração e visualização de isosuperfícies. O método baseia-se em uma abordagem híbrida que, ao distribuir o esforço computacional envolvido na extração e visualização das isosuperfícies em operações executadas nos espaços do objeto e da imagem, permite a exploração interativa de isosuperfícies através da troca de isovalores. O segundo método consiste em uma técnica para extração de estruturas lineares, onde a avaliação da forma intervalar do operador parallel vectors, em conjunto com métodos de subdivisão adaptativa, é utilizada como critério de pesquisa destas estruturas. Ambos os métodos foram projetados para tirarem proveito do paralelismo do hardware gráfico. Os resultados obtidos são apresentados tanto para dados sintéticos quanto para dados de simulações gerados através do método de Galerkin discontínuo. / Computational fluid dynamics (CFD) methods have been employed in the studies of subjects such as aeroacoustics, gas dynamics, turbo machinery, viscoelastic fluids, among others. However, the need for accuracy and high performance resulted in methods whose solutions are becoming increasingly more complex. In this context, feature extraction and visualization methods play a key role, making it easier and more intuitive to explore and analyze the simulation data. Feature extraction methods detect and isolate relevant structures in the context of data analysis. In the case of flow analysis, these structures could be pressure isocontours, vortex cores, detachment lines, etc. By assigning visual attributes to these structures, visualization methods allow for a more intuitive analysis through visual inspection. Traditionally, CFD methods represent the solution as piecewise linear basis functions defined over domain elements. However, the evolution of CFD methods has led to solutions represented analytically by higher-order functions. Despite their accuracy and efficiency, data generated by these methods are not compatible with feature extraction and visualization methods targeted to linearly interpolated data. An alternative approach is resampling, which allows the use of existing low order feature extraction and visualization methods. However, resampling is not desirable since it may introduce error due to subsampling and increase memory consumption associated to samples storage. To overcome these limitations, attention has recently been given to methods that handle higher-order data directly. The main contributions of this thesis are two methods developed to operate directly over higher-order data. The first method consists of an isocontouring method. It relies on a hybrid technique that, by splitting the isocontouring workload over image and object space computations, allows for interactive data exploration by dynamically changing isovalues. The second method is a line-type feature extraction method. The search for features is accomplished using adaptive subdivision methods driven by the evaluation of the inclusion form of the parallel vectors operator. Both methods were designed to take advantage of the parallelism of current graphics hardware. The obtained results are presented for synthetic and real simulation higher-order data generated with the discontinuous Galerkin method.
25

Aritméticas intervalares aplicadas à solução do problema de fluxo de potência via equações de injeção de corrente

Araújo, Bianca Maria Costa 03 February 2016 (has links)
Submitted by isabela.moljf@hotmail.com (isabela.moljf@hotmail.com) on 2016-08-12T12:40:39Z No. of bitstreams: 1 biancamariacostaaraujo.pdf: 4585632 bytes, checksum: 78f37e18164b9b5f82a0867bf14ee884 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2016-08-15T13:32:18Z (GMT) No. of bitstreams: 1 biancamariacostaaraujo.pdf: 4585632 bytes, checksum: 78f37e18164b9b5f82a0867bf14ee884 (MD5) / Made available in DSpace on 2016-08-15T13:32:18Z (GMT). No. of bitstreams: 1 biancamariacostaaraujo.pdf: 4585632 bytes, checksum: 78f37e18164b9b5f82a0867bf14ee884 (MD5) Previous issue date: 2016-02-03 / Estudos de fluxo de potência são tipicamente utilizados para determinar as condições de operação em estado permanente de um sistema de energia elétrica, avaliadas para um determinado conjunto de valores de geração e carga. Quando os dados de entrada são incertos, vários cenários precisam ser analisados para cobrir a faixa de incerteza. Sob tais condições, torna-se necessária a utilização de algoritmos que incorporem o efeito da incerteza dos dados de geração e carga na análise do fluxo de potência. Como uma alternativa para este problema, um novo metódo de solução é proposto com base na utilização da aritmética afim, que é um modelo melhorado para análise numérica de auto-validação. Nesta aritmética, as quantidades de interesse são representadas como combinações afim de certas variáveis primitivas, que representam as fontes de incerteza nos dados ou aproximações feitas durante o cálculo. Esta técnica é incorporada ao fluxo de potência expresso em termos das equações de injeção de corrente, com as tensões escritas na forma retangular. Posteriomente, os resultados obtidos aplicando-se a aritmética intervalar e a Simulação de Monte Carlo na resolução do problema de incertezas no fluxo de potência em redes de energia elétrica são comparados. / Power flow analysis typically uses a given set of generation and loading profiles to determine steady state operating conditions of electric power systems. When the input data are imprecise, several scenarios need to be analysed to cover the range of uncertainties. Under these conditions, it is necessary to utilise algorithms to incorporate the effect of the uncertainties within the power flow analysis. As an alternative solution to this issue, a new method has been proposed, based on the use of affine arithmetic. This alternative technique has been developed to improve the self-validated numerical analysis. Within affine arithmetic, the quantities of interest are represented by affine combinations of certain primitive variables. The affine combinations can signify both the source of the uncertainties in the data and the approximations during calculations. This technique is incorporated at the power flow which is expressed in terms of current injection equations, with the voltages represented in the rectangular form. The proposed results are later compared with the Monte Carlo Simulation and interval arithmetic, both of which solve the same issue: uncertainties in the power flow analysis of electric power grids.
26

Packing curved objects with interval methods / Méthodes intervalles pour le placement d’objets courbes

Salas Donoso, Ignacio Antonio 29 April 2016 (has links)
Un problème courant en logistique, gestion d’entrepôt, industrie manufacturière ou gestion d’énergie dans les centres de données est de placer des objets dans un espace limité, ou conteneur. Ce problème est appelé problème de placement. De nombreux travaux dans la littérature gèrent le problème de placement en considérant des objets de formes particulières ou en effectuant des approximations polygonales. L’objectif de cette thèse est d’autoriser toute forme qui admet une définition mathématique (que ce soit avec des inégalités algébriques ou des fonctions paramétrées). Les objets peuvent notamment être courbes et non-convexes. C’est ce que nous appelons le problème de placement générique. Nous proposons un cadre de résolution pour résoudre ce problème de placement générique, basé sur les techniques d’intervalles. Ce cadre possède trois ingrédients essentiels : un algorithme évolutionnaire plaçant les objets, une fonction de chevauchement minimisée par cet algorithme évolutionnaire (coût de violation), et une région de chevauchement qui représente un ensemble pré-calculé des configurations relatives d’un objet (par rapport à un autre) qui créent un chevauchement. Cette région de chevauchement est calculée de façon numérique et distinctement pour chaque paire d’objets. L’algorithme sous-jacent dépend également du fait qu’un objet soit représenté par des inégalités ou des fonctions paramétrées. Des expérimentations préliminaires permettent de valider l’approche et d’en montrer le potentiel. / A common problem in logistic, warehousing, industrial manufacture, newspaper paging or energy management in data centers is to allocate items in a given enclosing space or container. This is called a packing problem. Many works in the literature handle the packing problem by considering specific shapes or using polygonal approximations. The goal of this thesis is to allow arbitrary shapes, as long as they can be described mathematically (by an algebraic equation or a parametric function). In particular, the shapes can be curved and non-convex. This is what we call the generic packing problem. We propose a framework for solving this generic packing problem, based on interval techniques. The main ingredients of this framework are: An evolutionary algorithm to place the objects, an over lapping function to be minimized by the evolutionary algorithm (violation cost), and an overlapping region that represents a pre-calculated set of all the relative configurations of one object (with respect to the other one) that creates an overlapping. This overlapping region is calculated numerically and distinctly for each pair of objects. The underlying algorithm also depends whether objects are described by inequalities or parametric curves. Preliminary experiments validate the approach and show the potential of this framework.
27

Estimation of Wordlengths for Fixed-Point Implementations using Polynomial Chaos Expansions

Rahman, Mushfiqur January 2023 (has links)
Due to advances in digital computing much of the baseband signal processing of a communication system has moved into the digital domain from the analog domain. Within the domain of digital communication systems, Software Defined Radios (SDRs) allow for majority of the signal processing tasks to be implemented in reconfigurable digital hardware. However this comes at a cost of higher power and resource requirements. Therefore, highly efficient custom hardware implementations for SDRs are needed to make SDRs feasible for practical use. Efficient custom hardware motivates the use of fixed point arithmetic in the implementation of Digital Signal Processing (DSP) algorithms. This conversion to finite precision arithmetic introduces quantization noise in the system, which significantly affects the performance metrics of the system. As a result, characterizing quantization noise and its effects within a DSP system is an important challenge that needs to be addressed. Current models to do so significantly over-estimate the quantization effects, resulting in an over-allocation of hardware resources to implement a system. Polynomial Chaos Expansion (PCE) is a method that is currently gaining attention in modelling uncertainty in engineering systems. Although it has been used to analyze quantization effects in DSP systems, previous investigations have been limited to simple examples. The purpose of this thesis is to therefore introduce new techniques that allow the application of PCE to be scaled up to larger DSP blocks with many noise sources. Additionally, the thesis introduces design space exploration algorithms that leverage the accuracy of PCE simulations to estimate bitwidths for fixed point implementations of DSP systems. The advantages of using PCE over current modelling techniques will be presented though its application to case studies relevant to practice. These case studies include Sine Generators, Infinite Impulse Response (IIR) filters, Finite Impulse Response (FIR) filters, FM demodulators and Phase Locked Loops (PLLs). / Thesis / Master of Applied Science (MASc)
28

[en] MODIFIED CAPITAL BUDGETING METHODS UNDER UNCERTAINTIES: AN APPROACH BASED ON FUZZY NUMBERS / [pt] MÉTODOS MODIFICADOS DE AVALIAÇÃO DE INVESTIMENTOS EM CONDIÇÕES DE INCERTEZA: UMA ABORDAGEM BASEADA EM NÚMEROS FUZZY

ANTONIO CARLOS DE SOUZA SAMPAIO FILHO 22 February 2019 (has links)
[pt] Essa tese apresenta uma abordagem alternativa para orçamento de capital, denominada Métodos Modificados de Avaliação de Projetos de Investimentos em Ambiente Fuzzy, para avaliação de projetos em condições de incerteza. O desenvolvimento da abordagem proposta está dividido em duas fases: na primeira fase, é estabelecido um modelo determinístico generalizado que prevê explicitamente a utilização dos custos de oportunidade associados com os fluxos de caixa intermediários de um projeto de investimento empresarial. Os pressupostos implícitos dos métodos modificados da taxa interna de retorno e do valor presente líquido são incluídos nos métodos do índice de lucratividade e do tempo de retorno do investimento total. Os indicadores resultantes são o índice de lucratividade modificado e o tempo de retorno do investimento modificado. Essa abordagem unificada tem a propriedade de coincidir as decisões de aceitação / rejeição de projetos de investimentos de mesmos horizontes de vida e escalas com as do valor presente líquido modificado e, portanto, maximizam a riqueza do acionista. Na segunda fase, números fuzzy triangulares são utilizados para representar as incertezas das variáveis de um projeto de investimento: os fluxos de caixa, as taxas de financiamento e de reinvestimento e a taxa de desconto ajustada ao risco. Os indicadores fuzzy resultantes são o valor presente líquido modificado, a taxa interna de retorno modificada, o índice de lucratividade modificado e o tempo de retorno do investimento modificado. A aplicação de custos de oportunidades e de critérios difusos para a atribuição dos valores das variáveis permite obter resultados mais realistas e compatíveis com as condições de mercado. Devido à complexidade dos cálculos envolvidos, novas funções financeiras de uso amigável são desenvolvidas utilizando Visual Basic for Applications do MS-Excel: três, para avaliação de projetos em condições de certeza (MVPL, MIL e MTRI) e quatro para avaliação em condições de incerteza (MVPLfuzzy, MTIRfuzzy, MILfuzzy e MTRIfuzzy). A principal contribuição dessa tese é a elaboração de uma nova abordagem unificada para orçamento de capital em condições de incerteza que enfatiza os pontos fortes dos métodos modificados do valor presente líquido e da taxa interna de retorno, enquanto contorna os conflitos e as desvantagens individuais dos métodos convencionais. Os resultados mostram que os métodos propostos são mais vantajosos e mais simples de se utilizar que outros métodos de avaliação de investimentos em condições de incerteza. / [en] This thesis presents an alternative approach to capital budgeting, named Fuzzy Modified Methods of Capital Budgeting, for evaluating investment projects under uncertainties. The development of the proposed approach is divided into two phases: in the first stage, a general deterministic model that explicitly provides for the use of the opportunity costs associated with the interim cash flows of a project is established. The implicit assumptions of the modified internal rate of return and modified net present value methods are included in the index of profitability and in the total payback period. The resulting indicators are the modified index of profitability and the modified total payback period. This unified approach has the property to match the decisions of acceptance / rejection of investment projects with same horizons of life and same scales with the decisions of the modified net present value method and therefore maximize shareholder wealth. In the second phase, triangular fuzzy numbers are used to represent the uncertainties of the project variables: cash flows and reinvestment, financing and risk-adjusted discount rates. The resulting indicators are the fuzzy modified net present value, the fuzzy modified internal rate of return, the fuzzy modified index of profitability and the fuzzy modified total payback period. The application of opportunity costs and fuzzy criteria for determining the variables allows obtaining more realists and consistent results with the market conditions. Due to the complexity of the calculations involved, new MS-Excel financial functions are developed by using Visual Basic for Applications: three functions for evaluating projects under conditions of certainty (MVPL, MIL and MTRI) and four functions for evaluating projects under uncertainties (MVPLfuzzy, MTIRfuzzy, MILfuzzy and MTRIfuzzy). The main contribution of this thesis is to develop a unifying approach to capital budgeting under uncertainty that emphasizes the strengths of the methods of modified net present value and modified internal rate of return, while bypassing the individual conflicts and drawbacks of the conventional methods. Results show that the proposed methods are more advantageous and simpler to use than other methods of investment appraisal under uncertainties.
29

Reliable Solid Modelling Using Subdivision Surfaces

Shao, Peihui 02 1900 (has links)
Les surfaces de subdivision fournissent une méthode alternative prometteuse dans la modélisation géométrique, et ont des avantages sur la représentation classique de trimmed-NURBS, en particulier dans la modélisation de surfaces lisses par morceaux. Dans ce mémoire, nous considérons le problème des opérations géométriques sur les surfaces de subdivision, avec l'exigence stricte de forme topologique correcte. Puisque ce problème peut être mal conditionné, nous proposons une approche pour la gestion de l'incertitude qui existe dans le calcul géométrique. Nous exigeons l'exactitude des informations topologiques lorsque l'on considère la nature de robustesse du problème des opérations géométriques sur les modèles de solides, et il devient clair que le problème peut être mal conditionné en présence de l'incertitude qui est omniprésente dans les données. Nous proposons donc une approche interactive de gestion de l'incertitude des opérations géométriques, dans le cadre d'un calcul basé sur la norme IEEE arithmétique et la modélisation en surfaces de subdivision. Un algorithme pour le problème planar-cut est alors présenté qui a comme but de satisfaire à l'exigence topologique mentionnée ci-dessus. / Subdivision surfaces are a promising alternative method for geometric modelling, and have some important advantages over the classical representation of trimmed-NURBS, especially in modelling piecewise smooth surfaces. In this thesis, we consider the problem of geometric operations on subdivision surfaces with the strict requirement of correct topological form, and since this problem may be ill-conditioned, we propose an approach for managing uncertainty that exists inherently in geometric computation. We take into account the requirement of the correctness of topological information when considering the nature of robustness for the problem of geometric operations on solid models, and it becomes clear that the problem may be ill-conditioned in the presence of uncertainty that is ubiquitous in the data. Starting from this point, we propose an interactive approach of managing uncertainty of geometric operations, in the context of computation using the standard IEEE arithmetic and modelling using a subdivision-surface representation. An algorithm for the planar-cut problem is then presented, which has as its goal the satisfaction of the topological requirement mentioned above.
30

Domínios intervalares da matemática computacional

Dimuro, Gracaliz Pereira January 1991 (has links)
Fundamentada a importância da utilização da Teoria dos Intervalos em computação científica, é realizada uma revisão da Teoria Clássica dos Intervalos, com críticas sobre as incompatibilidades encontradas como motivos de diversas dificuldades para desenvolvimento da própria teoria e, consequentemente, das Técnicas Intervalares. É desenvolvida uma nova abordagem para a Teoria dos Intervalos de acordo com a Teoria dos Domínios e a proposta de [ACI 89], obtendo-se os Domínios Intervalares da Matemática Computacional. Introduz-se uma topologia (Topologia de Scott) compatível com a idéia de aproximação, gerando uma ordem de informação, isto é, para quaisquer intervalos x e y, diz-se que se x -c y , então y fornece mais (no mínimo tanto quanto) informação, sobre um real r, do que x. Prova-se que esta ordem de informação induz uma topologia To (topologia de Scott) , que é mais adequada para uma teoria computacional que a topologia da Hausdorff introduzida por Moore [MOO 66]. Cada número real r é aproximado por intervalos de extremos racionais, os intervalos de informação, que constituem o espaço de informação II(Q), superando assim a regressão infinita da abordagem clássica. Pode-se dizer que todo real r é o supremo de uma cadeia de intervalos com extremos racionais “encaixados”. Assim, os reais são os elementos totais de um domínio contínuo, chamado de Domínio dos Intervalos Reais Parciais, cuja base é o espaço de informação II (Q). Cada função contínua da Análise Real é o limite de sequências de funções contínuas entre elementos da base do domínio. Toda função contínua nestes domínios constitui uma função monotônica na base e é completamente representada em termos finitos. É introduzida uma quasi-métrica que induz uma topologia compatível com esta abordagem e provê as propriedades quantitativas, além de possibilitar a utilização da noção de sequências, limites etc, sem que se precise recorrer a conceitos mais complexos. Desenvolvem-se uma aritmética, critérios de aproximação e os conceito de intervalo ponto médio, intervalo valor absoluto e intervalo diâmetro, conceitos compatíveis com esta abordagem. São acrescentadas as operações de união, interseção e as unárias. Apresenta-se um amplo estudo sobre a função intervalar e a inclusão de imagens de funções, com ênfase na obtenção de uma extensão intervalar natural contínua. Esta é uma abordagem de lógica construtiva e computacional. / The importance of Interval Theory for scientific computation is emphasized. A review of the Classical Theory is macle, including a discussion about some incompatibities that cause problems in developing interval algorithms. A new approach to the Interval Theory is developed in the light of the Theory of Domains and according to the ideas by Acióly [ACI 89], getting the Interval Domains of Computational Mathematics. It is introduced a topology (Scott Topology), which is associated with the idea of approximation, generating an information order, that is, for any intervals x and y one says that if x -c y, then "the information given by y is better or at least equal than the one given by x". One proves that this information order induces a To topology (Scott's topology) which is more suitable for a computation theory than that of Hausdorff introduced by Moore [MOO 66]. This approach has the advantage of being both of constructive logic and computational. Each real number is approximated by intervals with rational bounds, named information intervals of the Information Space II(Q), eliminating the infinite regression found in the classical approach. One can say that every real a is the supreme of a chain of rational intervals. Then, the real numbers are the total elements of a continuous domain, named the Domain of the Partial Real Intervals, whose basis is the information space II (Q). Each continuous function in the Real Analysis is the limit of sequences of continuous functions among any elements which belong to the base of the domain. In these same domains, each continuous function is monotonic on the base and it is completely represented by finite terms. It is introduced a quasi-metric that leads to a compatible topology and supplies the quantitative properties. An arithmetic, some approximation criteria, the concepts of mean point interval, absolute value interval and width interval are developed and set operations are added. The ideas of interval functions and the inclusion of ranges of functions are also presented, and a continuous natural interval extension is obtained.

Page generated in 0.0675 seconds