221 |
Uma abordagem orientada a sistemas para otimização de escalonamento de processos em grades computacionais / A system-centric approach for process scheduling optimization in computational gridsPaulo Henrique Ribeiro Gabriel 26 April 2013 (has links)
Um dos maiores desafios envolvidos no projeto de grades computacionais é o escalonamento de processos, o qual consiste no mapeamento de processos sobre os computadores disponíveis, a fim de reduzir o tempo de execução de aplicações ou maximizar a utilização de recursos. A literatura na área de Sistemas Distribuídos trata, geralmente, esses dois objetivos separadamente, dando origem às abordagens de escalonamento orientado a aplicações e orientado a recursos, respectivamente. Mais recentemente, uma nova abordagem, denominada escalonamento orientado a sistemas, tem recebido destaque, buscando otimizar ambos objetivos simultaneamente. Seguindo essas abordagens, algoritmos heurísticos e de aproximação têm sido propostos. Os heurísticos buscam por soluções de maneira eficiente sem, contudo, apresentar garantias quanto à qualidade das soluções obtidas. Em contrapartida, os algoritmos de aproximação provêm tais garantias, contudo são mais difíceis de serem projetados, o que justifica o fato de haver apenas versões simplificadas desses algoritmos para cenários de escalonamento de processos. A falta de algoritmos de aproximação adequados para abordar o problema de escalonamento de processos e a necessidade de soluções que atendam o escalonamento orientado a sistemas motivaram esta tese de doutorado que apresenta a proposta do Min Heap-based Scheduling Algorithm (MHSA), um algoritmo de aproximação para o problema de escalonamento de processos orientado a sistemas. Esse algoritmo foi baseado em um modelo de otimização matemática proposto no contexto desta tese. Esse modelo considera os comportamentos de processos e recursos a fim de quantificar a qualidade de soluções de escalonamento. O funcionamento do MHSA envolve a construção de uma árvore min-heap, em que os nós representam computadores e as chaves de ordenação correspondem aos tempos de fila, i.e., ocupação dos computadores. Apesar de esse algoritmo primordialmente reduzir o tempo de execução (ou makespan) de aplicações, essa estrutura em árvore permite que qualquer computador que ocupe o nó raiz receba cargas, o que favorece a ocupação de recursos e, portanto, sua orientação a sistemas. Esse algoritmo tem complexidade assintótica de pior caso igual a O(\'log IND. 2 m\'), em que m corresponde ao número de computadores do sistema. Sua razão de aproximação foi estudada para ambientes distribuídos heterogêneos com e sem a presença de comunicação entre processos, o que permite conhecer, a priori, o nível mínimo de qualidade alcançado por suas soluções. Experimentos foram conduzidos para avaliar o algoritmo proposto e compará-lo a outras propostas. Os resultados confirmam que o MHSA reduz o tempo dispendido na obtenção de boas soluções de escalonamento / One of the most important challenges involved in the design of grid computing systems is process scheduling, which maps applications into the available computers in attempt to reduce the application execution time, or maximize resource utilization. The literature of Distributed Systems usually deals with these two objectives separately, supporting the application-centric and the resourcecentric scheduling, respectively. More recently, a third approach referred to as system-centric scheduling has emerged which attempts to optimize both objectives in conjunction. Heuristic-based and approximation-based algorithms have been proposed to address this third type of scheduling. Heuristics aim to find good solutions at acceptable time constraints, without guaranteeing solution quality. On the other hand, approximation-based algorithms provide optimal solution bounds, however they are more difficult to design what makes them available only to simple scenarios. The need for approximation-based algorithms to support system-centric scheduling has motivated this thesis which presents Min Heap-based Scheduling Algorithm (MHSA). This approximation algorithm is based on a mathematical optimization model, also proposed in this work, which considers process and resource behaviors to measure the quality of scheduling solutions. MHSA builds a min-heap data structure in which tree nodes represent computers and sorting keys correspond to queuing times, i.e., computer workloads. Besides this algorithm primarily reduces application execution times (also referred to as makespan), its data structure allows any computer assume the root node and, consequently, receive workloads, what favors resource utilization. This algorithm has the worst-case time complexity equals to O(\'log IND. 2 m\'), in which m represents the number of system computers. Its approximation ratio was analyzed to heterogeneous distributed systems considering bag-of-tasks and communication-intensive applications. Having this ratio, we know the minimum quality level provided by every scheduling solution. Experiments were performed to compare MHSA to others. Results confirm MHSA reduces the time spent to obtain good quality scheduling solutions
|
222 |
The k-hop connected dominating set problem: approximation algorithms and hardness results / O problema do conjunto dominante conexo com k-saltos: aproximação e complexidadeRafael Santos Coelho 13 June 2017 (has links)
Let G be a connected graph and k be a positive integer. A vertex subset D of G is a k-hop connected dominating set if the subgraph of G induced by D is connected, and for every vertex v in G, there is a vertex u in D such that the distance between v and u in G is at most k. We study the problem of finding a minimum k-hop connected dominating set of a graph (Mink-CDS). We prove that Mink-CDS is NP-hard on planar bipartite graphs of maximum degree 4. We also prove that Mink-CDS is APX-complete on bipartite graphs of maximum degree 4. We present inapproximability thresholds for Mink-CDS on bipar- tite and on (1, 2)-split graphs. Interestingly, one of these thresholds is a parameter of the input graph which is not a function of its number of vertices. We also discuss the complex- ity of computing this graph parameter. On the positive side, we show an approximation algorithm for Mink-CDS. When k = 1, we present two new approximation algorithms for the weighted version of the problem, one of them restricted to graphs with a poly- nomially bounded number of minimal separators. Finally, also for the weighted variant of the problem where k = 1, we discuss an integer linear programming formulation and conduct a polyhedral study of its associated polytope. / Seja G um grafo conexo e k um inteiro positivo. Um subconjunto D de vértices de G é um conjunto dominante conexo de k-saltos se o subgrafo de G induzido por D é conexo e se, para todo vértice v em G, existe um vértice u em D a uma distância não maior do que k de v. Estudamos neste trabalho o problema de se encontrar um conjunto dominante conexo de k-saltos com cardinalidade mínima (Mink-CDS). Provamos que Mink-CDS é NP-difícil em grafos planares bipartidos com grau máximo 4. Mostramos que Mink-CDS é APX-completo em grafos bipartidos com grau máximo 4. Apresentamos limiares de inaproximabilidade para Mink-CDS para grafos bipartidos e (1, 2)-split, sendo que um desses é expresso em função de um parâmetro independente da ordem do grafo. Também discutimos a complexidade computacional do problema de se computar tal parâmetro. No lado positivo, propomos um algoritmo de aproximação para Mink-CDS cuja razão de aproximação é melhor do que a que se conhecia para esse problema. Finalmente, quando k = 1, apresentamos dois novos algoritmos de aproximação para a versão do problema com pesos nos vértices, sendo que um deles restrito a classes de grafos com um número polinomial de separadores minimais. Além disso, discutimos uma formulação de programação linear inteira para essa versão do problema e provamos resultados poliédricos a respeito de algumas das desigualdades que constituem o politopo associado à formulação.
|
223 |
Decisão judicial e sua influência sobre a Legislação Tributária Paulista: uma perspectiva neopositivistaMorais, Valério Pimenta de 17 September 2013 (has links)
Made available in DSpace on 2016-04-26T20:22:01Z (GMT). No. of bitstreams: 1
Valerio Pimenta de Morais.pdf: 534429 bytes, checksum: 3d4551c339db91ea1291c16e96fa281a (MD5)
Previous issue date: 2013-09-17 / This essay analyses the influence of judicial decisions over São Paulo s tax
law, taking as reference the moment of taxation by Public Administration, notedly the
moment of tax assessment and its revision, which are markedly positivist, over all
when taking into consideration the interpretation of the articles 142 and 149 of
Brazilian Tax Code.
The neopositivist premise has guided the development of the present essay,
since its features have always been present at the analysis promoted, which can be
reduced to an idea of complementarity, not only the activities of the government
(Legislative, Executive and Judiciary), but also of a philosophical currents of Law.
Note that the present analysis focus on Brazilian Federal Constitution, mainly on its
principles, which join amplified by the multiplicity of interpreters, bringing semantic fill
to the equation that assumes that rule of law is the result of interaction between law
(work of Legislative and Executive, acting on its sanction and initiative), interpretation
(a result of multiple social actors), and, finally, case law (deriving from the action of
Judiciary).
In this respect, this essay also examines the systems theory of Niklas
Luhmann, that, considering the concept of legal system adopted, served as a support
for the analysis of the position occupied by Executive, Legislative and Judiciary
relatively to the same system, as well as the analysis of the principles and of the
philosophical currents of law and the taxation, conceiving, as a result, the rule of law
(which derives from the interaction of the elements which were mentioned above,
within the neopositivist idea) and the new role played by case law as a source of law,
made possible by the performance of the ideal model of a judge as a guardian-judge.
In this context, in response to the questions thrown during the formulation of
the introduction of this essay, we apprehend that judgments irradiate normativity,
through individual and concrete rule up to general and abstract rule, either through
compliance with regulatory expectations contrary to facts or even in case of
objectification of judicial proceedings, being responsible for enough irritation that,
over all taken into consideration, stimulate legislators create new laws.
Thus, the approach between ethics and law, originally built by judicial
decisions, tend to pervade the entire the legal system, also serving as a base for
taxation moments as well as the moments before taxation, which begin to reproduce
the aforementioned approach, representing a final translation of the principles of
legal certainty and of equality / Esta dissertação tem por finalidade o estudo da influência das decisões
judiciais sobre a legislação tributária paulista, tomando como referência o momento
exacional de atuação da sua Administração Tributária, notadamente com o
lançamento de ofício e sua revisão, que são tidos como marcadamente positivistas,
sobretudo ao se levar em consideração a interpretação do Código Tributário
Nacional, em seus artigos 142 e 149.
A premissa neopositivista - diga-se de plano - norteou o desenvolvimento do
trabalho, uma vez que suas características sempre estiveram presentes na análise
que foi promovida, podendo mesmo ser reduzida a uma ideia de
complementaridade, não só das atividades dos Poderes de Estado, mas, antes
mesmo, das correntes filosóficas do direito. Neste passo, suas notas essenciais,
tomadas em consideração, estabeleceram-se pela ambientação na Constituição da
República de 1988, com pauta em forte medida principiológica, que, por sua vez,
ingressa amplificada pela multiplicidade dos intérpretes, trazendo preenchimento
semântico à equação concebida de que a norma jurídica é encontrada como o
resultado da interação entre lei (obra dos Poderes Legislativo e Executivo, ao atuar
na sua sanção e iniciativa), interpretação (resultado de multíplices atores sociais), e,
por fim, jurisprudência (decorrente da atuação do Poder Judiciário).
Nessa medida, foi também objeto de nossa investigação a consideração da
teoria dos sistemas de Niklas Luhmann, que serviu de suporte para a apreciação,
segundo a concepção de sistema jurídico adotada, da posição ocupada pelos
Poderes Executivo, Legislativo e Judiciário em relação ao mesmo sistema, a par da
apreciação formulada, ainda, da principiologia e das correntes filosóficas do direito e
da tributação, concebendo-se, assim, em decorrência, a norma jurídica (resultado da
interação dos elementos, antes apontados, fundamentadas no neopositivismo) e no
novo papel assumido pela jurisprudência como fonte do direito, viabilizado pela
atuação do modelo típico-ideal de juiz, na forma do juiz-guardião.
Nesse contexto, com base no quanto se sacou das análises empreendidas ao
longo do presente trabalho, em resposta às indagações lançadas durante a
formulação da introdução deste, apreendemos que as decisões judiciais irradiam
normatividade, num caminho de norma individual e concreta até a geral e abstrata,
seja por meio do cumprimento de expectativas normativas contrafáticas, seja mesmo
no caso da objetivação das lides submetidas ao Poder Judiciário, sendo
responsáveis pela irritação suficiente para que, sobretudo dentro da consideração
empreendida, o legislador estadual ou distrital, produza o novo direito positivado.
A aproximação efetuada entre a ética e o direito, dessa forma, construída,
originariamente, pelas decisões judiciais do Poder Judiciário, tende a perpassar todo
o sistema jurídico, servindo de base, ainda, para os momentos pré-exacionais e
exacionais, que passam também a reproduzir, de sua parte, esta mencionada
aproximação, representando uma tradução final dos princípios da segurança jurídica
e da isonomia
|
224 |
Métodos para aproximação poligonal e o desenvolvimento de extratores de características de forma a partir da função tangencialCarvalho, Juliano Daloia de 12 September 2008 (has links)
Whereas manually drawn contours could contain artifacts related to hand tremor,
automatically detected contours could contain noise and inaccuracies due to limitations
or errors in the procedures for the detection and segmentation of the related regions. To
improve the further step of description, modeling procedures are desired to eliminate the
artifacts in a given contour, while preserving the important and significant details present
in the contour. In this work, are presented a couple of polygonal modeling methods,
first a method applied direct on the original contour and other derived from the turning
angle function. Both methods use the following parametrization Smin e µmax to infer
about removing or maintain a given segment. By the using of the mentioned parameters
the proposed methods could be configured according to the application problem. Both
methods have been shown eficient to reduce the influence of noise and artifacts while
preserving relevant characteristic for further analysis.
Systems to support the diagnosis by images (CAD) and retrieval of images by content
(CBIR) use shape descriptor methods to make possible to infer about factors existing
in a given contour or as base to classify groups with dierent patterns. Shape factors
methods should represent a value that is aected by the shape of an object, thus it
is possible to characterize the presence of a factor in the contour or identify similarity
among contours. Shape factors should be invariant to rotation, translation or scale. In
the present work there are proposed the following shape features: index of the presence
of convex region (XRTAF ), index of the presence of concave regions (V RTAF ), index
of convexity (CXTAF ), two measures of fractal dimension (DFTAF e DF1
TAF ) and the
index of spiculation (ISTAF ). All derived from the smoothed turning angle function.
The smoothed turning angle function represent the contour in terms of their concave and
convex regions.
The polygonal modeling and the shape descriptors methods were applied on the breast
masses classification issue to evaluate their performance. The polygonal modeling procedure proposed in this work provided higher compression and better polygonal fitness.
The best classification accuracies, on discriminating between benign masses and malignant
tumors, obtain for XRTAF , V RTAF , CXTAF , DFTAF , DF1
TAF and ISTAF , in terms
of area under the receiver operating characteristics curve, were 0:92, 0:92, 0:93, 0:93, 0:92
e 0:94, respectively. / Contornos obtidos manualmente podem conter ruídos e artefatos oriundos de tremores
da mão bem como contornos obtidos automaticamente podem os conter dado a problemas
na etapa de segmentação. Para melhorar os resultados da etapa de representação e
descrição, são necessários métodos capazes de reduzir a influência dos ruídos e artefatos
enquanto mantém características relevantes da forma. Métodos de aproximação poligonal
têm como objetivo a remoção de ruídos e artefatos presentes nos contornos e a melhor
representação da forma com o menor número possível de segmentos de retas. Nesta disserta
ção são propostos dois métodos de aproximação poligonal, um aplicado diretamente no
contorno e outro que é obtido a partir da função tangencial do contorno original. Ambos
os métodos fazem uso dos parâmetros Smin e µmax para inferirem sobre a permanência ou
remoção de um dado segmento. Com a utilização destes parâmetros os métodos podem
ser configurados para serem utilizados em vários tipos de aplicações. Ambos os métodos
mostram-se eficientes na remoção de ruídos e artefatos, enquanto que características
relevantes para etapas de pós-processamento são mantidas.
Sistemas de apoio ao diagnóstico por imagens e de recuperação de imagens por conte
údo fazem uso de métodos descritores de forma para que seja possível inferir sobre
características presentes em um dado contorno ou ainda como base para medir a dissimilaridade
entre contornos. Métodos descritores de características são capazes de representar
um contorno por um número, assim é possível estabelecer a presença de uma característica
no contorno ou ainda identificar uma possível similaridade entre os contornos. Métodos
para extração de características devem ser invariantes a rotação, translação e escala. Nesta
dissertação são propostos os seguintes métodos descritores de características: índice de
presença de regiões convexas (XRTAF ), índice da presença de regiões côncavas (V RTAF ),
índice de convexidade (CXTAF ), duas medidas de dimensão fractal (DFTAF e DF1
TAF ) e
o índice de espículos (ISTAF ). Todos aplicados sobre a função tangencial suavizada. A
função tangencial suavizada representa o contorno em termos de suas regiões côncavas e regiões convexas.
Os métodos de aproximação poligonal e descritores de características foram aplicados
para o problema de classificação de lesões de mama. Os resultados obtidos, mostraram
que os métodos de aproximação poligonal propostos neste trabalho resultam em polígonos
mais compactos e com melhor representação do contorno original. Os melhores resultados
de classificação, na discriminação entre lesões benignas e tumores malignos, obtidos por
XRTAF , V RTAF , CXTAF , DFTAF , DF1
TAF e ISTAF , em termos da área sob a curva ROC,
foram 0:92, 0:92, 0:93, 0:93, 0:92 e 0:94, respectivamente. / Mestre em Ciência da Computação
|
225 |
Análise de carteiras em tempo discreto / Discrete time portfolio analysisKato, Fernando Hideki 14 April 2004 (has links)
Nesta dissertação, o modelo de seleção de carteiras de Markowitz será estendido com uma análise em tempo discreto e hipóteses mais realísticas. Um produto tensorial finito de densidades Erlang será usado para aproximar a densidade de probabilidade multivariada dos retornos discretos uniperiódicos de ativos dependentes. A Erlang é um caso particular da distribuição Gama. Uma mistura finita pode gerar densidades multimodais não-simétricas e o produto tensorial generaliza este conceito para dimensões maiores. Assumindo que a densidade multivariada foi independente e identicamente distribuída (i.i.d.) no passado, a aproximação pode ser calibrada com dados históricos usando o critério da máxima verossimilhança. Este é um problema de otimização em larga escala, mas com uma estrutura especial. Assumindo que esta densidade multivariada será i.i.d. no futuro, então a densidade dos retornos discretos de uma carteira de ativos com pesos não-negativos será uma mistura finita de densidades Erlang. O risco será calculado com a medida Downside Risk, que é convexa para determinados parâmetros, não é baseada em quantis, não causa a subestimação do risco e torna os problemas de otimização uni e multiperiódico convexos. O retorno discreto é uma variável aleatória multiplicativa ao longo do tempo. A distribuição multiperiódica dos retornos discretos de uma seqüência de T carteiras será uma mistura finita de distribuições Meijer G. Após uma mudança na medida de probabilidade para a composta média, é possível calcular o risco e o retorno, que levará à fronteira eficiente multiperiódica, na qual cada ponto representa uma ou mais seqüências ordenadas de T carteiras. As carteiras de cada seqüência devem ser calculadas do futuro para o presente, mantendo o retorno esperado no nível desejado, o qual pode ser função do tempo. Uma estratégia de alocação dinâmica de ativos é refazer os cálculos a cada período, usando as novas informações disponíveis. Se o horizonte de tempo tender a infinito, então a fronteira eficiente, na medida de probabilidade composta média, tenderá a um único ponto, dado pela carteira de Kelly, qualquer que seja a medida de risco. Para selecionar um dentre vários modelos de otimização de carteira, é necessário comparar seus desempenhos relativos. A fronteira eficiente de cada modelo deve ser traçada em seu respectivo gráfico. Como os pesos dos ativos das carteiras sobre estas curvas são conhecidos, é possível traçar todas as curvas em um mesmo gráfico. Para um dado retorno esperado, as carteiras eficientes dos modelos podem ser calculadas, e os retornos realizados e suas diferenças ao longo de um backtest podem ser comparados. / In this thesis, Markowitzs portfolio selection model will be extended by means of a discrete time analysis and more realistic hypotheses. A finite tensor product of Erlang densities will be used to approximate the multivariate probability density function of the single-period discrete returns of dependent assets. The Erlang is a particular case of the Gamma distribution. A finite mixture can generate multimodal asymmetric densities and the tensor product generalizes this concept to higher dimensions. Assuming that the multivariate density was independent and identically distributed (i.i.d.) in the past, the approximation can be calibrated with historical data using the maximum likelihood criterion. This is a large-scale optimization problem, but with a special structure. Assuming that this multivariate density will be i.i.d. in the future, then the density of the discrete returns of a portfolio of assets with nonnegative weights will be a finite mixture of Erlang densities. The risk will be calculated with the Downside Risk measure, which is convex for certain parameters, is not based on quantiles, does not cause risk underestimation and makes the single and multiperiod optimization problems convex. The discrete return is a multiplicative random variable along the time. The multiperiod distribution of the discrete returns of a sequence of T portfolios will be a finite mixture of Meijer G distributions. After a change of the distribution to the average compound, it is possible to calculate the risk and the return, which will lead to the multiperiod efficient frontier, where each point represents one or more ordered sequences of T portfolios. The portfolios of each sequence must be calculated from the future to the present, keeping the expected return at the desired level, which can be a function of time. A dynamic asset allocation strategy is to redo the calculations at each period, using new available information. If the time horizon tends to infinite, then the efficient frontier, in the average compound probability measure, will tend to only one point, given by the Kellys portfolio, whatever the risk measure is. To select one among several portfolio optimization models, it is necessary to compare their relative performances. The efficient frontier of each model must be plotted in its respective graph. As the weights of the assets of the portfolios on these curves are known, it is possible to plot all curves in the same graph. For a given expected return, the efficient portfolios of the models can be calculated, and the realized returns and their differences along a backtest can be compared.
|
226 |
Análise de carteiras em tempo discreto / Discrete time portfolio analysisFernando Hideki Kato 14 April 2004 (has links)
Nesta dissertação, o modelo de seleção de carteiras de Markowitz será estendido com uma análise em tempo discreto e hipóteses mais realísticas. Um produto tensorial finito de densidades Erlang será usado para aproximar a densidade de probabilidade multivariada dos retornos discretos uniperiódicos de ativos dependentes. A Erlang é um caso particular da distribuição Gama. Uma mistura finita pode gerar densidades multimodais não-simétricas e o produto tensorial generaliza este conceito para dimensões maiores. Assumindo que a densidade multivariada foi independente e identicamente distribuída (i.i.d.) no passado, a aproximação pode ser calibrada com dados históricos usando o critério da máxima verossimilhança. Este é um problema de otimização em larga escala, mas com uma estrutura especial. Assumindo que esta densidade multivariada será i.i.d. no futuro, então a densidade dos retornos discretos de uma carteira de ativos com pesos não-negativos será uma mistura finita de densidades Erlang. O risco será calculado com a medida Downside Risk, que é convexa para determinados parâmetros, não é baseada em quantis, não causa a subestimação do risco e torna os problemas de otimização uni e multiperiódico convexos. O retorno discreto é uma variável aleatória multiplicativa ao longo do tempo. A distribuição multiperiódica dos retornos discretos de uma seqüência de T carteiras será uma mistura finita de distribuições Meijer G. Após uma mudança na medida de probabilidade para a composta média, é possível calcular o risco e o retorno, que levará à fronteira eficiente multiperiódica, na qual cada ponto representa uma ou mais seqüências ordenadas de T carteiras. As carteiras de cada seqüência devem ser calculadas do futuro para o presente, mantendo o retorno esperado no nível desejado, o qual pode ser função do tempo. Uma estratégia de alocação dinâmica de ativos é refazer os cálculos a cada período, usando as novas informações disponíveis. Se o horizonte de tempo tender a infinito, então a fronteira eficiente, na medida de probabilidade composta média, tenderá a um único ponto, dado pela carteira de Kelly, qualquer que seja a medida de risco. Para selecionar um dentre vários modelos de otimização de carteira, é necessário comparar seus desempenhos relativos. A fronteira eficiente de cada modelo deve ser traçada em seu respectivo gráfico. Como os pesos dos ativos das carteiras sobre estas curvas são conhecidos, é possível traçar todas as curvas em um mesmo gráfico. Para um dado retorno esperado, as carteiras eficientes dos modelos podem ser calculadas, e os retornos realizados e suas diferenças ao longo de um backtest podem ser comparados. / In this thesis, Markowitzs portfolio selection model will be extended by means of a discrete time analysis and more realistic hypotheses. A finite tensor product of Erlang densities will be used to approximate the multivariate probability density function of the single-period discrete returns of dependent assets. The Erlang is a particular case of the Gamma distribution. A finite mixture can generate multimodal asymmetric densities and the tensor product generalizes this concept to higher dimensions. Assuming that the multivariate density was independent and identically distributed (i.i.d.) in the past, the approximation can be calibrated with historical data using the maximum likelihood criterion. This is a large-scale optimization problem, but with a special structure. Assuming that this multivariate density will be i.i.d. in the future, then the density of the discrete returns of a portfolio of assets with nonnegative weights will be a finite mixture of Erlang densities. The risk will be calculated with the Downside Risk measure, which is convex for certain parameters, is not based on quantiles, does not cause risk underestimation and makes the single and multiperiod optimization problems convex. The discrete return is a multiplicative random variable along the time. The multiperiod distribution of the discrete returns of a sequence of T portfolios will be a finite mixture of Meijer G distributions. After a change of the distribution to the average compound, it is possible to calculate the risk and the return, which will lead to the multiperiod efficient frontier, where each point represents one or more ordered sequences of T portfolios. The portfolios of each sequence must be calculated from the future to the present, keeping the expected return at the desired level, which can be a function of time. A dynamic asset allocation strategy is to redo the calculations at each period, using new available information. If the time horizon tends to infinite, then the efficient frontier, in the average compound probability measure, will tend to only one point, given by the Kellys portfolio, whatever the risk measure is. To select one among several portfolio optimization models, it is necessary to compare their relative performances. The efficient frontier of each model must be plotted in its respective graph. As the weights of the assets of the portfolios on these curves are known, it is possible to plot all curves in the same graph. For a given expected return, the efficient portfolios of the models can be calculated, and the realized returns and their differences along a backtest can be compared.
|
Page generated in 0.0304 seconds