• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 209
  • 5
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 226
  • 125
  • 53
  • 32
  • 28
  • 27
  • 27
  • 24
  • 24
  • 24
  • 23
  • 23
  • 21
  • 20
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Uma abordagem orientada a sistemas para otimização de escalonamento de processos em grades computacionais / A system-centric approach for process scheduling optimization in computational grids

Paulo Henrique Ribeiro Gabriel 26 April 2013 (has links)
Um dos maiores desafios envolvidos no projeto de grades computacionais é o escalonamento de processos, o qual consiste no mapeamento de processos sobre os computadores disponíveis, a fim de reduzir o tempo de execução de aplicações ou maximizar a utilização de recursos. A literatura na área de Sistemas Distribuídos trata, geralmente, esses dois objetivos separadamente, dando origem às abordagens de escalonamento orientado a aplicações e orientado a recursos, respectivamente. Mais recentemente, uma nova abordagem, denominada escalonamento orientado a sistemas, tem recebido destaque, buscando otimizar ambos objetivos simultaneamente. Seguindo essas abordagens, algoritmos heurísticos e de aproximação têm sido propostos. Os heurísticos buscam por soluções de maneira eficiente sem, contudo, apresentar garantias quanto à qualidade das soluções obtidas. Em contrapartida, os algoritmos de aproximação provêm tais garantias, contudo são mais difíceis de serem projetados, o que justifica o fato de haver apenas versões simplificadas desses algoritmos para cenários de escalonamento de processos. A falta de algoritmos de aproximação adequados para abordar o problema de escalonamento de processos e a necessidade de soluções que atendam o escalonamento orientado a sistemas motivaram esta tese de doutorado que apresenta a proposta do Min Heap-based Scheduling Algorithm (MHSA), um algoritmo de aproximação para o problema de escalonamento de processos orientado a sistemas. Esse algoritmo foi baseado em um modelo de otimização matemática proposto no contexto desta tese. Esse modelo considera os comportamentos de processos e recursos a fim de quantificar a qualidade de soluções de escalonamento. O funcionamento do MHSA envolve a construção de uma árvore min-heap, em que os nós representam computadores e as chaves de ordenação correspondem aos tempos de fila, i.e., ocupação dos computadores. Apesar de esse algoritmo primordialmente reduzir o tempo de execução (ou makespan) de aplicações, essa estrutura em árvore permite que qualquer computador que ocupe o nó raiz receba cargas, o que favorece a ocupação de recursos e, portanto, sua orientação a sistemas. Esse algoritmo tem complexidade assintótica de pior caso igual a O(\'log IND. 2 m\'), em que m corresponde ao número de computadores do sistema. Sua razão de aproximação foi estudada para ambientes distribuídos heterogêneos com e sem a presença de comunicação entre processos, o que permite conhecer, a priori, o nível mínimo de qualidade alcançado por suas soluções. Experimentos foram conduzidos para avaliar o algoritmo proposto e compará-lo a outras propostas. Os resultados confirmam que o MHSA reduz o tempo dispendido na obtenção de boas soluções de escalonamento / One of the most important challenges involved in the design of grid computing systems is process scheduling, which maps applications into the available computers in attempt to reduce the application execution time, or maximize resource utilization. The literature of Distributed Systems usually deals with these two objectives separately, supporting the application-centric and the resourcecentric scheduling, respectively. More recently, a third approach referred to as system-centric scheduling has emerged which attempts to optimize both objectives in conjunction. Heuristic-based and approximation-based algorithms have been proposed to address this third type of scheduling. Heuristics aim to find good solutions at acceptable time constraints, without guaranteeing solution quality. On the other hand, approximation-based algorithms provide optimal solution bounds, however they are more difficult to design what makes them available only to simple scenarios. The need for approximation-based algorithms to support system-centric scheduling has motivated this thesis which presents Min Heap-based Scheduling Algorithm (MHSA). This approximation algorithm is based on a mathematical optimization model, also proposed in this work, which considers process and resource behaviors to measure the quality of scheduling solutions. MHSA builds a min-heap data structure in which tree nodes represent computers and sorting keys correspond to queuing times, i.e., computer workloads. Besides this algorithm primarily reduces application execution times (also referred to as makespan), its data structure allows any computer assume the root node and, consequently, receive workloads, what favors resource utilization. This algorithm has the worst-case time complexity equals to O(\'log IND. 2 m\'), in which m represents the number of system computers. Its approximation ratio was analyzed to heterogeneous distributed systems considering bag-of-tasks and communication-intensive applications. Having this ratio, we know the minimum quality level provided by every scheduling solution. Experiments were performed to compare MHSA to others. Results confirm MHSA reduces the time spent to obtain good quality scheduling solutions
222

The k-hop connected dominating set problem: approximation algorithms and hardness results / O problema do conjunto dominante conexo com k-saltos: aproximação e complexidade

Rafael Santos Coelho 13 June 2017 (has links)
Let G be a connected graph and k be a positive integer. A vertex subset D of G is a k-hop connected dominating set if the subgraph of G induced by D is connected, and for every vertex v in G, there is a vertex u in D such that the distance between v and u in G is at most k. We study the problem of finding a minimum k-hop connected dominating set of a graph (Mink-CDS). We prove that Mink-CDS is NP-hard on planar bipartite graphs of maximum degree 4. We also prove that Mink-CDS is APX-complete on bipartite graphs of maximum degree 4. We present inapproximability thresholds for Mink-CDS on bipar- tite and on (1, 2)-split graphs. Interestingly, one of these thresholds is a parameter of the input graph which is not a function of its number of vertices. We also discuss the complex- ity of computing this graph parameter. On the positive side, we show an approximation algorithm for Mink-CDS. When k = 1, we present two new approximation algorithms for the weighted version of the problem, one of them restricted to graphs with a poly- nomially bounded number of minimal separators. Finally, also for the weighted variant of the problem where k = 1, we discuss an integer linear programming formulation and conduct a polyhedral study of its associated polytope. / Seja G um grafo conexo e k um inteiro positivo. Um subconjunto D de vértices de G é um conjunto dominante conexo de k-saltos se o subgrafo de G induzido por D é conexo e se, para todo vértice v em G, existe um vértice u em D a uma distância não maior do que k de v. Estudamos neste trabalho o problema de se encontrar um conjunto dominante conexo de k-saltos com cardinalidade mínima (Mink-CDS). Provamos que Mink-CDS é NP-difícil em grafos planares bipartidos com grau máximo 4. Mostramos que Mink-CDS é APX-completo em grafos bipartidos com grau máximo 4. Apresentamos limiares de inaproximabilidade para Mink-CDS para grafos bipartidos e (1, 2)-split, sendo que um desses é expresso em função de um parâmetro independente da ordem do grafo. Também discutimos a complexidade computacional do problema de se computar tal parâmetro. No lado positivo, propomos um algoritmo de aproximação para Mink-CDS cuja razão de aproximação é melhor do que a que se conhecia para esse problema. Finalmente, quando k = 1, apresentamos dois novos algoritmos de aproximação para a versão do problema com pesos nos vértices, sendo que um deles restrito a classes de grafos com um número polinomial de separadores minimais. Além disso, discutimos uma formulação de programação linear inteira para essa versão do problema e provamos resultados poliédricos a respeito de algumas das desigualdades que constituem o politopo associado à formulação.
223

Decisão judicial e sua influência sobre a Legislação Tributária Paulista: uma perspectiva neopositivista

Morais, Valério Pimenta de 17 September 2013 (has links)
Made available in DSpace on 2016-04-26T20:22:01Z (GMT). No. of bitstreams: 1 Valerio Pimenta de Morais.pdf: 534429 bytes, checksum: 3d4551c339db91ea1291c16e96fa281a (MD5) Previous issue date: 2013-09-17 / This essay analyses the influence of judicial decisions over São Paulo s tax law, taking as reference the moment of taxation by Public Administration, notedly the moment of tax assessment and its revision, which are markedly positivist, over all when taking into consideration the interpretation of the articles 142 and 149 of Brazilian Tax Code. The neopositivist premise has guided the development of the present essay, since its features have always been present at the analysis promoted, which can be reduced to an idea of complementarity, not only the activities of the government (Legislative, Executive and Judiciary), but also of a philosophical currents of Law. Note that the present analysis focus on Brazilian Federal Constitution, mainly on its principles, which join amplified by the multiplicity of interpreters, bringing semantic fill to the equation that assumes that rule of law is the result of interaction between law (work of Legislative and Executive, acting on its sanction and initiative), interpretation (a result of multiple social actors), and, finally, case law (deriving from the action of Judiciary). In this respect, this essay also examines the systems theory of Niklas Luhmann, that, considering the concept of legal system adopted, served as a support for the analysis of the position occupied by Executive, Legislative and Judiciary relatively to the same system, as well as the analysis of the principles and of the philosophical currents of law and the taxation, conceiving, as a result, the rule of law (which derives from the interaction of the elements which were mentioned above, within the neopositivist idea) and the new role played by case law as a source of law, made possible by the performance of the ideal model of a judge as a guardian-judge. In this context, in response to the questions thrown during the formulation of the introduction of this essay, we apprehend that judgments irradiate normativity, through individual and concrete rule up to general and abstract rule, either through compliance with regulatory expectations contrary to facts or even in case of objectification of judicial proceedings, being responsible for enough irritation that, over all taken into consideration, stimulate legislators create new laws. Thus, the approach between ethics and law, originally built by judicial decisions, tend to pervade the entire the legal system, also serving as a base for taxation moments as well as the moments before taxation, which begin to reproduce the aforementioned approach, representing a final translation of the principles of legal certainty and of equality / Esta dissertação tem por finalidade o estudo da influência das decisões judiciais sobre a legislação tributária paulista, tomando como referência o momento exacional de atuação da sua Administração Tributária, notadamente com o lançamento de ofício e sua revisão, que são tidos como marcadamente positivistas, sobretudo ao se levar em consideração a interpretação do Código Tributário Nacional, em seus artigos 142 e 149. A premissa neopositivista - diga-se de plano - norteou o desenvolvimento do trabalho, uma vez que suas características sempre estiveram presentes na análise que foi promovida, podendo mesmo ser reduzida a uma ideia de complementaridade, não só das atividades dos Poderes de Estado, mas, antes mesmo, das correntes filosóficas do direito. Neste passo, suas notas essenciais, tomadas em consideração, estabeleceram-se pela ambientação na Constituição da República de 1988, com pauta em forte medida principiológica, que, por sua vez, ingressa amplificada pela multiplicidade dos intérpretes, trazendo preenchimento semântico à equação concebida de que a norma jurídica é encontrada como o resultado da interação entre lei (obra dos Poderes Legislativo e Executivo, ao atuar na sua sanção e iniciativa), interpretação (resultado de multíplices atores sociais), e, por fim, jurisprudência (decorrente da atuação do Poder Judiciário). Nessa medida, foi também objeto de nossa investigação a consideração da teoria dos sistemas de Niklas Luhmann, que serviu de suporte para a apreciação, segundo a concepção de sistema jurídico adotada, da posição ocupada pelos Poderes Executivo, Legislativo e Judiciário em relação ao mesmo sistema, a par da apreciação formulada, ainda, da principiologia e das correntes filosóficas do direito e da tributação, concebendo-se, assim, em decorrência, a norma jurídica (resultado da interação dos elementos, antes apontados, fundamentadas no neopositivismo) e no novo papel assumido pela jurisprudência como fonte do direito, viabilizado pela atuação do modelo típico-ideal de juiz, na forma do juiz-guardião. Nesse contexto, com base no quanto se sacou das análises empreendidas ao longo do presente trabalho, em resposta às indagações lançadas durante a formulação da introdução deste, apreendemos que as decisões judiciais irradiam normatividade, num caminho de norma individual e concreta até a geral e abstrata, seja por meio do cumprimento de expectativas normativas contrafáticas, seja mesmo no caso da objetivação das lides submetidas ao Poder Judiciário, sendo responsáveis pela irritação suficiente para que, sobretudo dentro da consideração empreendida, o legislador estadual ou distrital, produza o novo direito positivado. A aproximação efetuada entre a ética e o direito, dessa forma, construída, originariamente, pelas decisões judiciais do Poder Judiciário, tende a perpassar todo o sistema jurídico, servindo de base, ainda, para os momentos pré-exacionais e exacionais, que passam também a reproduzir, de sua parte, esta mencionada aproximação, representando uma tradução final dos princípios da segurança jurídica e da isonomia
224

Métodos para aproximação poligonal e o desenvolvimento de extratores de características de forma a partir da função tangencial

Carvalho, Juliano Daloia de 12 September 2008 (has links)
Whereas manually drawn contours could contain artifacts related to hand tremor, automatically detected contours could contain noise and inaccuracies due to limitations or errors in the procedures for the detection and segmentation of the related regions. To improve the further step of description, modeling procedures are desired to eliminate the artifacts in a given contour, while preserving the important and significant details present in the contour. In this work, are presented a couple of polygonal modeling methods, first a method applied direct on the original contour and other derived from the turning angle function. Both methods use the following parametrization Smin e µmax to infer about removing or maintain a given segment. By the using of the mentioned parameters the proposed methods could be configured according to the application problem. Both methods have been shown eficient to reduce the influence of noise and artifacts while preserving relevant characteristic for further analysis. Systems to support the diagnosis by images (CAD) and retrieval of images by content (CBIR) use shape descriptor methods to make possible to infer about factors existing in a given contour or as base to classify groups with dierent patterns. Shape factors methods should represent a value that is aected by the shape of an object, thus it is possible to characterize the presence of a factor in the contour or identify similarity among contours. Shape factors should be invariant to rotation, translation or scale. In the present work there are proposed the following shape features: index of the presence of convex region (XRTAF ), index of the presence of concave regions (V RTAF ), index of convexity (CXTAF ), two measures of fractal dimension (DFTAF e DF1 TAF ) and the index of spiculation (ISTAF ). All derived from the smoothed turning angle function. The smoothed turning angle function represent the contour in terms of their concave and convex regions. The polygonal modeling and the shape descriptors methods were applied on the breast masses classification issue to evaluate their performance. The polygonal modeling procedure proposed in this work provided higher compression and better polygonal fitness. The best classification accuracies, on discriminating between benign masses and malignant tumors, obtain for XRTAF , V RTAF , CXTAF , DFTAF , DF1 TAF and ISTAF , in terms of area under the receiver operating characteristics curve, were 0:92, 0:92, 0:93, 0:93, 0:92 e 0:94, respectively. / Contornos obtidos manualmente podem conter ruídos e artefatos oriundos de tremores da mão bem como contornos obtidos automaticamente podem os conter dado a problemas na etapa de segmentação. Para melhorar os resultados da etapa de representação e descrição, são necessários métodos capazes de reduzir a influência dos ruídos e artefatos enquanto mantém características relevantes da forma. Métodos de aproximação poligonal têm como objetivo a remoção de ruídos e artefatos presentes nos contornos e a melhor representação da forma com o menor número possível de segmentos de retas. Nesta disserta ção são propostos dois métodos de aproximação poligonal, um aplicado diretamente no contorno e outro que é obtido a partir da função tangencial do contorno original. Ambos os métodos fazem uso dos parâmetros Smin e µmax para inferirem sobre a permanência ou remoção de um dado segmento. Com a utilização destes parâmetros os métodos podem ser configurados para serem utilizados em vários tipos de aplicações. Ambos os métodos mostram-se eficientes na remoção de ruídos e artefatos, enquanto que características relevantes para etapas de pós-processamento são mantidas. Sistemas de apoio ao diagnóstico por imagens e de recuperação de imagens por conte údo fazem uso de métodos descritores de forma para que seja possível inferir sobre características presentes em um dado contorno ou ainda como base para medir a dissimilaridade entre contornos. Métodos descritores de características são capazes de representar um contorno por um número, assim é possível estabelecer a presença de uma característica no contorno ou ainda identificar uma possível similaridade entre os contornos. Métodos para extração de características devem ser invariantes a rotação, translação e escala. Nesta dissertação são propostos os seguintes métodos descritores de características: índice de presença de regiões convexas (XRTAF ), índice da presença de regiões côncavas (V RTAF ), índice de convexidade (CXTAF ), duas medidas de dimensão fractal (DFTAF e DF1 TAF ) e o índice de espículos (ISTAF ). Todos aplicados sobre a função tangencial suavizada. A função tangencial suavizada representa o contorno em termos de suas regiões côncavas e regiões convexas. Os métodos de aproximação poligonal e descritores de características foram aplicados para o problema de classificação de lesões de mama. Os resultados obtidos, mostraram que os métodos de aproximação poligonal propostos neste trabalho resultam em polígonos mais compactos e com melhor representação do contorno original. Os melhores resultados de classificação, na discriminação entre lesões benignas e tumores malignos, obtidos por XRTAF , V RTAF , CXTAF , DFTAF , DF1 TAF e ISTAF , em termos da área sob a curva ROC, foram 0:92, 0:92, 0:93, 0:93, 0:92 e 0:94, respectivamente. / Mestre em Ciência da Computação
225

Análise de carteiras em tempo discreto / Discrete time portfolio analysis

Kato, Fernando Hideki 14 April 2004 (has links)
Nesta dissertação, o modelo de seleção de carteiras de Markowitz será estendido com uma análise em tempo discreto e hipóteses mais realísticas. Um produto tensorial finito de densidades Erlang será usado para aproximar a densidade de probabilidade multivariada dos retornos discretos uniperiódicos de ativos dependentes. A Erlang é um caso particular da distribuição Gama. Uma mistura finita pode gerar densidades multimodais não-simétricas e o produto tensorial generaliza este conceito para dimensões maiores. Assumindo que a densidade multivariada foi independente e identicamente distribuída (i.i.d.) no passado, a aproximação pode ser calibrada com dados históricos usando o critério da máxima verossimilhança. Este é um problema de otimização em larga escala, mas com uma estrutura especial. Assumindo que esta densidade multivariada será i.i.d. no futuro, então a densidade dos retornos discretos de uma carteira de ativos com pesos não-negativos será uma mistura finita de densidades Erlang. O risco será calculado com a medida Downside Risk, que é convexa para determinados parâmetros, não é baseada em quantis, não causa a subestimação do risco e torna os problemas de otimização uni e multiperiódico convexos. O retorno discreto é uma variável aleatória multiplicativa ao longo do tempo. A distribuição multiperiódica dos retornos discretos de uma seqüência de T carteiras será uma mistura finita de distribuições Meijer G. Após uma mudança na medida de probabilidade para a composta média, é possível calcular o risco e o retorno, que levará à fronteira eficiente multiperiódica, na qual cada ponto representa uma ou mais seqüências ordenadas de T carteiras. As carteiras de cada seqüência devem ser calculadas do futuro para o presente, mantendo o retorno esperado no nível desejado, o qual pode ser função do tempo. Uma estratégia de alocação dinâmica de ativos é refazer os cálculos a cada período, usando as novas informações disponíveis. Se o horizonte de tempo tender a infinito, então a fronteira eficiente, na medida de probabilidade composta média, tenderá a um único ponto, dado pela carteira de Kelly, qualquer que seja a medida de risco. Para selecionar um dentre vários modelos de otimização de carteira, é necessário comparar seus desempenhos relativos. A fronteira eficiente de cada modelo deve ser traçada em seu respectivo gráfico. Como os pesos dos ativos das carteiras sobre estas curvas são conhecidos, é possível traçar todas as curvas em um mesmo gráfico. Para um dado retorno esperado, as carteiras eficientes dos modelos podem ser calculadas, e os retornos realizados e suas diferenças ao longo de um backtest podem ser comparados. / In this thesis, Markowitz’s portfolio selection model will be extended by means of a discrete time analysis and more realistic hypotheses. A finite tensor product of Erlang densities will be used to approximate the multivariate probability density function of the single-period discrete returns of dependent assets. The Erlang is a particular case of the Gamma distribution. A finite mixture can generate multimodal asymmetric densities and the tensor product generalizes this concept to higher dimensions. Assuming that the multivariate density was independent and identically distributed (i.i.d.) in the past, the approximation can be calibrated with historical data using the maximum likelihood criterion. This is a large-scale optimization problem, but with a special structure. Assuming that this multivariate density will be i.i.d. in the future, then the density of the discrete returns of a portfolio of assets with nonnegative weights will be a finite mixture of Erlang densities. The risk will be calculated with the Downside Risk measure, which is convex for certain parameters, is not based on quantiles, does not cause risk underestimation and makes the single and multiperiod optimization problems convex. The discrete return is a multiplicative random variable along the time. The multiperiod distribution of the discrete returns of a sequence of T portfolios will be a finite mixture of Meijer G distributions. After a change of the distribution to the average compound, it is possible to calculate the risk and the return, which will lead to the multiperiod efficient frontier, where each point represents one or more ordered sequences of T portfolios. The portfolios of each sequence must be calculated from the future to the present, keeping the expected return at the desired level, which can be a function of time. A dynamic asset allocation strategy is to redo the calculations at each period, using new available information. If the time horizon tends to infinite, then the efficient frontier, in the average compound probability measure, will tend to only one point, given by the Kelly’s portfolio, whatever the risk measure is. To select one among several portfolio optimization models, it is necessary to compare their relative performances. The efficient frontier of each model must be plotted in its respective graph. As the weights of the assets of the portfolios on these curves are known, it is possible to plot all curves in the same graph. For a given expected return, the efficient portfolios of the models can be calculated, and the realized returns and their differences along a backtest can be compared.
226

Análise de carteiras em tempo discreto / Discrete time portfolio analysis

Fernando Hideki Kato 14 April 2004 (has links)
Nesta dissertação, o modelo de seleção de carteiras de Markowitz será estendido com uma análise em tempo discreto e hipóteses mais realísticas. Um produto tensorial finito de densidades Erlang será usado para aproximar a densidade de probabilidade multivariada dos retornos discretos uniperiódicos de ativos dependentes. A Erlang é um caso particular da distribuição Gama. Uma mistura finita pode gerar densidades multimodais não-simétricas e o produto tensorial generaliza este conceito para dimensões maiores. Assumindo que a densidade multivariada foi independente e identicamente distribuída (i.i.d.) no passado, a aproximação pode ser calibrada com dados históricos usando o critério da máxima verossimilhança. Este é um problema de otimização em larga escala, mas com uma estrutura especial. Assumindo que esta densidade multivariada será i.i.d. no futuro, então a densidade dos retornos discretos de uma carteira de ativos com pesos não-negativos será uma mistura finita de densidades Erlang. O risco será calculado com a medida Downside Risk, que é convexa para determinados parâmetros, não é baseada em quantis, não causa a subestimação do risco e torna os problemas de otimização uni e multiperiódico convexos. O retorno discreto é uma variável aleatória multiplicativa ao longo do tempo. A distribuição multiperiódica dos retornos discretos de uma seqüência de T carteiras será uma mistura finita de distribuições Meijer G. Após uma mudança na medida de probabilidade para a composta média, é possível calcular o risco e o retorno, que levará à fronteira eficiente multiperiódica, na qual cada ponto representa uma ou mais seqüências ordenadas de T carteiras. As carteiras de cada seqüência devem ser calculadas do futuro para o presente, mantendo o retorno esperado no nível desejado, o qual pode ser função do tempo. Uma estratégia de alocação dinâmica de ativos é refazer os cálculos a cada período, usando as novas informações disponíveis. Se o horizonte de tempo tender a infinito, então a fronteira eficiente, na medida de probabilidade composta média, tenderá a um único ponto, dado pela carteira de Kelly, qualquer que seja a medida de risco. Para selecionar um dentre vários modelos de otimização de carteira, é necessário comparar seus desempenhos relativos. A fronteira eficiente de cada modelo deve ser traçada em seu respectivo gráfico. Como os pesos dos ativos das carteiras sobre estas curvas são conhecidos, é possível traçar todas as curvas em um mesmo gráfico. Para um dado retorno esperado, as carteiras eficientes dos modelos podem ser calculadas, e os retornos realizados e suas diferenças ao longo de um backtest podem ser comparados. / In this thesis, Markowitz’s portfolio selection model will be extended by means of a discrete time analysis and more realistic hypotheses. A finite tensor product of Erlang densities will be used to approximate the multivariate probability density function of the single-period discrete returns of dependent assets. The Erlang is a particular case of the Gamma distribution. A finite mixture can generate multimodal asymmetric densities and the tensor product generalizes this concept to higher dimensions. Assuming that the multivariate density was independent and identically distributed (i.i.d.) in the past, the approximation can be calibrated with historical data using the maximum likelihood criterion. This is a large-scale optimization problem, but with a special structure. Assuming that this multivariate density will be i.i.d. in the future, then the density of the discrete returns of a portfolio of assets with nonnegative weights will be a finite mixture of Erlang densities. The risk will be calculated with the Downside Risk measure, which is convex for certain parameters, is not based on quantiles, does not cause risk underestimation and makes the single and multiperiod optimization problems convex. The discrete return is a multiplicative random variable along the time. The multiperiod distribution of the discrete returns of a sequence of T portfolios will be a finite mixture of Meijer G distributions. After a change of the distribution to the average compound, it is possible to calculate the risk and the return, which will lead to the multiperiod efficient frontier, where each point represents one or more ordered sequences of T portfolios. The portfolios of each sequence must be calculated from the future to the present, keeping the expected return at the desired level, which can be a function of time. A dynamic asset allocation strategy is to redo the calculations at each period, using new available information. If the time horizon tends to infinite, then the efficient frontier, in the average compound probability measure, will tend to only one point, given by the Kelly’s portfolio, whatever the risk measure is. To select one among several portfolio optimization models, it is necessary to compare their relative performances. The efficient frontier of each model must be plotted in its respective graph. As the weights of the assets of the portfolios on these curves are known, it is possible to plot all curves in the same graph. For a given expected return, the efficient portfolios of the models can be calculated, and the realized returns and their differences along a backtest can be compared.

Page generated in 0.0304 seconds