• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 21
  • 21
  • 10
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 63
  • 20
  • 12
  • 10
  • 10
  • 9
  • 9
  • 9
  • 9
  • 8
  • 7
  • 7
  • 7
  • 7
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Optimisation de vecteurs propres de Perron et applications : du référencement de pages web à la chronothérapie

Fercoq, Olivier 17 September 2012 (has links) (PDF)
Les moteurs de recherche jouent un rôle essentiel sur le Web. Ils rassemblent des informations sur les pages web et pour chaque requête d'un internaute, ils donnent une liste ordonnée de pages pertinentes. Ils utilisent divers algorithmes pour classer les pages en fonction de leur contenu textuel ou de la structure d'hyperlien du Web. Ici, nous nous concentrons sur les algorithmes qui utilisent cette structure d'hyperliens, comme le PageRank, HITS, SALSA et HOTS. La notion fondamentale pour tous ces algorithmes est le graphe du web. C'est le graphe orienté qui a un noeud pour chaque page web et un arc entre les noeuds i et j si il y a un hyperlien entre les pages i et j. Le problème original considéré dans cette thèse est l'optimisation du référencement des pages d'un site web donné. Il consiste à trouver une stratégie optimale de liens qui maximise une fonction scalaire d'un classement donné sous des contraintes de design. Le PageRank, HITS et SALSA classent les pages par un vecteur de Perron, c'est-à-dire qu'ils correspondent au vecteur propre principal d'une matrice à coefficients positifs. Quand on optimise le référencement, on optimise donc une fonction scalaire du vecteur propre de Perron sur un ensemble de matrices positives irréductibles. La matrice est construite à partir du graphe du web, donc commander les hyperliens revient à commander la matrice elle-même. Nous étudions d'abord un problème général d'optimisation du PageRank avec une fonction d'utilité correspondant au revenu total du site et des contraintes de design. Ce cas est d'un intérêt particulier car pour de nombreux sites la valeur du PageRank est corrélée au chiffre d'affaires. Nous avons réduit le problème d'optimisation du PageRank à des problèmes de décision markoviens dont les ensembles d'action sont définis implicitement comme étant les points extrêmes de polytopes qui ont un oracle de séparation polynomial. Nous montrons que de tels problèmes de décision markoviens sont solubles en temps polynomial et nous donnons un algorithme qui passe à l'échelle pour la résolution effective du problème d'optimisation du PageRank sur de grandes bases de données. Ensuite, nous étudions le problème général de l'optimisation d'une fonction scalaire du vecteur propre de Perron sur un ensemble de matrices positives irréductibles. Cela couvre tous les classements par vecteur de Perron, HITS et SALSA compris. Nous montrons que la matrice des dérivées partielles de la fonction objectif a un petit rang et peut être calculée par un algorithme qui a les mêmes propriétés de convergence que la méthode de la puissance utilisée pour calculer le classement. Nous donnons un algorithme d'optimisation qui couple les itérations puissance et gradient et nous prouvons sa convergence vers un point stationnaire du problème d'optimisation. En considérant HOTS comme un vecteur de Perron non linéaire, nous montrons que l'algorithme HOTS converge géométriquement et nous résolvons l'optimisation locale de HOTS. Finalement, nous étendons le domaine d'application des méthodes d'optimisation du vecteur propre et de la valeur propre de Perron à l'optimisation de la chimiothérapie, sous l'hypothèse que les cellules se comportent différemment suivant l'heure de la journée. Nous voulons profiter de cette caractéristique pour minimiser le taux de croissance des cellules cancéreuses tout en maintenant le taux de croissance des cellules saines au dessus d'un seuil de toxicité donné. L'objectif et la contrainte peuvent s'écrire comme les valeurs propres de Floquet de modèles d'EDP structurés en âge avec des coefficients périodiques, qui sont approchés par des valeurs propres de Perron dans le problème discrétisé. Nous cherchons des stratégies d'injection de médicament localement optimales par une méthode des multiplicateurs où les minimisations sans contrainte sont faites en utilisant l'algorithme couplant les itérations puissance et gradient développé dans le cadre de l'optimisation du référencement.
52

Quantum Dragon Solutions for Electron Transport through Single-Layer Planar Rectangular

Inkoom, Godfred 08 December 2017 (has links)
When a nanostructure is coupled between two leads, the electron transmission probability as a function of energy, E, is used in the Landauer formula to obtain the electrical conductance of the nanodevice. The electron transmission probability as a function of energy, T (E), is calculated from the appropriate solution of the time independent Schrödinger equation. Recently, a large class of nanostructures called quantum dragons has been discovered. Quantum dragons are nanodevices with correlated disorder but still can have electron transmission probability unity for all energies when connected to appropriate (idealized) leads. Hence for a single channel setup, the electrical conductivity is quantized. Thus quantum dragons have the minimum electrical conductance allowed by quantum mechanics. These quantum dragons have potential applications in nanoelectronics. It is shown that for dimerized leads coupled to a simple two-slice (l = 2, m = 1) device, the matrix method gives the same expression for the electron transmission probability as renormalization group methods and as the well known Green's function method. If a nanodevice has m atoms per slice, with l slices to calculate the electron transmission probability as a function of energy via the matrix method requires the solution of the inverse of a (2 + ml) (2 + ml) matrix. This matrix to invert is of large dimensions for large m and l. Taking the inverse of such a matrix could be done numerically, but getting an exact solution may not be possible. By using the mapping technique, this reduces this large matrix to invert into a simple (l + 2) (l + 2) matrix to invert, which is easier to handle but has the same solution. By using the map-and-tune approach, quantum dragon solutions are shown to exist for single-layer planar rectangular crystals with different boundary conditions. Each chapter provides two different ways on how to find quantum dragons. This work has experimental relevance, since this could pave the way for planar rectangular nanodevices with zero electrical resistance to be found. In the presence of randomness of the single-band tight-binding parameters in the nanodevice, an interesting quantum mechanical phenomenon called Fano resonance of the electron transmission probability is shown to be observed.
53

Finding and exploiting structure in complex systems via geometric and statistical methods

Grover, Piyush 06 July 2010 (has links)
The dynamics of a complex system can be understood by analyzing the phase space structure of that system. We apply geometric and statistical techniques to two Hamiltonian systems to find and exploit structure in the phase space that helps us get qualitative and quantitative results about the phase space transport. While the structure can be revealed by the study of invariant manifolds of fixed points and periodic orbits in the first system, there do not exist any fixed points (and hence invariant manifolds) in the second system. The use of statistical (or measure theoretic) and topological methods reveals the phase space structure even in the absence of fixed points or stable and unstable invariant manifolds. The first problem we study is the four-body problem in the context of a spacecraft in the presence of a planet and two of its moons, where we exploit the phase space structure of the problem to devise an intelligent control strategy to achieve mission objectives. We use a family of analytically derived controlled Keplerian Maps in the Patched-Three-Body framework to design fuel efficient trajectories with realistic flight times. These maps approximate the dynamics of the Planar Circular Restricted Three Body Problem (PCR3BP) and we patch solutions in two different PCR3BPs to form the desired trajectories in the four body system. The second problem we study concerns phase space mixing in a two-dimensional time dependent Stokes flow system. Topological analysis of the braiding of periodic points has been recently used to find lower bounds on the complexity of the flow via the Thurston-Nielsen classification theorem (TNCT). We extend this framework by demonstrating that in a perturbed system with no apparent periodic points, the almost-invariant sets computed using a transfer operator approach are the natural objects on which to pin the TNCT. / Ph. D.
54

Empilements de sphères et bêta-entiers

Verger-Gaugry, Jean-Louis 09 June 2006 (has links) (PDF)
Les objets considérés dans cette thèse sont les empilements de sphères égales, principalement de $R^n$, et les beta-entiers, pour lesquels on utilise indifféremment le langage des empilements de sphères ou celui des ensembles uniformément discrets pour les décrire. Nous nous sommes concentrés sur les problèmes suivants : (i) aspects métriques et topologiques de l'espace des empilements de sphères pour lequels nous prouvons un théorème de compacité qui généralise le Théorème de Sélection de Mahler relatif aux réseaux, (ii) les relations entre trous profonds et la densité par la constante de Delone ainsi que la structure interne asymptotique, en couches, des empilements les plus denses, (iii) les empilements autosimilaires de type fini pour lesquels nous montrons, pour chacun, l'existence d'un schéma de coupe-et-projection associé à un entier algébrique (l'autosimilarité) dont le degré divise le rang de l'empilement, dans le contexte des quasicristaux mathématiques, (iv) les empilements de sphères sur beta-réseaux, dont l'étude a surtout consisté à comprendre l'ensemble discret localement fini $Z_\beta$ des beta-entiers et à proposer une classification des nombres algébriques qui complémente celle de Bertrand-Mathis, reportée dans un article de Blanchard, et où la mesure de Mahler de beta intervient naturellement.
55

Optimisation et jeux appliqués à l'analyse statique de programmes par interprétation abstraite

Adje, Assalé 29 April 2011 (has links) (PDF)
L'interprétation abstraite est une méthode générale qui permet de déterminer de manière automatique des invariants de programmes. Cette méthode conduit à résoudre un problème de point fixe non linéaire de grande taille mais qui possède des propriétés de monotonie. Ainsi, déterminer des bornes sur les valeurs prises par une variable au cours de l'exécution d'un programme, est un problème de point fixe équivalent à un problème de jeu à deux joueurs, à somme nulle et avec options d'arrêt. Cette dernière observation explique la mise en oeuvre d'algorithmes d'itérations sur les politiques. Dans un premier temps, nous avons généralisé les domaines numériques polyédriques par un domaine numérique abstrait permettant de représenter des invariants non-linéaires. Nous avons défini une fonction sémantique abstraite sur ce domaine à partir d'une correspondance de Galois. Cependant, l'évaluation de celle-ci est aussi difficile qu'un problème d'optimisation globale non-convexe. Cela nous a amené à définir une fonction sémantique relâchée, construite à partir de la théorie de la dualité, qui sur-approxime de la fonction sémantique abstraite. La théorie de la dualité a également motivé une construction d'une itération sur les politiques dynamique pour calculer des invariants numériques. En pratique pour des programmes écrits en arithmétique affine, nous avons combiné la relaxation de Shor et l'information des fonctions de Lyapunov quadratique pour évaluer la fonction sémantique relâchée et ainsi générer des invariants numériques sous forme d'ellipsoïdes tronquées. Le deuxième travail concerne l'itération sur les politiques et le calcul du plus petit point fixe qui fournit l'invariant le plus précis. Nous avons raffiné l'itération sur les politiques afin de produire le plus petit point fixe dans le cas des jeux stochastiques. Ce raffinement repose sur des techniques de théorie de Perron-Frobenius non-linéaire. En effet, la fonction sémantique abstraite sur les intervalles peut être vue comme un opérateur de Shapley en information parfaite: elle est semidifférentiable. L'approche conjointe de la semidifférentielle et des rayons spectraux non linéaires nous a permis, dans le cas des contractions au sens large de caractériser le plus petit point fixe. Cette approche mène à un critère d'arrêt pour l'itération sur politique dans le cas des fonctions affines par morceaux contractantes au sens large. Quand le point fixe est non minimal, le problème consiste à exhiber un point fixe négatif non nul de la semidifférentielle. Ce vecteur conduit à une nouvelle politique qui fournit un point fixe strictement plus petit que le point fixe courant. Cette approche a été appliquée à quelques exemples de jeux stochastiques à paiements positifs et de vérification de programmes.
56

Les zones ultradauphinoise et subbriançonnaise entre l'Arc et l'Isère - Alpes françaises

Barbier, Reynold 12 November 1945 (has links) (PDF)
Ce travail rassemble les données sur la géologie, la stratigraphie,la structure, la tectonique des formations entre les vallées de l'Arc et de l'Isère. Sont présents dans ce document : Carte structurale détaillée des zones ultradauphinoises et subbriançonnaise entre l'Arc et l'Isère, carte structurale schématique des zones ultradauphinoises et subbriançonnaise entre le Pelvoux et le Mont-Blanc, Schémas des corrélations entre les zones de faciès, Coupes en série des zones ultradauphinoise et subbriançonnaise entre l'Arc et l'Isère, Blocs-diagrammes très schématiques montrant les différentes phases de la mise en place des nappes (Tarentaise et klippes de Savoie)
57

Generalized Riemann Integration : Killing Two Birds with One Stone?

Larsson, David January 2013 (has links)
Since the time of Cauchy, integration theory has in the main been an attempt to regain the Eden of Newton. In that idyllic time [. . . ] derivatives and integrals were [. . . ] different aspects of the same thing. -Peter Bullen, as quoted in [24] The theory of integration has gone through many changes in the past centuries and, in particular, there has been a tension between the Riemann and the Lebesgue approach to integration. Riemann's definition is often the first integral to be introduced in undergraduate studies, while Lebesgue's integral is more powerful but also more complicated and its methods are often postponed until graduate or advanced undergraduate studies. The integral presented in this paper is due to the work of Ralph Henstock and Jaroslav Kurzweil. By a simple exchange of the criterion for integrability in Riemann's definition a powerful integral with many properties of the Lebesgue integral was found. Further, the generalized Riemann integral expands the class of integrable functions with respect to Lebesgue integrals, while there is a characterization of the Lebesgue integral in terms of absolute integrability. As this definition expands the class of functions beyond absolutely integrable functions, some theorems become more cumbersome to prove in contrast to elegant results in Lebesgue's theory and some important properties in composition are lost. Further, it is not as easily abstracted as the Lebesgue integral. Therefore, the generalized Riemann integral should be thought of as a complement to Lebesgue's definition and not as a replacement. / Ända sedan Cauchys tid har integrationsteori i huvudsak varit ett försök att åter finna Newtons Eden. Under den idylliska perioden [. . . ] var derivator och integraler [. . . ] olika sidor av samma mynt.-Peter Bullen, citerad i [24] Under de senaste århundradena har integrationsteori genomgått många förändringar och framförallt har det funnits en spänning mellan Riemanns och Lebesgues respektive angreppssätt till integration. Riemanns definition är ofta den första integral som möter en student pa grundutbildningen, medan Lebesgues integral är kraftfullare. Eftersom Lebesgues definition är mer komplicerad introduceras den först i forskarutbildnings- eller avancerade grundutbildningskurser. Integralen som framställs i det här examensarbetet utvecklades av Ralph Henstock och Jaroslav Kurzweil. Genom att på ett enkelt sätt ändra kriteriet for integrerbarhet i Riemanns definition finner vi en kraftfull integral med många av Lebesgueintegralens egenskaper. Vidare utvidgar den generaliserade Riemannintegralen klassen av integrerbara funktioner i jämförelse med Lebesgueintegralen, medan vi samtidigt erhåller en karaktärisering av Lebesgueintegralen i termer av absolutintegrerbarhet. Eftersom klassen av generaliserat Riemannintegrerbara funktioner är större än de absolutintegrerbara funktionerna blir vissa satser mer omständiga att bevisa i jämforelse med eleganta resultat i Lebesgues teori. Därtill förloras vissa viktiga egenskaper vid sammansättning av funktioner och även möjligheten till abstraktion försvåras. Integralen ska alltså ses som ett komplement till Lebesgues definition och inte en ersättning.
58

Co-integration in the real estate industry funds Brazil / Co-integraÃÃo na indÃstria de fundos imobiliÃrios no Brasil

Marcelo Augusto Farias de Castro 10 February 2012 (has links)
nÃo hà / The real estate investment (REI) is a newly created investment vehicle and still under constant development. Introduces, as basic characteristic, a property used for rental as the main asset. Governed by federal laws and regulations of the CVM instruction, regulatory frameworks help to give credibility to this investment vehicle. The REIs have tax benefits and remunerate its shareholders with regular income through rents. In addition, we present a third types of gain, which is the value of the shares of real estate funds. The current characteristics have a debonding between the equity and value of your shares, setting its recovery from supply and demand in the market. The study of this factor recovery was used to study development. Featuring a conservative perspective while being traded at BOVESPA, the question to be answered is whether the REI have a conservative characteristic when compared with other market indicators, such as IMOB, IBOVESPA, CDI, the IGP and INCC. And especially if there is a tendency over time with these same indicators, allowing to verify long-term behavior. With a stochastic characteristic non-stationary, the REI are cointegrated with the market indicators. The presentation of this tendency implies on a similar behavior over time, making it understandable with what market indicator the real estate investment presents tendency. Thus, the REI can be considered conservative investments, which have two returns (valuation of shares and payment of monthly rent), have characteristics of present value above the market benchmarks, low total and systemic risks and can be used as protection for stock investors, as a hedging tool. / O fundo de investimento imobiliÃrio (FII) à um instrumento de investimento recentemente criado e ainda em constante desenvolvimento. Apresenta como caracterÃstica bÃsica, possuir como o ativo principal um imÃvel utilizado para locaÃÃo. Regidos por leis federais e por instruÃÃes normativas da CVM, os marcos regulatÃrios ajudam a dar credibilidade a este instrumento de investimento. Os FII apresentam benefÃcios tributÃrios e remuneram seus cotistas atravÃs de receitas periÃdicas com aluguÃis. AlÃm destes, à apresentada uma terceira tipologias de ganho, que à a valorizaÃÃo das cotas dos fundos imobiliÃrios. As caracterÃsticas atuais apresentam um descolamento entre o patrimÃnio lÃquido e o valor das suas cotas, configurando uma valorizaÃÃo proveniente da oferta e procura pelas mesmas no mercado. O estudo desta valorizaÃÃo foi o elemento utilizado para o desenvolvimento do estudo. Apresentando uma perspectiva conservadora embora sendo negociado na BOVESPA, a pergunta a ser respondida à se os FII apresentam uma caracterÃstica conservadora comparado com outros indicadores de mercado, tais como o IMOB, o IBOVESPA, o CDI, o IGPM e o INCC. E principalmente se existe tendÃncia ao longo do tempo com estes mesmo indicadores, possibilitando verificar comportamento de longo prazo. Com uma caracterÃstica estocÃstica nÃo estacionÃria, os FII sÃo co-integrados com os indicadores de mercado. A apresentaÃÃo desta tendÃncia determina comportamento semelhante ao longo do tempo, fazendo com que possa ser entendido com qual indicador de mercado o fundo imobiliÃrio apresenta tendÃncia. Desta forma, os FII podem ser considerados investimentos conservadores, que apresentam duas rentabilidades (valorizaÃÃo das cotas e pagamento mensal de aluguel), possuem caracterÃsticas de apresentarem valorizaÃÃo acima dos benchmarks de mercado, apresentam baixo risco total e sistÃmico e podem ser utilizados como proteÃÃo para quem investe em aÃÃes, como uma ferramenta de hedge.
59

Roots of stochastic matrices and fractional matrix powers

Lin, Lijing January 2011 (has links)
In Markov chain models in finance and healthcare a transition matrix over a certain time interval is needed but only a transition matrix over a longer time interval may be available. The problem arises of determining a stochastic $p$th root of astochastic matrix (the given transition matrix). By exploiting the theory of functions of matrices, we develop results on the existence and characterization of stochastic $p$th roots. Our contributions include characterization of when a real matrix hasa real $p$th root, a classification of $p$th roots of a possibly singular matrix,a sufficient condition for a $p$th root of a stochastic matrix to have unit row sums,and the identification of two classes of stochastic matrices that have stochastic $p$th roots for all $p$. We also delineate a wide variety of possible configurationsas regards existence, nature (primary or nonprimary), and number of stochastic roots,and develop a necessary condition for existence of a stochastic root in terms of the spectrum of the given matrix. On the computational side, we emphasize finding an approximate stochastic root: perturb the principal root $A^{1/p}$ or the principal logarithm $\log(A)$ to the nearest stochastic matrix or the nearest intensity matrix, respectively, if they are not valid ones;minimize the residual $\normF{X^p-A}$ over all stochastic matrices $X$ and also over stochastic matrices that are primary functions of $A$. For the first two nearness problems, the global minimizers are found in the Frobenius norm. For the last two nonlinear programming problems, we derive explicit formulae for the gradient and Hessian of the objective function $\normF{X^p-A}^2$ and investigate Newton's method, a spectral projected gradient method (SPGM) and the sequential quadratic programming method to solve the problem as well as various matrices to start the iteration. Numerical experiments show that SPGM starting with the perturbed $A^{1/p}$to minimize $\normF{X^p-A}$ over all stochastic matrices is method of choice.Finally, a new algorithm is developed for computing arbitrary real powers $A^\a$ of a matrix $A\in\mathbb{C}^{n\times n}$. The algorithm starts with a Schur decomposition,takes $k$ square roots of the triangular factor $T$, evaluates an $[m/m]$ Pad\'e approximant of $(1-x)^\a$ at $I - T^$, and squares the result $k$ times. The parameters $k$ and $m$ are chosen to minimize the cost subject to achieving double precision accuracy in the evaluation of the Pad\'e approximant, making use of a result that bounds the error in the matrix Pad\'e approximant by the error in the scalar Pad\'e approximant with argument the norm of the matrix. The Pad\'e approximant is evaluated from the continued fraction representation in bottom-up fashion, which is shown to be numerically stable. In the squaring phase the diagonal and first superdiagonal are computed from explicit formulae for $T^$, yielding increased accuracy. Since the basic algorithm is designed for $\a\in(-1,1)$, a criterion for reducing an arbitrary real $\a$ to this range is developed, making use of bounds for the condition number of the $A^\a$ problem. How best to compute $A^k$ for a negative integer $k$ is also investigated. In numerical experiments the new algorithm is found to be superior in accuracy and stability to several alternatives,including the use of an eigendecomposition, a method based on the Schur--Parlett\alg\ with our new algorithm applied to the diagonal blocks and approaches based on the formula $A^\a = \exp(\a\log(A))$.
60

Politique de ciblage d’inflation : règles de conduites, efficacité, performance / Inflation targeting policy : optimal rules, relevance, performance

Ftiti, Zied 24 February 2010 (has links)
Depuis 1990, bon nombres de pays industrialisés et émergents ont adopté la politique de ciblage d’inflation. Ce régime monétaire a été adopté sans théorie adjacente dans la mesure où il a démarré comme une solution alternative à la recherche sans fin d’un système d’ancrage nominal suite aux échecs répétés des politiques antérieurs. Ce retard théorique fait naître de nombreux débats économiques sur la conduite de ce régime monétaire dont les plus importants feront l’objet d’une discussion approfondie au sein de cette thèse. Dans un premier chapitre, nous définissons la politique de ciblage d’inflation. Dans un second chapitre nous abordons la question de la conduite optimale de ce régime d’un point de vue théorique et empirique. Nous montrons que la règle optimale est une règle à la Taylor de type Forward-Looking dont elle peut avoir un comportement asymétrique. Dans un troisième chapitre, nous abordons la question de l’efficacité de la politique de ciblage d’inflation. Pour ce faire, nous avons étudié l’effet d’intervention de ce régime sur la dynamique d’inflation. Nous avons recours à la théorie spectrale évolutive afin de modéliser la série de l’inflation dans le but de tester son évolution. Les résultats sont en faveur de l’efficacité de ciblage d’inflation. Le dernier axe de cette thèse s’intéresse à la question de la performance économique de ce régime monétaire. Pour ce faire nous développons une méthodologie originale évaluée selon une approche économétrique originale. En effet, nous qualifions le ciblage d’inflation comme économiquement performant s’il génère une stabilité de l’environnement de la politique monétaire. Le fondement de cette idée fera l’objet du quatrième chapitre. Quant au chapitre cinq, il développera l’approche économétrique basée sur la théorie co-spectrale pour mesure le degré de stabilité de cet environnement. Les résultats montrent que le ciblage d’inflation est économiquement performant. / The inflation targeting policy (ITP) was born after the failure of many monetary policies. However, the ITP was adopted without inherent theory which raised many discussions. In this dissertation, we study the most important debates. In the first chapter, we defined the ITP. Then, we treat the question of the optimal rule conduct. We show that the optimal monetary rule is a type Taylor rule under a Forward-Looking version and which can be linear or nonlinear. In the third chapter, we focus on the discussion about the relevance of the inflation targeting policy. To study this point we use the evolutionary spectral analysis to model the inflation series and we test then, if the ITP cause a structural break. Our results show the relevance of the ITP. The last discussion in this work is to check the macroeconomic performance of the ITP. The main idea is to consider the ITP as economically efficient when it generates a stable monetary environment. The latter is considered as stable when a long-run equilibrium exists to which the paths of economic variables (inflation rate, interest rate and GDP growth) converge. The convergence of the variables’ paths implies that these variables are more predictable and implies a less uncertainty in the economic environment. To measure the degree of convergence between economic variables, we propose, in this paper, a dynamic time-varying variable presented in the frequency approach named cohesion. This variable is estimated from the evolutionary co-spectral theory. The results show that the ITP is a relevance policy and generate a good performance.

Page generated in 0.0356 seconds