• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 19
  • 13
  • 3
  • Tagged with
  • 36
  • 18
  • 9
  • 8
  • 8
  • 7
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Approche efficace pour la conception des architectures multiprocesseurs sur puce électronique

Elie, Etienne 12 1900 (has links)
Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système. / On-Chip Multiprocessor (OCM) systems are considered to be the best structures to occupy the abundant space available on today integrated circuits (IC). In our thesis, we are interested on an architectural model, called Isometric on-Chip Multiprocessor Architecture (ICMA), that optimizes the OCM systems by focusing on an effective organization of cores (processors and memories) and on methodologies that optimize the use of these architectures. In the first part of this work, we study the topology of ICMA and propose an architecture that enables efficient and massive use of on-chip memories. ICMA organizes processors and memories in an isometric structure with the objective to get processed data close to the processors that use them rather than to optimize transfers between processors and memories, arranged in a conventional manner. ICMA is a mesh model in three dimensions. The organization of our architecture is inspired by the crystal structure of sodium chloride (NaCl), where each processor can access six different memories and where each memory can communicate with six processors at once. In the second part of our work, we focus on a methodology of decomposition. This methodology is used to find the optimal number of nodes for a given application or specification. The approach we use is to transform an application or a specification into an incidence matrix, where the entries of this matrix are the interactions between processors and memories as entries. In other words, knowing that the performance of a model depends on the intensity of the data flow exchanged between its units, namely their number, we aim to guarantee a good computing performance by finding the optimal number of processors and memories that are suitable for the application computation. We also consider the load balancing of the units of ICMA during the specification phase of the design. Our proposed decomposition is on three points: the transformation of the specification or application into an incidence matrix, a new methodology based on the Cell Formation Problem (CFP), and load balancing processes in the processors and data in memories. In the third part, we focus on the allocation of processor and memory by a two-step methodology. Initially, we allocate units to the nodes of the system structure, considered here as an undirected graph, and subsequently we assign values to the arcs of this graph. For the assignment, we propose modeling of the decomposed application using a matrix approach and the Quadratic Assignment Problem (QAP). For the assignment of the values to the arcs, we propose an approach of gradual changes of these values in order to seek the best combination of cost allocation, this under certain metric constraints such as temperature, heat dissipation, power consumption and surface occupied by the chip. The ultimate goal of this work is to propose a methodology for non-traditional, systematic and effective decision support design tools for multiprocessor system architects, from the phase of functional specification.
32

Eléments de théorie du risque en finance et assurance / Elements of risk theory in finance and insurance

Mostoufi, Mina 17 December 2015 (has links)
Cette thèse traite de la théorie du risque en finance et en assurance. La mise en pratique du concept de comonotonie, la dépendance du risque au sens fort, est décrite pour identifier l’optimum de Pareto et les allocations individuellement rationnelles Pareto optimales, la tarification des options et la quantification des risques. De plus, il est démontré que l’aversion au risque monotone à gauche, un raffinement pertinent de l’aversion forte au risque, caractérise tout décideur à la Yaari, pour qui, l’assurance avec franchise est optimale. Le concept de comonotonie est introduit et discuté dans le chapitre 1. Dans le cas de risques multiples, on adopte l’idée qu’une forme naturelle pour les compagnies d’assurance de partager les risques est la Pareto optimalité risque par risque. De plus, l’optimum de Pareto et les allocations individuelles Pareto optimales sont caractérisées. Le chapitre 2 étudie l’application du concept de comonotonie dans la tarification des options et la quantification des risques. Une nouvelle variable de contrôle de la méthode de Monte Carlo est introduite et appliquée aux “basket options”, aux options asiatiques et à la TVaR. Finalement dans le chapitre 3, l’aversion au risque au sens fort est raffinée par l’introduction de l’aversion au risque monotone à gauche qui caractérise l’optimalité de l’assurance avec franchise dans le modèle de Yaari. De plus, il est montré que le calcul de la franchise s’effectue aisément. / This thesis deals with the risk theory in Finance and Insurance. Application of the Comonotonicity concept, the strongest risk dependence, is described for identifying the Pareto optima and Individually Rational Pareto optima allocations, option pricing and quantification of risk. Furthermore it is shown that the left monotone risk aversion, a meaningful refinement of strong risk aversion, characterizes Yaari’s decision makers for whom deductible insurance is optimal. The concept of Comonotonicity is introduced and discussed in Chapter 1. In case of multiple risks, the idea that a natural way for insurance companies to optimally share risks is risk by risk Pareto-optimality is adopted. Moreover, the Pareto optimal and individually Pareto optimal allocations are characterized. The Chapter 2 investigates the application of the Comonotonicity concept in option pricing and quantification of risk. A novel control variate Monte Carlo method is introduced and its application is explained for basket options, Asian options and TVaR. Finally in Chapter 3 the strong risk aversion is refined by introducing the left-monotone risk aversion which characterizes the optimality of deductible insurance within the Yaari’s model. More importantly, it is shown that the computation of the deductible is tractable.
33

Univariate and multivariate symmetry: statistical inference and distributional aspects / Symétrie univariée et multivariée: inférence statistique et aspects distributionnels

Ley, Christophe 26 November 2010 (has links)
This thesis deals with several statistical and probabilistic aspects of symmetry and asymmetry, both in a univariate and multivariate context, and is divided into three distinct parts.<p><p>The first part, composed of Chapters 1, 2 and 3 of the thesis, solves two conjectures associated with multivariate skew-symmetric distributions. Since the introduction in 1985 by Adelchi Azzalini of the most famous representative of that class of distributions, namely the skew-normal distribution, it is well-known that, in the vicinity of symmetry, the Fisher information matrix is singular and the profile log-likelihood function for skewness admits a stationary point whatever the sample under consideration. Since that moment, researchers have tried to determine the subclasses of skew-symmetric distributions who suffer from each of those problems, which has led to the aforementioned two conjectures. This thesis completely solves these two problems.<p><p>The second part of the thesis, namely Chapters 4 and 5, aims at applying and constructing extremely general skewing mechanisms. As such, in Chapter 4, we make use of the univariate mechanism of Ferreira and Steel (2006) to build optimal (in the Le Cam sense) tests for univariate symmetry which are very flexible. Actually, their mechanism allowing to turn a given symmetric distribution into any asymmetric distribution, the alternatives to the null hypothesis of symmetry can take any possible shape. These univariate mechanisms, besides that surjectivity property, enjoy numerous good properties, but cannot be extended to higher dimensions in a satisfactory way. For this reason, we propose in Chapter 5 different general mechanisms, sharing all the nice properties of their competitors in Ferreira and Steel (2006), but which moreover can be extended to any dimension. We formally prove that the surjectivity property holds in dimensions k>1 and we study the principal characteristics of these new multivariate mechanisms.<p><p>Finally, the third part of this thesis, composed of Chapter 6, proposes a test for multivariate central symmetry by having recourse to the concepts of statistical depth and runs. This test extends the celebrated univariate runs test of McWilliams (1990) to higher dimensions. We analyze its asymptotic behavior (especially in dimension k=2) under the null hypothesis and its invariance and robustness properties. We conclude by an overview of possible modifications of these new tests./<p><p>Cette thèse traite de différents aspects statistiques et probabilistes de symétrie et asymétrie univariées et multivariées, et est subdivisée en trois parties distinctes.<p><p>La première partie, qui comprend les chapitres 1, 2 et 3 de la thèse, est destinée à la résolution de deux conjectures associées aux lois skew-symétriques multivariées. Depuis l'introduction en 1985 par Adelchi Azzalini du plus célèbre représentant de cette classe de lois, à savoir la loi skew-normale, il est bien connu qu'en un voisinage de la situation symétrique la matrice d'information de Fisher est singulière et la fonction de vraisemblance profile pour le paramètre d'asymétrie admet un point stationnaire quel que soit l'échantillon considéré. Dès lors, des chercheurs ont essayé de déterminer les sous-classes de lois skew-symétriques qui souffrent de chacune de ces problématiques, ce qui a mené aux deux conjectures précitées. Cette thèse résoud complètement ces deux problèmes.<p><p>La deuxième partie, constituée des chapitres 4 et 5, poursuit le but d'appliquer et de proposer des méchanismes d'asymétrisation très généraux. Ainsi, au chapitre 4, nous utilisons le méchanisme univarié de Ferreira and Steel (2006) pour construire des tests de symétrie univariée optimaux (au sens de Le Cam) qui sont très flexibles. En effet, leur méchanisme permettant de transformer une loi symétrique donnée en n'importe quelle loi asymétrique, les contre-hypothèses à la symétrie peuvent prendre toute forme imaginable. Ces méchanismes univariés, outre cette propriété de surjectivité, possèdent de nombreux autres attraits, mais ne permettent pas une extension satisfaisante aux dimensions supérieures. Pour cette raison, nous proposons au chapitre 5 des méchanismes généraux alternatifs, qui partagent toutes les propriétés de leurs compétiteurs de Ferreira and Steel (2006), mais qui en plus sont généralisables à n'importe quelle dimension. Nous démontrons formellement que la surjectivité tient en dimension k > 1 et étudions les caractéristiques principales de ces nouveaux méchanismes multivariés.<p><p>Finalement, la troisième partie de cette thèse, composée du chapitre 6, propose un test de symétrie centrale multivariée en ayant recours aux concepts de profondeur statistique et de runs. Ce test étend le célèbre test de runs univarié de McWilliams (1990) aux dimensions supérieures. Nous en analysons le comportement asymptotique (surtout en dimension k = 2) sous l'hypothèse nulle et les propriétés d'invariance et de robustesse. Nous concluons par un aperçu sur des modifications possibles de ces nouveaux tests. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
34

Étude théorique et numérique de la stabilité de certains systèmes distribués avec contrôle frontière de type dynamique / Theoretical and numerical study of the stability of some distributed systems with dynamic boundary control

Sammoury, Mohamad Ali 08 December 2016 (has links)
Cette thèse est consacrée à l’étude de la stabilisation de certains systèmes distribués avec contrôle frontière de type dynamique. Nous considérons, d’abord, la stabilisation de l’équation de la poutre de Rayleigh avec un seul contrôle frontière dynamique moment ou force. Nous montrons que le système n’est pas uniformément (autrement dit exponentiellement) stable; mais par une méthode spectrale, nous établissons le taux polynomial optimal de décroissance de l’énergie du système. Ensuite, nous étudions la stabilisation indirecte de l’équation des ondes avec un amortissement frontière de type dynamique fractionnel. Nous montrons que le taux de décroissance de l’énergie dépend de la nature géométrique du domaine. En utilisant la méthode fréquentielle et une méthode spectrale, nous montrons la non stabilité exponentielle et nous établissons, plusieurs résultats de stabilité polynomiale. Enfin, nous considérons l’approximation de l’équation des ondes mono-dimensionnelle avec un seul amortissement frontière de type dynamique par un schéma de différence finie. Par une méthode spectrale, nous montrons que l’énergie discrétisée ne décroit pas uniformément (par rapport au pas du maillage) polynomialement vers zéro comme l’énergie du système continu. Nous introduisons, alors, un terme de viscosité numérique et nous montrons la décroissance polynomiale uniforme de l’énergie de notre schéma discret avec ce terme de viscosité. / This thesis is devoted to the study of the stabilization of some distributed systems with dynamic boundary control. First, we consider the stabilization of the Rayleigh beam equation with only one dynamic boundary control moment or force. We show that the system is not uniformly (exponentially) stable. However, using a spectral method, we establish the optimal polynomial decay rate of the energy of the system. Next, we study the indirect stability of the wave equation with a fractional dynamic boundary control. We show that the decay rate of the energy depends on the nature of the geometry of the domain. Using a frequency approach and a spectral method, we show the non exponential stability of the system and we establish, different polynomial stability results. Finally, we consider the finite difference space discretization of the 1-d wave equation with dynamic boundary control. First, using a spectral approach, we show that the polynomial decay of the discretized energy is not uniform with respect to the mesh size, as the energy of the continuous system. Next, we introduce a viscosity term and we establish the uniform (with respect to the mesh size) polynomial energy decay of our discrete scheme.
35

Trois contributions sur l'effet informatif des cours boursiers dans les décisions d'entreprise / Three essays on informational feedback from stock prices to corporate decisions

Xu, Liang 27 June 2017 (has links)
Ce travail doctoral étudie l’effet « retour » de l’information financière liée aux prix des actions sur les décisions des dirigeants d’entreprise. Plus précisément, j'étudie si et comment les gestionnaires apprennent effectivement les nouvelles informations contenues dans les prix des actions pour guider leurs décisions d'entreprise. Ma thèse de doctorat est composée de trois essais, chacun abordant un aspect différent de ce même sujet. Le premier essai étudie le lien entre l'efficacité informationnelle du marché d'actions et le niveau d’efficacité économique réelle de l'entreprise. Dans le premier essai, je constate que lorsque les prix de l'action agrègent une plus quantité d'informations utile plus grande, les décisions des entreprises prises par les gestionnaires devraient être encore plus optimales efficaces. Le deuxième essai étudie si les gestionnaires cherchent à apprendre les informations utilisées par les vendeurs à découvert. L’étude des prix des actions en présence de vendeurs à découvert est-il utile pour les décisions de l'entreprise ? Dans le deuxième essai, j'ai surmonté les difficultés empiriques en exploitant une caractéristique institutionnelle unique sur le marché des actions de Hong Kong. Je constate que les gestionnaires des entreprises « non-shortable » peuvent tirer profit des informations des vendeurs à découvert sur les conditions économiques sectorielles par l'intermédiaire des prix des actions d'autres entreprises « shortable » dans la même industrie et les utilisent dans leurs décisions d'entreprise. Le troisième essai étudie les effets réels de la négociation d'options à long terme. Dans le troisième essai, je constate que l’introduction d’une catégorie spécifique d'options à long terme stimule la production d'informations privées à long terme et donc entraîne une augmentation de l'informativité des prix sur les fondamentaux à long terme des entreprises. Par conséquent, les dirigeants peuvent extraire davantage d'informations du prix de l’action pour guider leurs décisions d'investissement à long terme. / In my doctoral thesis, I investigate the information feedback from stock prices to managers’ decisions. More specifically, I study whether and how managers learn new information from stock prices to guide their corporate decisions. My doctoral thesis includes three essays focusing on this topic. The first essay studies the relationship between stock market informational efficiency and real economy efficiency at firm-level. In the first essay, I find that when stock prices reflect greater amount of information that managers care about, corporate decisions made by managers become more efficient. The second essay studies whether managers seek to learn short sellers’ information from stock prices and use it in corporate decisions. In the second essay, I overcome the empirical difficulties by exploiting a unique institutional feature in Hong Kong stock market that only stocks included in an official list are allowed for short sales. I find that that non-shortable firms’ managers can learn short sellers’ information on external conditions from shortable peers’ stock prices and use it in their corporate decisions. The third essay studies the real effects of long-term option trading. I find that long-term option trading stimulates the production of long-term information, which managers can use to guide their long-term investment decisions.
36

A behavioral approach of decision making under risk and uncertainty / Une approche comportementale de la prise de décision dans les domaines du risque et de l'incertitude

Garcia, Thomas 01 July 2019 (has links)
Cette thèse porte sur la façon dont les individus prennent des décisions en présence de risque et d'incertitude. Elle est composée de quatre essais qui étudient théoriquement et expérimentalement la prise de décision.Les deux premiers essais étudient des situations où un décideur doit décider si un événement a eu lieu en utilisant des informations incertaines. Le fait d'identifier correctement que cet événement s'est produit est plus rémunéré que le fait d'identifier correctement qu'il ne s'est pas produit. Ce problème de décision induit une divergence entre deux qualités d'une décision : l'optimalité et l'exactitude. Les deux essais reproduisent de telles situations dans une expérience de laboratoire basée sur des tâches perceptuelles et analysent les décisions en utilisant la théorie de la détection du signal pour étudier l'arbitrage optimalité-exactitude. Le premier essai confirme l'existence d'un tel arbitrage avec un rôle dominant de la recherche de l'exactitude. Il explique l'existence de cet arbitrage par utilité non-monétaire associée au fait d'avoir raison. Le deuxième chapitre montre que présenter les informations perceptuelles en dernier contribue à l'existence de l'arbitrage optimalité-exactitude.Le troisième essai étudie comment les préférences vie-à-vie d'autrui interagissent avec l'attitude face à l'ambiguïté. Il présente les résultats d'une expérience où les sujets doivent faire des dons à des associations caritatives. Les dons peuvent avoir des coûts ou des bénéfices ambigus. Nous constatons que l'ambiguïté a pour effet de rendre les individus plus égoïstes. En d'autres termes, nous montrons que les individus utilisent l'ambiguïté comme une excuse pour ne pas donner. Ce comportement d’auto-justification est plus marqué pour les coûts ambigus que pour les avantages ambigus.Le quatrième essai examine la validité externe des mesures de préférence pour le risque en laboratoire en utilisant des décisions dans d'autres tâches expérimentales risquées et des décisions prisent sur en dehors du laboratoire. Nous constatons que les mesures de préférence pour le risque permettent d'expliquer les premières, mais qu'elles n'expliquent pas les secondes. / This thesis investigates how individuals make decisions under risk and uncertainty. It is composed of four essays that theoretically and experimentally investigate decision-making.The first two essays study situations where a decision maker has to decide whether an event has occurred using uncertain evidence. Accurately identifying that this event has occurred is more rewarded than accurately identifying that it has not occurred. This decision problem induces a divergence between two qualities of a decision: optimality and accuracy. Both essays reproduce such situations in a laboratory experiment based on perceptual tasks and analyze behavior using Signal Detection Theory to study the optimality-accuracy trade-off. The first essay confirms the existence of the trade-off with a leading role of accuracy. It explains the trade-off by the concern of individuals for being right. The second chapter finds that presenting perceptual evidence last contributes to the existence of the optimality-accuracy trade-off.The third essay studies how other-regarding preferences interact with attitude toward ambiguity. It reports the results of an experiment where subjects have to make donations to charities. Donations may have either ambiguous costs or ambiguous benefits. We find that other-regarding preferences are decreased under ambiguity. In other terms, we highlight that individual use ambiguity has an excuse not to give. This excuse-driven behavior is stronger for ambiguous costs than ambiguous benefits.The fourth essay challenges the external validity of laboratory risk preference measures using behavior in experimental risk tasks and naturally occurring behavior under risk. We find that risk preference measures are related with the former but that they fail to explain the latter.

Page generated in 0.4393 seconds