111 |
Probabilité de succès des négociatiojns dans les opérations de fusions et acquisitions. / Probability of deal completion in mergers and acquisitionsDe Bruyne, Irina 23 May 2014 (has links)
Ce travail de recherche explore le thème des négociations dans les opérations de fusion et acquisition et leurs résultats en termes d’aboutissement de l’opération. Le premier chapitre de la présente thèse porte sur la volonté de vendre des actionnaires de l’entreprise cible et cherche à mesurer l’influence de cette caractéristique sur le dénouement des négociations au travers des trois éléments suivants : la probabilité de succès de l’offre, le montant de la prime et l’effet net sur le niveau de richesse des actionnaires de la société cible, en tenant compte de l’intensité concurrentielle entre les acquéreurs potentiels. Le second chapitre de la présente thèse explore la relation entre la durée du processus denégociation et la probabilité de succès de l’offre, mettant l’accent sur l’importance de la phase privée des négociations qui se déroule avant l’annonce publique de l’opération. Enfin, le troisième chapitre cherche à déterminer le lien entre la structure de rémunération des dirigeants et l’attention qu’ilsprêtent aux réactions des marchés financiers en modifiant ou non leurs décisions d’investissement en matière de fusions-acquisitions. Notre travail de recherche contribue à améliorer la compréhension des résultats observables dans les opérations de fusion et acquisition en apportant des facteurs nouveaux qui influencent la probabilité de succès d’une offre, notamment, la volonté de se vendre de l’entreprise cible et le temps passé dans l’interaction directe avec les acquéreurs potentiels. Ce travail souligne également l'importance des motivations des agents économiques dans le processus d'allocation des ressources et permet de vérifier la pertinence du lien qui existe entre les mécanismes d’incitation financière et la qualité des décisions managériales / This research work explores the theme of negotiations in mergers and acquisitions and their outcome in terms of deal completion. The first chapter focuses on the target company’s willingness to sell and seeks to measure its influence on the outcome of negotiations through the following three elements:the probability of bid success, the amount of premium paid and the resulting net wealth effect for thetarget shareholders, taking into account the intensity of competition between potential acquirers. The second chapter explores the relationship between the duration of the negotiation process and the likelihood of deal completion, putting emphasis on the private part of the negotiation process that takes place before the public announcement of the deal. Finally, in the third chapter we aim todetermine the relationship that may exist between the executive compensation structure and the amount of attention they pay to the financial markets by changing or not their present investment decisions with regard to mergers and acquisitions. This research contributes to improving our understanding of the outcome of mergers and acquisitions, bringing new factors that influence theprobability of bid success, namely, the willingness of the target’s shareholders to sell and the time spent in the direct interaction with potential buyers. This work also highlights the importance of acknowledging economic agents’ motivations (both for the acquirer and the target) as determinants of observable outcomes in the resource allocation process and allows checking the relevance of financialincentive mechanisms for the quality of managerial decisions
|
112 |
Probabilité, invariance et objectivité / Probability, invariance and objectivityRaidl, Éric 04 December 2014 (has links)
Cette thèse fournit une analyse de la probabilité, avec une considération particulière du rôle que jouent les symétries et l’invariance dans son caractère objectif. La thèse défend un dualisme rationnel-physique. Nous développons une théorie de la probabilité épistémique ainsi qu’une théorie de la probabilité physique. La première concerne les degrés de croyance rationnels ; la seconde, la propension singulière peu fluctuante sur laquelle émergent les fréquences relatives stables. Du côté épistémique, nous défendons le bayésianisme objectif et ses règles d’attribution de probabilité, l’attribution invariante et la maximisation d’entropie. Nous généralisons également le bayésianisme orthodoxe et sa règle de changement de probabilité, la conditionnalisation, à la minimisation de la divergence Kullback-Leibler. Le bayésianisme orthodoxe généralisé est développé à partir d’une analyse générale de l’apprentissage, incluant la théorie AGM et la théorie de rang. L’analyse de l’opposition des deux bayésianismes culmine dans un pluralisme du bayésianisme combiné, instancié par une famille de révisions probabilistes qui répondent au problème de l’itération. Du côté physique, nous développons une explication de la fréquence relative à partir de l’approche par la loi des grands nombres. Nous répondons au dilemme de Gillies, selon lequel une théorie scientifique objective de la propension singulière et de long terme est impossible. Dans ce cadre, nous développons la méthode des fonctions arbitraires comme attribution de propension singulière peu fluctuante, et proposons une analyse détaillée de la mécanique statistique et du cas paradigmatique du lancer de pièce. / This thesis analyses the concept of probability and the role of symmetry and invariance in its objectif character. It defends a rational-physical dualism. I first develop a theory of epistemic probability, which addresses (the rational degrees of belief. I also develop a theory of physical probability, conceived as single case propensity on which stable frequencies emerge. Epistemically, I defend an objective Bayesianism and its rules of probability attribution, that is, the invariant prior attribution and maximizing entropy. I also generalize orthodox Bayesianism and its rule of probability change, conditionalization, to the minimization of the Kullback-Leibler divergence. Generalized orthodox Bayesianim is developed from a general investigation of learning, which includes the AGM theory and ranking theory. I resolve the opposition of the two Bayesianims through a pluralism of combined Bayesianism, instantiated by a family of probabilistic revisions which solve the iteration problem. Physically, I explain stable relative frequencies with the law of large numbers approach. I answer Gillies dilemma, according to which there is no scientific objective theory of propensity that is both single case and long term. I here develop the method of arbitrary functions as an attribution of relatively stable single case propensity and analyse in detail statistical mechanics and the paradigmatic coin toss.
|
113 |
Asymptotiques et fluctuations des plus grandes valeurs propres de matrices de covariance empirique associées à des processus stationnaires à longue mémoire / Asymptotics and fluctuations of largest eigenvalues of empirical covariance matrices associated with long memory stationary processesTian, Peng 10 December 2018 (has links)
Les grandes matrices de covariance constituent certainement l’un des modèles les plus utiles pour les applications en statistiques en grande dimension, en communication numérique, en biologie mathématique, en finance, etc. Les travaux de Marcenko et Pastur (1967) ont permis de décrire le comportement asymptotique de la mesure spectrale de telles matrices formées à partir de N copies indépendantes de n observations d’une suite de variables aléatoires iid et sa convergence vers une distribution de probabilité déterministe lorsque N et n convergent vers l’infini à la même vitesse. Plus récemment, Merlevède et Peligrad (2016) ont démontré que dans le cas de grandes matrices de covariance issues de copies indépendantes d’observations d’un processus strictement stationnaire centré, de carré intégrable et satisfaisant des conditions faibles de régularité, presque sûrement, la distribution spectrale empirique convergeait étroitement vers une distribution non aléatoire ne dépendant que de la densité spectrale du processus sous-jacent. En particulier, si la densité spectrale est continue et bornée (ce qui est le cas des processus linéaires dont les coefficients sont absolument sommables), alors la distribution spectrale limite a un support compact. Par contre si le processus stationnaire exhibe de la longue mémoire (en particulier si les covariances ne sont pas absolument sommables), le support de la loi limite n'est plus compact et des études plus fines du comportement des valeurs propres sont alors nécessaires. Ainsi, cette thèse porte essentiellement sur l’étude des asymptotiques et des fluctuations des plus grandes valeurs propres de grandes matrices de covariance associées à des processus stationnaires à longue mémoire. Dans le cas où le processus stationnaire sous-jacent est Gaussien, l’étude peut être simplifiée via un modèle linéaire dont la matrice de covariance de population sous-jacente est une matrice de Toeplitz hermitienne. On montrera ainsi que dans le cas de processus stationnaires gaussiens à longue mémoire, les fluctuations des plus grandes valeurs propres de la grande matrice de covariance empirique convenablement renormalisées sont gaussiennes. Ce comportement indique une différence significative par rapport aux grandes matrices de covariance empirique issues de processus à courte mémoire, pour lesquelles les fluctuations de la plus grande valeur propre convenablement renormalisée suivent asymptotiquement la loi de Tracy-Widom. Pour démontrer notre résultat de fluctuations gaussiennes, en plus des techniques usuelles de matrices aléatoires, une étude fine du comportement des valeurs propres et vecteurs propres de la matrice de Toeplitz sous-jacente est nécessaire. On montre en particulier que dans le cas de la longue mémoire, les m plus grandes valeurs propres de la matrice de Toeplitz convergent vers l’infini et satisfont une propriété de type « trou spectral multiple ». Par ailleurs, on démontre une propriété de délocalisation de leurs vecteurs propres associés. Dans cette thèse, on s’intéresse également à l’universalité de nos résultats dans le cas du modèle simplifié ainsi qu’au cas de grandes matrices de covariance lorsque les matrices de Toeplitz sont remplacées par des matrices diagonales par blocs / Large covariance matrices play a fundamental role in the multivariate analysis and high-dimensional statistics. Since the pioneer’s works of Marcenko and Pastur (1967), the asymptotic behavior of the spectral measure of such matrices associated with N independent copies of n observations of a sequence of iid random variables is known: almost surely, it converges in distribution to a deterministic law when N and n tend to infinity at the same rate. More recently, Merlevède and Peligrad (2016) have proved that in the case of large covariance matrices associated with independent copies of observations of a strictly stationary centered process which is square integrable and satisfies some weak regularity assumptions, almost surely, the empirical spectral distribution converges weakly to a nonrandom distribution depending only on the spectral density of the underlying process. In particular, if the spectral density is continuous and bounded (which is the case for linear processes with absolutely summable coefficients), the limiting spectral distribution has a compact support. However, if the underlying stationary process exhibits long memory, the support of the limiting distribution is not compact anymore and studying the limiting behavior of the eigenvalues and eigenvectors of the associated large covariance matrices can give more information on the underlying process. This thesis is in this direction and aims at studying the asymptotics and the fluctuations of the largest eigenvalues of large covariance matrices associated with stationary processes exhibiting long memory. In the case where the underlying stationary process is Gaussian, the study can be simplified by a linear model whose underlying population covariance matrix is a Hermitian Toeplitz matrix. In the case of stationary Gaussian processes exhibiting long memory, we then show that the fluctuations of the largest eigenvalues suitably renormalized are Gaussian. This limiting behavior shows a difference compared to the one when large covariance matrices associated with short memory processes are considered. Indeed in this last case, the fluctuations of the largest eigenvalues suitably renormalized follow asymptotically the Tracy-Widom law. To prove our results on Gaussian fluctuations, additionally to usual techniques developed in random matrices analysis, a deep study of the eigenvalues and eigenvectors behavior of the underlying Toeplitz matrix is necessary. In particular, we show that in the case of long memory, the largest eigenvalues of the Toeplitz matrix converge to infinity and satisfy a property of “multiple spectral gaps”. Moreover, we prove a delocalization property of their associated eigenvectors. In this thesis, we are also interested in the universality of our results in the case of the simplified model and also in the case of large covariance matrices when the Toeplitz matrices are replaced by bloc diagonal matrices
|
114 |
Introduction de pièces déformables dans l’analyse de tolérances géométriques de mécanismes hyperstatiques / Introduction of flexible parts in tolerance analysis of over-constrained mechanismsGouyou, Doriane 04 December 2018 (has links)
Les mécanismes hyperstatiques sont souvent utilisés dans l’industrie pour garantir une bonne tenue mécanique du système et une bonne robustesse aux écarts de fabrication des surfaces. Même si ces assemblages sont très courants, les méthodologies d’analyse de tolérances de ces mécanismes sont difficiles à mettre en oeuvre.En fonction de ses écarts de fabrication, un assemblage hyperstatique peut soit présenter des interférences de montage, soit être assemblé avec jeu. Dans ces travaux de thèse, nous avons appliqué la méthode des polytopes afin de détecter les interférences de montage. Pour un assemblage donné, le polytope résultant du mécanisme est calculé. Si ce polytope est non vide, l’assemblage ne présente pas d’interférence. Si ce polytope est vide, l’assemblage présente des interférences de montage. En fonction du résultat obtenu, deux méthodes d’analyse distinctes sont proposées.Si l’assemblage est réalisable sans interférence le polytope résultant du mécanisme permet de conclure sur sa conformité au regard de l’exigence fonctionnelle. Si l’assemblage présente des interférences de montage, une analyse prenant en compte la raideur des pièces est réalisée. Cette approche est basée sur une réduction de modèle avec des super-éléments. Elle permet de déterminer rapidement l’état d’équilibre du système après assemblage. Un effort de montage est ensuite estimé à partir de ces résultats pour conclure sur la faisabilité de l’assemblage. Si l’assemblage est déclaré réalisable, la propagation des déformations dans les pièces est caractérisée pour vérifier la conformité du système au regard de l’exigence fonctionnelle.La rapidité de mise en oeuvre de ces calculs nous permet de réaliser des analyses de tolérances statistiques par tirage de Monte Carlo pour estimer les probabilités de montage et de respect d’une Condition Fonctionnelle. / Over-constrained mechanisms are often used in industries to ensure a good mechanical strength and a good robustness to manufacturing deviations of parts. The tolerance analysis of such assemblies is difficult to implement.Indeed, depending on the geometrical deviations of parts, over-constrained mechanisms can have assembly interferences. In this work, we used the polytope method to check whether the assembly has interferences or not. For each assembly, the resulting polytope of the mechanism is computed. If it is non empty, the assembly can be performed without interference. If not, there is interferences in the assembly. According to the result, two different methods can be implemented.For an assembly without interference, the resulting polytope enables to check directly its compliance. For an assembly with interferences, a study taking into account the stiffness of the parts is undertaken. This approach uses a model reduction with super elements. It enables to compute quickly the assembly with deformation. Then, an assembly load is computed to conclude on its feasibility. Finally, the spreading of deformation through the parts is calculated to check the compliance of the mechanism.The short computational time enables to perform stochastic tolerance analyses in order to provide the rates of compliant assemblies.
|
115 |
Grands graphes et grands arbres aléatoires : analyse du comportement asymptotique / Large Random Graphs and Random Trees : asymptotic behaviour analysisMercier, Lucas 11 May 2016 (has links)
Cette thèse est consacrée à l'étude du comportement asymptotique de grands graphes et arbres aléatoires. Le premier modèle étudié est un modèle de graphe aléatoire inhomogène introduit par Bo Söderberg. Un chapitre de ce manuscrit est consacré à l'étude asymptotique de la taille des composantes connexes à proximité de la fenêtre critique, en le reliant à la longueur des excursions d'un mouvement brownien avec dérive parabolique, étendant les résultats obtenus par Aldous. Le chapitre suivant est consacré à un processus de graphes aléatoires proposé par Itai Benjamini, défini ainsi : les arêtes sont ajoutées indépendamment, à taux fixe. Lorsqu'un sommet atteint le degré k, toutes les arêtes adjacentes à ce sommet sont immédiatement supprimées. Ce processus n'est pas croissant, ce qui empêche d'utiliser directement certaines approches usuelles. L'utilisation de limites locales permet de montrer la présence (resp. l'absence) d'une composante géante à certaines étapes dans le cas k>=5 (resp. k<=3). Dans le cas k=4, ces résultats permettent de caractériser la présence d'une composante géante en fonction du caractère surcritique ou non d'un processus de branchement associé. Dans le dernier chapitre est étudiée la hauteur d'un arbre de Lyndon associé à un mot de Lyndon choisi uniformément parmi les mots de Lyndon de longueur n, prouvant que cette hauteur est approximativement c ln n, avec c=5,092... la solution d'un problème d'optimisation. Afin d'obtenir ce résultat, nous couplons d'abord l'arbre de Lyndon à un arbre de Yule, que nous étudions ensuite à l'aide de techniques provenant des théories des marches branchantes et des grandes déviations. / This thesis is dedicated to the study of the asymptotic behavior of some large random graphs and trees. First is studied a random graph model introduced by Bo Söderberg in 2002. One chapter of this manuscript is devoted to the study of the asymptotic behavior of the size of the connected components near the critical window, linking it to the lengths of excursion of a Brownian motion with parabolic drift. The next chapter talks about a random graph process suggested by Itai Benjamini, defined as follows: edges are independently added at a fixe rate. Whenever a vertex reaches degree k, all adjacent edges are removed. This process is non-increasing, preventing the use of some commonly used methods. By using local limits, in the spirit of the PWIT, we were able to prove the presence (resp. absence) of a giant component at some stages of the process when k>=5 (resp. k<=3). In the case k=4, these results allows to link the presence (resp. absence) of a giant component to the supercriticality (resp. criticality or subcriticality) of an associated branching process. In the last chapter, the height of random Lyndon tree is studied, and is proven to be approximately c ln n, in which c=5.092... the solution of an optimization problem. To obtain this result, we couple the Lyndon tree with a Yule tree, then studied with the help of branching walks and large deviations
|
116 |
Modélisation et utilisation de ressources et services Web et indexation de données dans un contexte d’incertitude / Management approach of services, web resources and indexing in a context of uncertaintiesOmri, Asma 30 August 2018 (has links)
Il est communément admis que la production de données connait, depuis plusieurs années, un développement spectaculaire en raison de la multiplication des nouvelles technologies telles que les réseaux sociaux, les nouveaux appareils mobiles, les compteurs intelligents, les capteurs et le cloud computing. De fait, cette explosion de données devrait se poursuivre et même accélérer. S'interroger sur la façon dont on devrait traiter cette masse de qui devient de plus en plus variée, complexe et moins structurée, est alors essentiel. DaaS ( Data As A Service) peut être définie comme l'approvisionnement, la gestion et la fourniture de données présentées dans un format immédiatement consommable aux utilisateurs professionnels des organisations en tant que service. Les données retournées par ces services se caractérisent généralement par l'incertitude et l'hétérogénéité. Nombreux sont les approches qui traitent les données selon le cycle de vie du service Web qui repose sur 6 phases à savoir la création, la sélection, la découverte, la modélisation, l'invocation et la composition des services, dans le but de résoudre le problème de volume de données, de son hétérogénéité ou de sa vitesse d'évolution. En revanche, il y a très peu d'approches qui s'intéressent à la qualité de données et au traitement de son incertitude dans le Web. Nous nous sommes naturellement intéressés, dans cette thèse, à la question des services Web dans un contexte de systèmes distribués et hétérogènes. La principale contribution à apporter dans le cadre de ce travail de recherche est d'étudier la composition de services et/ou de ressources Web et l'indexation de données dans un contexte incertain. Dans un premier temps, au travers des apports de la littérature, le cadre théorique relatif aux spécificités du concept de service DaaS incertain, est présente en adoptant la théorie possibiliste. Le problème de la composition de services Web et l'impact de l'incertitude, qui peut être associée à la sortie d'un service, sur les processus de sélection et de composition des services sont explicites. Pour ce faire, nous avons proposé une approche possibiliste afin de modéliser l'incertitude des données renvoyées par des services incertains. Plus précisément, nous avons étendu les normes de description de service Web (par exemple, WSDL) pour représenter les degrés d'incertitude des sorties. Nous avons également étendu le processus d'invocation de service pour prendre en compte l'incertitude des données d'entrée. Cette extension est basée sur la théorie des mondes possibles utilisée dans les bases de données possibilistes. Nous avons également mis en avant un ensemble d'operateurs de composition, sensibles aux valeurs d'incertitude, dans le but d'orchestrer des services de données incertains. Dans un deuxième temps, nous avons étudié l'impact de l'incertitude sur la représentation et la manipulation des ressources Web. Nous avons défini le concept de ressource Web incertaine et proposé des mécanismes de composition de ressources. Pour ce faire, un modèle de description de l'incertitude à travers le concept de ressource Web incertaine a été présente. Celui-ci est basé sur un modèle probabiliste ou chaque ressource peut avoir plusieurs représentations possibles, avec une certaine probabilité. Enfin, et dans un dernier temps, nous avons proposé des méthodes d'indexation documentaire des données de type Big Data. Au commencement, nous avons adopté une approche d'indexation syntaxique de données incertaines, ensuite, nous avons suivi une méthode d'indexation sémantique incertaine. Enfin, et pour booster cette démarche, nous avons proposé une méthode hybride d'indexation dans un contexte incertain / It is widely accepted that data production has been developing spectacularly for several years due to the proliferation of new technologies such as social networks, new mobile devices, smart meters, sensors and cloud computing. In fact, this data explosion should continue and even accelerate. To wonder about the way in which one should treat this mass of which becomes more and more varied, complex and less structured, is then essential. DaaS (Data As A Service) can be defined as the supply, management and delivery of data presented in an immediately consumable format business users of organizations as a service. The data returned by these services are generally characterized by uncertainty and heterogeneity. There are many approaches that process data across the Web service lifecycle, which is based on six phases: creation, selection, discovery, modeling, invocation, and composition of services, in order to solve the problem. problem of data volume, its heterogeneity or its speed of evolution. On the other hand, there are very few approaches to data quality and the treatment of uncertainty in the Web. In this thesis, we are naturally interested in the question of Web services in a context of distributed and heterogeneous systems. The main contribution to be made in this research is to study the composition of Web services and / or resources and the indexing of data in an uncertain context. First, through the contributions of the literature, the theoretical framework relative to the specificities of the concept of DaaS service uncertain, is presented by adopting the possibilistic theory. The problem of the composition of Web services and the impact of the uncertainty, which can be associated with the exit of a service, on the processes of selection and composition of the services are explained. To do this, we proposed a possibilistic approach to model the uncertainty of data returned by uncertain services. Specifically, we have extended Web service description standards (for example, WSDL) to represent the uncertainty levels of the outputs. We have also extended the service invocation process to account for the uncertainty of input data. This extension is based on the theory of possible worlds used in possibilistic databases. We also put forward a set of composition operators, sensitive to uncertainty values, in order to orchestrate uncertain data services. Second, we studied the impact of uncertainty on the representation and manipulation of Web resources. We defined the concept of an uncertain web resource and proposed resource composition mechanisms. To do this, a model describing uncertainty through the concept of uncertain web resource was presented. This one is based on a probabilistic model where each resource can have several possible representations, with a certain probability. Finally, and finally, we proposed methods of documentary indexing of data of the Big Data type. Initially, we adopted an approach of syntactic indexing of uncertain data, then we followed an uncertain method of semantic indexing. Finally, and to boost this approach, we have proposed a hybrid method of indexing in an uncertain context
|
117 |
Sequential Design of Experiments to Estimate a Probability of Failure. / Planification d'expériences séquentielle pour l'estimation de probabilités de défaillanceLi, Ling 16 May 2012 (has links)
Cette thèse aborde le problème de l'estimation de la probabilité de défaillance d'un système à partir de simulations informatiques. Lorsqu'on dispose seulement d'un modèle du système coûteux à simuler, le budget de simulations est généralement très limité, ce qui est incompatible avec l’utilisation de méthodes Monte Carlo classiques. En fait, l’estimation d’une petite probabilité de défaillance à partir de simulations très coûteuses, comme on peut rencontrer dans certains problèmes industriels complexes, est un sujet particulièrement difficile. Une approche classique consiste à remplacer le modèle coûteux à simuler par un modèle de substitution nécessitant de faibles ressources informatiques. A partir d’un tel modèle de substitution, deux opérations peuvent être réalisées. La première opération consiste à choisir des simulations, en nombre aussi petit que possible, pour apprendre les régions de l’espace des paramètres du système qui construire de bons estimateurs de la probabilité de défaillance. Cette thèse propose deux contributions. Premièrement, nous proposons des stratégies de type SUR (Stepwise Uncertainty Reduction) à partir d’une formulation bayésienne du problème d’estimation d’une probabilité de défaillance. Deuxièmement, nous proposons un nouvel algorithme, appelé Bayesian Subset Simulation, qui prend le meilleur de l’algorithme Subset Simulation et des approches séquentielles bayésiennes utilisant la modélisation du système par processus gaussiens. Ces nouveaux algorithmes sont illustrés par des résultats numériques concernant plusieurs exemples de référence dans la littérature de la fiabilité. Les méthodes proposées montrent de bonnes performances par rapport aux méthodes concurrentes. / This thesis deals with the problem of estimating the probability of failure of a system from computer simulations. When only an expensive-to-simulate model of the system is available, the budget for simulations is usually severely limited, which is incompatible with the use of classical Monte Carlo methods. In fact, estimating a small probability of failure with very few simulations, as required in some complex industrial problems, is a particularly difficult topic. A classical approach consists in replacing the expensive-to-simulate model with a surrogate model that will use little computer resources. Using such a surrogate model, two operations can be achieved. The first operation consists in choosing a number, as small as possible, of simulations to learn the regions in the parameter space of the system that will lead to a failure of the system. The second operation is about constructing good estimators of the probability of failure. The contributions in this thesis consist of two parts. First, we derive SUR (stepwise uncertainty reduction) strategies from a Bayesian-theoretic formulation of the problem of estimating a probability of failure. Second, we propose a new algorithm, called Bayesian Subset Simulation, that takes the best from the Subset Simulation algorithm and from sequential Bayesian methods based on Gaussian process modeling. The new strategies are supported by numerical results from several benchmark examples in reliability analysis. The methods proposed show good performances compared to methods of the literature.
|
118 |
Etude de l'endommagement en fatigue de câbles d'acier sous sollicitations complexes / Study of the fatigue behavior and damage of steel wire cables under complex loadingsBonneric, Matthieu 27 June 2018 (has links)
Les câbles d’acier sont utilisés comme renforts au sein des pneumatiques poids lourds, et servent notamment à supporter les efforts dus à la pression de gonflage et au poids du véhicule. Un câble est un ensemble de fils d’acier perlitique assemblés en hélices sur différentes couches. Il existe donc de nombreuses possibilités d’assemblage pour définir l’architecture d’un câble. Lors de leur sollicitation en service, les câbles sont soumis à des chargements cycliques à l’origine d’un endommagement en fatigue. Dans un contexte de réduction de la consommation et d’allègement des véhicules, la compréhension des mécanismes impliqués représente donc un enjeu majeur pour les manufacturiers de pneumatiques, en vue d’optimiser l’architecture des câbles vis-à-vis de la tenue en fatigue. Un essai de flexion cyclique représentatif de la sollicitation en service a été mis au point. Les éprouvettes testées sont des nappes composites constituées de câbles alignés au sein d’une matrice de gomme. Des essais interrompus à différents stades de l’endommagement suivis d’observations ex-situ (tomographie à rayon X, MEB) ont été réalisés. Un modèle de simulation par éléments finis de la nappe composite a été développé en vue d’étudier les interactions filgomme. La comparaison des observations aux simulations a permis de comprendre la cinétique de l’endommagement des renforts lors d’une sollicitation de flexion cyclique.L’étude de chacun des mécanismes susceptibles de contribuer à l’endommagement d’un câble a permis d’expliquer la meilleure tenue en fatigue des architectures pénétrées par la gomme. Un outil probabiliste de prédiction de la durée de vie des câbles basé sur la propagation des défauts en surface des fils a été développé. / Steel cables are used as reinforcements in heavy truck tires, in particular to support the forces resulting from the tire pressure and the vehicle's weight. A cable is a set of pearlitic steel wires assembled in helical form on different layers. There are therefore many assembly possibilities to define the cable architecture. The cables are subjected to cyclic loadings during service, resulting in fatigue damage. In a context of reduced fuel consumption and lighter vehicles, understanding the mechanisms involved is thus a major challenge for tire manufacturers, in order to optimize the architecture of cables with respect to fatigue resistance. A cyclic bending test representative of mechanical in-service loading has been developed. The tested specimens are composite layers made of cables aligned within an elastomer matrix. Interrupted tests at different stages of damage followed by ex-situ observations (X-ray tomography, SEM) were performed. A finite element model of the composite layer has been developed in order to understand wire-rubber interactions. The comparison of the observations with the simulations made it possible to understand the kinetics of cable damage during cyclic bending loading.The study of each of the mechanisms likely to contribute to the cable damage has made it possible to explain the better fatigue resistance of the architectures penetrated by the rubber. A stochastic cable fatigue life model based on wire surface defect propagation has been developed.
|
119 |
Inférence statistique dans des modèles de comptage à inflation de zéro. Applications en économie de la santé / Statistical inference in zero-inflated counts models. Applications in economics of healthDiallo, Alpha Oumar 27 November 2017 (has links)
Les modèles de régressions à inflation de zéros constituent un outil très puissant pour l’analyse de données de comptage avec excès de zéros, émanant de divers domaines tels que l’épidémiologie, l’économie de la santé ou encore l’écologie. Cependant, l’étude théorique dans ces modèles attire encore peu d’attention. Ce manuscrit s’intéresse au problème de l’inférence dans des modèles de comptage à inflation de zéro.Dans un premier temps, nous revenons sur la question de l’estimateur du maximum de vraisemblance dans le modèle binomial à inflation de zéro. D’abord nous montrons l’existence de l’estimateur du maximum de vraisemblance des paramètres dans ce modèle. Ensuite, nous démontrons la consistance de cet estimateur, et nous établissons sa normalité asymptotique. Puis, une étude de simulation exhaustive sur des tailles finies d’échantillons est menée pour évaluer la cohérence de nos résultats. Et pour finir, une application sur des données réelles d’économie de la santé a été conduite.Dans un deuxième temps, nous proposons un nouveau modèle statistique d’analyse de la consommation de soins médicaux. Ce modèle permet, entre autres, d’identifier les causes du non-recours aux soins médicaux. Nous avons étudié rigoureusement les propriétés mathématiques du modèle. Ensuite nous avons mené une étude numérique approfondie à l’aide de simulations informatiques et enfin, nous l’avons appliqué à l’analyse d’une base de données recensant la consommation de soins de plusieurs milliers de patients aux USA.Un dernier aspect de ces travaux de thèse a été de s’intéresser au problème de l’inférence dans le modèle binomial à inflation de zéro dans un contexte de données manquantes sur les covariables. Dans ce cas nous proposons la méthode de pondération par l’inverse des probabilités de sélection pour estimer les paramètres du modèle. Ensuite, nous établissons la consistance et la normalité asymptotique de l’estimateur proposé. Enfin, une étude de simulation sur plusieurs échantillons de tailles finies est conduite pour évaluer le comportement de l’estimateur. / The zero-inflated regression models are a very powerful tool for the analysis of counting data with excess zeros from various areas such as epidemiology, health economics or ecology. However, the theoretical study in these models attracts little attention. This manuscript is interested in the problem of inference in zero-inflated count models.At first, we return to the question of the maximum likelihood estimator in the zero-inflated binomial model. First we show the existence of the maximum likelihood estimator of the parameters in this model. Then, we demonstrate the consistency of this estimator, and let us establish its asymptotic normality. Then, a comprehensive simulation study finite sample sizes are conducted to evaluate the consistency of our results. Finally, an application on real health economics data has been conduct.In a second time, we propose a new statistical analysis model of the consumption of medical care. This model allows, among other things, to identify the causes of the non-use of medical care. We have studied rigorously the mathematical properties of the model. Then, we carried out an exhaustive numerical study using computer simulations and finally applied to the analysis of a database on health care several thousand patients in the USA.A final aspect of this work was to focus on the problem of inference in the zero inflation binomial model in the context of missing covariate data. In this case we propose the weighting method by the inverse of the selection probabilities to estimate the parameters of the model. Then, we establish the consistency and asymptotic normality of the estimator offers. Finally, a simulation study on several samples of finite sizes is conducted to evaluate the behavior of the estimator.
|
120 |
EDSR et EDSPR avec grossissement de filtration, problèmes d'asymétrie d'information et de couverture sur les marchés financiersEyraud-Loisel, Anne 07 December 2005 (has links) (PDF)
L'objectif de cette thèse est d'étudier l'existence et l'unicité de solution d'équations différentielles stochastiques rétrogrades avec grossissement de filtration. La motivation de ce problème mathématique provient de la résolution d'un problème financier de couverture par un agent possédant une information supplémentaire inconnue sur le marché. Dans une première partie, nous résolvons ce problème, successivement dans un cadre continu puis avec sauts, et montrons que sous l'hypothèse (H3) du grossissement de filtration, grâce à un théorème de représentation des martingales, l'EDSR dans l'espace grossie sous des hypothèses standard a une unique solution. L'une des conséquences principales est que, dans un marché complet, la détention d'une information supplémentaire par l'agent initié ne lui confère pas de stratégie de couverture différente. Dans une seconde partie, nous développons un modèle d'agent informé et influent, ce qui nous amène à résoudre une équation différentielle stochastique progressive rétrograde avec grossissement de filtration, et nous obtenons également un théorème d'existence et d'unicité de solution. Nous sommes également amenés à étudier le problème de couverture en marché incomplet, puisque du fait de l'influence, le marché sans information devient incomplet. Enfin, dans la dernière partie, nous généralisons les résultats d'existence et d'unicité de solution d'EDSR avec grossissement de filtration à des EDSR à horizon aléatoire.
|
Page generated in 0.0797 seconds