281 |
Prévision de l'inflation au CanadaKouassi, Adoumou 10 February 2024 (has links)
Ce document a pour but de présenter la prévision de l’inflation à l’aide du modèle ARIMA et la Courbe de Phillips. Il est important de s’intéresser à ce sujet en tant qu’économiste, car c’est une variable macroéconomique essentielle qui influence les choix économiques et financiers. Plusieurs méthodes existent pour prévoir l’inflation dont le modèle ARIMA et la courbe de Phillips. Le modèle ARIMA est très robuste en ce sens qu’il englobe le processus autorégressif, la partie de différenciation et la composante de moyenne mobile. Cependant, la courbe de Phillips standard met en évidence la relation inverse entre l’inflation et le taux de chômage. Par ailleurs, la courbe de Phillips améliorée établit la relation inverse entre l’inflation et le taux de chômage et la relation positive entre l’inflation et le taux de de change et le taux d’intérêt de court terme. La méthode employée pour obtenir le modèle ARIMA est l’approche de Box-Jenkins. De plus, le meilleur modèle ARIMA obtenu de la série de l’inflation canadienne est ARIMA (3,1,2) pour les données mensuelles de l’inflation de 1971 à 2016. Le meilleur modèle observé est la courbe de Phillips améliorée. Cela est d’autant plus normale, car le Canada est une petite économie ouverte, et donc ces variables macroéconomiques dépendent en partie de la situation économique de l’extérieur. Néanmoins, la courbe de Phillips améliorée révèle que le taux de chômage influence en majeure partie le taux d’inflation. Nos résultats présentent des prévisions à la baisse du niveau d’inflation de 2017 à 2020, ce qui est conforme avec l’évolution des valeurs réalisées de l’inflation canadienne.
|
282 |
Existence de connexions homoclines pour l'équation du pont suspendu : une preuve assistée par ordinateurMurray, Maxime 24 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdorales, 2015-2016 / Dans ce mémoire, une méthode assistée numériquement est introduite et utilisée afin de montrer l'existence d'une connexion homocline à zéro pour l'équation du pont suspendu. Cette méthode, basée sur l'utilisation du théorème de contraction de Banach, permet d'obtenir les points fixes de l'opérateur de Newton légèrement modifié. La méthode ainsi que son cadre théorique sont introduits au premier chapitre. L'espace de Banach sur lequel sera définit l'opérateur ainsi que la manière de construire l'approximation de l'inverse utilisée pour l'opérateur sont les éléments majeurs du cadre théorique. Par la suite, la méthode est utilisée dans le Chapitre 2 pour prouver rigoureusement la validité de l'approximation numérique utilisée pour la variété stable locale. Puis cette approximation est réutilisée pour prouver l'existence de la connexion homocline. Cette preuve est à nouveau effectuée en utilisant la méthode introduite au premier chapitre. Finalement, certains résultats des calculs numériques sont présentés pour conclure ce mémoire. / In this work, a numerically assisted technique is introduced in order to prove the existence of a homoclinic connexion to zero for the suspension bridge equation. This technique, based on the use of the Banach fixed point theorem, can provide the fixed point of a slightly modified version of the Newton operator. The technique and its theorical background are introduced in the first chapter. The Banach space on which the operator is defined and the way to construct the approximation of the inverse needed to define the operator are the major parts of the theoretical background. The method is then used to rigorously validate the numerical approximation used to parametrize the local stable manifold. This parametrization is used to find the homoclinic connexion we are looking for. This proof is also completed using the technique from the first chapter. Finally, some results and numerical approximations will be presented in the last chapter.
|
283 |
L'amplification didactique en tant que moyen de développement de savoirs complets en milieu universitaireSantos Ferreira, Bruno 13 December 2023 (has links)
Titre de l'écran-titre (visionné le 29 mai 2023) / Notre projet de recherche propose une contribution théorique à la didactique pour le développement de savoirs complets des étudiants en formation universitaire. Il s'agit d'une recherche de nature interprétative et de type théorique-spéculatif ayant pour but de développer : 1) un nouveau concept théorique, le savoir complet ; 2) un modèle didactique, nommé par l'acronyme D.E.E.P., Dispositif d'Expériences Éducatives Profondes et 3) une approche didactique applicable pédagogiquement, nommée l'amplification didactique. Ceci comprend la requalification du savoir comme vecteur de transformation plutôt qu'en tant que vecteur d'instruction des individus concernés par le système didactique, soit principalement l'enseignant et l'étudiant. C'est ainsi que nous chercherons les énoncés théoriques nécessaires pour restaurer les nuances les plus fines du savoir, qui dépassent inévitablement les cadres des modèles didactiques dominants en matière de savoir universitaire. Pour ce faire, les fondements méthodologiques empruntés dans cette recherche interpellent différentes méthodes de recherche : l'herméneutique, l'analyse spéculative, la modélisation, la rhétorique et la pratique littéraire; et ceci afin de produire un argumentaire théorique et spéculatif sur le plan didactique qui soit cohérent et rigoureusement élaboré. Contrairement à une approche empirique, notre objectif n'est pas d'appliquer des recherches dans un contexte donné, mais de contribuer, par la réflexion, à l'évolution de nouvelles connaissances en matière de didactique universitaire. / Our research project proposes a theoretical contribution to didactics, more specifically, to the development of complete knowledge for students in university education. With an interpretative nature and of a theoretical-speculative type, this research aims to develop: 1) a new theoretical concept, the complete knowledge; 2) a didactic model, the Deep Educational Experience Device (D.E.E.P.), and 3) a didactic approach applicable pedagogically, the didactic amplification. This includes the requalification of knowledge as a vector of transformation rather than a vector of instruction for the individuals concerned by the didactic system, mainly the teacher and the student. This is how we seek the theoretical statements necessary to restore the finest nuances of knowledge, which inevitably go beyond the frameworks of the dominant didactic models in terms of university knowledge. To do this, the methodological foundations borrowed in this research challenge different research methods: hermeneutics, speculative analysis, modeling, rhetoric and literary practice, in order to produce a theoretical and speculative argument on the didactic level, which is coherent and rigorously elaborated. Contrary to an empirical approach, our goal is not to apply research in a given context, but to contribute, through reflection, to the evolution of new knowledge in university didactics.
|
284 |
Inférence spatio-temporelle en présence de valeurs extrêmesCompaore, Kiswendsida Julien 26 March 2024 (has links)
Titre de l'écran-titre (visionné le 10 octobre 2023) / Ce mémoire étudie les impacts qu'a une mauvaise spécification de la loi du champ aléatoire latent dans un modèle spatio-temporel. Précisement les impacts sur les estimations et l'inférence d'une mauvaise spécification dans un modèle Poisson log-normal spatio-temporel ont été investigués. La mauvaise spécification correspond à la présence de valeurs très extrêmes pour une distribution Poisson log-normale. Un modèle pour tenir compte de ces valeurs extrêmes a été proposé. L'amélioration des estimations avec ce modèle alternatif est mise en évidence par une étude de simulation Monte Carlo. L'ajustement des modèles impliqués dans cette étude fait intervenir des intégrations en grandes dimensions pour évaluer la vraisemblance. Le package R TMB met en oeuvre une solution, en l'occurence l'approximation de Laplace, à ce problème. / This thesis studies the impact of a misspecification of the latent random field distribution in a spatio-temporal model. Specifically, the impact on estimates and inference of misspecification in a space-time log-normal Poisson model has been investigated. The misspecification corresponds to the presence of very extreme values for a log-normal Poisson distribution. A model to account for these extreme values was proposed. The improvement in estimates with this alternative model is demonstrated by a Monte Carlo simulation study. The fitting of the models involved in this study involves high-dimensional integrations to evaluate the likelihood. The R package TMB implements a solution to this problem: the Laplace approximation.
|
285 |
Simulations de procédés d'extrusion pour des fluides viscoplastiquesPlasman, Ludovic 10 February 2024 (has links)
Cette thèse a pour objectif le développement et l'implémentation d'un outil de résolution éléments-finis pour les problèmes d'extrusion de matériaux visco-plastiques fondus qui soit adapté à l'industrie du pneumatique. Dans ces travaux nous présenterons une méthodologie complète pour résoudre un modèle couplé comprenant le calcul des écoulements dans l'outillage, la répartition de température dans le domaine et la position d'interfaces entre plusieurs matériaux non miscibles. Pour cela, nous utiliserons les équations de Stokes non linéaires, l'équation de la chaleur, la méthode des interfaces diffuses et l'adaptation de maillage hiérarchique. Après avoir détaillé les différentes méthodes utilisées pour la résolution des différents problèmes, nous présenterons des résultats numériques dans plusieurs géométries d'outillages liés à l'extrusion des polymères. / The objective of this thesis is the development and the implementation of a finite element resolution tool for extrusion problems of molten visco-plastic materials which is suitable for the tire industry. In this works we will present a complete methodology to solve a coupled model including the calculation of the flow field in the equipment, the temperature distribution in the domain and the position of interfaces between several immiscible materials. To achieve this goal, we will solve the nonlinear Stokes equations, the heat equation, the diffuse interface method and we will use hierarchical mesh adaptation. After describing the various methods used for the resolution of the different problems, we present numerical results in several industrial geometries of tools related to the extrusion of polymers.
|
286 |
Simulations Monte Carlo et tests de score sur les matrices nulles : approche par inférence exacteLy, Boucar 24 January 2020 (has links)
Ce document propose des outils de simulation de matrices nulles basés sur la loi conditionnelle d’une matrice de présence-absence sachant ses statistiques exhaustives. Ces outils sont basés sur la régression logistique et de plus, ils tiennent compte de l’hétérogénéité des sites et aussi de l’interaction qui peut exister entre les variables qui définissent cette hétérogénéité. Dans ce travail, nous avons traité le cas où les variables qui caractérisent l’hétérogénéité des sites sont binaires et elles sont au plus au nombre de deux. Ainsi, deux outils ont été mis en place à savoir l’algorithme basé sur la régression logistique avec interaction entre les deux variables sites et celui sans interaction entre les variables sites. À partir d’une étude de simulation sur10 000 matrices de présence-absence, nous avons pu, non seulement décrire les propriétés des algorithmes mis en place, mais aussi comparer ces derniers avec d’autres algorithmes de simulation de matrices nulles. Ces comparaisons ont permis de constater que les tests scores avec les algorithmes basés sur la régression logistique avec ou sans interaction entre lesvariables sites donnent des résultats acceptables peu importe l’impact des variables sites. En revanche, l’algorithme ’fixed-fixed’, lorsque les variables sites ont des effets alternés, devient vulnérable aux erreurs de type I. Avec l’algorithme basé sur le modèle d’indépendance, les résultats obtenus ne sont pas fiables parce que le test est très vulnérable aux erreurs de type I.Pour l’algorithme de Peres-Neto, le test de score est très conservateur mais celui-ci s’améliore avec les variables sites à effets alternés. Pour finir, ces différents algorithmes ont été utiliséspour simuler des matrices nulles à partir d’un jeu de données réelles. Cela nous a permis decomparer la structure des matrices simulées par les différents algorithmes par rapport à celle de la matrice observée. / This document proposes tools of simulation of null matrices based on the conditional law of a presence-absence matrix knowing its sufficient statistics. These tools are based on logistic regression and, moreover, they take into account the heterogeneity of the sites and also the interaction that can exist between the variables that define this heterogeneity. In this work, we have treated the case where the variables that characterize the heterogeneity of the sites are binary and there are more than two. Thus, two tools have been put in place, namely the logistic regression algorithm with interaction between the two site variables and the one without interaction between the site variables. From a simulation study on10 000 presence-absence matrices, we were able not only to describe the properties of the implemented algorithms, but also to compare these algorithms with other null matrix simulation algorithms. These comparisons showed that the score tests with the logistic regression based algorithms with or without interaction between the site variables give acceptable results regardless of the impactof the site variables. On the other hand, the ’fixed-fixed’ algorithm, when the site variables have alternate effects, becomes vulnerable to type I errors. With the algorithm based on the independence model, the results obtained are not reliable because the test is very vulnerable to type I errors. For the Peres-Neto algorithm, the score test is very conservative but itimproves with the alternate effect site variables. Finally, these different algorithms were used to simulate null matrices from a real dataset. This enabled us to compare the structure of the matrices simulated by the different algorithms with respect to that of the observed matrix.
|
287 |
Curiethérapie vs protonthérapie : vers une comparaison dosimétrique de traitements de mélanomes oculaires par calcul Monte Carlo à l'aide de TOPASPoher, Audran 10 June 2024 (has links)
La curiethérapie et la protonthérapie sont toutes deux des méthodes permettant de traiter des mélanomes oculaires. Une différence majeure entre ces deux méthodes est la façon de les appliquer. En effet, la curiethérapie est une modalité de radiothérapie interne qui utilise des implants, plus spécifiquement des plaques dans le cas du mélanome oculaire, tandis que la protonthérapie utilise un faisceau externe de radiation ionisante. Pour ces deux méthodes de traitement, il est essentiel de déterminer leurs distributions de dose de radiation associées. La méthode Monte Carlo est reconnue pour être le standard dans le calcul de distribution dose. TOPAS (TOol for Particle Simulations) est un logiciel de simulation utilisant un algorithme Monte Carlo qui a initialement été développé pour des applications de protonthérapie. Le but de ce projet est de comparer d'un point de vue dosimétrique la curiethérapie et la protonthérapie pour des traitements du mélanome oculaire. Une première étape à été de valider et d'étendre TOPAS pour des applications de curiethérapie. Pour ce faire, 11 modèles de sources et les modèles de plaques oculaire de type COMS (10 à 22 mm de diamètre) ont été modélisés, puis caractérisés selon leur paramètres TG-43et TG-129. L'étape suivante est de créer et valider une géométrie d'œil contenant un mélanome oculaire dans ce même logiciel dans le but d'avoir un référentiel anatomique commun pour les méthodes de traitements. La validation de celui-ci est faite en le simulant conjointement avec une plaque oculaire de type COMS. Finalement, la comparaison dosimétrique des deux méthodes de traitement est effectuée après avoir simulé le traitement de deux formes de mélanomes oculaires par protonthérapie et par curiethérapie. Les cartes de distributions de dose, les doses moyennes des structures d'intérêt les points de dose spécifiques et les histogrammes cumulatifs sont extraits pour pouvoir tirer des informations quantitatives servant à la comparaison de la curiethérapie versus la protonthérapie.
|
288 |
Adaptation de maillages en parallèleTye Gingras, Christian 20 April 2018 (has links)
L’adaptation de maillages anisotrope permet d’améliorer grandement la précision de méthodes numériques telles que la méthode des éléments finis. L’adaptation peut être très coûteuse en temps de calcul, mais montre un grand potentiel de parallélisation. Ce projet consiste à développer une implémentation parallèle de l’adaptation de maillages anisotrope basée sur des estimateurs métrique et hiérarchique. On introduit les notions de base de l’adaptation et de la programmation parallèle. On développe une stratégie de parallélisation applicable à la fois en deux dimensions et en trois dimensions. Enfin, on applique cette stratégie dans le cadre de la méthode des éléments finis dans le but d’en évaluer l’efficacité et la rapidité.
|
289 |
Discrete element method modeling of mechanical behavior of coke aggregates during compaction processSadeghi Chahardeh, Alireza 11 April 2024 (has links)
Les anodes en carbone font partie de la réaction chimique de réduction de l'alumine, qui est consommée lors du procédé d'électrolyse Hall-Héroult. Le comportement des agrégats secs de coke en tant que composant principal des anodes de carbone (environ 85 %) a un rôle clé et exceptionnel dans leurs propriétés finales. L'analyse de défaillance des agrégats de coke sec permet non seulement de mieux comprendre les mécanismes de déformation des matériaux granulaires sous charge compressive, mais peut également identifier les causes potentielles de défauts structurels des anodes en carbone, telles que les fissures horizontales. Dans ce travail, il sera montré qu'un mode de défaillance particulier peut être responsable de la génération de fissures dans les anodes en carbone. Le comportement de rupture des agrégats de coke n 'est pas seulement affecté par les paramètres du processus de compactage, tels que la pression de confinement et la vitesse de déformation axiale, mais il dépend également fortement de la distribution granulométrique et de la forme des particules de coke. La méthode des éléments discrets (DEM) est utilisée pour modéliser le comportement micromécanique des agrégats de coke sec pendant le processus de compactage. De plus, le critère de travail de second ordre est utilisé pour analyser la rupture des éprouvettes de granulats de coke. Les résultats révèlent que l'augmentation de la pression de confinement augmente la probabilité du mode de diffusion de la rupture dans l'éprouvette. D'autre part, l'augmentation de la vitesse de déformation augmente les chances du mode de localisation de la déformation de la rupture dans l'éprouvette. De plus, les résultats indiquent que l'utilisation de fines particules ainsi que la diminution de la sphéricité des particules de coke augmenteront la plage de stabilité des agrégats de coke. De plus, en utilisant l'analyse des évaluations de contour de micro-déformation pendant le processus de compactage, il est montré que, à la fois en ajoutant des particules fines aux agrégats de coke et en diminuant la sphéricité des particules de coke, la possibilité de créer une bande de compression dans le coke agrégats est réduit. Étant donné que la présence des bandes de compactage dans la pâte d'anode crée une zone sujette à la génération de fissures horizontales, les résultats de cette étude pourraient conduire à la production d'anodes en carbone avec moins de défauts structurels. / Carbon anodes are part of the chemical reaction of alumina reduction, that is consumed during the Hall-Héroult electrolysis process. The behavior of dry coke aggregates as the main component of carbon anodes (about 85 %) has an exceptional key role in their final properties. The failure analysis of dry coke aggregates not only leads to a better understanding of the deformation mechanisms of granular materials under compressive loading but also can also identify the potential causes of structural defects in carbon anodes, such as horizontal cracks. In this work, it will be shown that a particular failure mode can be responsible for the crack generation in the carbon anodes. The failure behavior of the coke aggregates is not only affected by the compaction process parameters, such as the confining pressure and axial strain rate, but it is also strongly dependent on the size distribution and shape of coke particles. The discrete element method (DEM) is employed to model the micro-mechanical behavior of the dry coke aggregates during the compaction process. In addition, the second-order work criterion is used to analyze the failure of the coke aggregate specimens. The results reveal that increasing the confining pressure enhances the probability of the diffusing mode of the failure in the specimen. On the other hand, the increase of the strain rate augments the chance of the strain localization mode of the failure in the specimen. In addition, the results indicate the fact that the use of fine particles as well as decreasing the sphericity of coke particles will increase the stability range of the coke aggregates. Moreover, by using the analysis of micro-strain contour evaluations during the compaction process, it is shown that, both by adding fine particles to the coke aggregates and by decreasing the sphericity of coke particles, the possibility of creating a compression band in the coke aggregates is reduced. Since the presence of the compaction bands in the anode paste creates an area that is prone to horizontal crack generation, the results of this study could lead to the production of carbon anode with fewer structural defects.
|
290 |
Looking for heterogeneous firms : sources and implications for financial statement usersColas, Baptiste 02 February 2024 (has links)
Cette thèse s’intéresse à la sélection de comparables dans le contexte de la comptabilité financière. Dans ce contexte, l’analyse de firmes se fait de façon relative, en comparaison avec d’autres firmes semblables — les « comparables ». Ainsi, il est nécessaire de former des groupes homogènes de firmes à ces fins. L’utilisation des classifications d’industries est la méthode privilégiée, car elle permet de grouper les firmes sur des critères objectifs et en lien avec le cœur de l’activité des firmes. Elles présentent l’avantage d’être très largement disponible, et très simples à utiliser. Dans cette thèse l’objectif principal est d’identifier des sources d’hétérogénéité intra-industrie, et d’examiner leurs conséquences à plusieurs niveaux. J’utilise trois approches différentes pour atteindre cet objectif. Dans un premier temps, l’objectif est de proposer une utilisation plus complète des classifications d’industries. Ainsi, j’utilise exclusivement les classifications d’industries pour identifier une source d’hétérogénéité : les industry classification misfits. La littérature précédente a pour habitude d’utiliser les différentes classifications comme des substituts l’une de l’autre, considérant qu’elles groupent les firmes sur la même dimension d’homogénéité. Ici, je prends une approche différente et considère ces classifications comme des compléments l’une de l’autre, en argumentant qu’elles possèdent le même objectif (former des groupes homogènes de firmes), mais qu’elles le font sur des dimensions différentes de l’homogénéité. Ainsi, en étudiant leur convergence j’identifie les industry classification misfits par opposition à celles appartenant au cœur de l’industrie (industry core firms). Ultimement, je montre les biais qu’engendre l’inclusion des industry classification misfits dans les groupes de comparables pour l’estimation des modèles d’accruals et la prédiction des misstatements. Dans un second temps, l’objectif est d’intégrer l’utilisation des ratios comptables et financiers pour identifier les firmes hétérogènes. Je pars de la classification qui offre la plus grande homogénéité pour développer une mesure continue d’homogénéité intra-industrie. J’utilise les ratios comptables et financiers qui sont régulièrement utilisés pour mesurer l’homogénéité d’un groupe de firmes. Contrairement aux études précédentes qui utilisent individuellement ces ratios, je propose une approche multidimensionnelle à l’homogénéité. Dans une première étape, je définis les ratios pertinents pour définir chacune des industries, puis j’utilise simultanément ces ratios pour construire ma mesure continue de distance intra-industrie entre chacune des firmes. Ainsi, je présente les firmes étant les plus éloignées du cœur de l’industrie comme des firmes différenciées (differentiated firms). Ensuite, j’étudie les conséquences sur les marchés financiers pour ces firmes. Je montre que les nouvelles d’industries sont incorporées dans les prix des firmes différenciées avec un retard. Aussi, je montre que les analystes couvrent moins ces firmes et commettent plus d’erreurs dans la prédiction des bénéfices de ces firmes. Enfin, je montre que les firmes différenciées souffrent d’une asymétrie de l’information plus importante sur les marchés, ce qui se matérialise par un plus grand écart bid-ask et une action moins liquide. Enfin, dans un troisième temps, l’objectif est d’utiliser les liens entre les industries pour mieux caractériser les firmes multisegments. Je m’intéresse à une source naturelle d’hétérogénéité intra-industrie — les conglomérats. Par définition, ces firmes opèrent dans plusieurs industries différentes, mais la construction des classifications d’industries restreint leur classification à une industrie. Ceci crée donc naturellement de l’hétérogénéité au sein des industries ce qui amène à les considérer comme complexes, notamment pour les analystes qui se spécialisent par industries. Habituellement, les études précédentes ont considéré que plus une compagnie possède de segments d’affaires différents, plus elle sera complexe. Dans ce chapitre, j’apporte une nuance sur leur complexité en prenant en compte le lien entre les différentes industries dans lesquelles opèrent les conglomérats. Je développe une mesure de distance entre les industries basée sur les ratios financiers. Ainsi, je considère les segments d’affaires comme complexes uniquement ceux qui sont éloignés du cœur d’activité de la firme. Par conséquent, deux conglomérats possédant le même nombre de segments d’affaires peuvent être complexes ou non, dépendamment si leurs activités secondaires sont dans une industrie proche de leur activité première. Ultimement, je montre les conséquences de ces firmes pour les analystes. Mes résultats dévoilent que les analystes ont plus de mal à prédire les bénéfices des conglomérats complexe. / This thesis focuses on the selection of peer firms in the context of financial accounting. In this context, the analysis of firms is done cross-sectionally, in comparison with other similar firms – peer firms. Thus, it is necessary to form homogeneous groups of firms for these purposes. Industry classifications represent the most used method because it proposes an objective way to group firms based on their business activities. In addition, they present the advantage of being publicly available and easy to implement. In this thesis, the main objective is to identify sources of intra-industry heterogeneity, and to examine their consequences for several stakeholders. I provide three ways to fulfill this objective. First, I aim to provide a more complete exploitation of the information provided by industry classifications. Thus, I exclusively use them to identify a source of heterogeneity: industry classification misfits. Previous literature tends to consider industry classifications as substitutes for each other, assuming that they group firms on the same dimension of homogeneity. Here, I take a different approach and consider these classifications as complements arguing that they have the same objective (to form homogeneous groups of firms), but that they do it on different dimension of homogeneity. Thus, by studying their convergence I identify firms that are not systematically classified into the same peer group by industry classifications. I refer to them as industry classification misfits as opposed to those belonging to the heart of industry (industry core firms). Ultimately, I show the consequences of the inclusion of industry classification misfits in peer groups for the estimation of accrual models and the prediction of misstatements. Then, the main objective is to build on fundamental ratios to identify heterogeneous firms. I start from the classification which offers the greatest homogeneity (GICS) to develop a continuous measure of intra-industry homogeneity. I use accounting and financial ratios which are regularly utilized to measure the homogeneity of peer groups. Unlike previous studies which bring these ratios individually, I propose a multidimensional approach to homogeneity. In a first step, I select the relevant ratios that define each industry. These ratios are then used simultaneously to build my continuous measure of intra-industry distance between each firm belonging to the same industry. Ultimately, I present the firms that are furthest from the industry core as differentiated firms. Then, I study the consequences on financial markets for these firms. I show that industry news is incorporated into differentiated firms stock prices with a delay. Also, I show that analysts are less willing to cover these firms and make more mistakes in forecasting differentiated firms’ earnings. Finally, I show that differentiated firms suffer from asymmetric information on the stock market, which occurs as a larger bid-ask spreads and less liquid stocks. Finally, I aim to account for the industry relatedness to better characterize multi-segment firms. I focus on a natural source of intra-industry heterogeneity - conglomerates. These firms operate in several different industries through secondary business segments, but the construction of industry classifications restricts their classification to solely one industry. Therefore, it naturally creates heterogeneity within industries which leads to consider them as complex, especially for analysts who specialize in industries. Usually, previous studies have considered that the more business segments a company has, the more complex it will be. In this chapter, I add a nuance to this proxy for complexity by considering the relatedness between the industry membership of the secondary business segments in which conglomerates operate. I develop an inter-industry distance based on financial ratios to consider the relationship between industries. Thus, I regard business segments as complex only those that are unrelated to the conglomerate primary business segment. Therefore, two conglomerates sharing the same number of business segments are not systematically equally complex as it depends on whether their secondary activities are in an industry close to their primary activity. Ultimately, I show the consequences of complex business segments for financial analysts. My results show that conglomerates with complex business segments have harder earnings to predict.
|
Page generated in 0.0679 seconds