91 |
Les données numériques pour la prévision des rendements boursiers : applications de l'outil Google TrendsBergeron, Marc-André 02 February 2024 (has links)
L’accès à l’information financière est un déterminant important pour la prévision des rendements boursiers (mesurés par la variation de la capitalisation boursière) et la littérature propose d’utiliser les comportements de recherches numériques des individus comme indicateur de l’attention des marchés financiers. Ce mémoire explore la relation entre les volumes de recherches pour trois indices de marchés boursiers (Dow Jones, Nasdaq et Nyse) et sept entreprises cotées en bourse (Amazon, Google, Apple, Microsoft, Johnson& Jonhson, Berkshire Hathaway et JP Morgan& Chase) et les rendements boursiers (du 1er janvier 2006 au 31 décembre 2019) sans apporter de preuves catégoriques pour l’utilité des volumes de recherche. On trouve une relation statistiquement significative entre les volumes de recherches et les rendements boursiers absolus des indices de marché (Dow Jones, Nasdaq et Nyse) pendant la période de crise économique. On trouve également une relation statistiquement significative pour la prédiction des rendements bruts d’Apple sur toute la période à l’étude. Les relations significatives suggèrent un comportement économique cohérent avec la littérature : les chocs d’information deviennent progressivement moins importants alors qu’ils sont intégrés par le marché.
|
92 |
Validation préliminaire de l'échelle de psychopathie autorapportéeGagnon, Valérie 18 April 2018 (has links)
Depuis quelques années, des chercheurs s’intéressent aux manifestations de la psychopathie dans la population générale. La nature froide, manipulatrice et antisociale des personnes qui en souffrent (Paulhus & Williams, 2002) se manifeste par des comportements de violence conjugale (Costa & Babcock, 2008), d’infidélité (Egan & Angus, 2004) et de coercition sexuelle (Williams, Spidel, & Paulhus, 2005) associés à des formes graves de détresse conjugale (Han, Weed, & Butcher, 2003). Jusqu’à présent, le Levenson Primary and Secondary Psychopathy scales (LPSP; Levenson, Kiehl, & Fitzpatrick, 1995) constitue le seul instrument de mesure de la psychopathie infra clinique disponible en langue française. Or, un autre questionnaire autorapporté, le Self-Report Psychopathy Scale-III, (SRP-III; Paulhus, Hemphill, & Hare, sous presse) possède de bonnes propriétés psychométriques en langue anglaise et comble des lacunes du LPSP (Williams, Paulhus, & Hare, 2007). Sa validation en langue française est susceptible de fournir un outil de recherche et de dépistage fondé empiriquement. Les résultats obtenus démontrent que la validation préliminaire de la version française du SRP-III présente une structure factorielle similaire à celle de la Psychopathy Checklist Revised (PCL-R; Neumann, Hare et Newman, 2007), l’entrevue diagnostique de la psychopathie reconnue comme étalon dans le domaine. Toutefois, la composition des facteurs s’avère différente entre les versions française et anglaise du SRP-III
|
93 |
Une évaluation du risque d'innovation sur les rendements boursiers des entreprises américainesOrou Zime, Hamed 30 January 2025 (has links)
L’objectif principal de ce mémoire est de mesurer le risque d’innovation sur le rendement des actifs des entreprises. Pour ce faire, nous utilisons trois mesures de l’innovation à savoir : dépense en R&D/Valeur comptable (RD/VC), dépense en R&D/Actif total (RD/AT), et l’élasticité R&D du revenu total (r). Grâce à ces trois mesures, nous construisons trois primes de risques d’innovation. Lorsque la prime d’innovation est associée au ratio RD/VC ou RD/AT, nos résultats indiquent que les entreprises sont non seulement exposées au risque d’innovation, mais aussi que leur sensibilité à ce risque est inversement proportionnelle à leur taille. En revanche, lorsque la prime d’innovation est associée à r, nous remarquons que nos coefficients sont très faibles et peu significatifs. Nous confirmons donc que les entreprises les plus innovantes sont celles qui investissent le plus en recherche et développement. / The principal objective pursued by this thesis is to measure the risk of innovation on the return on corporates assets. To do this, we use three measures of innovation, namely: R&D expenditure / Book value (RD/VC ), R&D / Total assets expense (RD/AT), and the elasticity R&D of the total income (r). Through these three measures, we build three innovation risk premiums. When the innovation premium is associated with the ratio RD/VC or RD/AT , our results indicate that firms are not only exposed to the risk of innovation, but also that their sensitivity to the risk of innovation is inversely proportional to their size. On the other hand, when the innovation premium is associated with r, we notice that our coefficients are very weak and insignificant. We therefore conclude that the most innovative companies are those that invest the most in research and development.
|
94 |
MARIE, une architecture d'intégration de composants logiciels hétérogènes pour le développement de systèmes décisionnels en robotique mobile et autonomeCôté, Carle January 2011 (has links)
""Aujourd'hui, la création de systèmes décisionnels en robotique mobile et autonome requiert l'intégration de nombreuses capacités motrices, sensorielles et cognitives au sein de chacun des projets réalisés. Ces capacités sont généralement issues de différents domaines de recherche, comme par exemple la navigation autonome, la planification, les interactions humain-machine, la localisation, la vision artificielle et le contrôle d'actionneurs, pour ne nommer que ceux-ci. D'un point de vue logiciel, deux défis de taille sont issus de ce besoin d'intégration : 1) la complexification de l'analyse des requis pour choisir, construire et interconnecter les différents composants logiciels qui permettent la réalisation de ces capacités, et 2) l'interconnectivité limitée des composants logiciels disponibles dans la communauté robotique causée par le fait qu'ils sont typiquement hétérogènes, c'est-à-dire qu'ils ne sont pas complètement compatibles ou interopérables. Cette thèse propose une solution principalement au défi d'interconnectivité limité en se basant sur la création d'une architecture d'intégration logicielle appelée MARIE, qui permet d'intégrer des composants logiciels hétérogènes utilisant une approche de prototypage rapide pour le développement de systèmes décisionnels en robotique mobile et autonome. Grâce à cette approche, la réalisation de systèmes décisionnels complets pourrait se faire plus tôt dans le cycle de développement, et ainsi favoriser l'analyse des requis nécessaires à l'intégration de chacun des composants logiciels du système. Les résultats montrent que grâce au développement de l'architecture d'intégration logicielle MARIE, plus de 15 composants logiciels provenant de sources indépendantes ont été intégrées au sein de plusieurs applications robotiques (réelles et simulées), afin de réaliser leurs systèmes décisionnels respectifs. L'adaptation des composants déjà existants dans la communauté robotique a permis notamment d'éviter la tâche souvent ardue de réécrire le code nécessaire pour chacun des composants dans un seul et même environnement de développement. Les résultats montrent également que grâce à une méthodologie d'évaluation logicielle appelée ARID, nous avons pu recueillir de l'information utile et pertinente à propos des risques associés à l'utilisation de MARIE pour réaliser une application choisie, sans devoir construire une application de test et sans avoir recours à de la documentation complète de l'architecture logicielle ni celle de l'application à créer. Cette méthode s'inscrit ainsi dans la liste des outils qui permettent de faciliter l'analyse des requis d'intégration reliés à la création de systèmes décisionnels en robotique mobile et autonome.""
|
95 |
Evaluation de l'aléa éboulement rocheux Développements méthodologiques et approches expérimentales. Application aux falaises calcaires du y grenobloisDussauge Peisser, Carine 17 May 2002 (has links) (PDF)
L'évaluation de la stabilité d'une falaise reste un problème complexe, principalement en raison de la multiplic ité des mécanismes de déclenchement possibles et du manque de connaissances sur la structure interne du massif. Elle relève le plus souvent d 'un avis d'expert, basé sur des observations de terrain - morphologie du versant, mesure en surface des discontinuités, estimation du rôle de l'eau .. . Ces méthodes ont pour principal inconvénient de rester qualitatives, sans toujours préciser de critères objectifs clairs. La méthodologie proposée tente d'apporter des éléments quantitatifs et plus objectifs, tant dans le domaine spatial que dans le domaine temporel. Dans un premier temps, une analyse factorielle, réalisée sur un système d' information géographique, permet de tester la sensibilité de différents facteurs au déclenchement d'éboulements. Le croisement de ces facteurs aide ainsi à pointer, sur une zone d 'étude étendue, les sites les plus défavorables qui feront l'objet d'étude de terrain. Ensuite les instabilités potentielles repérées sur le terrain sont caractérisées au moyen d' une fiche qui recense les facteurs à prendre en compte . A chaque facteur (géométrique, mécanique,hydraulique ... ) est attribué un poids relatif, fonction du mécanisme d' instabilité en jeu, et un indice chiffré basé sur les observations de terrain. Une caractérisation ainsi quantifiée doit faciliter la hiérarchisation des instabilités potentielles selon leur niveau de risque. Pour renforcer cette caractérisation, dont la principale difficul té est l'extrapolation vers l' intérieur du massif des observations faites en surface, différentes méthodes de prospection géophysique sont testées sur des rebords de fala ise. La tomographie sismique met en évidence une zone de vitesse lente à l'arrière du front de fal aise, correspondant à une zone de fracturation plus ouverte. L'interférométrie radar quant à elle apporte une image de la continuité des fractures en profondeur et de leur espacement. Ces méthodes permettent d'estimer, en l'absence de géométrie claire, un volume maximum potentiellement instable. Enfin l'évaluation temporelle de l'occurrence des éboulements est abordée par une analyse statistique de la population d'événements connus sur une zone d'étude homogène. La distribution du nombre d'éboulements en fonction de leur volume s'aligne sur une loi puissance N(V)= aV-b pour des populations provenant de sites très différents - falaises calcaires de la région grenobloise, dômes granitiques de la va llée du Yosemite. Sans préjuger de ses implications sur la dynamique des phénomènes d'éboulement - analogue de la loi de Gutenberg-Richter pour les séismes- cette loi permet en première approche de calculer des périodes de retour d' éboulements de volume donné sur la région étudiée - analogue des crues décennales, centennales.
|
96 |
Réflexion sur les méthodes d'évaluation environnementale des mesures de gestion des déplacements et du trafic : analyse critique et proposition d'un nouveau cadre conceptuelBrutti-Mairesse, Eugénie 12 March 2013 (has links) (PDF)
Dans un contexte d'émergence des enjeux environnementaux liés aux transports, une large palette de mesures de gestion des déplacements et du trafic (développement des transports en commun, mise en place de Zones à Actions Prioritaires pour l'Air, développement du concept de voiture partagée...) est mise en œuvre ou envisagée. Les effets réels de ces mesures sur les émissions de polluants, à court ou long terme sont difficilement évaluables selon des méthodes non rationalisées. Il s'agit ici de mener une réflexion scientifique sur l'évaluation environnementale à travers une importante analyse bibliographique. Le questionnement concerne les trafics, les émissions de polluants, la pertinence des outils de modélisation et la compréhension des mécanismes d'action. L'évaluation des mesures de gestion du trafic et des déplacements se heurte à leur diversité, la complexité et l'interaction des mécanismes d'effet, et à leur représentation dans les modèles. Dans une approche de caractérisation des effets et de représentation de l'impact des mesures, nous définissons des actionneurs (stimuli), composantes des entités trafic/déplacements ou émissions de polluants, déclinées suivant la localisation de leur action et par lesquels les différentes mesures peuvent être traduites. La demande en déplacements Véhicules Particuliers, la capacité de la voirie, y compris dans leur dimension spatiale, et la composition du parc automobile ont été identifiées et permettent de caractériser un grand nombre de mesures (demande, changement modal, gestion locale du trafic, politiques de parking, etc.). Leurs actions sont étudiées sous différents scénarios (variation de la demande, de sa localisation, de la capacité, etc.). On analyse ainsi la réponse à ces stimuli en termes de trafic et d'émissions. Ces travaux sont effectués sur la plate forme de calcul sur l'aire de Nantes Métropole (modèle Visem/Visum/modèle CopCETE) et permettent l'esquisse d'une approche d'évaluation de mesures individuelles. La méthode est démontrée sur le cas de la mise en place d'un Transport en Commun en Site Propre
|
97 |
L'intégration des données énergétiques dans la conception architecturale situéeArantes, Laëtitia 23 January 2013 (has links) (PDF)
Ce travail est une réflexion prospective sur la densification verticale de la ville par la tour d'habitation. Trois échelles sont considérées : le bâtiment seul (objet), la composition de sa façade et son insertion urbaine (bâtiment situé). Le parti pris est de n'examiner que le seul critère énergétique. Sont réalisées trois séries d'études " morpho-énergétiques " : 1 - une étude sur l'influence énergétique de la morphologie d'un bâtiment " objet " : l'objectif est de développer un outil d'évaluation simplifiée de la performance énergétique totale des bâtiments résidentiels. 2 - une extension du précédent modèle en insérant le bâtiment dans un morceau de ville : l'objectif est d'identifier l'influence des configurations urbaines sur leur performances énergétiques, à l'aide d'un outil d'optimisation par algorithmes génétiques. 3 - l'étude d'une nouvelle démarche de conception et de rénovation des bâtiments à travers le concept Core-Skin-Shell : l'objectif est d'évaluer l'intérêt énergétique d'une décomposition fonctionnelle du bâtiment.
|
98 |
Le biais d'évaluation de sa compétence scolaire chez des enfants du primaire : ses liens avec la comparaison sociale, sa stabilité et sa valeur adaptative aux plans psychologique et scolaireBoissicat, Natacha 09 December 2011 (has links) (PDF)
Ce travail de thèse traite du caractère plus ou moins irréaliste des perceptions que l'élève a de ses compétences scolaires ou de ce qu'il est convenu d'appeler aujourd'hui le biais d'évaluation de sa compétence scolaire. Deux objectifs principaux structurent ce travail. Le premier vise à vérifier si le type de comparaison sociale auquel l'élève se livre est lié au développement d'un biais négatif d'évaluation de sa compétence scolaire. Pour ce faire, nous avons réalisé 6 études auprès d'élèves francophones de primaire scolarisés en France et au Québec. Dans la lignée des travaux de Buunk et Ybema (1997) et de Buunk et al. (2005), nous avons d'abord testé l'hypothèse selon laquelle les élèves pouvaient interpréter positivement et négativement les comparaisons sociales en classe indépendamment de leur direction. Fort de ces éléments, nous avons vérifié ensuite que l'interprétation positive de la comparaison sociale (identification ascendante et différenciation descendante) est liée positivement au biais d'évaluation de sa compétence alors que l'interprétation négative (identification descendante et différenciation ascendante) lui est négativement reliée. Enfin, une mesure plus fine de la comparaison sociale en classe nous a permis d'explorer si le type de comparaison choisie par l'élève impliquait des effets d'assimilation ou de contraste sur leur biais d'évaluation, selon que l'élève s'identifiait plus ou moins fortement à son camarade de comparaison. Les six études menées dans cette première partie apportent globalement un soutien empirique à nos hypothèses. Le second objectif s'est attaché à étudier l'évolution de ce biais au fil du temps et à vérifier si ces modes d'évolution pouvaient être liés au bien-être psychologique du sujet à moyen terme. Dans cette optique, nous avons conduit des analyses de trajectoires pour décrire l'évolution du phénomène au fil du temps (Nagin, 2005). Cette méthode nous a permis de distinguer des patrons d'évolution distincts mettant en lumière le caractère plus ou moins stable du phénomène. Enfin, la mise en relation de ces trajectoires avec des indicateurs de bien-être et de fonctionnement scolaire révèle que sous-estimer ses compétences constitue un risque d'adaptation psychosociale et scolaire pour les élèves.
|
99 |
Prise en compte de l‘influence de la culture organisationnelle pour la conduite des activités de conception collaborativesTopliceanu, Genoveva Doinita 06 January 2010 (has links)
La conduite des systèmes de conception et le pilotage des projets consistent non seulement à allouer des ressources pour satisfaire au mieux les objectifs assignés au système et au projet, mais également à favoriser la collaboration entre les acteurs du système qu‘ils soient directement ou indirectement impliqués dans le projet. Lors de l‘évolution du système et pendant le déroulement du projet, les décideurs doivent pouvoir analyser la situation de conception existante et encourager l‘apparition d'une situation de collaboration si le besoin s‘en fait sentir. L‘objectif de cette thèse est de définir les concepts permettant d‘analyser et de faire évoluer le système de conception. Pour ce faire nous articulons nos travaux autour d‘un modèle de référence pour l‘évaluation des systèmes de conception. Nous complétons ce modèle en intégrant les influences, à chaque niveau décisionnel, de la culture organisationnelle. Nous montrons comment la culture organisationnelle peut jouer un rôle non négligeable auprès des acteurs de l‘entreprise en vue de l‘atteinte des objectifs fixés par celle-ci. Nous obtenons ainsi, un modèle adapté à la conduite des systèmes de conception et au pilotage des projets de conception dans un environnement multi-acteurs, multi-disciplinaires et multi-projets. Notre modèle positionne la performance des systèmes de conception dans le cadre plus large de la performance globale de l'entreprise en décrivant les éléments du contexte de l‘entreprise et la culture organisationnelle de celle-ci qui vont influencer la conception. Une étude de cas réelle menée au sein d‘une entreprise espagnole montre en quoi il est nécessaire de prendre en considération la culture organisationnelle dès lors que l‘on souhaite mettre en place une stratégie dans une entreprise en vue de concevoir un nouveau produit. / The design systems management and the project management have not only to concern resources allocation process to satisfy the objectives assigned, but also to promote collaboration between the actors of the system which could be involved in the project or not. During the system evolution and the project, the leaders will analyze the real state of design conditions and stimulate the collaborating conditions when it is necessary. Objective of this thesis is to define concepts allowing analysing, managing and making evolve the design system. To achieve this objective we articulate our research around a reference model to evaluate design system. We complete this model by integrating influences, at each decisional level, of the organizational culture. We show how the organizational culture could have an important influence in the actors‘ way of life in the company. We obtain a model adapted to a multi-actor, multi-disciplinary and multi-project environment. Our model positioned the design systems in the more global context of the performance of the enterprise by describing elements of the environment of enterprise and the organizational culture which will have an influence on the design system. A real case study in a Spanish company shows how organizational culture could impact the strategy of a company when it wants to develop a new product.
|
100 |
Méthodologie d'évaluation pour les types de données répliqués / Evaluation methodology for replicated data typesAhmed-Nacer, Mehdi 05 May 2015 (has links)
Pour fournir une disponibilité permanente des données et réduire la latence réseau, les systèmes de partage de données se basent sur la réplication optimiste. Dans ce paradigme, il existe plusieurs copies de l'objet partagé dite répliques stockées sur des sites. Ces répliques peuvent être modifiées librement et à tout moment. Les modifications sont exécutées en local puis propagées aux autres sites pour y être appliquées. Les algorithmes de réplication optimiste sont chargés de gérer les modifications parallèles. L'objectif de cette thèse est de proposer une méthodologie d'évaluation pour les algorithmes de réplication optimiste. Le contexte de notre étude est l'édition collaborative. Nous allons concevoir pour cela un outil d'évaluation qui intègre un mécanisme de génération de corpus et un simulateur d'édition collaborative. À travers cet outil, nous allons dérouler plusieurs expériences sur deux types de corpus: synchrone et asynchrone. Dans le cas d'une édition collaborative synchrone, nous évaluerons les performances des différents algorithmes de réplication sur différents critères tels que le temps d'exécution, l'occupation mémoire, la taille des messages, etc. Nous proposerons ensuite quelques améliorations. En plus, dans le cas d'une édition collaborative asynchrone, lorsque deux répliques se synchronisent, les conflits sont plus nombreux à apparaître. Le système peut bloquer la fusion des modifications jusqu'à ce que l'utilisateur résolut les conflits. Pour réduire le nombre de ces conflits et l'effort des utilisateurs, nous proposerons une métrique d'évaluation et nous évaluerons les différents algorithmes sur cette métrique. Nous analyserons le résultat pour comprendre le comportement des utilisateurs et nous proposerons ensuite des algorithmes pour résoudre les conflits les plus important et réduire ainsi l'effort des développeurs. Enfin, nous proposerons une nouvelle architecture hybride basée sur deux types d'algorithmes de réplication. Contrairement aux architectures actuelles, l'architecture proposéeest simple, limite les ressources sur les dispositifs clients et ne nécessite pas de consensus entre les centres de données / To provide a high availability from any where, at any time, with low latency, data is optimistically replicated. This model allows any replica to apply updates locally, while the operations are later sent to all the others. In this way, all replicas eventually apply all updates, possibly even in different order. Optimistic replication algorithms are responsible for managing the concurrent modifications and ensure the consistency of the shared object. In this thesis, we present an evaluation methodology for optimistic replication algorithms. The context of our study is collaborative editing. We designed a tool that implements our methodology. This tool integrates a mechanism to generate a corpus and a simulator to simulate sessions of collaborative editing. Through this tool, we made several experiments on two different corpus: synchronous and asynchronous. In synchronous collaboration, we evaluate the performance of optimistic replication algorithms following several criteria such as execution time, memory occupation, message's size, etc. After analysis, some improvements were proposed. In addition, in asynchronous collaboration, when replicas synchronize their modifications, more conflicts can appear in the document. In this case, the system cannot merge the modifications until a user resolves them. In order to reduce the conflicts and the user's effort, we propose an evaluation metric and we evaluate the different algorithms on this metric. Afterward, we analyze the quality of the merge to understand the behavior of the users and the collaboration cases that create conflicts. Then, we propose algorithms for resolving the most important conflicts, therefore reducing the user's effort. Finally, we propose a new architecture for supporting cloud-based collaborative editing system. This architecture is based on two optimistic replication algorithms. Unlike current architectures, the proposed one removes the problems of the centralization and consensus between data centers, is simple and accessible for any developers
|
Page generated in 0.0767 seconds