• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 3
  • Tagged with
  • 7
  • 7
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Structure et performance du réseau des sociétés de capital de risque canadiennes, américaines et européennes

Gravel, Marie January 2015 (has links)
L’analyse de réseau est un outil de plus en plus utilisé dans le domaine financier. En effet, bien que ce type d’analyse ait vu le jour dans le domaine de la sociologie moderne, il est aujourd’hui utilisé dans une multitude de secteurs. Son principal attrait réside dans sa capacité à modéliser les relations entre les différents acteurs d’un marché et à les analyser sous différents angles de façon à en faire ressortir les principales caractéristiques. Le domaine financier en est un tout indiqué pour pratiquer ce genre d’analyse en raison des nombreuses interactions y prenant place. En effet, la syndication, soit la pratique d’investir ou de prêter conjointement à une entreprise, est aujourd’hui un outil largement utilisé par les différents acteurs des marchés financiers en raison des avantages évidents qu’il procure, tels que 1) la possibilité de contre-vérifier son analyse d’un titre, 2) la possibilité de répartir le risque et de combiner l’expertise et le support apporté aux firmes financées et 3) l’opportunité de mettre en commun des ressources et des capacités. Bien que la syndication des prêts par les banques soit bien connue, ce type d’investissement est également utilisé dans d’autres marchés dont celui du capital de risque. Quelques études liées à l’analyse de réseau ont jusqu’ici été réalisées dans ce marché, dont celle de Hochberg et al. (2007). Ces derniers utilisent l’analyse de réseau pour mesurer les connections entre les firmes de capital de risque américaines découlant de la syndication de leurs investissements. De façon encore plus intéressante, Hochberg et al. (2007) cherchent par la suite à comprendre en quoi le positionnement d’une firme de capital de risque au sein de son réseau influence la performance des fonds qu’elle crée et trouvent une relation positive et significative entre la centralité et la performance en contrôlant pour différents facteurs. Bien qu’il soit tentant d’extrapoler ces résultats au marché du capital de risque dans son ensemble, des différences au niveau de la structure des réseaux de capital de risque dans d’autres régions géographiques pourraient mener à des résultats différents. En effet, Hege et al. (2009) soulèvent des différences importantes entre le processus d’investissement des capital-risqueurs européens et américains et concluent que l’approche d’investissement moins sophistiquée en Europe mène à une sous-performance des firmes de capital de risque de ce marché. Nitani et Riding (2013) avancent pour leur part que les résultats des études effectuées sur le marché du capital de risque américain ne peuvent être directement appliqués aux plus petits marchés comme le Canada, car la taille des fonds joue un rôle important dans le degré de syndication observé dans un marché. Plus précisément, les auteurs suggèrent que la proportion élevée de petites firmes de capital de risque et la rareté des grosses firmes de capital de risque sur le marché canadien provoquent des contraintes de capital qui mènent à une sursyndication des investissements. Bien que la syndication ait plusieurs bienfaits, Nitani et Riding (2013) concluent que la sursyndication mine la performance des petites firmes de capital de risque sur le marché canadien et résulte en une probabilité de sortie par IPO ou M&A plus faible pour les entreprises supportées par ces dernières. À la lumière de ces résultats, il semble que malgré la relation positive observée par Hochberg et al. (2007) entre centralité et performance sur le marché américain, un niveau d’interrelations trop important a l’effet contraire lorsque la proportion de petites et de grosses firmes de capital de risque n’est pas balancée dans un marché. Les auteurs n’ont toutefois pas utilisé l’analyse de réseaux pour arriver à ces résultats. En ce sens, l’objectif principal de mon étude est d’utiliser l’analyse de réseau pour observer et comprendre la structure du réseau de syndication dans le domaine du capital de risque canadien de façon à la comparer à celle d'autres pays et d'identifier les particularités canadiennes. Je tenterai par la suite de rapprocher les études de Hochberg et al. (2007) et Nitani et Riding (2013) de façon à déterminer si une relation positive entre la centralité et la performance est également observée sur le marché canadien malgré l’impact négatif découlant des contraintes de capital identifiées sur ce marché. Mon mémoire est divisé comme suit. La section 1 est consacrée à la présentation de mon objectif de recherche et des sous-objectifs qui en découlent. Ensuite, la section 2 présente la revue de littérature en lien avec mon étude et traite 1) des caractéristiques propres au marché du capital de risque, 2) des motifs justifiant la syndication des investissements dans ce marché et des différences observées entre le marché américain et les marchés européen et canadien, 3) de la mesure de la performance dans ce domaine et 4) de la méthodologie et des résultats obtenus par Hochberg et al. (2007). La section 3 correspond pour sa part au cadre théorique et englobe la conceptualisation du problème, les hypothèses de recherche et les aspects innovateurs/contributions de l’étude. La section 4 décrit en détail la méthodologie utilisée afin de tester les hypothèses de recherche et la relation entre la centralité et la performance. Finalement, la section 5 est consacrée à l’analyse des résultats obtenus, alors que la section 6 conclut.
2

Les fonds obligataires français et leurs performances / French bond funds and their performances

Le Xuan, Phuc 06 December 2011 (has links)
Sur le marché mondial de la gestion collective, la France occupe la deuxième place en termes du nombre de fonds et du montant d’actifs nets gérés. Malgré le rôle important des OPCVM obligataires dans la diversification des portefeuilles, ils sont néanmoins peu étudiés par rapport aux fonds actions. Notre recherche étudie la performance des fonds obligataires français sur une période de 20 ans, entre 1988 et 2007. Elle s’articule sur quatre chapitres. Le premier présente le panorama du développement des différentes catégories de fonds obligataires et leur couple risque / rentabilité.Le chapitre 2 construit un échantillon de 81 fonds grâces aux données généreusement fournies par la société Morningstar France. Après avoir testé l’homogénéité des distributions de rentabilités des fonds obligataires, on constate que les sous-catégories d’un même horizon de placement ont une distribution statistiquement identique. Ce qui permet de regrouper les fonds en trois catégories selon leur maturité : Long Terme, Moyen Terme et Court Terme. Le chapitre suivant se penche sur la non normalité des distributions de rentabilités (avec le test Jarque-Bera) et la recherche de l’origine de ce phénomène. Il y a absence de l’effet du mois de janvier ; les rentabilités sont non stationnaires et auto-corrélées. Les deux méthodes de correction pour auto-corrélation des rentabilités entrainent une augmentation du risque sans modifier la rentabilité moyenne ; mais ne modifient pas le classement des fonds. Le dernier chapitre est consacré à l’évaluation de la performance des fonds obligataires.Les douze mesures les plus utilisées par les professionnels conduisent à des classements des fonds quasiment identiques et à se demander si le ratio de Sharpe n’est pas finalement la seule mesure à utiliser. Sans aller jusque-là, la méthode de la « classification hiérarchique ascendante » (empruntée à la technique du marketing) permet de réduire à quatre les mesures de performance sans perte d’informations sur le classement des fonds entre eux. Ce chapitre confirme également la présence de la persistance de la performance à l’instar de certaines études anglo-saxonnes sur cette question. / At the world level, the French sector of mutual funds is the second for the number of fundsand the amount of net assets managed. Curiously enough regarding its size, the French bond fundshave been « forgotten » by the researchers and the present thesis seems to be the first one on thissubject. It studies their performances over a 20-year period (from January 1988 to December 2007)with the help of four chapters. The first one is a survey of that sector development and measures thereturn/risk ratio for the different kinds of bond funds. Chapter two presents the 81-funds samplegraciously given by Morningstar France. The analysis of the returns distributions shows that thedifferent funds with and without income distribution with the same maturity have the same statisticaldistribution; it enables to group the funds according to their maturity, namely Long Term, Middle Termand Short Term. Chapter three analyses the non-normality of distributions with the Jarque-Bera testand tries to find the origin of this phenomenon. There is no January effect but returns are nonstationaryand auto-correlated. The two correcting methods for that auto-correlation lead to anincrease of the measured risk without changing the average return and the funds rankings are notmodified. The last chapter deals with the performance measurement of these bond funds. The twelvemeasures most used by professionals give almost the same funds rankings. One can wonder if theSharpe ratio is not the unique relevant measure to use. A technique borrowed from the marketingscience called «cluster analysis» enables to reduce the twelve measures to only four without losinginformation on the funds rankings. This chapter also shows that the performance is persistent, resultalso found by some American researches on this question.
3

Prise de risques dans les banques : incitations, mesures de performance et horizon des actionnaires / Risk-taking in banks : incentives, performance measurcs and investors horizon

Petit-Romec, Arthur 30 November 2015 (has links)
Face à l'ampleur de la crise financière de 2007-2008, comprendre la prise de risques des banques et ses déterminants est devenu une question centrale aussi bien pour les académiques en finance que pour les régulateurs. Dans cette thèse, nous analysons le rôle joué par l'objectif de maximisation de la rentabilité des fonds propres (RoE), omniprésent dans les banques, au regard de la prise de risques. A travers de nombreux tests empiriques, nous mettons en évidence que le RoE est associé à des prises de risques extrêmes et que des incitations monétaires à maximiser cette mesure existaient pour les dirigeants de banques dans les années précédant la crise. Le RoE, utilisé comme principale mesure de performance dans les banques, s'avère en réalité être un indicateur avancé de leur risque et de leur vulnérabilité dans les crises. Afin de mieux comprendre l'attachement des banques au RoE. nous avons également étudié la légitimité de cette mesure en temps normal, c'est-à-dire hors périodes de crise. Les résultats indiquent qu'avant la crise, les risques latents associés au RoE n'étaient que partiellement pris en compte et que la maximisation du RoE n'a pas bénéficié aux actionnaires des banques. A la lumière de ces résultats, la validité du RoE comme mesure de performance apparait d'autant plus surprenante. Enfin, dans une troisième partie, nous questionnons l'approche générale en matière de régulation qui a été de considérer que plus de capital était souhaitable, et ce quelle que soit la nature des investisseurs qui l'apportent. Nous montrons que l'horizon des actionnaires joue un rôle central puisque les banques qui avaient plus d'investisseurs court-terme ont moins résisté (moins bonne performance et plus faible probabilité de survie) pendant la crise. / The 2007-2008 financial crisis prompted much handwringing among academics and regulators as to why banks had taker on so much risks and what factors drove risk-taking. In this thesis, we focus on the responsibility of the focalization on RoE as main performance measure in inducing risk-taking in banks. Our empirical tests show that RoE is associated with strategies of excessive risk-taking and that bank managers had monetary incentives to maximize RoE in the years leading up to the crisis. While RoE is used as a key performance measure in banks, it proves to be a leading indicator of a bank's risk and vulnerability during crises. To better understand the reluctance of banks to abandon RoE despite its perverse effects on risk-taking, we assess in the second article, the validity of RoE as a performance measure outs ide of financial crises. Results indicate that in the pre-crisis period, the information conveyed by RoE on bank risk was only partially taken into account and that RoE did not guarantee a superior performance for bank shareholders in normal periods. Giver these results, the enduring reliance on RoE in banks is even more surprising and questionable. In the third article, we challenge the general view in the area of bank regulation which is that more capital is better, irrespective of who provided it. We show that the investment horizon of bank capital providers plays a crucial role since banks with more short-term investors performed worse and had a lower survival probability during the crisis.
4

Simulation and optimization of energy consumption in wireless sensor networks

Zhu, Nanhao 11 October 2013 (has links) (PDF)
Les grandes évolutions de la technique de systèmes embarqués au cours des dernières années ont permis avec succès la combinaison de la détection, le traitement des données, et diverses technologies de communication sans fil tout en un nœud. Les réseaux de capteurs sans fil (WSN) qui se composent d'un grand nombre de ces nœuds ont attiré l'attention du monde entier sur les établissements scolaires et les communautés industrielles, puisque leurs applications sont très répandues dans des domaines tels que la surveillance de l'environnement, le domaine militaire, le suivi des événements et la détection des catastrophes. En raison de la dépendance sur la batterie, la consommation d'énergie des réseaux de capteurs a toujours été la préoccupation la plus importante. Dans cet article, une méthode mixte est utilisée pour l'évaluation précise de l'énergie sur les réseaux de capteurs, ce qui inclut la conception d'un environnement de SystemC simulation base au niveau du système et au niveau des transactions pour l'exploration de l'énergie, et la construction d'une plate-forme de mesure d'énergie pour les mesures de nœud banc d'essai dans le monde réel pour calibrer et valider à la fois le modèle de simulation énergétique de nœud et le modèle de fonctionnement. La consommation d'énergie élaborée de plusieurs différents réseaux basés sur la plate-forme de nœud sont étudiées et comparées dans différents types de scénarios, et puis des stratégies globales d'économie d'énergie sont également données après chaque scénario pour les développeurs et les chercheurs qui se concentrent sur la conception des réseaux de capteurs efficacité énergétique. Un cadre de l'optimisation basée sur un algorithme génétique est conçu et mis en œuvre à l'aide de MATLAB pour les réseaux de capteurs conscients de l'énergie. En raison de la propriété de recherche global des algorithmes génétiques, le cadre de l'optimisation peut automatiquement et intelligemment régler des centaines de solutions possibles pour trouver le compromis le plus approprié entre la consommation d'énergie et d'autres indicateurs de performance. Haute efficacité et la fiabilité du cadre de la recherche des solutions de compromis entre l'énergie de nœud, la perte de paquets réseau et la latence ont été prouvés par réglage paramètres de l'algorithme CSMA / CA de unslotted (le mode non-beacon de IEEE 802.15.4) dans notre simulation basé sur SystemC via une fonction de coût de la somme pondérée. En outre, le cadre est également disponible pour la tâche d'optimisation basée sur multi-scénarios et multi-objectif par l'étude d'une application médicale typique sur le corps humain.
5

Activisme actionnarial des hedge funds et création de valeur dans le cadre de la gouvernance actionnariale et partenariale d'entreprise : application au cas des entreprises françaises / Hedge fund activism and value creation through shareholder and stakeholder corporate governance : The French case

Ben Arfa, Nouha 29 September 2016 (has links)
L’étude du rôle de l’activisme actionnarial des hedge funds (HF) en matière de gouvernancedans la création de valeur des entreprises françaises constitue l’objet principal de cette thèse.Les réflexions menées, issues de la théorie de la gouvernance nous ont permis d’apporter lespremiers éléments de réponse à notre question centrale. L’approche exploratoire de cephénomène nous a conduits à déterminer un modèle français de l’activisme des HF. De notreapproche hypothético-déductive, nous avons pu élaborer un profil type des entreprises viséescotées et examiner les déterminants de la réaction du marché financier avant de mesurerl’effet de l’activisme des HF sur la création de valeur. Il en ressort que ce dernier est àl’origine de nouvelles situations d’équilibre organisationnel. Il est toutefois entravé par laréticence de la coalition de contrôle, renforcée par les caractéristiques spécifiques de lagouvernance et du contexte juridique en France, à entreprendre ces aménagements. Résultat,des coûts de conviction excessifs, des coûts d’enracinement et l’attentisme des investisseurssur le marché français. Contrairement aux investisseurs traditionnels, il est à admettre quel’activisme des HF est un mécanisme alternatif de contrôle efficient, là où certainsmécanismes de gouvernance actionnariale et partenariale semblent être insuffisammentdisciplinaires. Cependant, il est insuffisant pour inciter la coalition de contrôle à agir dansl’intérêt des différentes parties prenantes de l’entreprise. En France, la concentration et lanature actionnariale limitent, voire bloquent, les actions activistes des HF, contrairement auxentreprises américaines où le capital n’est pas verrouillé. La performance des entreprisesfrançaises est donc l’apanage du pouvoir managérial face à une influence activiste des HF. / This research aims to analyse the role of hedge fund (HF) activism in corporate governanceand French firms value creation. The reflections devoted the theory of governance haveenabled us to provide first elements to our central question. The exploratory study allowed usto determine a French model of HF activism. Our hypothetical-deductive approach enabledus to develop a typical profile of a target-listed firm and to examine the determinants of themarket reaction before measuring the effect of HF activism on value creation. The resultsshow that HF activism is causing new organizational equilibrium situations. However, it isopposed by the reluctance of the control coalition due to French governance and legalcontext. Hence, the exorbitant costs of activism in addition to entrenchment problems andinvestors wait-and-see attitude on the French market. As opposed to traditional investors, HFactivism appears as an efficient alternative control mechanism, where some shareholder andstakeholder governance mechanisms seem to be insufficiently disciplinary. Still, HF activismis unable to encourage the reluctant control coalition to act in the firms’ stakeholders’interest. In France, the controlling and family shareholders are opposed to HF activism. It ismore difficult for them to act as they do in American firms where capital is not locked. Thevalue creation is thus confined to managerial power over HF activism.
6

Predicting post-release software faults in open source software as a menas of measuring intrinsic software product quality / Prédire les défauts Post-Release de logiciels à code ouvert comme méthode pour mesurer la qualité intrinsèque du produit logiciel

Ndenga Malanga, Kennedy 22 November 2017 (has links)
Les logiciels défectueux ont des conséquences coûteuses. Les développeurs de logiciels doivent identifier et réparer les composants défectueux dans leurs logiciels avant de les publier. De même, les utilisateurs doivent évaluer la qualité du logiciel avant son adoption. Cependant, la nature abstraite et les multiples dimensions de la qualité des logiciels entravent les organisations de mesurer leur qualités. Les métriques de qualité logicielle peuvent être utilisées comme proxies de la qualité du logiciel. Cependant, il est nécessaire de disposer d'une métrique de processus logiciel spécifique qui peut garantir des performances de prédiction de défaut meilleures et cohérentes, et cela dans de différents contextes. Cette recherche avait pour objectif de déterminer un prédicteur de défauts logiciels qui présente la meilleure performance de prédiction, nécessite moins d'efforts pour la détection et a un coût minimum de mauvaise classification des composants défectueux. En outre, l'étude inclut une analyse de l'effet de la combinaison de prédicteurs sur la performance d'un modèles de prédiction de défauts logiciels. Les données expérimentales proviennent de quatre projets OSS. La régression logistique et la régression linéaire ont été utilisées pour prédire les défauts. Les métriques Change Burst ont enregistré les valeurs les plus élevées pour les mesures de performance numérique, avaient les probabilités de détection de défaut les plus élevées et le plus faible coût de mauvaise classification des composants. / Faulty software have expensive consequences. To mitigate these consequences, software developers have to identify and fix faulty software components before releasing their products. Similarly, users have to gauge the delivered quality of software before adopting it. However, the abstract nature and multiple dimensions of software quality impede organizations from measuring software quality. Software quality metrics can be used as proxies of software quality. There is need for a software process metric that can guarantee consistent superior fault prediction performances across different contexts. This research sought to determine a predictor for software faults that exhibits the best prediction performance, requires least effort to detect software faults, and has a minimum cost of misclassifying components. It also investigated the effect of combining predictors on performance of software fault prediction models. Experimental data was derived from four OSS projects. Logistic Regression was used to predict bug status while Linear Regression was used to predict number of bugs per file. Models built with Change Burst metrics registered overall better performance relative to those built with Change, Code Churn, Developer Networks and Source Code software metrics. Change Burst metrics recorded the highest values for numerical performance measures, exhibited the highest fault detection probabilities and had the least cost of mis-classification of components. The study found out that Change Burst metrics could effectively predict software faults.
7

Simulation and optimization of energy consumption in wireless sensor networks / Simulation et optimisation de la consommation énergétique de réseaux de capteurs sans fil

Zhu, Nanhao 11 October 2013 (has links)
Les grandes évolutions de la technique de systèmes embarqués au cours des dernières années ont permis avec succès la combinaison de la détection, le traitement des données, et diverses technologies de communication sans fil tout en un nœud. Les réseaux de capteurs sans fil (WSN) qui se composent d’un grand nombre de ces nœuds ont attiré l’attention du monde entier sur les établissements scolaires et les communautés industrielles, puisque leurs applications sont très répandues dans des domaines tels que la surveillance de l’environnement, le domaine militaire, le suivi des événements et la détection des catastrophes. En raison de la dépendance sur la batterie, la consommation d’énergie des réseaux de capteurs a toujours été la préoccupation la plus importante. Dans cet article, une méthode mixte est utilisée pour l’évaluation précise de l’énergie sur les réseaux de capteurs, ce qui inclut la conception d’un environnement de SystemC simulation base au niveau du système et au niveau des transactions pour l’exploration de l’énergie, et la construction d’une plate-forme de mesure d’énergie pour les mesures de nœud banc d’essai dans le monde réel pour calibrer et valider à la fois le modèle de simulation énergétique de nœud et le modèle de fonctionnement. La consommation d’énergie élaborée de plusieurs différents réseaux basés sur la plate-forme de nœud sont étudiées et comparées dans différents types de scénarios, et puis des stratégies globales d’économie d’énergie sont également données après chaque scénario pour les développeurs et les chercheurs qui se concentrent sur la conception des réseaux de capteurs efficacité énergétique. Un cadre de l’optimisation basée sur un algorithme génétique est conçu et mis en œuvre à l’aide de MATLAB pour les réseaux de capteurs conscients de l’énergie. En raison de la propriété de recherche global des algorithmes génétiques, le cadre de l’optimisation peut automatiquement et intelligemment régler des centaines de solutions possibles pour trouver le compromis le plus approprié entre la consommation d’énergie et d’autres indicateurs de performance. Haute efficacité et la fiabilité du cadre de la recherche des solutions de compromis entre l’énergie de nœud, la perte de paquets réseau et la latence ont été prouvés par réglage paramètres de l’algorithme CSMA / CA de unslotted (le mode non-beacon de IEEE 802.15.4) dans notre simulation basé sur SystemC via une fonction de coût de la somme pondérée. En outre, le cadre est également disponible pour la tâche d’optimisation basée sur multi-scénarios et multi-objectif par l’étude d’une application médicale typique sur le corps humain. / The great technique developments of embedded system in recent years have successfully enabled the combination of sensing, data processing and various wireless communication technologies all in one node. Wireless sensor networks (WSNs) that consist of many of such node have gained worldwide attention from academic institutions and industrial communities, since their applications are widespread in such as environment monitoring, military fields, event tracing/tracking and disaster detection. Due to the reliance on battery, energy consumption of WSNs has always been the most significant concern. In this paper, a mixed method is employed for the accurate energy evaluation on WSNs, which involves the design of a transaction-level system-level based SystemC simulation environment for energy exploration, and the building of an energy measurement system platform for the real world testbed node measurements to calibrate and validate both node energy simulation model and operation model. Elaborate energy consumption of several different node platform based networks are investigated and compared under different kinds of scenarios, and then comprehensive energy-saving strategies are also given after each case scenario for the developers and researchers who focus on the energy-efficient WSNs design. A genetic algorithm (GA) based optimization framework is designed and implemented using MATLAB for the energy aware WSNs. Due to the global search property of genetic algorithms, the optimization framework is able to automatically and intelligently fine tune hundreds/thousands of potential solutions to find the most suitable tradeoff among energy consumption and other performance metrics. The framework’s high efficiency and reliability of finding the tradeoff solutions among node energy, network packet loss and latency have been proved by tuning unslotted CSMA/CA algorithm parameters (used by non-beacon mode of IEEE 802.15.4) in our SystemC-based simulation via a weighted sum cost function. Furthermore, the framework is also available for the multi-scenario and multi-objective based optimization task by studying a typical medical application on human body. Keywords: Wireless sensor networks (WSNs), energy consumption, simulation/emulation, SystemC, testbeds, measurements, calibration, optimization, genetic algorithms, performance metrics, weighted sum cost function, multi-scenario and multi-objective optimization, Pareto-front

Page generated in 0.1037 seconds