• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 486
  • 72
  • 47
  • 4
  • 3
  • Tagged with
  • 636
  • 229
  • 154
  • 81
  • 73
  • 69
  • 68
  • 65
  • 58
  • 56
  • 54
  • 46
  • 45
  • 44
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

Évaluation de la valeur de biens et services écologiques liés à l'agroforesterie : une approche expérimentale

Roy-Vigneault, Frédéric 16 April 2018 (has links)
L'étude suivante évalue de façon expérimentale la valeur que des individus accordent aux biens et services écologiques rattachés à l'aménagement de haies brise-vent et de bandes riveraines en milieu agricole. L'approche adoptée pour cette tâche permet d'attaquer des problématiques méthodologiques et scientifiques soulevées par les techniques d'évaluation du consentement à payer (CAP) pour des biens publics. En particulier, nous avons examiné si la méthode de l'évaluation contingente, méthode déclarative où les préférences sont obtenues dans des situations hypothétiques, présente un biais comparativement à une situation concrète de collecte de fond. Les résultats présentés démontrent la présence d'un biais hypothétique dans l'évaluation de bien public. Les données suggèrent que ces différences observées entre le contexte hypothétique et réel sont sensibles au degré de perception quant à la ±conséquence¿ de l'enquête pour les répondants. Également, les résultats indiquent qu'il n'y a pas de différence de CAP entre différents échantillons de la population du Québec lorsque les variables sociodémographiques sont prises en compte. Cela suggère que la localisation géographique du répondant n'a pas d'incidence sur son CAP.
212

Specimen theoriae novae de mensura complexus = : Mesures objectives de la complexité = Objective measures of complexity / Mesures objectives de la complexité / Objective measures of complexity

Pronovost, Sylvain 25 December 2024 (has links)
Mesures Objectives de la Complexité pour la Prise de Décision Dynamique. La gestion efficace de systèmes sociotechniques complexes dépend d’une compréhension des interrelations dynamiques entre les composantes de ces systèmes, de leur évolution à travers le temps, ainsi que du degré d’incertitude auquel les décideurs sont exposés. Quelles sont les caractéristiques de la prise de décision complexe qui ont un impact sur la performance humaine dans l’environnement moderne du travail, constamment en fluctuation et sous la pression du temps, exerçant de lourdes demandes sur la cognition ? La prise de décision complexe est un concept issu de la macrocognition, impliquant des processus et des fonctions de bas et haut niveaux de description tels que la métacognition, soit pour un individu de penser à propos de son propre processus de pensées. Dans le cas particulier de la prise de décision complexe, ce phénomène est nommé la pensée systémique. L’étude de la prise de décision complexe en dehors de l’environnement traditionnel du laboratoire, permettant un haut niveau de contrôle mais un faible degré de réalisme, est malheureusement difficile et presque impossible. Une méthode de recherche plus appropriée pour la macrocognition est l’expérimentation basée sur la simulation, à l’aide de micromondes numérisés sous la forme de jeux sérieux. Ce paradigme de recherche est nommé la prise de décision dynamique (PDD), en ce qu’il tient compte des caractéristiques de problèmes de prise de décision complexe telles que des séquences complexes de décisions et de changements d’états d’un problème interdépendants, qui peuvent changer de façon spontanée ou comme conséquence de décisions préalables, et pour lesquels la connaissance et la compréhension du décideur peut n’être que partielle ou incertaine. Malgré la quantité de recherche concernant la PDD à propos des difficultés encourues pour la performance humaine face à des problèmes de prise de décision complexe, l’acquisition de connaissances à propos de systèmes complexes, et à savoir si le transfert de l’apprentissage est possible, il n’existe pas de mesure quantitative de ce en quoi un problème de décision est considéré comme étant complexe. La littérature scientifique mentionne des éléments qualitatifs concernant les systèmes complexes (tels que des interrelations dynamiques, une évolution non-linéaire d’un système à travers le temps, et l’incertitude à propos des états d’un système et des issues des décisions), mais des mesures quantitatives et objectives exprimant la complexité de problèmes de décision n’ont pas été développées. Cette dissertation doctorale présente les concepts, la méthodologie et les résultats impliqués dans un projet de recherche visant à développer des mesures objectives de la complexité basées sur les caractéristiques de problèmes de prise de décision dynamique pouvant expliquer et prédire la performance humaine. En s’inspirant de divers domaines d’application de la théorie de la complexité tels que la complexité computationnelle, la complexité systémique, et l’informatique cognitive, un modèle formel des paramètre de la complexité pour des tâches de prise de décision dynamique a été élaboré. Un ensemble de dix mesures objectives de la complexité a été développé, consistant en des mesures de la complexité structurelle, des mesures de la complexité informationnelle, la complexité de la charge cognitive, et des mesures de la difficulté d’un problème, de la non-linéarité des relations, de l’incertitude concernant l’information et les décisions, ainsi qu’une mesure de l’instabilité d’un système dynamique sous des conditions d’inertie. Une analyse des résultats expérimentaux colligés à partir de cinq scénarios de PDD révèle qu’un nombre restreint de candidats parmi des modèles de régression linéaires multiple permet d’expliquer et de prédire les résultats de performance humaine, mais au prix de certaines violations des postulats de l’approche classique de la régression linéaire. De plus, ces mesures objectives de la complexité présentent un degré élevé de multicolinéarité, causée d’une part par l’inclusion de caractéristiques redondantes dans les calculs, et d’autre part par une colinéarité accidentelle imputable à la conception des scénarios de PDD. En tenant compte de ces deux considérations ainsi que de la variance élevée observée dans les processus macrocognitifs impliqués dans la prise de décision complexe, ces modèles présentent des valeurs élevées pour le terme d’erreur exprimant l’écart entre les observations et les prédictions des modèles. Une analyse additionnelle explore l’utilisation de méthodes alternatives de modélisation par régression afin de mieux comprendre la relation entre les paramètres de la complexité et les données portant sur performance humaine. Nous avons d’abord opté pour une approche de régression robuste afin d’augmenter l’efficience de l’analyse de régression en utilisant une méthode réduisant la sensibilité des modèles de régression aux observations influentes. Une seconde analyse élimine la source de variance imputable aux différences individuelles en focalisant exclusivement sur les effets imputables aux conditions expérimentales. Une dernière analyse utilise des modèles non-linéaires et non-paramétriques afin de pallier les postulats de la modélisation par régression, à l’aide de méthodes d’apprentissage automatique (machine learning). Les résultats suggèrent que l’approche de régression robuste produit des termes d’erreur substantiellement plus faibles, en combinaison avec des valeurs élevées pour les mesures de variance expliquée dans les données de la performance humaine. Bien que les méthodes non-linéaires et non-paramétriques produisent des modèles marginalement plus efficients en comparaison aux modèles de régression linéaire, la combinaison de ces modèles issus du domaine de l’apprentissage automatique avec les données restreintes aux effets imputables aux conditions expérimentales produit les meilleurs résultats relativement à l’ensemble de l’effort de modélisation et d’analyse de régression. Une dernière section présente un programme de recherche conçu pour explorer l’espace des paramètres pour les mesures objectives de la complexité avec plus d’ampleur et de profondeur, afin d’appréhender les combinaisons des caractéristiques des problèmes de prise de décision complexe qui sont des facteurs déterminants de la performance humaine. Les discussions concernant l’approche expérimentale pour la PDD, les résultats de l’expérimentation relativement aux modèles de régression, ainsi qu’à propos de l’investigation de méthodes alternatives visant à réduire la composante de variance menant à la disparité entre les observations et les prédictions des modèles suggèrent toutes que le développement de mesures objectives de la complexité pour la performance humaine dans des scénarios de prise de décision dynamique est une approche viable à l’approfondissement de nos connaissances concernant la compréhension et le contrôle exercés par un être humain face à des problèmes de décision complexe. / Objective Measures of Complexity for Dynamic Decision-Making. Managing complex sociotechnical systems depends on an understanding of the dynamic interrelations of such systems’ components, their evolution over time, and the degree of uncertainty to which decision makers are exposed. What features of complex decision-making impact human performance in the cognitively demanding, ever-changing and time pressured modern workplaces? Complex decision-making is a macrocognitive construct, involving low to high cognitive processes and functions, such as metacognition, or thinking about one’s own thought processes. In the particular case of complex decision-making, this is called systems thinking. The study of complex decision-making outside of the controlled, albeit lacking in realism, traditional laboratory environment is difficult if not impossible. Macrocognition is best studied through simulation-based experimentation, using computerized microworlds in the form of serious games. That research paradigm is called dynamic decision-making (DDM), as it takes into account the features of complex decision problems, such as complex sequences of interdependent decisions and changes in problem states, which may change spontaneously or as a consequence of earlier decisions, and for which the knowledge and understanding may be only partial or uncertain. For all the research in DDM concerning the pitfalls of human performance in complex decision problems, the acquisition of knowledge about complex systems, and whether a learning transfer is possible, there is no quantitative measure of what constitutes a complex decision problem. The research literature mentions the qualities of complex systems (a system’s dynamical relationships, the nonlinear evolution of the system over time, and the uncertainty about the system states and decision outcomes), but objective quantitative measures to express the complexity of decision problems have not been developed. This dissertation presents the concepts, methodology, and results involved in a research endeavor to develop objective measures of complexity based on characteristics of dynamic decision-making problems which can explain and predict human performance. Drawing on the diverse fields of application of complexity theory such as computational complexity, systemic complexity, and cognitive informatics, a formal model of the parameters of complexity for dynamic decision-making tasks has been elaborated. A set of ten objective measures of complexity were developed, ranging from structural complexity measures, measures of information complexity, the cognitive weight complexity, and measures of problem difficulty, nonlinearity among relationships, information and decision uncertainty, as well as a measure of the dynamical system’s instability under inertial conditions. An analysis of the experimental results gathered using five DDM scenarios revealed that a small set of candidate models of multiple linear regression could explain and predict human performance scores, but at the cost of some violations of the assumptions of classical linear regression. Additionally, the objective measures of complexity exhibited a high level of multicollinearity, some of which were caused by redundant feature computation while others were accidentally collinear due to the design of the DDM scenarios. Based on the aforementioned constraints, and due to the high variance observed in the macrocognitive processes of complex decision-making, the models exhibited high values of error in the discrepancy between the observations and the model predictions. Another exploratory analysis focused on the use of alternative means of regression modeling to better understand the relationship between the parameters of complexity and the human performance data. We first opted for a robust regression analysis to increase the efficiency of the regression models, using a method to reduce the sensitivity of candidate regression models to influential observations. A second analysis eliminated the within-treatment source of variance in order to focus exclusively on between-treatment effects. A final analysis used nonlinear and non-parametric models to relax the regression modeling assumptions, using machine learning methods. It was found that the robust regression approach produced substantially lower error values, combined with high measures of the variance explained for the human performance data. While the machine learning methods produced marginally more efficient models of regression for the same candidate models of objective measures of complexity, the combination of the nonlinear and non-parametric methods with the restricted between-treatment dataset yielded the best results of all of the modeling and analyses endeavors. A final section presents a research program designed to explore the parameter space of objective measures of complexity in more breadth and depth, so as to weight which combinations of the characteristics of complex decision problems are determinant factors on human performance. The discussions about the experimental approach to DDM, the experimental results relative to the regression models, and the investigation of further means to reduce the variance component underlying the discrepancy between the observations and the model predictions all suggest that establishing objective measures of complexity for human performance in dynamic decision-making scenarios is a viable approach to furthering our understanding of a decision maker’s comprehension and control of complex decision problems.
213

Modelling and verifying land-use regulations comprising 3D components to detect spatio-semantic conflicts

Emamgholian, Saeid 12 November 2023 (has links)
L'utilisation du territoire est régie par différents mécanismes que nous pourrions nommer géorèglementations comme par exemples les plans d'urbanisme, les permis de construire ou le zonage. La géorèglementation, en anglais, on parle de Land-use Regulation (LuR), permet d'imposer ou d'influencer l'utilisation d'un territoire dans le but d'atteindre des objectifs de politique publique. Qu'on le veule ou pas, la géorèglementation est nécessaire car elle permet de consolider une saine gestion des ressources, elle aide à la conservation et au développement du territoire, elle fournit un cadre législatif important pour assurer la sécurité et le bon fonctionnement pour l'accès et l'utilisation harmonieuse du territoire. La géorèglementation s'applique donc sur un territoire, où les composantes spatiales, comme la géométrie des éléments, sont primordiales. Il faudra par exemple tenir compte des marges de recul (donc distance) lors de la construction d'une maison, d'une superficie maximale de construction, etc. Ces composantes spatiales du territoire et son occupation peuvent également faire intervenir la 3e dimension comme la profondeur, la hauteur ou encore le volume. La pratique et la littérature montrent que la géorèglementation est actuellement principalement décrite dans des documents de planification et des lignes directrices, dont certains peuvent inclure une représentation spatiale en 2D (i.e. des cartes). On retrouve parfois de coupes transversales en 2D pour représenter l'étendue 2D/3D des LuRs. Cette manière de travailler à partir de document manuscrit et de plans 2D présente des lacunes importantes. Elle limite la possibilité d'avoir une compréhension complète et adéquate de l'étendue 3D des LuRs et donc dans la prise de décision, comme par exemple, la détection de conflits potentiels dans la délivrance de permis de construire ou d'aménagement. De plus, l'application et donc la validation de ces géorèglementations à partir de documents descriptifs prend du temps et laisse place à la subjectivité, ce qui peut conduire à de mauvaises décisions. Les autorités en matière de planification territoriale devraient avoir accès à toutes les informations et à toutes les représentations spatiales requises pour évaluer les LuRs et détecter les conflits potentiels. Force est de constater, que ce n'est pas le cas actuellement, et que même si des modèles 3D de bâtiments (BIM) ou de ville (CityGML) ont vu le jour, ils ne sont pas intégrés dans ces processus de géorèglementation. Cette recherche doctorale est dédiée à la conception et au développement d'un cadre de référence pour la modélisation géométrique 3D des LuRs, leur intégration dans le contexte des modèles de ville 3D et la détection automatique des conflits spatio-sémantiques potentiels lors de la validation des LuRs. Ce cadre de référence vise donc à soutenir les autorités en matière d'application de géorèglementations. La recherche se décline en cinq sous-objectifs soit 1) proposer un inventaire des différents LuRs 3D en précisant leurs composantes 3D/verticales, 2) proposer une classification fonctionnelle basée sur l'ampleur des conflits potentiels des LuRs 3D pour soutenir la prise de décision des autorités, 3) modéliser les LuRs en 3D puis les combiner avec d'autres sources d'information (ex. BIM, CityGML et cartes de zonage), 4) détecter les conflits spatiaux et sémantiques potentiels qui pourraient survenir entre les LuRs modélisés et les objets physiques comme les éléments de construction et, 5) concevoir et développer une preuve de faisabilité. Parmi plus de 100 de géorèglementations 2D/3D passés en revue, 18 de géorèglementations 3D sont inventoriées et discutées en profondeur. Par la suite, pour chacune de ces géorèglementations, les informations et paramètres requis pour leur modélisation 3D automatique sont établis. L'approche proposée permet l'intégration de la modélisation 3D de ces géorèglementations à des modèles de villes et de bâtiments 3D (par exemple, BIM, CityGML et le zonage). Enfin, la thèse fournie un cadre procédurale pour vérifier automatiquement si les géorèglementations 3D viennent en conflit avec des éléments de bâtis planifiés. La preuve de faisabilité est un prototype Web basée sur une étude de cas axée sur le processus d'émission de permis de construire d'un bâtiment situé dans la ville de Melbourne, Victoria, Australie. Les géorèglementations 3D suivantes ont été modélisées et vérifiées : 1) limites de construction en hauteur, 2) exposition au soleil pour estimer l'efficacité énergétique du bâtiment, 3) limite des zones d'ombrage, 4) limites de l'impact sonore, 5) zonage de vue, 6) marges latérales et arrières, 7) marges de rue (côtés et frontaux), et 8) limites d'inondation. / The use and developments of land are regulated by utilising different mechanisms called Land-use Regulation (LuR) in various forms such as planning activities, zoning codes, permit requirements, or subdivision controls of cities. LuR makes it possible to impose or influence the use and development of land in order to achieve public policy objectives. Indeed, LuR is essential since it allows the appropriate reinforcement of resource management, contributes to the land protection and development, and provides a tangible legal framework to ensure safety and proper functioning for the harmonious access and use of land. LuRs applies to land, where the spatial components, such as the geometry of the elements, are essential. For example, setback and height limits (i.e., the distance) or different floors' gross area should be considered when owners/developers propose a new construction on their property. These spatial components of the land, its occupied elements (e.g., building elements), or LuR itself can comprise the third dimension (i.e., depth, height, or even volume). Literature and related works show that LuR is currently mainly described in planning documents and guidelines, some of which may include 2D spatial representation (i.e., maps) or 2D cross-sections to represent the LuRs' 2D/3D extent. This method (i.e., working on textual documents and 2D plans) has significant shortcomings in understanding the LuRs' 3D extent and in decision-making (e.g., detecting potential conflicts in issuing planning/building permits). Moreover, checking LuRs' descriptions inside the textual documents is time-consuming, and subjective which might lead to erroneous decisions. Planning authorities need to have access to all information and the spatial representation that is required to assess LuRs and detect their potential conflicts. Clearly, it is generally lacking and even if 3D models of buildings (e.g., BIM designs) or cities (e.g., CityGML) have emerged, they do not incorporate the concept of LuRs. This Ph.D. research follows qualitative engineering type of method that generally aims to propose a conceptual framework for modelling 3D LuRs geometrically as part of 3D city models and formalising geometric and semantic requirements for detecting LuRs' potential conflicts automatically to support planning authorities in the statuary planning phase. To achieve the general objective, five specific objectives are defined as: 1) to formulate an inventory of various 3D LuRs specifying their 3D/vertical components, 2) to propose a functional classification based on the magnitude of 3D LuRs' potential conflicts for supporting planning authorities' decision-making goals, 3) to model LuRs in 3D and then combine them with other sources of information (e.g., BIM, city models, and zoning maps), 4) to automate the detection of potential spatio-semantic conflicts that might arise between the modelled LuRs and physical objects like building elements, and 5) to design and develop proof of feasibility for modelling and verifying 3D LuRs automatically. Among more than one hundred 2D/3D reviewed LuRs, eighteen 3D LuRs are inventoried and discussed thoroughly. For each of these LuRs, the research work identifies and proposes the required information (as level of information need) by considering both geometries and semantics to combine modelled LuRs with other sources of information (e.g., BIM, CityGML, and planning maps). Finally, the thesis proposes the level of information need considering requirements to verify 3D LuRs automatically for detecting potential conflicts using analytical rules (e.g., clash detection). The proof of feasibility is a web-based prototype based on a case study located in the City of Melbourne (where planning activities are under the control of authorities in the state of Victoria, Australia) focusing on the planning permit process. The following 3D LuRs were modelled and verified: 1) building height limits, 2) energy efficiency protection, 3) overshadowing open space, 4) noise impacts, 5) overlooking, 6) side and rear setbacks, 7) street setbacks (side and front), and 8) flooding limits.
214

Les obstacles de la connaissance quantitative et leur impact sur le raisonnement physique

El Haddati, M'Hamed 25 April 2018 (has links)
Québec Université Laval, Bibliothèque 2014
215

Towards a better understanding of foreign direct investment (FDI) impact on host African countries

Karangwa, Aristide 13 December 2023 (has links)
Cette thèse s'intéresse à l'évaluation de l'effet à long terme de l'Investissement Direct Etranger (IDE) sur le développement des pays africains pour la période allant de 1990 à 2018. L'IDE peut influencer développement à long terme des pays en développement en élargissant différents horizons d'investissement. Selon les modèles de croissance endogène, l'effet de l'IDE se répand d'une manière assez large à toutes les dimensions de développement, soit en accroissant et en diversifiant le capital, soit en influençant le bien-être social ou l'environnement et la sphère politique des pays d'accueil. Cependant, les études empiriques précédentes dans les pays en développement se sont principalement focalisées sur l'effet de l'IDE sur la dimension économique ou sur un sous-ensemble de dimensions développement et ont donc, et sans surprise, abouties aux résultats mitigés. Ainsi, il est impératif de réévaluer l'effet à long terme de l'IDE sur les pays en développement en utilisant un cadre empirique qui intègre simultanément les effets multidimensionnels de l'IDE ; tout en contournant les problèmes potentiels de multicolinéarité. Ceci pourra fournirait un réel et claire effet à long terme de l'IDE. Cette thèse est motivée par une évidente absence de littérature empirique sur l'effet à long terme de l'IDE sur les économies africaines ; l'effet qui est en fait la principale motivation derrière l'attraction d'IDE par les pays en développement. Pour atteindre son objectif global, cette thèse est divisée en trois principaux chapitres : Le premier chapitre offre une perspective de synthèse de travaux issus d'une revue systématique de la littérature empirique sur l'impact de l'IDE dans les pays d'accueil en développement pour la période allant de 1985 à 2018 afin d'élucider pourquoi les résultats empiriques sont mitigés et moins concluants. Ainsi, les résultats mettent en évidence quatre principaux problèmes méthodologiques dont : (1) le manque d'un cadre empirique inclusif et dynamique, (2) les modèles d'évaluation inappropriés qui ne tiennent pas compte des effets multidimensionnels de l'IDE sur le développement des pays d'accueil en développement, (3) des méthodes d'estimation inappropriées qui ne tiennent pas compte du dynamisme du processus de la croissance et de développement ainsi que le problème d' endogénéité et enfin (4) une unité inexacte de mesure de l'effet de l'IDE. Tous ces problèmes pourraient avoir biaisé le coefficient estimé de l'effet de l'IDE. A cet effet, nous avons proposé un modèle conceptuel qui aiderait à évaluer de manière exhaustive l'effet de l'IDE dans les pays en développement et mener ainsi aux résultats fiables. Dans le deuxième chapitre, il a été question de vérifier si les IDE contribuent ou pas au développement à long terme des pays africains tout en contournant les problèmes méthodologiques soulevés dans le chapitre précédent. Pour y arriver, nous avons opté pour un modèle d'évaluation multidimensionnel qui rassemble les deux visions opposées (Théories néo-classiques et endogènes versus théories de la dépendance). En effet, l'IDE entraîne à la fois des bénéfices et coûts sur les économies d'accueil. Ainsi, le gain net de l'effet de l'IDE proviendrait de la différence entre ses bénéfices et coûts engendrés. Notre étude a utilisé des données panel de 35 pays africains et l'approche PMG/ARDL, pour examiner l'effet des IDE entre 1990-2018 sur le continent. Le résultat confirme que l'effet à long terme de l'IDE sur le PIB réel par habitant est statistiquement minuscule pour l'ensemble des pays en échantillon. Le troisième et dernier chapitre visait à explorer empiriquement et à comparer séparément les effets de développement à long terme des fusions et acquisitions et des investissements de création (greenfield investment) sur les pays africains en échantillon pour la période de 1990 à 2018. En effet, se concentrer sur l'effet à long terme agrégé de l'IDE dans les pays en développement brouillerait le scénario factuel concernant l'effet de développement de l'IDE qui peut produire deux effets conflictuels. En utilisant une méthodologie similaire à celle utilisée dans le chapitre 2, les résultats empiriques sont en contradiction totale de la préférence (greenfield investment) des partenaires au développement et des décideurs politiques des pays en développement. Les résultats montrent spécifiquement que les deux principaux modes d'entrée d'IDE ont exercé des effets bénéfiques à long terme dans les pays pris en échantillon. Cependant, l'effet des fusions et acquisitions est relativement positif que celui de greenfield investment et ceci, que les variables de contrôle soient prises ou pas en compte / This thesis has attempted to evaluate the long-term developmental effect of FDI on the development of host African countries over the period spanning from 1990 to 2018. FDI can affect the long-term development of host developing countries through its effects in expanding investment frontier in host developing countries. According to endogenous growth models, FDI effect spreads to larger development agenda, that is widening and deepening capital, and influencing social, environmental, and political wellbeing of the people of host developing countries. However, past empirical studies focused mainly on the effect of FDI on one dimension of development (mostly economic), or on a subset of FDI effect on development in host developing countries, which, unsurprisingly led to mixed and inconclusive outcomes. For this reason, there was a need to reassess the welfare effect of FDI on host developing countries by using an empirical framework that simultaneously integrates multifold effects of FDI on development of host developing economies, while circumventing potential multicollinearity issues. This would provide clear-cut evidence of FDI effect on the development of developing countries. This study is motivated by an obvious lack of empirical literature concerning the long-term developmental effect of FDI on African economies which effect is the primarily motivation behind the attraction of FDI by developing countries. To achieve the overall objective of this thesis, the latter was divided into the following three main chapters. The first chapter provides an extensive systematic empirical literature review on FDI impact on different measures of welfare in host developing countries over the 1985 to 2018 period to answer methodologically why findings are mixed and inconclusive and therefore suggest the way forward. The evidence from this review highlights four important methodological issues that could have led to mixed and inconclusive outcomes. These issues include (1) lack of a comprehensive and balanced empirical framework, (2) inappropriate model specification that did not account for the multifaceted effects of FDI on development of host developing countries, (3) inappropriate estimation methods, and finally inaccurate measure of FDI impact. All these issues could have biased the estimated coefficient of FDI effect in host developing countries. Therefore, we propose an analytical model that would comprehensively evaluate the welfare effect of FDI in host developing countries and, thus, leading to reliable outcomes. Based on these outcomes, the second chapter of this thesis sought to evaluate whether FDI contributes to long-term development of host developing countries in general and in African countries in particular, while circumventing methodological issues raised in first chapter. To achieve this, we opted for a multidimensional model that brings together the two opposing (liberalism and radical) views. This is because, FDI brings both costs and benefits to host developing countries. Thus, the net welfare gain of FDI hinges on the balance between welfare increasing (benefits) and decreasing (costs) of it. We applied a panel data of 35 African countries to probe FDI effect from 1990 to 2018 and PMG/ARDL approach. The result confirms that, the overall estimated long-term effect of FDI on real GDP per capita is statistically minuscule for the entire sample. The third and last chapter sought to empirically explore and compare separately long-term developmental effects of mergers and acquisitions sales (M&As), and green-field investment on real GDP per capita in the sampled African countries from 1990 to 2018. This is because, scholars view is that, concentrating on the aggregated effect of FDI on development in developing countries would blur the factual scenario regarding the welfare effect of FDI as it may reflect the two opposing effects. Applying similar methodology to the one used in chapter two, our empirical evidence contrasts development partners' first choice and views of policy makers on greenfield investment. The findings specifically show that both M&As and greenfield investment exert similar beneficial long-term developmental effects in the sampled countries. Nevertheless, effect of M&As outstripped that of greenfield investment on real GDP per capita. More specifically, one percent increase in green-field investment has, on average, less long-term developmental effect on real GDP per capita than one per cent invested in M&As irrespective of whether controllable variables were counted in or out.
216

Évaluation des incertitudes sur les données expérimentales prises dans la soufflerie trisonique de RDDC Valcartier

Lim, Chin 13 April 2018 (has links)
Le but de ce projet est d'obtenir et d'appliquer une méthodologie disponible dans la littérature pour quantifier les incertitudes sur les données expérimentales prises dans la soufflerie trisonique de Recherche et Développement pour la Défense Canada - Valcartier (RDDC Valcartier). La motivation de cette étude vient du fait que la qualité des mesures expérimentales joue un rôle très important dans le processus de développement de tout missile ou système d'armes à RDDC Valcartier. Nous constatons l'importance du sujet par les conférences organisées par des instituts de renommée dans le domaine de l'aérodynamique tels que l'American Institute of Aeronautics and Astronautic (AIAA) et l'Advisory Group for Aerospace Research & Development (AGARD). Ces organismes exigent que les résultats expérimentaux présentés incluent un estimé de leurs incertitudes. La présente étude est basée sur des essais existants dans la base de données de RODC Valcartier en prenant en compte l'instrumentation disponible au moment des essais et revue en fonction de ce qui est disponible ou des améliorations apportées au système au cours des années. Par cette analyse, il a été décidé d'appliquer la méthodologie choisie à un essai réalisé à Mach 3,5, considérant la grande disponibilité des données existantes. En relevant des données des essais antérieurs, nous avons observé que le fait d'avoir remplacé le système de séchage d'air par un autre plus performant faisait augmenter le nombre de Mach en régime supersonique. Cette variation du nombre de Mach est probablement due à la réduction de la condensation l'humidité dans l'air pendant son expansion dans la section d'essai et ce fait sera également exposé dans cette étude. En nous fondant sur des recommandations dans les références telles que [AIAA, 1990] et [Association Française de Normalisation (AFNOR), 2005], nous avons remarqué que l'incertitude estimée sur quelques grandeurs mesurables était anormalement élevée, et par conséquent, les paramètres calculés à partir de ces grandeurs aussi. Cette étude aura aussi révélé que la balance aérodynamique est l'élément critique qui apporte les plus grandes incertitudes expérimentales sur les paramètres aérodynamiques et qu'elle n'était pas adéquate pour la mesure de quelques composantes de force pour l'essai étudié. Enfin, nous avons donné plusieurs recommandations afin de réduire les incertitudes des mesures expérimentales à des niveaux plus acceptables.
217

Trajectoires de soins hospitaliers dans l'angioplastie primaire de l'infarctus aigu du myocarde avec élévation du segment ST : la dimension temporelle, étude rétrospective de données médico-administratives

Desautels, Michel January 2013 (has links)
L’étude de la trajectoire de soins du malade offr un angle particulièrement adapté pour l’analyse et l’évaluation de la continuité des soins dans le réseau de la santé. Le concept de trajectoire de soins a émergé en France au début des années quatre-vingt. Il permet d’identifier les discontinuités de soins, d’observer la déviation par rapport aux guides de pratique ou trajectoires idéales et permet en outre d’analyser les effets liés aux écarts observés. Il se différencie des autres concepts et mesures de la continuité des soins principalement parce qu’il offr un point de vue "patient" en plus de permettre l’analyse d’une ou de plusieurs dimensions: temporelle, géographique, interdisciplinaire, relationnelle, informationnelle. Cette méthode permet au chercheur de fixer les bornes de la trajectoire, selon les besoins de l’étude. Dans le cas de la trajectoire de soins hospitaliers de l'infarctus aigu du myocarde avec élévation du segment ST (IAMEST), en observant principalement la dimension temporelle, peut-on identifier des trajectoires de soins déviantes par rapport aux trajectoires idéales (du début des symptômes à l’angioplastie primaire [plus petit ou égal à] 120 minutes), identifier les facteurs qui les influencent et en mesurer les impacts? La présente étude en est une de cohorte rétrospective faite à l'aide d'analyses secondaires de données médico-administratives, avec un échantillon des cas d’IAMEST du CHUS Fleurimont cumulé sur trois ans (2005 - 2007). Elle permet de mieux comprendre la méthodologie et le concept de trajectoire de soins et s’adresse principalement aux issues et processus de soins de même qu’aux écarts observés entre les recommandations publiées dans des guides de pratique et la réalité de la pratique. Elle vise à identifier les variables spatio-temporelles en lien avec les écarts observés. Les principaux résultats nous montrent que 87.8% des patients ont une trajectoire réelle de plus de 120 minutes. Les femmes sont plus âgées ont moins d’IAMEST que les hommes ; 69 % des patients ont un temps de présentation de moins de 2 heures, les femmes ont un délai de présentation presque identique aux hommes mais elles ont un délai de traitement plus long que ceux-ci avec respectivement une médiane de 123 et 110 minutes. Finalement, on constate que les trajectoires déviantes, les personnes âgées et le sexe féminin font augmenter la durée de séjour. L’étude des trajectoires de soins démontre une efficace avec les données médico-administratives québécoises.[symboles non conformes]
218

Développement de méthodes pour la détection de changement

Blanc, Philippe 03 December 1999 (has links) (PDF)
La détection des changements d'un paysage est la mise en œuvre de techniques ayant pour but de repérer, de mettre en évidence et enfin, de comprendre son évolution temporelle. Ses domaines d'application sont riches et variés en télédétection. Cependant, la plupart des applications de détection de changement ne s'appuient pas sur une démarche générale permettant de justifier ou de généraliser les solutions techniques proposées. La thèse a pour premier objectif d'apporter une nouvelle contribution à la mise en place d'un cadre et d'une méthodologie générale propre à la détection de changement. Après l'établissement d'un certain nombre de définitions sur les changements d'un paysage en termes d'échelles caractéristiques et d'observabilité, nous proposons une méthodologie, basée sur un analyse bibliographique, se décomposant en cinq étapes : l'identification et la caractérisation des différentes sources de changements effectifs et exogènes ; l'alignement géométrique et radiométrique des données ; l'extraction d'informations pertinentes vis-à-vis des changements à détecter ; la création des écarts à un modèle d'évolution temporelle ; la prise de décision et la synthèse des résultats. Cette analyse fait apparaître des problèmes fondamentaux relatifs au lien entre les changements effectifs et ceux observés en fonction des caractéristiques des moyens d'observation. L'étude de ce lien est le deuxième objectif de la thèse. Enfin, la thèse a mis en évidence le rôle crucial de l'alignement des données et, notamment, de l'alignement géométrique. A partir d'un algorithme existant, nous avons élaboré une méthode de recalage automatique itérative s'appuyant sur une décomposition multirésolution des images et utilisant des techniques d'appariement sub-pixellaire et de déformation géométrique locales. Un protocole innovant de validation à partir d'images simulées a été établi et a permis d'évaluer la qualité de la méthode et son apport comparé à des méthodes de recalage standards.
219

Vers une méthodologie dédiée à l'orchestration d'entités communicantes

Drey, Zoé 22 September 2010 (has links) (PDF)
Les technologies omniprésentes dans notre environnement intègrent des éléments logiciels facilitant leur utilisation. Ces technologies offrent un vaste laboratoire d'expérimentation pour la recherche et en particulier pour l'informatique appliquée. Ces technologies sont un support évident pour rendre des services aux personnes dans leur vie quotidienne. Ces services concernent divers champs d'applications, chacun servant des objectifs spécifiques : confort, sécurité, accès à l'information ou encore assistance à la personne. Puisque les applications offrant ces services sont intimement liées aux besoins des utilisateurs, il est indispensable qu'elles s'adaptent facilement à leurs besoins. Une manière de répondre à ce défi est de proposer à l'utilisateur des outils pour programmer lui-même ses applications. Notre contribution consiste non seulement à définir un tel outil, sous la forme d'un langage visuel paramétré par un champ d'applications, mais aussi à proposer une méthodologie dont l'objectif est de guider un utilisateur dans la programmation d'applications à l'aide de ce langage. Cette méthodologie est dédiée à l'orchestration d'entités communicantes : elles représentent les technologies déployées dans nos environnements. Notre approche, associant une méthodologie à un langage, est accessible à un programmeur novice et suffisamment expressive pour traiter divers champs d'applications. Afin d'augmenter la confiance de l'utilisateur dans le développement de ses applications, nous étendons la méthodologie en proposant une approche de développement dirigée par la vérification de quelques propriétés. Cette vérification est permise par la sémantique du langage, formellement définie.
220

Méthodologie de conception de systèmes temps réel et distribués en contexte UML/SysML

Fontan, Benjamin 17 January 2008 (has links) (PDF)
En dépit de ses treize diagrammes, le langage UML (Unified Modeling Language) normalisé par l'OMG (Object Management Group) n'offre aucune facilité particulière pour appréhender convenablement la phase de traitement des exigences qui démarre le cycle de développement d'un système temps réel. La normalisation de SysML et des diagrammes d'exigences ouvre des perspectives qui ne sauraient faire oublier le manque de support méthodologique dont souffrent UML et SysML. Fort de ce constat, les travaux exposés dans ce mémoire contribuent au développement d'un volet " méthodologie " pour des profils UML temps réel qui couvrent les phases amont (traitement des d'exigences - analyse - conception) du cycle de développement des systèmes temps réel et distribués en donnant une place prépondérante à la vérification formelle des exigences temporelles. La méthodologie proposée est instanciée sur le profil TURTLE (Timed UML and RT-LOTOS Environment). Les exigences non-fonctionnelles temporelles sont décrites au moyen de diagrammes d'exigences SysML étendus par un langage visuel de type " chronogrammes " (TRDD = Timing Requirement Description Diagram). La formulation d'exigences temporelles sert de point de départ à la génération automatique d'observateurs dédiés à la vérification de ces exigences. Décrites par des méta-modèles UML et des définitions formelles, les contributions présentées dans ce mémoire ont vocation à être utilisées hors du périmètre de TURTLE. L'approche proposée a été appliquée à la vérification de protocoles de communication de groupes sécurisée (projet RNRT-SAFECAST).

Page generated in 0.0615 seconds