• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 332
  • 108
  • 25
  • 3
  • 1
  • 1
  • Tagged with
  • 507
  • 507
  • 215
  • 208
  • 89
  • 73
  • 59
  • 54
  • 51
  • 45
  • 44
  • 42
  • 38
  • 37
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Analyse et caractérisation des marques de possession en matière de délimitation foncìère au Québec

Jutras, Marc-André 19 April 2018 (has links)
À titre d’expert de la mesure, l’arpenteur-géomètre est prédestiné à rencontrer une multitude de situations lorsqu’il exécute ses levés sur le terrain, notamment en ce qui a trait à la façon dont les propriétaires fonciers exercent et expriment leur droit de propriété. En effet, il est tout à fait normal d’user et de jouir du terrain duquel on est le propriétaire. Cette possession exercée et constatée sur le terrain peut produire certains effets et l’arpenteur-géomètre aura fréquemment à évaluer l’impact potentiel de cette possession lorsque vient de temps d’indiquer les limites séparatrices d’un bien-fonds. À titre d’exemple, lorsqu’il est investi d’un mandat de constatation et à défaut de limites de propriété clairement définies, l’arpenteur-géomètre n’aura d’autre choix que d’indiquer la position d’une limite séparative selon les marques de possession qu’il rencontre. Lorsqu’il émet son opinion professionnelle, il est du devoir de l’arpenteur-géomètre de déterminer si les marques de possession retrouvées pourraient être jugées suffisamment significatives pour potentiellement produire des effets. Au-delà de cette question, l’arpenteur-géomètre devra être en mesure de justifier cette opinion professionnelle, ce qui n’est pas toujours aisé surtout lorsqu’il rencontre sur le terrain plusieurs traces laissant supposer une emprise matérielle du terrain par un possesseur. Par une énumération d’une multitude d’éléments considérés et analysés en jurisprudence québécoise dans le but de prouver une possession utile et par l’élaboration d’une liste de critères d’analyse, cet ouvrage constitue pour l’arpenteur-géomètre un outil utile lorsque vient le temps d’analyser l’impact des marques matérielles retrouvées sur la position d’une limite séparative entre deux propriétés. C’est ainsi que seront traités autant les différents types de marques de possession rencontrées que les caractéristiques que peuvent avoir ces marques pour accroître leur force probante. En effet, par la présentation d’une approche systématique d’analyse, cet ouvrage a notamment pour but de guider l’arpenteur-géomètre dans son choix des marques de possession à être conservées ou à être écartées dans son analyse.
162

Specimen theoriae novae de mensura complexus : Mesures objectives de la complexité = Objective measures of complexity / Mesures objectives de la complexité / Objective measures of complexity

Pronovost, Sylvain 24 April 2018 (has links)
Mesures Objectives de la Complexité pour la Prise de Décision Dynamique. La gestion efficace de systèmes sociotechniques complexes dépend d’une compréhension des interrelations dynamiques entre les composantes de ces systèmes, de leur évolution à travers le temps, ainsi que du degré d’incertitude auquel les décideurs sont exposés. Quelles sont les caractéristiques de la prise de décision complexe qui ont un impact sur la performance humaine dans l’environnement moderne du travail, constamment en fluctuation et sous la pression du temps, exerçant de lourdes demandes sur la cognition ? La prise de décision complexe est un concept issu de la macrocognition, impliquant des processus et des fonctions de bas et haut niveaux de description tels que la métacognition, soit pour un individu de penser à propos de son propre processus de pensées. Dans le cas particulier de la prise de décision complexe, ce phénomène est nommé la pensée systémique. L’étude de la prise de décision complexe en dehors de l’environnement traditionnel du laboratoire, permettant un haut niveau de contrôle mais un faible degré de réalisme, est malheureusement difficile et presque impossible. Une méthode de recherche plus appropriée pour la macrocognition est l’expérimentation basée sur la simulation, à l’aide de micromondes numérisés sous la forme de jeux sérieux. Ce paradigme de recherche est nommé la prise de décision dynamique (PDD), en ce qu’il tient compte des caractéristiques de problèmes de prise de décision complexe telles que des séquences complexes de décisions et de changements d’états d’un problème interdépendants, qui peuvent changer de façon spontanée ou comme conséquence de décisions préalables, et pour lesquels la connaissance et la compréhension du décideur peut n’être que partielle ou incertaine. Malgré la quantité de recherche concernant la PDD à propos des difficultés encourues pour la performance humaine face à des problèmes de prise de décision complexe, l’acquisition de connaissances à propos de systèmes complexes, et à savoir si le transfert de l’apprentissage est possible, il n’existe pas de mesure quantitative de ce en quoi un problème de décision est considéré comme étant complexe. La littérature scientifique mentionne des éléments qualitatifs concernant les systèmes complexes (tels que des interrelations dynamiques, une évolution non-linéaire d’un système à travers le temps, et l’incertitude à propos des états d’un système et des issues des décisions), mais des mesures quantitatives et objectives exprimant la complexité de problèmes de décision n’ont pas été développées. Cette dissertation doctorale présente les concepts, la méthodologie et les résultats impliqués dans un projet de recherche visant à développer des mesures objectives de la complexité basées sur les caractéristiques de problèmes de prise de décision dynamique pouvant expliquer et prédire la performance humaine. En s’inspirant de divers domaines d’application de la théorie de la complexité tels que la complexité computationnelle, la complexité systémique, et l’informatique cognitive, un modèle formel des paramètre de la complexité pour des tâches de prise de décision dynamique a été élaboré. Un ensemble de dix mesures objectives de la complexité a été développé, consistant en des mesures de la complexité structurelle, des mesures de la complexité informationnelle, la complexité de la charge cognitive, et des mesures de la difficulté d’un problème, de la non-linéarité des relations, de l’incertitude concernant l’information et les décisions, ainsi qu’une mesure de l’instabilité d’un système dynamique sous des conditions d’inertie. Une analyse des résultats expérimentaux colligés à partir de cinq scénarios de PDD révèle qu’un nombre restreint de candidats parmi des modèles de régression linéaires multiple permet d’expliquer et de prédire les résultats de performance humaine, mais au prix de certaines violations des postulats de l’approche classique de la régression linéaire. De plus, ces mesures objectives de la complexité présentent un degré élevé de multicolinéarité, causée d’une part par l’inclusion de caractéristiques redondantes dans les calculs, et d’autre part par une colinéarité accidentelle imputable à la conception des scénarios de PDD. En tenant compte de ces deux considérations ainsi que de la variance élevée observée dans les processus macrocognitifs impliqués dans la prise de décision complexe, ces modèles présentent des valeurs élevées pour le terme d’erreur exprimant l’écart entre les observations et les prédictions des modèles. Une analyse additionnelle explore l’utilisation de méthodes alternatives de modélisation par régression afin de mieux comprendre la relation entre les paramètres de la complexité et les données portant sur performance humaine. Nous avons d’abord opté pour une approche de régression robuste afin d’augmenter l’efficience de l’analyse de régression en utilisant une méthode réduisant la sensibilité des modèles de régression aux observations influentes. Une seconde analyse élimine la source de variance imputable aux différences individuelles en focalisant exclusivement sur les effets imputables aux conditions expérimentales. Une dernière analyse utilise des modèles non-linéaires et non-paramétriques afin de pallier les postulats de la modélisation par régression, à l’aide de méthodes d’apprentissage automatique (machine learning). Les résultats suggèrent que l’approche de régression robuste produit des termes d’erreur substantiellement plus faibles, en combinaison avec des valeurs élevées pour les mesures de variance expliquée dans les données de la performance humaine. Bien que les méthodes non-linéaires et non-paramétriques produisent des modèles marginalement plus efficients en comparaison aux modèles de régression linéaire, la combinaison de ces modèles issus du domaine de l’apprentissage automatique avec les données restreintes aux effets imputables aux conditions expérimentales produit les meilleurs résultats relativement à l’ensemble de l’effort de modélisation et d’analyse de régression. Une dernière section présente un programme de recherche conçu pour explorer l’espace des paramètres pour les mesures objectives de la complexité avec plus d’ampleur et de profondeur, afin d’appréhender les combinaisons des caractéristiques des problèmes de prise de décision complexe qui sont des facteurs déterminants de la performance humaine. Les discussions concernant l’approche expérimentale pour la PDD, les résultats de l’expérimentation relativement aux modèles de régression, ainsi qu’à propos de l’investigation de méthodes alternatives visant à réduire la composante de variance menant à la disparité entre les observations et les prédictions des modèles suggèrent toutes que le développement de mesures objectives de la complexité pour la performance humaine dans des scénarios de prise de décision dynamique est une approche viable à l’approfondissement de nos connaissances concernant la compréhension et le contrôle exercés par un être humain face à des problèmes de décision complexe. / Objective Measures of Complexity for Dynamic Decision-Making. Managing complex sociotechnical systems depends on an understanding of the dynamic interrelations of such systems’ components, their evolution over time, and the degree of uncertainty to which decision makers are exposed. What features of complex decision-making impact human performance in the cognitively demanding, ever-changing and time pressured modern workplaces? Complex decision-making is a macrocognitive construct, involving low to high cognitive processes and functions, such as metacognition, or thinking about one’s own thought processes. In the particular case of complex decision-making, this is called systems thinking. The study of complex decision-making outside of the controlled, albeit lacking in realism, traditional laboratory environment is difficult if not impossible. Macrocognition is best studied through simulation-based experimentation, using computerized microworlds in the form of serious games. That research paradigm is called dynamic decision-making (DDM), as it takes into account the features of complex decision problems, such as complex sequences of interdependent decisions and changes in problem states, which may change spontaneously or as a consequence of earlier decisions, and for which the knowledge and understanding may be only partial or uncertain. For all the research in DDM concerning the pitfalls of human performance in complex decision problems, the acquisition of knowledge about complex systems, and whether a learning transfer is possible, there is no quantitative measure of what constitutes a complex decision problem. The research literature mentions the qualities of complex systems (a system’s dynamical relationships, the nonlinear evolution of the system over time, and the uncertainty about the system states and decision outcomes), but objective quantitative measures to express the complexity of decision problems have not been developed. This dissertation presents the concepts, methodology, and results involved in a research endeavor to develop objective measures of complexity based on characteristics of dynamic decision-making problems which can explain and predict human performance. Drawing on the diverse fields of application of complexity theory such as computational complexity, systemic complexity, and cognitive informatics, a formal model of the parameters of complexity for dynamic decision-making tasks has been elaborated. A set of ten objective measures of complexity were developed, ranging from structural complexity measures, measures of information complexity, the cognitive weight complexity, and measures of problem difficulty, nonlinearity among relationships, information and decision uncertainty, as well as a measure of the dynamical system’s instability under inertial conditions. An analysis of the experimental results gathered using five DDM scenarios revealed that a small set of candidate models of multiple linear regression could explain and predict human performance scores, but at the cost of some violations of the assumptions of classical linear regression. Additionally, the objective measures of complexity exhibited a high level of multicollinearity, some of which were caused by redundant feature computation while others were accidentally collinear due to the design of the DDM scenarios. Based on the aforementioned constraints, and due to the high variance observed in the macrocognitive processes of complex decision-making, the models exhibited high values of error in the discrepancy between the observations and the model predictions. Another exploratory analysis focused on the use of alternative means of regression modeling to better understand the relationship between the parameters of complexity and the human performance data. We first opted for a robust regression analysis to increase the efficiency of the regression models, using a method to reduce the sensitivity of candidate regression models to influential observations. A second analysis eliminated the within-treatment source of variance in order to focus exclusively on between-treatment effects. A final analysis used nonlinear and non-parametric models to relax the regression modeling assumptions, using machine learning methods. It was found that the robust regression approach produced substantially lower error values, combined with high measures of the variance explained for the human performance data. While the machine learning methods produced marginally more efficient models of regression for the same candidate models of objective measures of complexity, the combination of the nonlinear and non-parametric methods with the restricted between-treatment dataset yielded the best results of all of the modeling and analyses endeavors. A final section presents a research program designed to explore the parameter space of objective measures of complexity in more breadth and depth, so as to weight which combinations of the characteristics of complex decision problems are determinant factors on human performance. The discussions about the experimental approach to DDM, the experimental results relative to the regression models, and the investigation of further means to reduce the variance component underlying the discrepancy between the observations and the model predictions all suggest that establishing objective measures of complexity for human performance in dynamic decision-making scenarios is a viable approach to furthering our understanding of a decision maker’s comprehension and control of complex decision problems.
163

Measuring «Correlation Neglect» : experimental prodecures and applications

Conombo, Blanchard 24 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2017-2018 / Des études économiques récentes ont identifié la difficulté des personnes à prendre des décisions optimales lorsqu’il existe une corrélation entre différentes variables d’état (aléatoires), que l’on appelle maintenant dans la littérature «inattention envers la corrélation». Dans cet article, nous supposons que l’inattention envers la corrélation est un trait individuel d’une personne et nous proposons différentes mesures de cette caractéristique. Nous comparons différentes mesures en termes de corrélation à partir des résultats d’expériences de laboratoire. Nous présentons les applications de ces mesures dans des domaines précis. Mots clés : heuristiques et biais, inattention envers la corrélation, mesure. / Recent economic studies identified the difficulty of persons to make optimal decisions when there is correlation between (random) state variables, now referred to in the literatures as “correlation neglect.” In this article, we presume correlation neglect to be an individual trait of a person and propose different measures of this characteristic. We compare different measures in terms of their correlation based on results from laboratory experiments. We present applications of the measures in the field. Keywords : heuristics and biases, correlation neglect, measurement.
164

Pilotage en temps réel d'une ligne de finition de bois d'oeuvre intégrant du séchage à haute fréquence à l'aide de l'apprentissage par renforcement

Tremblay, François-Alexandre 12 November 2023 (has links)
Titre de l'écran-titre (visionné le 26 juin 2023) / L'industrie des produits du bois évolue dans un contexte de forte compétition qui incite les scieries à se tourner vers des procédés plus agiles, tel que le séchage du bois en continu par micro-ondes, une technologie récemment brevetée. Cette technologie permet de corriger le séchage des planches une à la fois, par opposition au séchage classique par lot. L'intégration de ce séchage de précision à une ligne de finition traditionnelle complexifie toutefois la logistique de l'entreprise. En effet, bien que la technologie permette d'améliorer la qualité du bois, la surcharge de planches trop humides occasionne des goulots d'étranglement et une réduction de la productivité. Il est donc nécessaire de développer des systèmes décisionnels qui déterminent en temps réel si une planche humide doit passer au séchoir micro-onde afin d'améliorer sa qualité ou continuer son chemin vers la fin de la ligne de finition. Ce projet consiste à concevoir et à évaluer des algorithmes de prises de décisions en temps réel sur une ligne de finition afin de maximiser la valeur générée par unité de temps. Compte tenu de l'aspect séquentiel des décisions (chaque décision affecte les taux actuels et futurs d'occupation des différents équipements, la qualité du bois et la productivité de l'usine), l'apprentissage par renforcement est utilisé. Dans ce sous-domaine de l'intelligence artificielle, les algorithmes apprennent des politiques décisionnelles optimales, pour une fonction objectif donnée, par interaction avec leur environnement à travers un processus « d'essais-erreurs ». Nous montrons le potentiel de l'apprentissage par renforcement à travers un modèle de simulation imitant le contexte fortement dynamique des scieries. Les politiques d'apprentissage par renforcement apprises ont permis d'augmenter la productivité d'au moins 19% par rapport à une heuristique semblable à celles utilisées actuellement en industrie. Ces politiques sont aussi relativement robustes aux perturbations soudaines qui peuvent survenir dans l'environnement. / The wood products industry is evolving in a context of strong competition encouraging sawmills towards more agile processes such as continuous wood drying using microwaves, a recently patented technology. This technology makes it possible to correct wood drying one plank at a time as opposed to traditional batch drying. However, the integration of this precision drying process into traditional finishing operations complicates sawmill's logistics. Although the technology improves wood quality, the overload of wet lumber causes bottlenecks and a reduction of productivity. It is therefore necessary to develop new decision-making systems to determine in real time whether wet lumber should be microwaved to improve its quality or continue on its way towards the end of the finishing line. This project consists of designing and evaluating real-time decision-making algorithms on a finishing line in order to maximize the value generated per unit of time, a constant challenge in the Canadian wood products industry. Considering the sequential aspect of decisions (each decision affects current and future occupancy rates of different equipment, wood quality and plant productivity), reinforcement learning (RL) is used. In this subfield of artificial intelligence, algorithms learn optimal decision sequences by interacting with their environment through a "trial and error" process. We show the potential of RL through a simulation model mimicking the real and highly dynamic factory context. RL policies learned increase productivity on wet lumber by at least 19% compared to the heuristic currently used in industry. These policies are also relatively robust to sudden disturbances that may occur in the system.
165

Le prix du risque idiosyncrasique : une analyse en séries temporelles et coupe transversale

Desrosiers, Maxime 02 February 2024 (has links)
Le CAPM est une représentation stylisée de la rentabilité attendue des titres sur les marchés boursiers, mais comme plusieurs des hypothèses centrales du modèle ne tiennent pas lors d’analyses empiriques, sa pertinence en ce qui a trait aux paramètres prisés sur les marchés est limitée. L’objectif de ce mémoire est d’analyser s’il y a présence d’une prime de risque idiosyncrasique, de mesurer celle-ci et de voir si elle a un pouvoir explicatif significatif. Nous trouvons que les titres ayant les plus hauts risques idiosyncrasiques obtiennent des rendements le mois suivant de 1,18 à 1,98 point de pourcentage inférieur aux titres les moins risqués. En contrôlant pour la capitalisation boursière, l’effet persiste et le risque idiosyncrasique semble être un meilleur prédicteur du rendement d’une firme que la taille de celle-ci.
166

Leadership éthique des dirigeants scolaires en Haïti

Azarre, Wilfrid 27 January 2024 (has links)
Cette recherche explore les problèmes éthiques auxquels sont confrontés les gestionnaires scolaires haïtiens, leur capacité à percevoir des enjeux éthiques dans différentes situations professionnelles ainsi que les décisions et actions qu’ils adoptent face à de tels enjeux. La recherche fait appel à une méthodologie mixte en combinant les données de méthode quantitative et de méthode qualitative. Trois instruments ont été utilisés dont deux ont été validés en Haïti pour recueillir les informations. Deux questionnaires (le Questionnaire du leadership éthique – QLE - et le Questionnaire de la sensibilité éthique - QSE) ont permis de collecter des informations auprès de 198 directions d’école secondaire dans quatre départements en Haïti. Un guide d’entrevue validé a permis de collecter des informations qualitatives auprès de huit directions d’école secondaire dans trois départements. Pour répondre aux objectifs de l’étude, une première série d’analyses a été effectuée dans le but de vérifier les qualités psychométriques des questionnaires utilisés. Nous avons procédé à des analyses factorielles confirmatoires (AFC) sur le QLE et le QSE. La première a révélé que le modèle du QLE s’ajuste aux données. Dans le cas du QSE, l’analyse initiale révèle un ajustement médiocre du modèle du QSE aux données, forçant le retrait de trois items trop peu liés au reste de l’échelle. Une seconde analyse factorielle confirmatoire du QSE démontre un meilleur ajustement du modèle modifié aux données recueillies mais ne s’avère pas entièrement satisfaisant. Ces analyses permettent d’ajouter Haïti à la liste des pays où les questionnaires QLE et QSE ont été culturellement vérifiés, bien que ce dernier outil gagnera à faire l’objet d’études supplémentaires. Nous avons ensuite effectué des statistiques descriptives et comparé la position des gestionnaires haïtiens aux différentes dimensions du Questionnaire du leadership éthique et au Questionnaire de sensibilité éthique. Les résultats indiquent, selon la typologie de Langlois (2010), que la dimension Critique atteint un niveau de développement associé à l’émergence, la dimension Justice un niveau associé à la présence et la dimension Sollicitude, un niveau associé à la consolidation. Des comparaisons des résultats et des niveaux de développement ont été effectuées en fonction du niveau de scolarité, du nombre d’années d’expérience dans le poste actuel ou dans l’organisation, du genre, de l’âge, de la langue majoritairement parlée au travail ainsi que du département où se situe l’institution où ils travaillent. De façon générale, ces comparaisons donnent lieu à des résultats statistiquement non significatifs. L’évaluation de la taille des effets et des niveaux de développement des différentes dimensions permet cependant de constater quelques différences faibles ou modérées entre certains sous- groupes. Une analyse qualitative a été aussi combinée à l’analyse quantitative pour mieux comprendre les forces et les vulnérabilités des leaders scolaires haïtiens en matière de prise de décision éthique. Les résultats quantitatifs et qualitatifs permettent de constater qu’en matière de prise de décision, les gestionnaires scolaires haïtiens font plus appel à la dimension de la Sollicitude qu’aux dimensions de la Justice et de la Critique et qu’ils font moins appel à la dimension de la Critique qu’aux dimensions de la Justice et de la Sollicitude. Ces résultats rejoignent certains constats de Langlois et Lapointe (2010) et celles d’Arar et de ses collaborateurs (2016). Par ailleurs, les résultats démontrent que, tel que le suppose le modèle, les gestionnaires obtiennent rarement une position élevée sur les trois dimensions. En effet, sur un total de 198 participants, seulement cinq présentent un résultat élevé sur les trois dimensions, et 12, un résultat élevé sur deux dimensions. Une formation à la sensibilité éthique serait nécessaire pour aider ces gestionnaires à mieux percevoir les différents types d’enjeux éthiques qu’ils sont susceptibles de rencontrer et à mieux tenir compte des différentes dimensions du leadership éthique lorsque confrontés à un dilemme éthique. Cette thèse a également mis en lumière l’existence de défis contextuels qui peuvent entraver l’agir éthique des administrateurs scolaires haïtiens et le besoin d’une formation adéquate. La conclusion de la thèse souligne l’importance de former les directions d’école et tous les acteurs du système scolaire haïtien à la sensibilité et au leadership éthique pour instaurer ou renforcer le vivre ensemble, l’équité et la solidarité à l’école et dans la communauté. / This research explores the ethical issues faced by Haitian school administrators, their ability to perceive ethical issues in different professional situations, and the decisions and actions they take when facing such issues. The research uses a mixed methodology, combining quantitative and qualitative data. Three instruments were used, two of which were validated in Haiti to gather information. Two questionnaires (the Ethical Leadership Questionnaire - ELQ - and the Ethical Sensitivity Questionnaire - ESQ) collected information from 198 secondary school principals in four departments in Haiti. A validated interview guide collected qualitative information from eight secondary school principals in three departments. To meet the objectives of the study, an initial series of analyses was conducted to verify the psychometric qualities of the questionnaires used. Confirmatory factor analyses (CFAs) were conducted on the ELQ and ESQ. The first revealed that the ELQ’s model fits the data. In the case of the ESQ, the initial analysis revealed a poor fit of the ESQ’s model to the data, forcing the removal of three items that were not sufficiently related to the rest of the scale. A second confirmatory factor analysis of the modified model of the ESQ provided a better fit although not fully satisfactory. These analyses allow to add Haiti to the list of countries where the ELQ and ESQ questionnaires have been culturally verified, although the latter tool will benefit from further studies. We then conducted descriptive statistics and compared the position of Haitian school principals on the different dimensions of the ELQ and ESQ. Results on the scale of ethical leadership development stages indicate that participants have reached different levels of development on the three dimensions of ethical leadership. Their score is associated to the emergence level for the critical dimension, to the level of presence for the justice dimension, and to the level of consolidation for the care dimension. Comparisons of scores and levels of development were made according to level of education, number of years of experience in the current position or organization, gender, age, language spoken at work and the department in which the institution is located. In general, the results of these comparisons are not significative. However, the evaluation of the effect sizes and of the levels of development of the different dimensions does show some small or moderate differences between certain subgroups. Qualitative analysis was also combined with quantitative analysis to better understand the strengths and vulnerabilities of Haitian school leaders in ethical decision-making. The quantitative and qualitative results indicate that Haitian school leaders are more concerned with the caring dimension of ethical decision making than with the justice and critical dimensions, and less with critical than the justice and caring dimensions of ethical decision making. These results support the studies by Langlois and Lapointe (2010) and Arar and al. (2016). Moreover, results show that, as assumed by the model, managers rarely obtain a high ranking on all three dimensions. Indeed, out of a total of 198 participants, only five have a high score on all three dimensions, and 12, on two dimensions. Training in ethical sensitivity appears to be important to help these managers better perceive the different types of ethical issues they are likely to encounter and to better take into account the different dimensions of ethical leadership when faced with an ethical dilemma. This thesis also highlighted the existence of contextual challenges that can hamper the ethical actions of Haitian school administrators and the lack of adequate training. The conclusion of the thesis underscores the importance of training principals and all actors in the Haitian school system in ethical sensitivity and leadership in order to establish or strengthen living together, equity and solidarity in the school and community.
167

Fair value measurement : insights on praxis and regulation

Huxley, Zachary 13 December 2023 (has links)
Thèse ou mémoire avec insertion d'articles / Le calcul de la juste valeur marchande d'un bien à une date déterminée est une opération qui peut s'avérer extrêmement complexe. Elle nécessite souvent l'intervention de spécialistes de l'évaluation, qui agissent en tant que consultants dans le cadre de mandats divers (diligence raisonnable avant ou après une acquisition d'entreprise, audit des états financiers ou planification fiscale par exemple). La demande pour les services de ces spécialistes, qui sont typiquement des comptables professionnels employés par des cabinets comptables, ne fait que croître depuis une dizaine d'années. Pourtant, étonnamment, leur façon d'appréhender ce qu'est la juste valeur d'une chose, la place des émotions dans leurs heuristiques décisionnelles, en cas d'incertitude et de doute, et leur manière de résoudre des dilemmes (lorsque différentes méthodes d'évaluation conduisent à des valeurs irréconciliables, par exemple) ont très peu été étudiées dans la littérature existante, sauf dans des contextes particuliers comme le marché de l'art ou le marché immobilier, où les évaluateurs spécialisés ne sont pas des comptables de formation. Le sujet central de ma thèse est le travail des comptables professionnels qui se sont spécialisés dans l'évaluation de la juste valeur d'actifs incorporels, tels que les participations dans des entreprises privées, les dommages et intérêts perdus dans le cadre de litiges commerciaux et le goodwill. Ces évaluations sont nécessaires dans divers contextes, dont les plus courants sont les fusions et acquisitions, les réorganisations fiscales, les litiges et l'information financière. J'adopte une approche sociologique pour étudier trois enjeux spécifiques concernant ce sujet de recherche. Le premier chapitre repose sur des entrevues avec des spécialistes de l'évaluation ainsi que sur les discours publics et privés de leur regroupement professionnel. Il suggère que les mesures de juste valeur sont fragiles et nécessitent une implication affective significative de la part des spécialistes pour que les mesures soient considérées comme fiables et justifiables à autrui. Le second chapitre se fonde sur ces mêmes entrevues, mais en s'intéressant davantage au concept de juste valeur qu'à son application. Il révèle que les spécialistes comprennent la notion de juste valeur de manière pragmatique, en ce sens qu'elle est considérée comme étant expéditive, plurielle, et surtout instrumentale. Par conséquent, les spécialistes valorisent avant tout l'utilité des de leurs mesures, ce qui a des implications significatives notamment en contexte d'information financière. Enfin, le troisième chapitre s'intéresse aux nouvelles formes d'inconduite professionnelle rendues possibles par la financiarisation de la comptabilité en général et par le manque de règles permettant d'encadrer la qualité du calcul de la juste valeur plus spécifiquement. Ce chapitre propose un cadre théorique original permettant d'analyser comment la profession répond à ces nouvelles formes d'inconduite, puis une étude de cas reposant sur des données particulièrement difficiles d'accès mais riches d'enseignement sur la manière dont la profession tente de répondre concrètement à ces nouvelles formes d'inconduite qui la déstabilisent. / Calculating the fair market value of a good at a given date can be a highly complex process. It therefore often requires the involvement of valuation specialists, who act as consultants in various contexts (e.g., pre- or post-acquisition due diligence, auditing, and tax planning). Demand for the services of these specialists - who are typically professional accountants employed by accounting firms - has been growing over the past decade. Yet their understanding of what fair value is, their emotionally laden decision-making heuristics when faced with uncertainty and doubt, and the way they resolve dilemmas (when different valuation methods lead to irreconcilable values, for instance) have received surprisingly little scholarly attention, with the exception of the emerging literature on expert valuators in non-accounting contexts such as art or real estate. The focus of my thesis is the work of the professional accountants who specialize in valuing intangibles, such as private equity investments, lost damages in commercial disputes and goodwill. These valuations are required in a variety of contexts, the most common of which are mergers and acquisitions, tax reorganizations, litigation and financial reporting. I investigate three specific issues related to this topic from a sociological perspective. The first chapter is based on interviews with valuation specialists as well as their professional association's public and private discourses. It suggests that fair value measurements are fragile and require significant emotional involvement for valuation specialists to consider them to be reliable and justifiable to others. The second chapter builds on these same interviews, but focuses on the concept of fair value over its application. It reveals that practitioners understand the concept of fair value pragmatically, in that fair value measurements are deemed to be expedient, plural, and highly instrumental. As a result, practitioners focus mainly on the usefulness of their measures, which has significant implications, particularly in the context of financial reporting. Finally, the third chapter investigates the new forms of professional misconduct made possible by the financialization of accounting in general and by the lack of rules that govern the quality of fair value measurement more specifically. It proposes an original theoretical framework for analyzing how the profession responds to these new forms of misconduct, followed by a case study based on particularly hard to access (but information-rich) data on how the profession tries to respond to the new forms of misconduct that destabilize it.
168

Modelling and verifying land-use regulations comprising 3D components to detect spatio-semantic conflicts

Emamgholian, Saeid 12 November 2023 (has links)
L'utilisation du territoire est régie par différents mécanismes que nous pourrions nommer géorèglementations comme par exemples les plans d'urbanisme, les permis de construire ou le zonage. La géorèglementation, en anglais, on parle de Land-use Regulation (LuR), permet d'imposer ou d'influencer l'utilisation d'un territoire dans le but d'atteindre des objectifs de politique publique. Qu'on le veule ou pas, la géorèglementation est nécessaire car elle permet de consolider une saine gestion des ressources, elle aide à la conservation et au développement du territoire, elle fournit un cadre législatif important pour assurer la sécurité et le bon fonctionnement pour l'accès et l'utilisation harmonieuse du territoire. La géorèglementation s'applique donc sur un territoire, où les composantes spatiales, comme la géométrie des éléments, sont primordiales. Il faudra par exemple tenir compte des marges de recul (donc distance) lors de la construction d'une maison, d'une superficie maximale de construction, etc. Ces composantes spatiales du territoire et son occupation peuvent également faire intervenir la 3e dimension comme la profondeur, la hauteur ou encore le volume. La pratique et la littérature montrent que la géorèglementation est actuellement principalement décrite dans des documents de planification et des lignes directrices, dont certains peuvent inclure une représentation spatiale en 2D (i.e. des cartes). On retrouve parfois de coupes transversales en 2D pour représenter l'étendue 2D/3D des LuRs. Cette manière de travailler à partir de document manuscrit et de plans 2D présente des lacunes importantes. Elle limite la possibilité d'avoir une compréhension complète et adéquate de l'étendue 3D des LuRs et donc dans la prise de décision, comme par exemple, la détection de conflits potentiels dans la délivrance de permis de construire ou d'aménagement. De plus, l'application et donc la validation de ces géorèglementations à partir de documents descriptifs prend du temps et laisse place à la subjectivité, ce qui peut conduire à de mauvaises décisions. Les autorités en matière de planification territoriale devraient avoir accès à toutes les informations et à toutes les représentations spatiales requises pour évaluer les LuRs et détecter les conflits potentiels. Force est de constater, que ce n'est pas le cas actuellement, et que même si des modèles 3D de bâtiments (BIM) ou de ville (CityGML) ont vu le jour, ils ne sont pas intégrés dans ces processus de géorèglementation. Cette recherche doctorale est dédiée à la conception et au développement d'un cadre de référence pour la modélisation géométrique 3D des LuRs, leur intégration dans le contexte des modèles de ville 3D et la détection automatique des conflits spatio-sémantiques potentiels lors de la validation des LuRs. Ce cadre de référence vise donc à soutenir les autorités en matière d'application de géorèglementations. La recherche se décline en cinq sous-objectifs soit 1) proposer un inventaire des différents LuRs 3D en précisant leurs composantes 3D/verticales, 2) proposer une classification fonctionnelle basée sur l'ampleur des conflits potentiels des LuRs 3D pour soutenir la prise de décision des autorités, 3) modéliser les LuRs en 3D puis les combiner avec d'autres sources d'information (ex. BIM, CityGML et cartes de zonage), 4) détecter les conflits spatiaux et sémantiques potentiels qui pourraient survenir entre les LuRs modélisés et les objets physiques comme les éléments de construction et, 5) concevoir et développer une preuve de faisabilité. Parmi plus de 100 de géorèglementations 2D/3D passés en revue, 18 de géorèglementations 3D sont inventoriées et discutées en profondeur. Par la suite, pour chacune de ces géorèglementations, les informations et paramètres requis pour leur modélisation 3D automatique sont établis. L'approche proposée permet l'intégration de la modélisation 3D de ces géorèglementations à des modèles de villes et de bâtiments 3D (par exemple, BIM, CityGML et le zonage). Enfin, la thèse fournie un cadre procédurale pour vérifier automatiquement si les géorèglementations 3D viennent en conflit avec des éléments de bâtis planifiés. La preuve de faisabilité est un prototype Web basée sur une étude de cas axée sur le processus d'émission de permis de construire d'un bâtiment situé dans la ville de Melbourne, Victoria, Australie. Les géorèglementations 3D suivantes ont été modélisées et vérifiées : 1) limites de construction en hauteur, 2) exposition au soleil pour estimer l'efficacité énergétique du bâtiment, 3) limite des zones d'ombrage, 4) limites de l'impact sonore, 5) zonage de vue, 6) marges latérales et arrières, 7) marges de rue (côtés et frontaux), et 8) limites d'inondation. / The use and developments of land are regulated by utilising different mechanisms called Land-use Regulation (LuR) in various forms such as planning activities, zoning codes, permit requirements, or subdivision controls of cities. LuR makes it possible to impose or influence the use and development of land in order to achieve public policy objectives. Indeed, LuR is essential since it allows the appropriate reinforcement of resource management, contributes to the land protection and development, and provides a tangible legal framework to ensure safety and proper functioning for the harmonious access and use of land. LuRs applies to land, where the spatial components, such as the geometry of the elements, are essential. For example, setback and height limits (i.e., the distance) or different floors' gross area should be considered when owners/developers propose a new construction on their property. These spatial components of the land, its occupied elements (e.g., building elements), or LuR itself can comprise the third dimension (i.e., depth, height, or even volume). Literature and related works show that LuR is currently mainly described in planning documents and guidelines, some of which may include 2D spatial representation (i.e., maps) or 2D cross-sections to represent the LuRs' 2D/3D extent. This method (i.e., working on textual documents and 2D plans) has significant shortcomings in understanding the LuRs' 3D extent and in decision-making (e.g., detecting potential conflicts in issuing planning/building permits). Moreover, checking LuRs' descriptions inside the textual documents is time-consuming, and subjective which might lead to erroneous decisions. Planning authorities need to have access to all information and the spatial representation that is required to assess LuRs and detect their potential conflicts. Clearly, it is generally lacking and even if 3D models of buildings (e.g., BIM designs) or cities (e.g., CityGML) have emerged, they do not incorporate the concept of LuRs. This Ph.D. research follows qualitative engineering type of method that generally aims to propose a conceptual framework for modelling 3D LuRs geometrically as part of 3D city models and formalising geometric and semantic requirements for detecting LuRs' potential conflicts automatically to support planning authorities in the statuary planning phase. To achieve the general objective, five specific objectives are defined as: 1) to formulate an inventory of various 3D LuRs specifying their 3D/vertical components, 2) to propose a functional classification based on the magnitude of 3D LuRs' potential conflicts for supporting planning authorities' decision-making goals, 3) to model LuRs in 3D and then combine them with other sources of information (e.g., BIM, city models, and zoning maps), 4) to automate the detection of potential spatio-semantic conflicts that might arise between the modelled LuRs and physical objects like building elements, and 5) to design and develop proof of feasibility for modelling and verifying 3D LuRs automatically. Among more than one hundred 2D/3D reviewed LuRs, eighteen 3D LuRs are inventoried and discussed thoroughly. For each of these LuRs, the research work identifies and proposes the required information (as level of information need) by considering both geometries and semantics to combine modelled LuRs with other sources of information (e.g., BIM, CityGML, and planning maps). Finally, the thesis proposes the level of information need considering requirements to verify 3D LuRs automatically for detecting potential conflicts using analytical rules (e.g., clash detection). The proof of feasibility is a web-based prototype based on a case study located in the City of Melbourne (where planning activities are under the control of authorities in the state of Victoria, Australia) focusing on the planning permit process. The following 3D LuRs were modelled and verified: 1) building height limits, 2) energy efficiency protection, 3) overshadowing open space, 4) noise impacts, 5) overlooking, 6) side and rear setbacks, 7) street setbacks (side and front), and 8) flooding limits.
169

Recommandation de paramètres de soudures basées sur l'apprentissage automatique dans un contexte d'industrie 4.0

Picherit, Tom 25 March 2024 (has links)
Titre de l'écran-titre (visionné le 1er novembre 2023) / Les performances du procédé de soudage à l'arc sous gaz métallique dépendent de nombreux paramètres et choisir les bons peut être complexe, même pour un expert. Généralement un ensemble de paramètres valide se trouve par essais et erreurs. Cette méthode nécessite donc beaucoup de temps et de matériel. Nous proposons ici d'utiliser des techniques d'apprentissage supervisé, pour aider les experts dans leur prise de décision. C'est dans cet objectif que nous avons d'abord créé un jeu de données à partir d'un historique de fiches de procédures de soudure numérisées. Ensuite, nous proposons un système de recommandation en deux parties. La première étape est dédiée à l'identification, par classification, du nombre de passes de soudure. La seconde indique les sept valeurs de paramètres restantes pour chaque passe : couche, ampérage, tension, vitesse de fil, fréquence, coupure et vitesse de soudage. Le système de recommandation est capable de fournir de bons résultats pour tous les différents paramètres mentionnés ci-dessus, même si les données sont bruitées en raison de la nature heuristique du processus des experts. Parmi les 11 algorithmes testés pour chaque partie, le meilleur modèle de classification est CatBoost avec 81,94% en score F1 pondéré. Les meilleurs modèles de régression sont, quant à eux, Extra Trees ou un algorithme de boosting, avec un pourcentage d'erreur absolu moyen dans les normes attendues. Ce système de recommandation est donc, pour les experts soudeurs, un outil de soutien leur permettant de gagner du temps et des ressources lors de l'étape de recherche des paramètres. Nous nous sommes appuyés sur différentes études, à la fois pour mettre en forme ce système de recommandation, mais aussi pour en analyser les limites. Premièrement, nous exposons les résultats obtenus sur la recommandation du nombre de passes en considérant ce sous-problème comme un problème de régression. Deuxièmement, en considérant des sous-ensembles de données, la conclusion suivante s'impose : regrouper les soudures par nombre total de passes ou par type de joint, ne permet pas de développer un système plus performant. En effet, le débalancement des observations, pour chaque passe, limite la phase d'apprentissage de nos modèles sur celles les plus élevées. De même, l'augmentation de la taille du jeu de données ne garantit pas l'amélioration des prédictions du nombre de passes. Cependant, elle suggère des perspectives intéressantes pour l'ampérage, le voltage, la vitesse de fil, la fréquence, la coupure et la vitesse de soudure. Troisièmement, notre modèle est comparé avec deux autres solutions de recommandations alternatives et nous introduisons la notion de chaleur transmise. Nous montrons qu'une suite de régressions en chaîne et que le calcul de la vitesse de soudure, à partir de la prédiction de la chaleur transmise, ne permet pas d'augmenter les performances du système. Pour terminer, une méthodologie est mise au point, afin de tester en contexte industriel notre système de recommandation. Nous échangeons des éléments à prendre en compte pour insérer cette expérience dans l'entreprise, sans entraver le travail des experts, et en récoltant des informations précises pour faire avancer la recherche. Dans ce but et pour compléter, nous proposons un prototype d'interface graphique qui intègre notre système de recommandations. / In gas metal arc welding, a weld quality and performance depends on many parameters. Selecting the right ones can be complex, even for an expert. One generally proceeds through trial and error to find a good set of parameters. Therefore, the current experts' method is not optimized and can require a lot of time and materials. We propose using supervised learning techniques to help experts in their decision-making. To that extent, we first created a dataset from a history of digitized welding procedure sheets. Then, a two-part recommendation system is proposed. The first step is dedicated to identify, through classification, the number of weld passes. The second one suggests the seven remaining parameter values for each pass: layer, amperage, voltage, wire feed rate, frequency offset, trimming and welding speed. After extracting data from historical Welding Procedure Specification forms, we tested 11 different supervised learning algorithms. The recommendation system is able to provide good results for all the different settings mentioned above even if the data is noisy due to the heuristic nature of the experts' process. The best classification model is CatBoost with an 81.94% F1-Weighted-Score and the best regression models are Extra Trees or a boosting algorithm with a reduced mean absolute percentage error compared to our baseline. This recommendation system is therefore, for expert welders, a support tool allowing them to save time and resources during the parameter research stage. We relied on various studies, both to shape this recommendation system, but also to analyze its limits. Firstly, we expose results obtained for the number of passes' recommendation considering this step as a regression problem. Secondly, by working on subsets of data, the following conclusion is obvious: grouping the welds by total number of passes or by type of joint does not make it possible to develop a more efficient system. Indeed, the imbalance of the observations of passes per weld limits the learning phase of our models on the highest ones. Similarly, increasing the dataset size does not guarantee improved pass count predictions but does suggest interesting insights for amperage, voltage, wire speed, frequency, trimming and welding speed. Thirdly, our model is compared with two other alternative solutions and we introduce the notion of heat input. We show that a series of chained regressors and the calculation of the welding speed, from the prediction of the heat input, does not make it possible to increase the performance of the system. Finally, a methodology is developed in order to test our recommendation system in an industrial context. We detail the aspects to be considered to insert this experience into the company without hindering the work of the experts while collecting precise information for further work. For this purpose, we also propose a graphical interface prototype that integrates the recommendation system.
170

L'élaboration des planifications fiscales : une perspective relationnelle : des représentations médiatiques aux interactions du fiscaliste sur le terrain

Mayer, Maryse 10 February 2024 (has links)
Comment une planification fiscale s’articule-t-elle au fil des relations avec ses parties prenantes? Comment les fiscalistes parviennent-ils à se sentir à l’aise à propos des planifications fiscales qu’ils élaborent dans les multiples zones grises qui caractérisent leur pratique? En m’attardant aux processus par lequel s’élaborent les planifications fiscales, mon objectif avec cette thèse est d’illustrer, au fil de mes trois articles, comment la prise en compte des aspects relationnels permet d’éclairer certaines zones d’ombres laissées par d’autres perspectives dans la littérature académique à ce jour. C’est à vol d’oiseau que j’ai amorcé ma trajectoire doctorale, avec un premier article très macro dans lequel je m’attarde aux normes sociétales qui façonnent la frontière entre les pratiques fiscales acceptables et inacceptables, basé sur la représentation médiatique des planifications fiscales. J’ai ensuite voulu plonger à un niveau beaucoup plus micro avec une série d’entrevues sur le terrain, pour mes deuxième et troisième articles, en m’intéressant à la perspective des fiscalistes en cabinet. J’y examine leurs interactions dans le processus décisionnel qui mène à l’élaboration des planifications fiscales : avec leur client, dans le cas du deuxième article, et avec leurs pairs lors de consultation informelle, pour mon troisième article.

Page generated in 0.0845 seconds