• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 484
  • 71
  • 40
  • 4
  • 3
  • Tagged with
  • 626
  • 228
  • 154
  • 79
  • 73
  • 69
  • 68
  • 64
  • 57
  • 56
  • 50
  • 46
  • 44
  • 43
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Développement d'une stratégie de séchage pour le 2X2 d'épinette noire destiné à des produits d'ingénierie

Xing, Suying 17 April 2018 (has links)
La présente étude avait pour but de développer une stratégie de séchage pour l'équarri 2x2 d'épinette noire provenant de la cime de l'arbre en vue de sa transformation en produits à valeur ajoutée. La teneur en humidité (H) cible était de 10%, avec 90% du chargement entre 8 et 12% H. Le temps de séchage, le retrait dimensionnel, le niveau de gauchissement, la présence de gerces et de fentes et les contraintes de séchage résiduelles de séchage furent les principaux critères d'évaluation de la qualité du séchage. Un dispositif factoriel à trois variables, deux niveaux et sans répétitions fut utilisé; soit huit essais de séchage au total. Les facteurs étudiés furent le procédé (le séchage à moyenne température (MT) et le séchage à température élevée (TE)), la durée de la période d'équilibrage (5 h et 15 h) et le niveau de lestage (82,5 et 165 lb/pi2 (3,95 et 7,90 kN/m2)). L'effet du pré-rabotage fut aussi étudié mais de façon emboîtée avec les autres facteurs. Deux essais supplémentaires à haute température (HT) ont complété l'étude. La stratégie de séchage proposée dans cette étude démontre qu'il est possible de sécher l'équarri 2x2 d'épinette noire à 10% H avec une fourchette de teneurs en humidité finales variant entre 8 et 12% pour 90% du chargement. Le temps de séchage, pour une durée d'équilibrage de 15 h, fut en moyenne de 105,5 h, 87 h et 63 h respectivement pour les procédé MT, TE et HT. Un effet du procédé de séchage et du niveau de lestage fut clairement observé sur le gauchissement après séchage et rabotage. Le procédé TE a donné le plus faible niveau de déclassement du bois, mais cela au niveau du lestage le plus élevé seulement, indiquant par là que même à température élevée, le lestage doit atteindre un seuil minimal pour être efficace. L'effet du niveau de lestage s'est aussi manifesté sur le gauchissement après refendage en largeur et en épaisseur, en faveur du procédé TE. Un seul des deux essais à HT a donné des résultats comparables aux essais à TE, le second essai ayant montré un niveau de torsion anormalement élevé. Les trois procédés étudiés ont conduit à des contraintes résiduelles de séchage très faibles dans le plan transversal mais le procédé TE a montré les meilleurs résultats pour les contraintes résiduelles en direction longitudinale. Finalement, les gerces internes furent quasiment absentes alors que les gerces externes de surface et de bout furent observées sur plus de 80% des débits. Dans la plupart des cas, les gerces externes étaient cependant déjà visibles avant séchage.
172

L'Archaïque maritime à Blanc-Sablon : analyse technologique et comparative de sites côtiers

Gagné-Dumont, Geneviève 26 April 2019 (has links)
L’Archaïque maritime est une tradition archéologique présente dans le Nord-Est américain entre 8 000 et 3 200 ans AA. À la suite les travaux de Tuck sur le site de Port au Choix, cette tradition a vite frappé l’imaginaire avec ses artéfacts qui sortent de l’ordinaire. Les chercheurs si étant intéressés ont surtout débattus de la question de la continuité culturelle de ces groupes et du développement in situ de la tradition, principalement à partir des données morpho-typologiques. Toutefois, les typologies bâties à partir des sites de l’Archaïque maritime ne prennent pas en compte les outillages moins standardisés comme le sont la plupart des assemblages retrouvés à Blanc-Sablon. Dans l’optique d’examiner des collections préexistantes, l’analyse technologique a été choisie. Il s’agit d’une approche méthodologique qui examine les procédés techniques en interrogeant l’ensemble des objets lithiques d’une collection. De ce fait, l’analyse technologique permet la relecture de collections archéologique en s’intéressant aux éclats, une catégorie autrement délaissée. Par cette approche, ce sont les systèmes techniques des sociétés passées qui sont mis en relief. Cette recherche a permis d’identifier les techniques et les méthodes de taille sur des sites sélectionnés de Blanc-Sablon. La percussion directe au percuteur tendre est la technique de taille la plus utilisée, mais la percussion directe au percuteur dur et la pression ont également été observé. Les méthodes de taille sont peu élaborées, la taille bifaciale prenant une part plus ou moins importante du façonnage des outils. Les stratégies d’acquisition des matières premières ont également été identifiées pour le quartzite local, le quartz et certains cherts. Ces stratégies diffèrent d’une matière à l’autre et entre les sites. L’analyse technologique a ainsi permis de produire de nouvelles données pour la compréhension des groupes de l’Archaïque maritime. / The Maritime Archaic tradition as an archaeological manifestation is found innorth-eastern North America roughly between 8 000 and 3 200 BP. In the wake of Tuck’s work on Port au Choix site, this tradition quickly left its mark in the minds of archaeologists by its unusual material culture. Driven by morphotypological arguments, research on the matter mainly discussed cultural continuity and possible in situdevelopment of the tradition. However, the typological approach is of little help in comprehending less standardised toolkits which comprise most assemblages from Blanc-Sablon. Il this study, already-excavated collections from Blanc-Sablon were re-evaluated with a technological analysis approach. Applied to complete lithic assemblages, this methodological approach is perfectly suited for interpreting past technical processes. Revisiting archaeological collections using the technological approach gives a voice to lithic debris that is otherwise meaningless in cultural interpretation. Technological analysis allows the archaeologist to unfold past societies’ technical systems.This research resulted in the identification of knapping techniques and methods on selected Blanc-Sablon archaeological sites. Direct percussion using soft hammers is the most often used knapping technique, but pressure and direct percussion using hard hammers were also observed. Knapping methods are relatively straight-foward with bifacial knapping composing a considerable portion of produced tools. Raw material acquisition strategies for local quartzites, quartz and cherts were also identified. Finally, the technological analysis of lithic tools and debris provided new data for comprehending cultural groups of the Maritime Archaic tradition.
173

Dialectics and experimental biology

Supple, J. M. 25 April 2018 (has links)
No description available.
174

Création d'un jeu de données synthétiques pour des données de santé

Ouffy, Oumaima 18 January 2023 (has links)
Les données récoltées sur des individus sont souvent difficiles à partager avec les chercheurs et à publier à cause des informations confidentielles qu'elles contiennent. Une solution qu'on peut faire pour faciliter l'accès à ces données est de créer un jeu de données synthétiques à partager avec les chercheurs. Ce jeu de données aurait les mêmes caractéristiques du jeu de données originales mais ne permettrait pas de révéler les informations confidentielles sur les participants. Nous étudions dans ce mémoire les enjeux techniques liés à la création des jeux de données synthétiques dans le domaine de la santé. Il faut notamment s'assurer que les modèles statistiques utilisés pour générer des données synthétiques soient assez flexibles pour bien modéliser les corrélations entre les variables collectées, tout en s'assurant de ne pas sur-ajuster ces modèles, ce qui pourrait nuire à la protection de la confidentialité. Le travail s'articulera autour de la création d'un jeu synthétique pour un sous-ensemble des données collectées par le Consortium d'identification précoce de la maladie d'Alzheimer - Québec (CIMA-Q), pour qui le partage des données à la communauté de recherche sur la maladie d'Alzheimer canadienne et internationale est un objectif important. / Data collected on individuals is often difficult to share with researchers and publish because of the confidential information it contains. A possible solution to facilitate the access to this data is to create a synthetic data set to share with researchers. This dataset would have the same characteristics of the original dataset but would not reveal the confidential information about the participants. We study here the technical issues related to the creation of such synthetic datasets in the health field. In particular, it must be ensured that the statistical models used are flexible enough to properly model the correlations between the variables collected, while making sure not to over-adjust them, which could harm the protection of confidentiality. The work will focus on the creation of a synthetic data for a subset of the data collected by the Consortium of Early Identification of Alzheimer's disease - Quebec (CIMA-Q), for whom the sharing of data with the community of Canadian and international Alzheimer's disease research is an important goal.
175

La recherche de déterminants génétiques dans l'asthme : contribution de deux méthodes génomiques

Madore, Anne-Marie. 17 April 2018 (has links)
L'asthme est un trait complexe dont le phénotype est régulé par l'interaction de nombreux gènes et de l'environnement. Étant donné sa variabilité phénotypique, plusieurs individus asthmatiques ne répondent pas à la médication disponible. La recherche de nouvelles voies biologiques impliquées dans l'asthme est donc nécessaire. Les études d'expression génomique et les études d'association génomique (GWAS) permettent d'avoir une vue d'ensemble sur les gènes impliqués dans le développement d'un phénotype sans être biaisé par les connaissances actuelles et pourraient permettre la découverte de ces nouvelles voies. Ainsi, dans la première partie de cette thèse, une étude d'expression génomique a été utilisée pour caractériser les macrophages alvéolaires des individus asthmatiques en comparaison aux individus témoins. Cette étude a permis de cibler la famille des heat shock proteins (HSP), et plus particulièrement le gène HSPD1. De plus, la comparaison des données obtenues d'une étude d'expression génomique antérieure avec celles d'une étude récente a permis de démontrer que les études d'expression génomique sont un outil de sélection pertinent pour cibler de nouveaux gènes d'intérêt. La deuxième partie de cette thèse fait suite à la première GWAS effectuée dans l'asthme. Deux études présentées dans cette thèse ont permis de valider l'association des variants de la région 17q21 avec l'asthme dans un échantillon indépendant. Elles ont également permis d'initier la compréhension du mécanisme d'action par lequel ces variants régulent l'expression de certains gènes de cette région. Des études pour définir l'implication de HSPD1 dans les fonctions du macrophage alvéolaire ainsi que pour valider l'implication des gènes GSDMB, ORMDL3 et ZPBP2 dans l'asthme sont nécessaires afin de valider leur intérêt dans la recherche sur cette pathologie. Finalement, les différents éléments présentés dans cette thèse démontrent l'intérêt des techniques génomiques pour cibler de nouvelles voies biologiques liées au développement d'un phénotype en particulier.
176

Fair value measurement : insights on praxis and regulation

Huxley, Zachary 01 August 2023 (has links)
Thèse ou mémoire avec insertion d'articles / Le calcul de la juste valeur marchande d'un bien à une date déterminée est une opération qui peut s'avérer extrêmement complexe. Elle nécessite souvent l'intervention de spécialistes de l'évaluation, qui agissent en tant que consultants dans le cadre de mandats divers (diligence raisonnable avant ou après une acquisition d'entreprise, audit des états financiers ou planification fiscale par exemple). La demande pour les services de ces spécialistes, qui sont typiquement des comptables professionnels employés par des cabinets comptables, ne fait que croître depuis une dizaine d'années. Pourtant, étonnamment, leur façon d'appréhender ce qu'est la juste valeur d'une chose, la place des émotions dans leurs heuristiques décisionnelles, en cas d'incertitude et de doute, et leur manière de résoudre des dilemmes (lorsque différentes méthodes d'évaluation conduisent à des valeurs irréconciliables, par exemple) ont très peu été étudiées dans la littérature existante, sauf dans des contextes particuliers comme le marché de l'art ou le marché immobilier, où les évaluateurs spécialisés ne sont pas des comptables de formation. Le sujet central de ma thèse est le travail des comptables professionnels qui se sont spécialisés dans l'évaluation de la juste valeur d'actifs incorporels, tels que les participations dans des entreprises privées, les dommages et intérêts perdus dans le cadre de litiges commerciaux et le goodwill. Ces évaluations sont nécessaires dans divers contextes, dont les plus courants sont les fusions et acquisitions, les réorganisations fiscales, les litiges et l'information financière. J'adopte une approche sociologique pour étudier trois enjeux spécifiques concernant ce sujet de recherche. Le premier chapitre repose sur des entrevues avec des spécialistes de l'évaluation ainsi que sur les discours publics et privés de leur regroupement professionnel. Il suggère que les mesures de juste valeur sont fragiles et nécessitent une implication affective significative de la part des spécialistes pour que les mesures soient considérées comme fiables et justifiables à autrui. Le second chapitre se fonde sur ces mêmes entrevues, mais en s'intéressant davantage au concept de juste valeur qu'à son application. Il révèle que les spécialistes comprennent la notion de juste valeur de manière pragmatique, en ce sens qu'elle est considérée comme étant expéditive, plurielle, et surtout instrumentale. Par conséquent, les spécialistes valorisent avant tout l'utilité des de leurs mesures, ce qui a des implications significatives notamment en contexte d'information financière. Enfin, le troisième chapitre s'intéresse aux nouvelles formes d'inconduite professionnelle rendues possibles par la financiarisation de la comptabilité en général et par le manque de règles permettant d'encadrer la qualité du calcul de la juste valeur plus spécifiquement. Ce chapitre propose un cadre théorique original permettant d'analyser comment la profession répond à ces nouvelles formes d'inconduite, puis une étude de cas reposant sur des données particulièrement difficiles d'accès mais riches d'enseignement sur la manière dont la profession tente de répondre concrètement à ces nouvelles formes d'inconduite qui la déstabilisent. / Calculating the fair market value of a good at a given date can be a highly complex process. It therefore often requires the involvement of valuation specialists, who act as consultants in various contexts (e.g., pre- or post-acquisition due diligence, auditing, and tax planning). Demand for the services of these specialists - who are typically professional accountants employed by accounting firms - has been growing over the past decade. Yet their understanding of what fair value is, their emotionally laden decision-making heuristics when faced with uncertainty and doubt, and the way they resolve dilemmas (when different valuation methods lead to irreconcilable values, for instance) have received surprisingly little scholarly attention, with the exception of the emerging literature on expert valuators in non-accounting contexts such as art or real estate. The focus of my thesis is the work of the professional accountants who specialize in valuing intangibles, such as private equity investments, lost damages in commercial disputes and goodwill. These valuations are required in a variety of contexts, the most common of which are mergers and acquisitions, tax reorganizations, litigation and financial reporting. I investigate three specific issues related to this topic from a sociological perspective. The first chapter is based on interviews with valuation specialists as well as their professional association's public and private discourses. It suggests that fair value measurements are fragile and require significant emotional involvement for valuation specialists to consider them to be reliable and justifiable to others. The second chapter builds on these same interviews, but focuses on the concept of fair value over its application. It reveals that practitioners understand the concept of fair value pragmatically, in that fair value measurements are deemed to be expedient, plural, and highly instrumental. As a result, practitioners focus mainly on the usefulness of their measures, which has significant implications, particularly in the context of financial reporting. Finally, the third chapter investigates the new forms of professional misconduct made possible by the financialization of accounting in general and by the lack of rules that govern the quality of fair value measurement more specifically. It proposes an original theoretical framework for analyzing how the profession responds to these new forms of misconduct, followed by a case study based on particularly hard to access (but information-rich) data on how the profession tries to respond to the new forms of misconduct that destabilize it.
177

Évaluation de la valeur de biens et services écologiques liés à l'agroforesterie : une approche expérimentale

Roy-Vigneault, Frédéric 16 April 2018 (has links)
L'étude suivante évalue de façon expérimentale la valeur que des individus accordent aux biens et services écologiques rattachés à l'aménagement de haies brise-vent et de bandes riveraines en milieu agricole. L'approche adoptée pour cette tâche permet d'attaquer des problématiques méthodologiques et scientifiques soulevées par les techniques d'évaluation du consentement à payer (CAP) pour des biens publics. En particulier, nous avons examiné si la méthode de l'évaluation contingente, méthode déclarative où les préférences sont obtenues dans des situations hypothétiques, présente un biais comparativement à une situation concrète de collecte de fond. Les résultats présentés démontrent la présence d'un biais hypothétique dans l'évaluation de bien public. Les données suggèrent que ces différences observées entre le contexte hypothétique et réel sont sensibles au degré de perception quant à la ±conséquence¿ de l'enquête pour les répondants. Également, les résultats indiquent qu'il n'y a pas de différence de CAP entre différents échantillons de la population du Québec lorsque les variables sociodémographiques sont prises en compte. Cela suggère que la localisation géographique du répondant n'a pas d'incidence sur son CAP.
178

Évaluation des incertitudes sur les données expérimentales prises dans la soufflerie trisonique de RDDC Valcartier

Lim, Chin 13 April 2018 (has links)
Le but de ce projet est d'obtenir et d'appliquer une méthodologie disponible dans la littérature pour quantifier les incertitudes sur les données expérimentales prises dans la soufflerie trisonique de Recherche et Développement pour la Défense Canada - Valcartier (RDDC Valcartier). La motivation de cette étude vient du fait que la qualité des mesures expérimentales joue un rôle très important dans le processus de développement de tout missile ou système d'armes à RDDC Valcartier. Nous constatons l'importance du sujet par les conférences organisées par des instituts de renommée dans le domaine de l'aérodynamique tels que l'American Institute of Aeronautics and Astronautic (AIAA) et l'Advisory Group for Aerospace Research & Development (AGARD). Ces organismes exigent que les résultats expérimentaux présentés incluent un estimé de leurs incertitudes. La présente étude est basée sur des essais existants dans la base de données de RODC Valcartier en prenant en compte l'instrumentation disponible au moment des essais et revue en fonction de ce qui est disponible ou des améliorations apportées au système au cours des années. Par cette analyse, il a été décidé d'appliquer la méthodologie choisie à un essai réalisé à Mach 3,5, considérant la grande disponibilité des données existantes. En relevant des données des essais antérieurs, nous avons observé que le fait d'avoir remplacé le système de séchage d'air par un autre plus performant faisait augmenter le nombre de Mach en régime supersonique. Cette variation du nombre de Mach est probablement due à la réduction de la condensation l'humidité dans l'air pendant son expansion dans la section d'essai et ce fait sera également exposé dans cette étude. En nous fondant sur des recommandations dans les références telles que [AIAA, 1990] et [Association Française de Normalisation (AFNOR), 2005], nous avons remarqué que l'incertitude estimée sur quelques grandeurs mesurables était anormalement élevée, et par conséquent, les paramètres calculés à partir de ces grandeurs aussi. Cette étude aura aussi révélé que la balance aérodynamique est l'élément critique qui apporte les plus grandes incertitudes expérimentales sur les paramètres aérodynamiques et qu'elle n'était pas adéquate pour la mesure de quelques composantes de force pour l'essai étudié. Enfin, nous avons donné plusieurs recommandations afin de réduire les incertitudes des mesures expérimentales à des niveaux plus acceptables.
179

Specimen theoriae novae de mensura complexus : Mesures objectives de la complexité = Objective measures of complexity / Mesures objectives de la complexité / Objective measures of complexity

Pronovost, Sylvain 24 April 2018 (has links)
Mesures Objectives de la Complexité pour la Prise de Décision Dynamique. La gestion efficace de systèmes sociotechniques complexes dépend d’une compréhension des interrelations dynamiques entre les composantes de ces systèmes, de leur évolution à travers le temps, ainsi que du degré d’incertitude auquel les décideurs sont exposés. Quelles sont les caractéristiques de la prise de décision complexe qui ont un impact sur la performance humaine dans l’environnement moderne du travail, constamment en fluctuation et sous la pression du temps, exerçant de lourdes demandes sur la cognition ? La prise de décision complexe est un concept issu de la macrocognition, impliquant des processus et des fonctions de bas et haut niveaux de description tels que la métacognition, soit pour un individu de penser à propos de son propre processus de pensées. Dans le cas particulier de la prise de décision complexe, ce phénomène est nommé la pensée systémique. L’étude de la prise de décision complexe en dehors de l’environnement traditionnel du laboratoire, permettant un haut niveau de contrôle mais un faible degré de réalisme, est malheureusement difficile et presque impossible. Une méthode de recherche plus appropriée pour la macrocognition est l’expérimentation basée sur la simulation, à l’aide de micromondes numérisés sous la forme de jeux sérieux. Ce paradigme de recherche est nommé la prise de décision dynamique (PDD), en ce qu’il tient compte des caractéristiques de problèmes de prise de décision complexe telles que des séquences complexes de décisions et de changements d’états d’un problème interdépendants, qui peuvent changer de façon spontanée ou comme conséquence de décisions préalables, et pour lesquels la connaissance et la compréhension du décideur peut n’être que partielle ou incertaine. Malgré la quantité de recherche concernant la PDD à propos des difficultés encourues pour la performance humaine face à des problèmes de prise de décision complexe, l’acquisition de connaissances à propos de systèmes complexes, et à savoir si le transfert de l’apprentissage est possible, il n’existe pas de mesure quantitative de ce en quoi un problème de décision est considéré comme étant complexe. La littérature scientifique mentionne des éléments qualitatifs concernant les systèmes complexes (tels que des interrelations dynamiques, une évolution non-linéaire d’un système à travers le temps, et l’incertitude à propos des états d’un système et des issues des décisions), mais des mesures quantitatives et objectives exprimant la complexité de problèmes de décision n’ont pas été développées. Cette dissertation doctorale présente les concepts, la méthodologie et les résultats impliqués dans un projet de recherche visant à développer des mesures objectives de la complexité basées sur les caractéristiques de problèmes de prise de décision dynamique pouvant expliquer et prédire la performance humaine. En s’inspirant de divers domaines d’application de la théorie de la complexité tels que la complexité computationnelle, la complexité systémique, et l’informatique cognitive, un modèle formel des paramètre de la complexité pour des tâches de prise de décision dynamique a été élaboré. Un ensemble de dix mesures objectives de la complexité a été développé, consistant en des mesures de la complexité structurelle, des mesures de la complexité informationnelle, la complexité de la charge cognitive, et des mesures de la difficulté d’un problème, de la non-linéarité des relations, de l’incertitude concernant l’information et les décisions, ainsi qu’une mesure de l’instabilité d’un système dynamique sous des conditions d’inertie. Une analyse des résultats expérimentaux colligés à partir de cinq scénarios de PDD révèle qu’un nombre restreint de candidats parmi des modèles de régression linéaires multiple permet d’expliquer et de prédire les résultats de performance humaine, mais au prix de certaines violations des postulats de l’approche classique de la régression linéaire. De plus, ces mesures objectives de la complexité présentent un degré élevé de multicolinéarité, causée d’une part par l’inclusion de caractéristiques redondantes dans les calculs, et d’autre part par une colinéarité accidentelle imputable à la conception des scénarios de PDD. En tenant compte de ces deux considérations ainsi que de la variance élevée observée dans les processus macrocognitifs impliqués dans la prise de décision complexe, ces modèles présentent des valeurs élevées pour le terme d’erreur exprimant l’écart entre les observations et les prédictions des modèles. Une analyse additionnelle explore l’utilisation de méthodes alternatives de modélisation par régression afin de mieux comprendre la relation entre les paramètres de la complexité et les données portant sur performance humaine. Nous avons d’abord opté pour une approche de régression robuste afin d’augmenter l’efficience de l’analyse de régression en utilisant une méthode réduisant la sensibilité des modèles de régression aux observations influentes. Une seconde analyse élimine la source de variance imputable aux différences individuelles en focalisant exclusivement sur les effets imputables aux conditions expérimentales. Une dernière analyse utilise des modèles non-linéaires et non-paramétriques afin de pallier les postulats de la modélisation par régression, à l’aide de méthodes d’apprentissage automatique (machine learning). Les résultats suggèrent que l’approche de régression robuste produit des termes d’erreur substantiellement plus faibles, en combinaison avec des valeurs élevées pour les mesures de variance expliquée dans les données de la performance humaine. Bien que les méthodes non-linéaires et non-paramétriques produisent des modèles marginalement plus efficients en comparaison aux modèles de régression linéaire, la combinaison de ces modèles issus du domaine de l’apprentissage automatique avec les données restreintes aux effets imputables aux conditions expérimentales produit les meilleurs résultats relativement à l’ensemble de l’effort de modélisation et d’analyse de régression. Une dernière section présente un programme de recherche conçu pour explorer l’espace des paramètres pour les mesures objectives de la complexité avec plus d’ampleur et de profondeur, afin d’appréhender les combinaisons des caractéristiques des problèmes de prise de décision complexe qui sont des facteurs déterminants de la performance humaine. Les discussions concernant l’approche expérimentale pour la PDD, les résultats de l’expérimentation relativement aux modèles de régression, ainsi qu’à propos de l’investigation de méthodes alternatives visant à réduire la composante de variance menant à la disparité entre les observations et les prédictions des modèles suggèrent toutes que le développement de mesures objectives de la complexité pour la performance humaine dans des scénarios de prise de décision dynamique est une approche viable à l’approfondissement de nos connaissances concernant la compréhension et le contrôle exercés par un être humain face à des problèmes de décision complexe. / Objective Measures of Complexity for Dynamic Decision-Making. Managing complex sociotechnical systems depends on an understanding of the dynamic interrelations of such systems’ components, their evolution over time, and the degree of uncertainty to which decision makers are exposed. What features of complex decision-making impact human performance in the cognitively demanding, ever-changing and time pressured modern workplaces? Complex decision-making is a macrocognitive construct, involving low to high cognitive processes and functions, such as metacognition, or thinking about one’s own thought processes. In the particular case of complex decision-making, this is called systems thinking. The study of complex decision-making outside of the controlled, albeit lacking in realism, traditional laboratory environment is difficult if not impossible. Macrocognition is best studied through simulation-based experimentation, using computerized microworlds in the form of serious games. That research paradigm is called dynamic decision-making (DDM), as it takes into account the features of complex decision problems, such as complex sequences of interdependent decisions and changes in problem states, which may change spontaneously or as a consequence of earlier decisions, and for which the knowledge and understanding may be only partial or uncertain. For all the research in DDM concerning the pitfalls of human performance in complex decision problems, the acquisition of knowledge about complex systems, and whether a learning transfer is possible, there is no quantitative measure of what constitutes a complex decision problem. The research literature mentions the qualities of complex systems (a system’s dynamical relationships, the nonlinear evolution of the system over time, and the uncertainty about the system states and decision outcomes), but objective quantitative measures to express the complexity of decision problems have not been developed. This dissertation presents the concepts, methodology, and results involved in a research endeavor to develop objective measures of complexity based on characteristics of dynamic decision-making problems which can explain and predict human performance. Drawing on the diverse fields of application of complexity theory such as computational complexity, systemic complexity, and cognitive informatics, a formal model of the parameters of complexity for dynamic decision-making tasks has been elaborated. A set of ten objective measures of complexity were developed, ranging from structural complexity measures, measures of information complexity, the cognitive weight complexity, and measures of problem difficulty, nonlinearity among relationships, information and decision uncertainty, as well as a measure of the dynamical system’s instability under inertial conditions. An analysis of the experimental results gathered using five DDM scenarios revealed that a small set of candidate models of multiple linear regression could explain and predict human performance scores, but at the cost of some violations of the assumptions of classical linear regression. Additionally, the objective measures of complexity exhibited a high level of multicollinearity, some of which were caused by redundant feature computation while others were accidentally collinear due to the design of the DDM scenarios. Based on the aforementioned constraints, and due to the high variance observed in the macrocognitive processes of complex decision-making, the models exhibited high values of error in the discrepancy between the observations and the model predictions. Another exploratory analysis focused on the use of alternative means of regression modeling to better understand the relationship between the parameters of complexity and the human performance data. We first opted for a robust regression analysis to increase the efficiency of the regression models, using a method to reduce the sensitivity of candidate regression models to influential observations. A second analysis eliminated the within-treatment source of variance in order to focus exclusively on between-treatment effects. A final analysis used nonlinear and non-parametric models to relax the regression modeling assumptions, using machine learning methods. It was found that the robust regression approach produced substantially lower error values, combined with high measures of the variance explained for the human performance data. While the machine learning methods produced marginally more efficient models of regression for the same candidate models of objective measures of complexity, the combination of the nonlinear and non-parametric methods with the restricted between-treatment dataset yielded the best results of all of the modeling and analyses endeavors. A final section presents a research program designed to explore the parameter space of objective measures of complexity in more breadth and depth, so as to weight which combinations of the characteristics of complex decision problems are determinant factors on human performance. The discussions about the experimental approach to DDM, the experimental results relative to the regression models, and the investigation of further means to reduce the variance component underlying the discrepancy between the observations and the model predictions all suggest that establishing objective measures of complexity for human performance in dynamic decision-making scenarios is a viable approach to furthering our understanding of a decision maker’s comprehension and control of complex decision problems.
180

Modelling and verifying land-use regulations comprising 3D components to detect spatio-semantic conflicts

Emamgholian, Saeid 22 November 2022 (has links)
L'utilisation du territoire est régie par différents mécanismes que nous pourrions nommer géorèglementations comme par exemples les plans d'urbanisme, les permis de construire ou le zonage. La géorèglementation, en anglais, on parle de Land-use Regulation (LuR), permet d'imposer ou d'influencer l'utilisation d'un territoire dans le but d'atteindre des objectifs de politique publique. Qu'on le veule ou pas, la géorèglementation est nécessaire car elle permet de consolider une saine gestion des ressources, elle aide à la conservation et au développement du territoire, elle fournit un cadre législatif important pour assurer la sécurité et le bon fonctionnement pour l'accès et l'utilisation harmonieuse du territoire. La géorèglementation s'applique donc sur un territoire, où les composantes spatiales, comme la géométrie des éléments, sont primordiales. Il faudra par exemple tenir compte des marges de recul (donc distance) lors de la construction d'une maison, d'une superficie maximale de construction, etc. Ces composantes spatiales du territoire et son occupation peuvent également faire intervenir la 3e dimension comme la profondeur, la hauteur ou encore le volume. La pratique et la littérature montrent que la géorèglementation est actuellement principalement décrite dans des documents de planification et des lignes directrices, dont certains peuvent inclure une représentation spatiale en 2D (i.e. des cartes). On retrouve parfois de coupes transversales en 2D pour représenter l'étendue 2D/3D des LuRs. Cette manière de travailler à partir de document manuscrit et de plans 2D présente des lacunes importantes. Elle limite la possibilité d'avoir une compréhension complète et adéquate de l'étendue 3D des LuRs et donc dans la prise de décision, comme par exemple, la détection de conflits potentiels dans la délivrance de permis de construire ou d'aménagement. De plus, l'application et donc la validation de ces géorèglementations à partir de documents descriptifs prend du temps et laisse place à la subjectivité, ce qui peut conduire à de mauvaises décisions. Les autorités en matière de planification territoriale devraient avoir accès à toutes les informations et à toutes les représentations spatiales requises pour évaluer les LuRs et détecter les conflits potentiels. Force est de constater, que ce n'est pas le cas actuellement, et que même si des modèles 3D de bâtiments (BIM) ou de ville (CityGML) ont vu le jour, ils ne sont pas intégrés dans ces processus de géorèglementation. Cette recherche doctorale est dédiée à la conception et au développement d'un cadre de référence pour la modélisation géométrique 3D des LuRs, leur intégration dans le contexte des modèles de ville 3D et la détection automatique des conflits spatio-sémantiques potentiels lors de la validation des LuRs. Ce cadre de référence vise donc à soutenir les autorités en matière d'application de géorèglementations. La recherche se décline en cinq sous-objectifs soit 1) proposer un inventaire des différents LuRs 3D en précisant leurs composantes 3D/verticales, 2) proposer une classification fonctionnelle basée sur l'ampleur des conflits potentiels des LuRs 3D pour soutenir la prise de décision des autorités, 3) modéliser les LuRs en 3D puis les combiner avec d'autres sources d'information (ex. BIM, CityGML et cartes de zonage), 4) détecter les conflits spatiaux et sémantiques potentiels qui pourraient survenir entre les LuRs modélisés et les objets physiques comme les éléments de construction et, 5) concevoir et développer une preuve de faisabilité. Parmi plus de 100 de géorèglementations 2D/3D passés en revue, 18 de géorèglementations 3D sont inventoriées et discutées en profondeur. Par la suite, pour chacune de ces géorèglementations, les informations et paramètres requis pour leur modélisation 3D automatique sont établis. L'approche proposée permet l'intégration de la modélisation 3D de ces géorèglementations à des modèles de villes et de bâtiments 3D (par exemple, BIM, CityGML et le zonage). Enfin, la thèse fournie un cadre procédurale pour vérifier automatiquement si les géorèglementations 3D viennent en conflit avec des éléments de bâtis planifiés. La preuve de faisabilité est un prototype Web basée sur une étude de cas axée sur le processus d'émission de permis de construire d'un bâtiment situé dans la ville de Melbourne, Victoria, Australie. Les géorèglementations 3D suivantes ont été modélisées et vérifiées : 1) limites de construction en hauteur, 2) exposition au soleil pour estimer l'efficacité énergétique du bâtiment, 3) limite des zones d'ombrage, 4) limites de l'impact sonore, 5) zonage de vue, 6) marges latérales et arrières, 7) marges de rue (côtés et frontaux), et 8) limites d'inondation. / The use and developments of land are regulated by utilising different mechanisms called Land-use Regulation (LuR) in various forms such as planning activities, zoning codes, permit requirements, or subdivision controls of cities. LuR makes it possible to impose or influence the use and development of land in order to achieve public policy objectives. Indeed, LuR is essential since it allows the appropriate reinforcement of resource management, contributes to the land protection and development, and provides a tangible legal framework to ensure safety and proper functioning for the harmonious access and use of land. LuRs applies to land, where the spatial components, such as the geometry of the elements, are essential. For example, setback and height limits (i.e., the distance) or different floors' gross area should be considered when owners/developers propose a new construction on their property. These spatial components of the land, its occupied elements (e.g., building elements), or LuR itself can comprise the third dimension (i.e., depth, height, or even volume). Literature and related works show that LuR is currently mainly described in planning documents and guidelines, some of which may include 2D spatial representation (i.e., maps) or 2D cross-sections to represent the LuRs' 2D/3D extent. This method (i.e., working on textual documents and 2D plans) has significant shortcomings in understanding the LuRs' 3D extent and in decision-making (e.g., detecting potential conflicts in issuing planning/building permits). Moreover, checking LuRs' descriptions inside the textual documents is time-consuming, and subjective which might lead to erroneous decisions. Planning authorities need to have access to all information and the spatial representation that is required to assess LuRs and detect their potential conflicts. Clearly, it is generally lacking and even if 3D models of buildings (e.g., BIM designs) or cities (e.g., CityGML) have emerged, they do not incorporate the concept of LuRs. This Ph.D. research follows qualitative engineering type of method that generally aims to propose a conceptual framework for modelling 3D LuRs geometrically as part of 3D city models and formalising geometric and semantic requirements for detecting LuRs' potential conflicts automatically to support planning authorities in the statuary planning phase. To achieve the general objective, five specific objectives are defined as: 1) to formulate an inventory of various 3D LuRs specifying their 3D/vertical components, 2) to propose a functional classification based on the magnitude of 3D LuRs' potential conflicts for supporting planning authorities' decision-making goals, 3) to model LuRs in 3D and then combine them with other sources of information (e.g., BIM, city models, and zoning maps), 4) to automate the detection of potential spatio-semantic conflicts that might arise between the modelled LuRs and physical objects like building elements, and 5) to design and develop proof of feasibility for modelling and verifying 3D LuRs automatically. Among more than one hundred 2D/3D reviewed LuRs, eighteen 3D LuRs are inventoried and discussed thoroughly. For each of these LuRs, the research work identifies and proposes the required information (as level of information need) by considering both geometries and semantics to combine modelled LuRs with other sources of information (e.g., BIM, CityGML, and planning maps). Finally, the thesis proposes the level of information need considering requirements to verify 3D LuRs automatically for detecting potential conflicts using analytical rules (e.g., clash detection). The proof of feasibility is a web-based prototype based on a case study located in the City of Melbourne (where planning activities are under the control of authorities in the state of Victoria, Australia) focusing on the planning permit process. The following 3D LuRs were modelled and verified: 1) building height limits, 2) energy efficiency protection, 3) overshadowing open space, 4) noise impacts, 5) overlooking, 6) side and rear setbacks, 7) street setbacks (side and front), and 8) flooding limits.

Page generated in 0.0447 seconds