• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 587
  • 185
  • 3
  • Tagged with
  • 777
  • 777
  • 489
  • 237
  • 106
  • 100
  • 97
  • 91
  • 90
  • 85
  • 83
  • 78
  • 73
  • 63
  • 62
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
391

Network-based approaches for case-control studies diagnostic/investigations

Normand, Francis 13 June 2022 (has links)
Le présent document offre un survol de différentes méthodes employant une approche réseau afin d'identifier des anomalies au sein de réseaux cérébraux associés à un diagnostic dans le cadre d'études cas-témoins. Le cadre opérationnel employé compare les réseaux cérébraux d'individus portant un certain diagnostic associé à une condition du cerveau (cas) avec les réseaux cérébraux d'individus en "santé" (témoins). Chaque patient est représenté par un seul réseau cérébral. Les méthodes réseaux discutées peuvent opérer sur certaines propriétés observables dans les réseaux cérébraux. Le choix des propriétés à investiguer devrait être guidé par des hypothèses et des connaissances actuelles des moyens de communications dans le cerveau. À cet effet, une revue de quelques mesures possibles, et les raisons pour lesquelles celles-ci pourraient être pertinentes dans un contexte de réseaux cérébraux est donnée. Quatre méthodes seront présentées, soit le Permutation Network Framework (PNF), ANOVA, le contrast-subgraph et le Network-based statistic (NBS). Par ailleurs, une extension au NBS, appelée NBS-SNI (NBS-simultaneous node investigation) est proposée. Des résultats employant NBS et NBS-SNI appliqués à des données fonctionnelle associées à des études cas-témoins (ABIDE I (autisme), ADHD200 (trouble du déficit de l'attention et hyperactivité), une étude sur la schizophrénie et d'autres) seront présentés. En outre, les différences identifiées avec ces méthodes seront également employé avec NBS-predict afin de réaliser des prédictions (diagnostics) sur des réseaux cérébraux individuels. Entre autres, des performances de prédiction de 70% et 66% ont été obtenues sur l'entièreté des données provenant de ABIDE I et de l'étude ADHD200, respectivement. Les résultats obtenus sur les données ABIDE I ont été analysés plus en profondeur et comparés à ceux d'autres études. Les attributs employés contribuant le plus aux prédictions se révèlent sous forme de sous-réseaux plus fortement/faiblement connectés chez les individus atteints par la condition. Certaines caractéristiques retrouvées dans ces sous-réseaux semblent être cohérentes avec des résultats rapportés précédemment obtenus sur les mêmes données, ou portant sur le spectre l'autisme en général. Finalement, quelques opinions à propos de l'utilisation d'un formalisme réseaux en neuroscience sont offertes, ainsi que des directions et modifications possibles pour l'extension NBS-SNI dans le futur. / This document offers an overview of different methods employing a network-based approach to identify abnormalities in brain networks associated with a certain diagnostic in typical case-control studies. In these methods, networks associated to patients with a condition are compared against healthy control brain networks. Every patient is represented by a single brain network. The methods discussed operate on some property observed on these brain networks. The choice of a property to measure should be meaningful and related to the (thought to be) means of communication in the brain. A review of a few of these possible measurable properties such as centrality measures is included. Four known methods will be presented, namely, a Permutation Network Framework (PNF), the one-way ANOVA, contrast-subgraph and the Network-based statistic (NBS). In addition, a modification/extension to the NBS called the NBS-SNI (NBS-Simultaneous Node Investigation) will be proposed. Some results obtained using the NBS and the novel NBS-SNI methods on various functional datasets associated to case-control studies (such as ADHD200 (attention deficit hyperactivity disorder), ABIDE I (autism), a schizophrenia study and others) will be presented. Moreover, the differences identified between the two groups of brain networks (condition and control) will also be used to make predictions/diagnosis of individuals using NBS-predict (a prediction extension of NBS). For example, prediction accuracies of 70% and 66% were obtained on the complete ABIDE I and ADHD200 datasets, respectively. Also, the results obtained on the complete ABIDE I dataset were further investigated and compared with other work. The features, which manifest in the condition group as hyperconnected or hypoconnected subnetworks that contributed the most to the prediction performance yielded by NBS-predict were extracted. Some characteristics of these subnetworks seemed to be coherent with previously reported findings on the same dataset/condition. Finally, considerations about using network neuroscience in the context of case-control studies are given, along with future outlooks for the proposed NBS-SNI method.
392

Generalized Lorenz-Mie theory : application to scattering and resonances of photonic complexes

Gagnon, Denis 20 April 2018 (has links)
Les structures photoniques complexes permettent de façonner la propagation lumineuse à l’échelle de la longueur d’onde au moyen de processus de diffusion et d’interférence. Cette fonctionnalité à l’échelle nanoscopique ouvre la voie à de multiples applications, allant des communications optiques aux biosenseurs. Cette thèse porte principalement sur la modélisation numérique de structures photoniques complexes constituées d’arrangements bidimensionnels de cylindres diélectriques. Deux applications sont privilégiées, soit la conception de dispositifs basés sur des cristaux photoniques pour la manipulation de faisceaux, de même que la réalisation de sources lasers compactes basées sur des molécules photoniques. Ces structures optiques peuvent être analysées au moyen de la théorie de Lorenz-Mie généralisée, une méthode numérique permettant d’exploiter la symétrie cylindrique des diffuseurs sous-jacents. Cette dissertation débute par une description de la théorie de Lorenz-Mie généralisée, obtenue des équations de Maxwell de l’électromagnétisme. D’autres outils théoriques utiles sont également présentés, soit une nouvelle formulation des équations de Maxwell-Bloch pour la modélisation de milieux actifs appelée SALT (steady state ab initio laser theory). Une description sommaire des algorithmes d’optimisation dits métaheuristiques conclut le matériel introductif de la thèse. Nous présentons ensuite la conception et l’optimisation de dispositifs intégrés permettant la génération de faisceaux d’amplitude, de phase et de degré de polarisation contrôlés. Le problème d’optimisation combinatoire associé est solutionné numériquement au moyen de deux métaheuristiques, l’algorithme génétique et la recherche tabou. Une étude théorique des propriétés de micro-lasers basés sur des molécules photoniques – constituées d’un arrangement simple de cylindres actifs – est finalement présentée. En combinant la théorie de Lorenz-Mie et SALT, nous démontrons que les propriétés physiques de ces lasers, plus spécifiquement leur seuil, leur spectre et leur profil d’émission, peuvent être affectés de façon nontriviale par les paramètres du milieu actif sous-jacent. Cette conclusion est hors d’atteinte de l’approche établie qui consiste à calculer les étatsméta-stables de l’équation de Helmholtz et leur facteur de qualité. Une perspective sur la modélisation de milieux photoniques désordonnés conclut cette dissertation. / Complex photonic media mold the flow of light at the wavelength scale using multiple scattering and interference effects. This functionality at the nano-scale level paves the way for various applications, ranging from optical communications to biosensing. This thesis is mainly concerned with the numerical modeling of photonic complexes based on twodimensional arrays of cylindrical scatterers. Two applications are considered, namely the use of photonic-crystal-like devices for the design of integrated beam shaping elements, as well as active photonic molecules for the realization of compact laser sources. These photonic structures can be readily analyzed using the 2D Generalized Lorenz-Mie theory (2D-GLMT), a numerical scheme which exploits the symmetry of the underlying cylindrical structures. We begin this thesis by presenting the electromagnetic theory behind 2D-GLMT.Other useful frameworks are also presented, including a recently formulated stationary version of theMaxwell-Bloch equations called steady-state ab initio laser theory (SALT).Metaheuristics, optimization algorithms based on empirical rules for exploring large solution spaces, are also discussed. After laying down the theoretical content, we proceed to the design and optimization of beam shaping devices based on engineered photonic-crystal-like structures. The combinatorial optimization problem associated to beam shaping is tackled using the genetic algorithm (GA) as well as tabu search (TS). Our results show the possibility to design integrated beam shapers tailored for the control of the amplitude, phase and polarization profile of the output beam. A theoretical and numerical study of the lasing characteristics of photonic molecules – composed of a few coupled optically active cylinders – is also presented. Using a combination of 2D-GLMT and SALT, it is shown that the physical properties of photonic molecule lasers, specifically their threshold, spectrum and emission profile, can be significantly affected by the underlying gain medium parameters. These findings are out of reach of the established approach of computing the meta-stable states of the Helmholtz equation and their quality factor. This dissertation is concluded with a research outlook concerning themodeling of disordered photonicmedia.
393

Gestion de l’entreposage d’une entreprise agricole : cartographie, modélisation et optimisation

Mourdi, Khaoula 01 June 2021 (has links)
Ce mémoire discute du problème de la gestion de l'entreposage dans le deuxième plus grand entrepôt d'une compagnie québécoise œuvrant dans le domaine agricole. L'entreposage fait face à une saisonnalité de la demande concentrée durant 3 à 4 mois de chaque année. Cette concentration de la demande cause des pertes au niveau de l'efficacité des opérations de stockage de l'entrepôt qui devient surchargé. En addition, les produits sont entreposés dans des emballages différents et sont quantifiés dans des unités différentes, ce qui rend le problème de la gestion de l'entreposage plus complexe. Afin d'analyser la situation et de résoudre le problème, on commence par déterminer la capacité de cet entrepôt. Ensuite, on analyse les besoins en entreposage en palette pour finalement proposer et résoudre un problème d'assignation des produits aux espaces d'entreposage (Storage Location Assignment Problem SLAP). L'élaboration de ce travail commence par une présentation de l'entreprise ainsi qu'une présentation détaillée de la problématique. Nous avons par la suite présenté une revue de littérature des articles traitant du problème étudié. On effectue ensuite une analyse détaillée et complète de la capacité théorique de l'entrepôt en étude. Cette étape est suivie par une présentation des étapes de l'évaluation des besoins d'entreposage en palettes. Ensuite, on propose le modèle pour résoudre le problème du Storage Location Assigement Problem ; ce modèle minimise les pertes d'espaces dans les palettiers, le nombre de palettes cachées sur le plancher et le nombre de palettes non assignées. On étudie la performance du modèle sous l'effet du changement de la concentration des produits, de la configuration de l'entrepôt, des types de palettes et des types d'alvéoles. On achève ce travail par une conclusion, des recommandations et des orientations futures du problème. / This master thesis discusses the problem of storage management in the second largest warehouse of a Quebec company working in the agricultural industry. Warehousing faces a seasonality of demand concentrated during 3 to 4 months of each year. This concentration of demand causes losses in the efficiency of warehouse storage operations, which become overloaded. In addition, the products are stored in different packages and are quantified in different units, which makes the warehouse management problem more complex. In order to analyze the situation and solve the problem, we start by determining the capacity of this warehouse. Then, we analyze the inventory needs and we finally propose and solve a problem of Storage Location Assignment Problem (SLAP). We start with a presentation of our industrial partner and a detailed presentation of the problem. We then present a literature review of the articles dealing with the studied problem. Next, a detailed and comprehensive analysis of the theoretical capacity of the warehouse under study is performed. This step is followed by the inventory needs analysis where the process of the pallet storage needs assessment is presented. Next, a mathematical model is proposed to solve the Storage Location Assignment Problem (SLAP); this model minimizes the loss of pallet space in the warehouse racks, the number of hidden pallets on the floor and the number of unassigned pallets. We study the performance of the model under changing product demand concentration, warehouse configuration, pallet types and product types. We end with a conclusion and future directions for this problem.
394

Optimisation d'échangeurs de chaleur : condenseur à calandre, réseau d'échangeurs de chaleur et production d'eau froide

Allen, Benoît 17 April 2018 (has links)
La présente étude porte sur l'optimisation de systèmes thermiques servant soit à récupérer de la chaleur ou à produire de la chaleur ou du froid. Essentiellement, le travail portera sur les condenseurs de type tubes et calandre, sur les réseaux d'échangeurs de chaleur ainsi que sur les systèmes de production d'eau froide. L'objectif ultime est de développer une méthode permettant de déterminer le design minimisant les coûts reliés à l'achat et à l'opération de ces systèmes thermiques. Pour atteindre cet objectif, on doit d'abord créer un modèle mathématique permettant de calculer les surfaces d'échanges requises et les puissances de pompage requises pour faire fonctionner un échangeur de chaleur. Basé sur des relations analytiques et empiriques, le modèle doit tenir compte des variables design considérées dans le problème, soit une dizaine de paramètres géométriques et le régime d'opération. Il s'agit d'identifier les valeurs à accorder à chacune de ces variables de design afin de faire le meilleur compromis entre la minimisation des surfaces d'échange de chaleur requises et la quantité d'énergie requise pour faire fonctionner les systèmes. Autrement dit, on cherche à minimiser le coût total, constitué du coût d'achat du matériel et des coûts d'opération. Une fois cette démarche réalisée pour le condenseur à tubes et calandre, on applique une méthode similaire pour optimiser une série d'échangeurs de chaleur dans le cas des réseaux d'échangeurs de chaleur et finalement pour un cycle de réfrigération composé de deux échangeurs, un condenseur et un évaporateur, ainsi qu'un compresseur. Étant donné le nombre important de variables de design considéré pour chacun de ces problèmes, le nombre total de design possible est trop élevé pour calculer le coût de chacun d'entre eux et choisir le meilleur. Cela serait trop coûteux en temps de calcul. C'est pourquoi nous ferons appel à l'utilisation d'algorithmes génétiques. Ces derniers nous permettront d'identifier avec une excellente probabilité le design optimal et ce, dans un laps de temps acceptable en pratique. La méthode est finalement validée grâce à des exemples d'application.
395

Design d'expérimentation interactif : aide à la compréhension de systèmes complexes

De Rainville, François-Michel 17 April 2018 (has links)
Ce mémoire propose des outils de design d'expérimentations ayant pour but d'aider un analyste dans son investigation d'un système complexe. Les méthodes présentées se divisent en trois groupes, l'exploration, l'optimisation et l'approximation. Les trois ensembles répondent chacun à un besoin particulier lors de l'analyse de système complexe. L'exploration permet de disperser uniformément une collection d'expériences dans l'espace des paramètres du problème. L'optimisation, pour sa part, donne la possibilité de trouver les combinaisons de paramètres optimales du problème. L'approximation, quant à elle, octroie la possibilité d'estimer le résultat de combinaisons de facteurs dont la réponse est inconnue ou difficile à obtenir. Mises ensemble, ces méthodes forment le design d'expérimentation interactif. Elles permettent à un analyste d'obtenir, par le biais de méthodes éprouvées, une information détaillée sur le système étudié.
396

Une approche pour supporter l'analyse qualitative des suites d'actions dans un environnement géographique virtuel et dynamique : l'analyse " What-if " comme exemple

Haddad, Hedi 16 April 2018 (has links)
Nous proposons une approche basée sur la géosimulation multi-agent et un outil d’aide à la décision pour supporter l’analyse « What-if » durant la planification des suites d’actions (plans) dans un environnement géographique dynamique. Nous présentons les caractéristiques du raisonnement « What-if » en tant 1) que simulation mentale 2) suivant un processus en trois étapes et 3) basé sur du raisonnement causal qualitatif. Nous soulignons les limites de la cognition humaine pour appliquer ce raisonnement dans le cadre de la planification des suites d’actions dans un environnement géographique dynamique et nous identifions les motivations de notre recherche. Ensuite, nous présentons notre approche basée sur la géosimulation multi-agent et nous identifions ses caractéristiques. Nous traitons en particulier trois problématiques majeures. La première problématique concerne la modélisation des phénomènes géographiques dynamiques. Nous soulignons les limites des approches existantes et nous présentons notre modèle basé sur le concept de situation spatio-temporelle que nous représentons en utilisant le formalisme de graphes conceptuels. En particulier, nous présentons comment nous avons défini ce concept en nous basant sur les archétypes cognitifs du linguiste J-P. Desclés. La deuxième problématique concerne la transformation des résultats d’une géosimulation multi-agent en une représentation qualitative exprimée en termes de situations spatio-temporelles. Nous présentons les étapes de traitement de données nécessaires pour effectuer cette transformation. La troisième problématique concerne l’inférence des relations causales entre des situations spatio-temporelles. En nous basant sur divers travaux traitant du raisonnement causal et de ses caractéristiques, nous proposons une solution basée sur des contraintes causales spatio-temporelles et de causalité pour établir des relations de causation entre des situations spatio-temporelles. Finalement, nous présentons MAGS-COA, une preuve de concept que nous avons implémentée pour évaluer l’adéquation de notre approche comme support à la résolution de problèmes réels. Ainsi, les principales contributions de notre travail sont: 1- Une approche basée sur la géosimulation multi-agent pour supporter l’analyse « What-if » des suites d’actions dans des environnements géographiques virtuels. 2- L’application d’un modèle issu de recherches en linguistique à un problème d’intérêt pour la recherche en raisonnement spatial. 3- Un modèle qualitatif basé sur les archétypes cognitifs pour modéliser des situations dynamiques dans un environnement géographique virtuel. 4- MAGS-COA, une plateforme de simulation et d’analyse qualitative des situations spatio-temporelles. 5- Un algorithme pour l’identification des relations causales entre des situations spatio-temporelles. / We propose an approach and a tool based on multi-agent geosimulation techniques in order to support courses of action’s (COAs) “What if” analysis in the context of dynamic geographical environments. We present the characteristics of “What if” thinking as a three-step mental simulation process based on qualitative causal reasoning. We stress humans’ cognition limits of such a process in dynamic geographical contexts and we introduce our research motivations. Then we present our multi-agent geosimulation-based approach and we identify its characteristics. We address next three main problems. The first problem concerns modeling of dynamic geographical phenomena. We stress the limits of existing models and we present our model which is based on the concept of spatio-temporal situations. Particularly, we explain how we define our spatio-temporal situations based on the concept of cognitive archetypes proposed by the linguist J-P. Desclés. The second problem consists in transforming the results of multi-agent geosimulations into a qualitative representation expressed in terms of spatio-temporal situations and represented using the conceptual graphs formalism. We present the different steps required for such a transformation. The third problem concerns causal reasoning about spatio-temporal situations. In order to address this problem, we were inspired by works of causal reasoning research community to identify the constraints that must hold to identify causal relationships between spatio-temporal situations. These constraints are 1) knowledge about causality, 2) temporal causal constraints and 3) spatial causal constraints. These constraints are used to infer causal relationships among the results of multi-agent geosimulations. Finally, we present MAGS-COA, a proof on concept that we implemented in order to evaluate the suitability of our approach as a support to real problem solving. The main contributions of this thesis are: 1- An approach based on multi-agent geosimulation to support COA’s “What if” analysis in the context of virtual geographic environments. 2- The application of a model proposed in the linguistic research community to a problem of interest to spatial reasoning research community. 3- A qualitative model based on cognitive archetypes to model spatio-temporal situations. 4- MAGS-COA, a platform of simulation and qualitative analysis of spatio-temporal situations. 5- An algorithm to identify causal relationships between spatio-temporal situations.
397

Les cycles électoraux au Canada : une question d'ordre?

Boucher-Lafleur, Véronique 24 September 2021 (has links)
Ce mémoire a pour objectif d'étudier les cycles électoraux au Canada. Le cadre théorique mobilisé pour cette recherche s'appuie sur deux théories de ce champ d'étude soit la théorie des élections de premier et de deuxième ordre ainsi que la théorie du contrepoids électoral (« electoral balancing »). Dans un système politique à multi-niveaux, ces deux théories postulent que les résultats électoraux des différents paliers électoraux sont en fait reliés entre eux. D'après ces théories, les élections nationales auraient plus d'importance pour les électeurs, ce pourquoi les résultats d'une élection régionale seraient en fait déterminés par des facteurs provenant à l'arène politique nationale. Au Canada, cela implique que les résultats d'une élection provinciale seraient alors influencés par l'élection fédérale précédente. Pour étudier ce phénomène, l'ensemble des résultats électoraux des élections générales fédérales et provinciales de 1988 jusqu'à aujourd'hui ont été compilé dans une base de données. Des régressions linéaires et polynomiales ont ensuite été réalisées en prenant les résultats fédéraux comme variable explicative et les résultats provinciaux comme variable expliquée dans un premier temps, puis en étudiant la relation inverse. Les résultats électoraux ont été divisés par province puis en cinq familles de partis politiques : libérale, conservatrice, travailliste, écologiste et régionaliste. Les résultats de cette recherche varient selon la province considérée : les élections fédérales ont parfois plus d'influence sur l'élection provinciale suivante dans certains cas alors que dans d'autres il s'agit de la relation inverse qui prévaut. Ce mémoire conclut également qu'il y a une dynamique de balancement entre le vote fédéral et provincial dans certaines provinces, mais il n'y a aucune tendance générale qui se dégage à l'échelle du Canada. Cette recherche apporte une contribution significative à la littérature sur les cycles électoraux au Canada. / This research project is studying electoral cycles in Canada. Two main theories from this field of research are mobilized in this paper. The first one is the theory of first and second order election and the second is the theory of electoral balancing. In a multi-level electoral system, these two theories suggest that electoral results from different electoral levels are related to each other. These theories assumed that national elections are more important to voters. Therefore, regional electoral results are explained by factors coming from the national electoral level. In Canada, this theory implies that provincial electoral results are influenced by the previous federal election. To study this phenomenon, all provincial and federal electoral results from 1988 until today were coded into a dataset. A first set of linear and polynomial regressions was performed using federal electoral results as the independent variable and provincial electoral results as the dependent variable. Then, another set of regressions was performed but to study the opposite relation. Electoral results were split by province and into five families of political parties: liberal, conservative, labor, ecologist, and regionalist. Results vary between provinces: federal elections have more influence on provincial results in some provinces while the opposite relation is more important in others. This paper also concludes that there is a dynamic of electoral balancing between federal and provincial results in certain provinces, but that no general tendency can be seen across Canada. This research project is a significant contribution to the literature on electoral cycles in Canada.
398

Application d'un modèle de transfert de masse et de chaleur au séchage à haute température : détermination expérimentale des paramètres du modèle et sa validation

Nabhani, Messaoud 13 April 2018 (has links)
L'objectif général de ce travail était d'appliquer un modèle de transfert de masse et de chaleur basé sur l'approche du potentiel hydrique au séchage à haute température. L'étude a comporté trois volets. Le premier volet a porté sur l'adaptation du modèle de transfert 2D existant pour le séchage à moyenne température et le séchage sous vide au séchage à haute température. Le deuxième volet, soit la partie principale de l'étude, a été consacré à la détermination expérimentale des paramètres du modèle de transfert à haute température. Le troisième volet a consisté à valider le nouveau modèle de transfert à l'aide de simulations et d'essais de séchage en laboratoire. La mesure des paramètres expérimentaux fut effectuée sur le bois d'aubier et de duramen d'épinette blanche (Picea glauca (Moench) Voss). Les paramètres mesurés furent les coefficients de transfert convectif de masse et de chaleur, la conductivité hydrique effective, le ratio flux de vapeur/flux total, la perméabilité intrinsèque du bois et sa perméabilité relative au gaz. D'autres paramètres comme la relation teneur en humidité-potentiel hydrique, la diffusivité effective de la vapeur dans le bois et la conductivité thermique furent tirés ou déduits de la littérature. Les essais de validation ont porté sur deux chargements de colombages de bois d'épinette blanche séchés à 105 et 115ʻC. Les résultats de ces essais ont été comparés aux résultats de simulation obtenus à partir du modèle de transfert à haute température implanté dans deux codes numériques différents, soit le code DRYTEK écrit en Fortran et le code DRYMEF écrit en C++. Les coefficients de transfert convectif de masse et de chaleur déterminés à des températures de 105 et 115ʻC et à une vitesse de l'air de 3 m/s demeurent constants aux teneurs en humidité moyennes au-dessus de 60% et diminuent graduellement par la suite. Il s'avère aussi que la position dans l'arbre (aubier vs duramen) a un effet important sur l'évaluation des coefficients de transfert convectif de masse et de chaleur. Il en est de même pour l'épaisseur des planches, particulièrement aux teneurs en humidité élevées. Les résultats démontrent également que les coefficients de transfert convectif de masse et de chaleur augmentent avec la température. Les mesures de la conductivité hydrique effective à 105 et 115ʻC démontrent que celle-ci est fortement affectée par la teneur en humidité du bois, la température et la direction structurale. La conductivité hydrique décroît avec la teneur en humidité du bois et augmente avec la température d'une façon exponentielle. Elle est plus élevée dans la direction longitudinale que dans les directions radiale et tangentielle. À une teneur en humidité et à une température données, aucune différence n'a été observée entre la conductivité hydrique effective de l'aubier et celle du duramen. Les résultats des mesures du ratio flux de vapeur/flux total ont montré que ce dernier est comparable à celui rapporté dans la littérature pour le séchage à moyenne température et qu'il est indépendant de la température et du type de bois (aubier vs duramen). Les résultats des mesures de perméabilité intrinsèque indiquent que la perméabilité longitudinale est d'au moins deux ordres de grandeur plus élevée que les perméabilités radiale et tangentielle. Le bois d'aubier est plus perméable que le bois du duramen, peu importe la direction structurale. Finalement, la comparaison des résultats des essais de validation aux résultats de simulation des deux codes utilisés indique que DRYTEK simule très bien la courbe moyenne de séchage à haute température, les profils de température ainsi que la pression au centre du bois. Les profils de teneur en humidité simulés semblent cependant trop plats. Malgré les quelques disparités observées, on peut conclure en la validité du modèle de transfert utilisé et de l'adaptation de DRYTEK pour le séchage à haute température par l'ajout de l'équation de pression. Il en est de même pour les valeurs expérimentales mesurées pour les paramètres de modélisation. Quant au code DRYMEF, il simule mieux les profils de teneur en humidité mais certains ajustements restent à faire pour améliorer la précision des résultats de simulation.
399

Optimisation à l'aide d'algorithmes génétiques d'un stratifié poreux soumis à un flux thermique en convection naturelle

Villemure, Charles 12 April 2018 (has links)
Cette étude traite de l'optimisation d'un échangeur de chaleur constitué d'une juxtaposition de différentes couches de matériaux poreux. Grâce à un réseau interne de pores, un fluide refroidissant est libre de circuler à travers l'échangeur par convection naturelle. La problématique consiste à déterminer la distribution optimale de porosité et l'ordonnancement idéal des matériaux de la série de couches qui minimisent la température maximale dans le refroidisseur. Au cours de cette analyse, la chaleur transmise au système émane d'une plaque chaude adjacente au stratifié. Le flux thermique est donc fixe sur cette frontière. Le champ de température et l'écoulement, déterminés selon les caractéristiques physiques et dimensionnelles du stratifié, sont calculés de manière numérique. Les équations de conservation de quantité de mouvement et d'énergie sont résolues par une méthode basée sur les volumes finis. Le processus d'optimisation se rattachant à la distribution de porosité et à l'assignation des matériaux dans le stratifié est réalisé à l'aide d'un algorithme génétique (AG). De plus, une composition optimale du système, correspondant à un minimum global, peut être atteinte sous certaines contraintes, s'exprimant notamment en matière de coût et de masse. Cette approche permet également de dimensionner l'échangeur, car l'AG a la capacité d'éliminer une portion du stratifié afin de répondre aux exigences demandées. / In order to meet modem engineering needs in terms of cooling Systems (e.g., cooling of electronics), porous structures (e.g. metallic foams) are regarded as an interesting alternative to fins due to their large surface of heat transfer per volume. In this paper, we investigate the optimal configuration of a porous medium structure in order to reduce its thermal resistance. The System studied represents a stacking of porous layers, in which a cooling fluid circulates, adjacent to a heat-generating surface. The flow within the staking is driven by natural convection. The objective of this work is to minimize the hot spot temperature of the system. The design variables are the porosities and materials of each layer. The thermal performance is evaluated with a CFD code based on the finite volume approach. The hot spot temperature minimization is pursued under global mass and cost constraints, with a genetic algorithm (GA). The GA determines the optimal porosities and solid material of each layer. Purthermore, the optimal total length of the stacking is indirectly determined by the GA as layers can be added or removed in order to improve the global performance and satisfy the constraints. The results of the present study reveal that an appropriate distribution of porosity and material benefits the minimization of the temperature in a layered porous medium.
400

A Bayesian approach to Hybrid Choice models

Alvarez Daziano, Ricardo 16 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2010-2011 / Les modèles microéconométriques de choix discrets ont pour but d’expliquer le processus du choix individuel des consommateurs parmi un ensemble limité et exhaustive d’options mutuellement exclusives. Les modèles dits de choix hybrides sont une généralisation des modèles de choix discrets standard, où des modèles indépendants plus sophistiqués sont considérés simultanément. Dans cette thèse des techniques d’estimation simultanée sont analysées et appliquées pour un modèle de choix hybride qui, sous la forme d’un système complexe d’équations structurelles généralisées, intègre à la fois des choix discrets et des variables latentes en tant que facteurs explicatifs des processus décisionnels. Ce qui motive l’étude de ce genre de modèles est que pour comprendre le processus du choix il faut incorporer des attitudes, des perceptions et des attributs qualitatifs à l’intérieur de modèles décisionnels économiques conventionnels, tout en prenant ce qui dit la recherche en sciences cognitives ainsi qu’en psychologie sociale. Quoique l’estimation du système d’équations d’un modèle de choix hybride requière l’évaluation d’intégrales multidimensionnelles complexes, on résoudre empiriquement ce problème en applicant la méthode du maximum de vraisemblance simulée. Ensuite on dérive une procédure d’échantillonnage de Gibbs pour l’estimation simultanée bayésienne du modèle qui offre des estimateurs convergents et efficaces. Ceci devient une méthode plus avantageuse comparativement aux méthodes classiques dans un cadre analytique avec un grand nombre de variables latentes. En effet, en vertu de l’approche bayésienne il suffit de considérer des régressions ordinaires pour les variables latentes. Par ailleurs, dériver les intervalles de confiance bayésiennes pour les parts de marché ainsi que pour des dispositions à payer devient trivial. De par sa grande géneralité, le modèle de choix hybride est capable de s’adapter à des situations pratiques. En particulier, la réponse des consommateurs suite à l’innovation technologique est analysée. Par exemple, on étudie les préférences pro-environnementales dans un modèle économique des décisions d’achat de véhicules verts selon lequel les consommateurs soucieux de l’environnement sont prêts à payer davantage pour des véhicules à faibles émissions, en dépit des inconvénients potentiels. En outre, en utilisant un noyau probit et des indicateurs dichotomiques on montre que des connaissances préalables ainsi que des attitudes positives envers l’adoption de nouvelles technologies favorisent l’adoption de la téléphonie IP. / Microeconometric discrete choice models aim to explain the process of individual choice by consumers among a mutually exclusive, exhaustive and finite group of alternatives. Hybrid choice models are a generalization of standard discrete choice models where independent expanded models are considered simultaneously. In my dissertation I analyze, implement, and apply simultaneous estimation techniques for a hybrid choice model that, in the form of a complex generalized structural equation model, simultaneously integrates discrete choice and latent explanatory variables, such as attitudes and qualitative attributes. The motivation behind hybrid choice models is that the key to understanding choice comes through incorporating attitudinal and perceptual data to conventional economic models of decision making, taking elements from cognitive science and social psychology. The Bayesian Gibbs sampler I derive for simultaneous estimation of hybrid choice models offers a consistent and efficient estimator that outperforms frequentist full information simulated maximum likelihood. Whereas the frequentist estimator becomes fairly complex in situations with a large choice set of interdependent alternatives with a large number of latent variables, the inclusion of latent variables in the Bayesian approach translates into adding independent ordinary regressions. I also find that when using the Bayesian estimates it is easier to consider behavioral uncertainty; in fact, I show that forecasting and deriving confidence intervals for willingness to pay measures is straightforward. Finally, I confirm the capacity of hybrid choice modeling to adapt to practical situations. In particular, I analyze consumer response to innovation. For instance, I incorporate proenvironmental preferences toward low-emission vehicles into an economic model of purchase behavior where environmentally-conscious consumers are willing to pay more for sustainable solutions despite potential drawbacks. In addition, using a probit kernel and dichotomous effect indicators I show that knowledge as well as a positive attitude toward the adoption of new technologies favor the adoption of IP telephony.

Page generated in 0.0529 seconds