Spelling suggestions: "subject:"modèles mathématiques"" "subject:"modèles athématiques""
371 |
Modélisation électrophysiologique et biochimique d'un neurone : CA1 cellule de l'hippocampeOsseni, Mazid Abiodoun 23 April 2018 (has links)
Ce mémoire présente une nouvelle approche pour la réalisation de modèles biophysiques de neurone. Dans un premier temps, nous avons développé un modèle électrique compartimental selon le formalisme de Hodgkin-Huxley avec le logiciel NEURON. En second lieu, nous avons procédé à la réalisation de la modélisation biochimique avec des systèmes d’équations différentielles représentant des réactions d’action de masse et des réactions enzymatiques. La modélisation biochimique se fait tant dans un modèle par compartiments avec des équations différentielles ordinaires que dans un modèle spatial avec des équations différentielles partielles. VCell nous a permis de réaliser ce type de modélisation. Le modèle hybride développé présente deux points de jonction entre les formalismes des modèles électrique et biochimique pris indépendemment. Au premier point de jonction, les courants calciques calculés avec les équations de type Hodgkin-Huxley sont convertis en concentration d’ions de calcium. Ce calcium est un messager secondaire pour de nombreuses voies de signalisation cellulaire. Une élévation de la concentration de calcium modifie la dynamique des réactions biochimiques. Le deuxième point de jonction est l’impact de l’activité de kinases sur les propriétés électriques de canaux ioniques. Par la phosphorylation, certaines kinases viennent moduler la réponse électrique du neurone. En intégrant tous ces effets biophysiques et biochimiques dans une même méthodologie de modélisation, nous pouvons modéliser des processus cellulaires complexes dans les neurones. Le cross-talk synaptique est un phénomène physiologique observé, qui consiste en une augmentation de l’excitabilité membranaire suite à l’interaction entre les signaux électrique et biochimique et une communication entre les épines dendritiques du neurone. Cette interaction représente un excellent cas d’étude pour développer et valider notre méthodologie. Cette méthodologie porte sur l’interaction entre le calcium, la MAPK et les canaux KV4.2. Le calcium vient activer la MAPK par l’intermédiaire de différentes molécules. La MAPK vient ensuite phosphoryler les canaux KV4.2 qui sont possiblement responsables d’une augmentation observée de l’excitabilité membranaire. / This master’s thesis presents a new modeling technique for biophysical models of individual neurons that integrates their electrical and biochemical behaviors. First of all, we developped an electrical compartmental model. This model is based on the Hodgkin-Huxley formalism and developped in NEURON, a modeling software tool for neuroscience. Then, we developped a biochemical model. This second model is a system of differential equations based on mass action reations and enzymatic reactions. We implemented two versions of this model, one as a compartmental model with ordinary differential equations (ODE) and the other as a spatial model with partial differential equations (PDE). We used the software tool VCell for the biochemical modeling. The hybrid model combining the electrical and biochemical behaviors has two connection points between the electrical and biochemical models. At the first junction, the calcium curents calculated by the Hodgkin-Huxley equations are converted into a concentration of calcium ions. This calcium is a secondary messenger for numerous cellular signaling pathways and a rise of the calcium concentration modifies the biochemical reaction dynamic. The second junction is the kinases activity on the ionic channel electrical properties. Through phosphorylation, the kinases modulate the electrical response of the neuron. By integrating all these biophysical and biochemical effects in the same methodology, we can build a complex cellular process models. The synaptic crosstalk is a physiological event which leads to a local increase of the membrane excitability that is due to the interaction between electrical and biochemical signals. This interaction represents an excellent case study for the development and the validation of our methodology. Our model includes the regulation of calcium, MAPK the channel KV4.2.
|
372 |
Gestion des eaux pluviales : qualité des eaux et contrôle en temps réelParé-Bourque, Marie 16 April 2018 (has links)
L'objectif de ce projet est d'intégrer le concept de gestion des eaux pluviales avec le contrôle en temps réel afin de réduire l'impact de ces eaux sur les cours d'eau urbains. Il s'agit d'effectuer la gestion des eaux pluviales d'un bassin versant typiquement urbain, en fonction des prévisions météorologiques, au niveau d'un bassin d'orage, muni d'une vanne à son exutoire, afin d'augmenter le temps de rétention des eaux et ainsi augmenter la sédimentation. Après modélisation de la qualité et quantité des eaux et l'élaboration de règles de contrôle, le contrôle en temps réel s'est avéré être une solution efficace afin d'augmenter la sédimentation des matières en suspension dans le bassin de rétention. Dans tous les cas étudiés, le bassin contrôlé offrait une efficacité de sédimentation supérieure à celle du bassin traditionnel contrôlé par un ouvrage statique, tel un orifice. Le contrôle en temps réel a démontré qu'il augmentait la sédimentation des particules fines, sur lesquelles la majorité des polluants s'adsorbent. La modélisation des matières en suspension, à l'entrée et à la sortie du bassin de rétention, a permis de démontrer l'efficacité de cette solution en quantifiant les charges à ces endroits. Dans tous les cas, la quantité de MES sédimentées était au moins 2 fois plus importante que la quantité sédimentée dans un bassin non-contrôlé. Dans les meilleurs cas, la quantité sédimentée a été de 10 à 25 fois plus importante avec le bassin contrôlé. Sur une période mensuelle, le bassin contrôlé a rejeté au maximum 14,78 kg des 650 kg de MES qui ont été lessivés dans tous les scénarios étudiés. Dans le cas de simulations estivales, des 3 000 kg de MES lessivés en moyenne par saison, pour tous les scénarios, un maximum de 16,59 kg a été rejeté au milieu récepteur. La solution proposée permet donc de réduire considérablement les charges en polluants rejetés, ce qui permet de croire que son intégration, dans la gestion des eaux pluviales, permettrait d'améliorer significativement la qualité des eaux des cours d'eau urbains.
|
373 |
The design of effective and robust supply chain networksKlibi, Walid 16 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2009-2010 / Pour faire face aux risques associés aux aléas des opérations normales et aux périls qui menacent les ressources d'un réseau logistique, une méthodologie générique pour le design de réseaux logistiques efficaces et robustes en univers incertain est développée dans cette thèse. Cette méthodologie a pour objectif de proposer une structure de réseau qui assure, de façon durable, la création de valeur pour l'entreprise pour faire face aux aléas et se prémunir contre les risques de ruptures catastrophiques. La méthodologie s'appuie sur le cadre de prise de décision distribué de Schneeweiss et l'approche de modélisation mathématique qui y est associée intègre des éléments de programmation stochastique, d'analyse de risque et de programmation robuste. Trois types d'événements sont définis pour caractériser l'environnement des réseaux logistiques: des événements aléatoires (ex. la demande, les coûts et les taux de changes), des événements hasardeux (ex. les grèves, les discontinuités d'approvisionnement des fournisseurs et les catastrophes naturelles) et des événements profondément incertains (ex. les actes de sabotage, les attentats et les instabilités politiques). La méthodologie considère que l'environnement futur de l'entreprise est anticipé à l'aide de scénarios, générés partiellement par une méthode Monte-Carlo. Cette méthode fait partie de l'approche de solution et permet de générer des replications d'échantillons de petites tailles et de grands échantillons. Elle aide aussi à tenir compte de l'attitude au risque du décideur. L'approche générique de solution du modèle s'appuie sur ces échantillons de scénarios pour générer des designs alternatifs et sur une approche multicritère pour l'évaluation de ces designs. Afin de valider les concepts méthodologiques introduits dans cette thèse, le problème hiérarchique de localisation d'entrepôts et de transport est modélisé comme un programme stochastique avec recours. Premièrement, un modèle incluant une demande aléatoire est utilisé pour valider en partie la modélisation mathématique du problème et étudier, à travers plusieurs anticipations approximatives, la solvabilité du modèle de design. Une approche de solution heuristique est proposée pour ce modèle afin de résoudre des problèmes de taille réelle. Deuxièmement, un modèle incluant les aléas et les périls est utilisé pour valider l'analyse de risque, les stratégies de resilience et l'approche de solution générique. Plusieurs construits mathématiques sont ajoutés au modèle de base afin de refléter différentes stratégies de resilience et proposer un modèle de décision sous risque incluant l'attitude du décideur face aux événements extrêmes. Les nombreuses expérimentations effectuées, avec les données d'un cas réaliste, nous ont permis de tester les concepts proposés dans cette thèse et d'élaborer une méthode de réduction de complexité pour le modèle générique de design sans compromettre la qualité des solutions associées. Les résultats obtenus par ces expérimentations ont pu confirmer la supériorité des designs obtenus en appliquant la méthodologie proposée en termes d'efficacité et de robustesse par rapport à des solutions produites par des approches déterministes ou des modèles simplifiés proposés dans la littérature.
|
374 |
Simulations numériques de l'écoulement turbulent dans un aspirateur de turbine hydrauliqueBeaubien, Carl-Anthony 19 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2013-2014. / Le présent mémoire a pour objectif d’améliorer la prédiction des phénomènes de perte dans les aspirateurs de turbines hydrauliques. Pour ce faire, l’écoulement dans un aspirateur caractérisé par une diminution abrupte du coefficient de récupération près du meilleur point de fonctionnement a été étudié. Une méthode avancée de modélisation de la turbulence, le DES, a été mise à l’essai, afin de déterminer les gains associés à une représentation plus fine des mouvements turbulents dans cette composante. Les requis méthodologiques liés à cette approche, notamment par rapport à la condition d’entrée, ont été explorés, dans le but de développer une meilleure expertise d’utilisation du DES. Il a été démontré que le profil de vitesse radiale imposé dans le plan d’entrée du domaine de calcul altère de façon significative l’écoulement en aval et les performances prédites. Avec le profil de vitesse radiale mesuré expérimentalement, l’allure de la courbe de performance de l’aspirateur a pu être assez bien reproduite avec l’approche de modélisation de la turbulence URANS. Toutefois, certains aspects des simulations ne concordent pas bien avec les mesures expérimentales, c’est notamment le cas de l’écart de débit entre les deux canaux de sortie. Il a été établi que les structures d’écoulement en rotation sous les aubes de la roue nécessitent une discrétisation spatiale et temporelle extrêmement fine pour éviter qu’elles se diffusent prématurément sous le plan d’entrée. Toutefois, au point d’opération considéré, leur influence sur les performances de l’aspirateur s’est avérée très faible. Les simulations DES et URANS de l’aspirateur où des conditions d’entrée axisymétriques ont été imposées ont prédit des performances similaires. Cependant, le DES permet de simuler une dynamique tourbillonnaire beaucoup plus riche, avec un maillage et un pas de temps similaire au URANS, tout en étant largement moins dépendant des quantités turbulentes modélisées imposées dans le plan d’entrée. / The work carried throughout this thesis has for objective to enhance losses predictions in hydraulic turbines draft tube. In order to acheive this, the flow in a draft tube charaterized by a sharp drop in the pressure recovery coefficient near the best efficiency point was studied. Detached Eddy Simulation (DES), an advanced turbulence modeling approach, was put to the test, in order to asses the gain attributable to a finer and more precise description of turbulent motions in this component. The numerical methods required associated to this approach, especially regarding the inlet boundary condition, were investigated. It was shown that the radial velocity profile specified at the inlet of the computational domain alters significantly the flow downstream and the predicted performance. With the measured radial velocity profile specified at the inlet of the draft tube, reasonnable agreement was found between URANS numerical results and experimental measurements of pressure recovery. However, some aspects of the numerical simulations does not agree well with experimental data. It is the case for flow imbalance between the two outlet bays. It was established that rotating flow structures underneath the runner blades require extremely fine grid and time step resolution to avoid their premature diffusion underneath the inlet plane. Nevertheless, at the studied operating point, their influence on draft tube performance was found to be very limited. DES and URANS simulations of the draft tube where axisymmetric inlet boundary conditions were imposed predicted similar pressure recovery. However, DES enables to simulate much more complex and rich turbulent motions, at a computational cost similar to the one of a URANS simulatation and with much less influence from the modeled turbulent quantities specified at the inlet plane.
|
375 |
Towards development of fuzzy spatial datacubes : fundamental concepts with example for multidimensional coastal erosion risk assessment and representationJadidi Mardkheh, Amaneh 20 April 2018 (has links)
Les systèmes actuels de base de données géodécisionnels (GeoBI) ne tiennent généralement pas compte de l'incertitude liée à l'imprécision et le flou des objets; ils supposent que les objets ont une sémantique, une géométrie et une temporalité bien définies et précises. Un exemple de cela est la représentation des zones à risque par des polygones avec des limites bien définies. Ces polygones sont créés en utilisant des agrégations d'un ensemble d'unités spatiales définies sur soit des intérêts des organismes responsables ou les divisions de recensement national. Malgré la variation spatio-temporelle des multiples critères impliqués dans l’analyse du risque, chaque polygone a une valeur unique de risque attribué de façon homogène sur l'étendue du territoire. En réalité, la valeur du risque change progressivement d'un polygone à l'autre. Le passage d'une zone à l'autre n'est donc pas bien représenté avec les modèles d’objets bien définis (crisp). Cette thèse propose des concepts fondamentaux pour le développement d'une approche combinant le paradigme GeoBI et le concept flou de considérer la présence de l’incertitude spatiale dans la représentation des zones à risque. En fin de compte, nous supposons cela devrait améliorer l’analyse du risque. Pour ce faire, un cadre conceptuel est développé pour créer un model conceptuel d’une base de donnée multidimensionnelle avec une application pour l’analyse du risque d’érosion côtier. Ensuite, une approche de la représentation des risques fondée sur la logique floue est développée pour traiter l'incertitude spatiale inhérente liée à l'imprécision et le flou des objets. Pour cela, les fonctions d'appartenance floues sont définies en basant sur l’indice de vulnérabilité qui est un composant important du risque. Au lieu de déterminer les limites bien définies entre les zones à risque, l'approche proposée permet une transition en douceur d'une zone à une autre. Les valeurs d'appartenance de plusieurs indicateurs sont ensuite agrégées basées sur la formule des risques et les règles SI-ALORS de la logique floue pour représenter les zones à risque. Ensuite, les éléments clés d'un cube de données spatiales floues sont formalisés en combinant la théorie des ensembles flous et le paradigme de GeoBI. En plus, certains opérateurs d'agrégation spatiale floue sont présentés. En résumé, la principale contribution de cette thèse se réfère de la combinaison de la théorie des ensembles flous et le paradigme de GeoBI. Cela permet l’extraction de connaissances plus compréhensibles et appropriées avec le raisonnement humain à partir de données spatiales et non-spatiales. Pour ce faire, un cadre conceptuel a été proposé sur la base de paradigme GéoBI afin de développer un cube de données spatiale floue dans le system de Spatial Online Analytical Processing (SOLAP) pour évaluer le risque de l'érosion côtière. Cela nécessite d'abord d'élaborer un cadre pour concevoir le modèle conceptuel basé sur les paramètres de risque, d'autre part, de mettre en œuvre l’objet spatial flou dans une base de données spatiales multidimensionnelle, puis l'agrégation des objets spatiaux flous pour envisager à la représentation multi-échelle des zones à risque. Pour valider l'approche proposée, elle est appliquée à la région Perce (Est du Québec, Canada) comme une étude de cas. / Current Geospatial Business Intelligence (GeoBI) systems typically do not take into account the uncertainty related to vagueness and fuzziness of objects; they assume that the objects have well-defined and exact semantics, geometry, and temporality. Representation of fuzzy zones by polygons with well-defined boundaries is an example of such approximation. This thesis uses an application in Coastal Erosion Risk Analysis (CERA) to illustrate the problems. CERA polygons are created using aggregations of a set of spatial units defined by either the stakeholders’ interests or national census divisions. Despite spatiotemporal variation of the multiple criteria involved in estimating the extent of coastal erosion risk, each polygon typically has a unique value of risk attributed homogeneously across its spatial extent. In reality, risk value changes gradually within polygons and when going from one polygon to another. Therefore, the transition from one zone to another is not properly represented with crisp object models. The main objective of the present thesis is to develop a new approach combining GeoBI paradigm and fuzzy concept to consider the presence of the spatial uncertainty in the representation of risk zones. Ultimately, we assume this should improve coastal erosion risk assessment. To do so, a comprehensive GeoBI-based conceptual framework is developed with an application for Coastal Erosion Risk Assessment (CERA). Then, a fuzzy-based risk representation approach is developed to handle the inherent spatial uncertainty related to vagueness and fuzziness of objects. Fuzzy membership functions are defined by an expert-based vulnerability index. Instead of determining well-defined boundaries between risk zones, the proposed approach permits a smooth transition from one zone to another. The membership values of multiple indicators (e.g. slop and elevation of region under study, infrastructures, houses, hydrology network and so on) are then aggregated based on risk formula and Fuzzy IF-THEN rules to represent risk zones. Also, the key elements of a fuzzy spatial datacube are formally defined by combining fuzzy set theory and GeoBI paradigm. In this regard, some operators of fuzzy spatial aggregation are also formally defined. The main contribution of this study is combining fuzzy set theory and GeoBI. This makes spatial knowledge discovery more understandable with human reasoning and perception. Hence, an analytical conceptual framework was proposed based on GeoBI paradigm to develop a fuzzy spatial datacube within Spatial Online Analytical Processing (SOLAP) to assess coastal erosion risk. This necessitates developing a framework to design a conceptual model based on risk parameters, implementing fuzzy spatial objects in a spatial multi-dimensional database, and aggregating fuzzy spatial objects to deal with multi-scale representation of risk zones. To validate the proposed approach, it is applied to Perce region (Eastern Quebec, Canada) as a case study.
|
376 |
Multi-agent geo-simulation of crowds and control forces in conflict situations : models, application and analysisLarochelle, Benoît 16 April 2018 (has links)
Peu de modèles et de simulations qui décrivent les comportements de foule en situations de conflit impliquant des forces de l’ordre et des armes non-létales (NLW) existent. Ce mémoire présente des modèles d’agents de la foule et des forces de l’ordre ainsi que des NLWs dans des situations de conflit. Des groupes ainsi que leurs interactions et actions collectives sont explicitement modélisés, ce qui repousse les approches de simulation de foule existantes. Les agents sont caractérisés par des profils d’appréciation de l’agressivité et ils peuvent changer leurs comportements en relation avec la Théorie de l’identité sociale. Un logiciel a été développé et les modèles ont été calibrés avec des scénarios réalistes. Il a démontré la faisabilité technique de modèles sociaux aussi complexes pour des foules de centaines d’agents, en plus de générer des données pour évaluer l’efficacité des techniques d’intervention. / Few models and simulations that describe crowd behaviour in conflict situations involving control forces and non-lethal weapons (NLW) exist. This thesis presents models for crowd agents, control forces, and NLWs in crowd control situations. Groups as well as their interactions and collective actions are explicitly modelled, which pushes further currently existing crowd simulation approaches. Agents are characterized by appreciation of aggressiveness profiles and they can change their behaviours in relation with the Social Identity theory. A software application was developed and the models were calibrated with realistic scenarios. It demonstrated the technical feasibility of such complex social models for crowds of hundreds of agents, as well generating data to assess the efficiency of intervention techniques.
|
377 |
Approches de résolution en deux phases pour le problème de tournées de véhicules en région sinistréeGhoudi, Samir 19 April 2018 (has links)
Le présent mémoire traite du problème de distribution de l’aide humanitaire en région sinistrée. L’objectif est de distribuer l’aide humanitaire à des zones sinistrées à partir d’un ensemble de centres de distribution via une flotte de véhicules hétérogène. Étant donné le contexte particulier d’urgence, la distribution est planifiée pour satisfaire la demande des zones touchées pour chaque type d’aide humanitaire dans les plus brefs délais, tout en tenant compte à la fois de la durée de déplacement et de la durée de chargement et de déchargement. Dans ce mémoire, nous proposons une approche itérative à deux phases afin d’améliorer la qualité de la solution obtenue par une approche heuristique déjà proposée par Berkoune et al. (2011). Des séries d’expérimentations basées sur des problèmes tests ont été effectuées pour évaluer la qualité de la solution obtenue avec l’algorithme développé. La synthèse des résultats obtenus a démontré que l’approche développée permet de résoudre à l’optimalité des problèmes de taille réduite en évitant d’énumérer de façon exhaustive toutes les combinaisons possibles. Une évaluation du choix de la condition d’arrêt ainsi que trois variantes de l’algorithme développé ont été également proposées. Les résultats obtenus nous ont menés à conclure que lorsque la taille du problème devient importante, les améliorations proposées présenteraient une bonne alternative pour réduire le temps total de calcul et raffiner la qualité de la solution obtenue. Mots clés : Logistique humanitaire, tournées de véhicules, livraison partagée, modélisation mathématique et heuristiques. / This thesis addresses the problem of distribution of humanitarian aid in disaster areas. The objective is to deliver humanitarian aid to the affected areas from a set of distribution centers, by using a fleet of heterogeneous vehicles. Given the particular emergency situation, the distribution is planned to meet the demand of affected areas for each type of humanitarian aid in the shortest possible time, taking into account both the travel and products loading and unloading times. In this thesis, we propose a two-phase solution approach in order to improve the quality of the solution obtained using the heuristic approach previously proposed by Berkoune et al. (2011). A series of experiments are run to assess the quality of the solutions obtained with the developed algorithm. The obtained results showed that the developed approach can solve the problem to optimality for the majority of the instances, avoiding an exhaustive enumeration of all possible combinations. An evaluation of the choice of stopping condition and three Variants of the developed algorithm are also proposed. The obtained results show that when the problem size becomes large, the proposed improvements provide a good alternative to reduce the total computation time and improve the quality of the obtained solution. Keywords: Emergency logistics, vehicle routing, split delivery, mathematical modeling and heuristics.
|
378 |
Évaluation de la validité et de la fiabilité des indices de contrôle parlementaireMoutangou, N'Tcha Judicaël 27 July 2024 (has links)
Dans cet essai, nous testons la validité et la fiabilité des indicateurs de performance du contrôle parlementaire. Par validité nous nous référons à la validité de contenu, à la validité de construit et à la validité manifeste. La fiabilité porte sur la cohérence interne et la consistance. En employant à la fois une analyse qualitative et une analyse quantitative, nous montrons que, dans l’analyse qualitative, chacun des indices sélectionnés mesure un phénomène précis qui est différent du cadre référentiel proposé par l’UIP. Ce cadre n’évalue que l’autonomie et l’influence du parlement sur l’exécutif alors que l’IPA évalue le contrôle et la surveillance budgétaire, le PPI examine les différents pouvoirs des parlements sur l’exécutif, l’indice de Wehner capte la capacité du contrôle législatif sur les budgets et l’indice d’Imbeau-Stapenhurst évalue les processus, les capacités et les méthodes de travail des parlements dans le contrôle budgétaire. Bien que ces indices appréhendent différents phénomènes nous avons utilisé aussi l’analyse quantitative pour vérifier leur validité et leur fiabilité. Les résultats montrent que pour les indices dont nous avons pu obtenir les données, ceux-ci sont partiellement valides. Il existe des items corrélés qui peuvent être éliminés dans le calcul de ces indices. Par contre, en ce qui concerne la fiabilité, ces indices affichent une bonne cohérence interne, mais la consistance ou la fiabilité inter-juge est faible. Nous suggérons aux constructeurs d’indices de toujours procéder à la vérification de leur fiabilité et de leur validité. / In this essay, we test the validity and reliability of parliamentary control performance indicators. By validity, we refer to construct validity, content validity and face validity. Reliability lays on consistency and intern coherency. Both using qualitative and quantitative analysis, we show that in qualitative aspect, each index selected measures an accuracy phenomenal which is different from proposal framework of Inter Parliamentary Union. This framework accesses the autonomy and parliament influent of executive, where as African Parliamentary Index captures control and overseeing of budget process. The Parliamentary Powers Index examines different powers of parliament on government. Wehner Index accesses the capacity of legislature control on budgets Imbeau-Stapenhurst Index measures the process, the capacity and work methods of parliaments in budgetary control. Although those index apprehend different phenomenal, we also use quantitative analysis to verify the validity and relialibility. The results show that is exist some correlation items which can be eliminate from the index calculation. Concerning reliability, those index hold solid intern coherence, but consistency is lower. We suggest the index constructor to verify items correlation before pulling those items.
|
379 |
Étude sur la relation compétition-densité de l'épinette noire au QuébecTiedemann, Florian 20 April 2018 (has links)
Un modèle intégrant des guides de gestion de la densité décrit l'«effet de compétition-densité» étant l'effet négatif du nombre d'arbres (densité) sur le volume moyen V . Pour les peuplements naturels d'épinette noire (Picea mariana (Mill.) BSP) au Québec, Tremblay et collab. (2000) constatent que le modèle simple d'Ando (1968) manque de précision. L'ajout du coefficient de distribution, défini comme le taux d'occupation des cellules subdivisant une placette échantillon en autant de cellules qu'il s'y trouvent d'arbres, a significativement amélioré un modèle simplifié de l'effet de compétition-densité (critère d'information d'Akaike) pour 63 placettes échantillons situées dans les régions Saguenay{Lac-St-Jean et Côte-Nord. Un faible CD, indicateur d'une dispersion spatiale en bouquets des arbres, a un effet négatif sur le V . En utilisant 8197 placettes échantillons du ministère des Ressources naturelles, nous avons significativement amélioré (critère d'information bayesien) le modèle simple d'Ando (1968) par l'ajout simultané de (1.a) l'indicateur de distribution diamétrale «RD4», qui est le rapport entre le diamètre moyen quadratique et le diamètre dominant, (1.b) W, qui est de 1 dans les sous-domaines bioclimatiques de l'ouest, et de 0 dans ceux de l'est et (1.c) RE2, qui est de 1 pour la végétation potentielle RE2 et de 0 pour l'autre végétation potentielle (RE3). Avec une racine d'erreur quadratique moyenne (RMSE) de 1,055 et un coeffiction de déterminantion (R2) de 0,936, nous avons obtenu une véritable amélioration de la précision du modèle réduit (RMSE = 1; 369 et R2 = 0; 787), tout en n'utilisant que des variables qui sont à la fois faciles à mesurer sur le terrain et qui se prêtent bien, en plus, à être utilisees dans les autres modèles composants d'un guide de gestion de la densité. Le modèle complétée par (2) la classe de pourcentage de couverture est également significativement meilleur (critère d'information bayesien) et plus précis (RMSE = 1; 303 et R2 = 0; 81) que le modèle réduit.
|
380 |
A SCOR-based process modelling approach for green performance evaluation of forestry systemsNtabe, Eric Ngbanye 10 February 2024 (has links)
No description available.
|
Page generated in 0.123 seconds