• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 294
  • 81
  • 18
  • 3
  • Tagged with
  • 408
  • 100
  • 94
  • 89
  • 82
  • 50
  • 49
  • 49
  • 45
  • 38
  • 38
  • 36
  • 35
  • 35
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
291

Détermination de l'incertitude associée à la détection de l'effet des changements climatiques sur le rendement des strates d'épinette noire de la forêt boréale

Coulombe, Sébastien 16 April 2018 (has links)
L'effet des changements climatiques, par le biais d'un modèle éco-physiologique, a été introduit dans des courbes de rendement des strates d'épinette noire en respectant les principes de stratification utilisés lors d'un calcul de possibilité forestière. Un exercice de propagation de l'incertitude été fait afin de déterminer la capacité à observer une différence significative entre les prédictions faites à partir des courbes de croissance sous les changements climatiques et celles actuellement utilisées. Cet exercice a permis de voir qu'il est probable à 67% d'être en mesure de détecter l'effet des changements climatiques. Par contre, un doute subsiste étant donné les multiples sources d'erreur non-considérées. Les gestionnaires de la forêt devront considérer leur degré de confort avec ce niveau de risque afin de déterminer ce qui devra être fait par la suite, à savoir améliorer la méthodologie actuelle ou changer l'actuelle approche du rendement soutenu.
292

Investissement en capital humain et incidence des crimes à col blanc

Gendron, Marc 12 April 2018 (has links)
Quelles sont les institutions qui permettent à l'accumulation du capital humain de jouer pleinement son rôle de catalyseur du développement économique ? Dans la littérature économique, l'investissement public de l'éducation, qui favorise l'acquisition du capital humain, a pour effet d'augmenter la productivité d'Un pays. Une institution très importante dans les pays en développement serait donc l'éducation publique à accès universel. Cependant, le capital humain représente aussi un facteur important dans l'émergence des crimes à col blanc, un phénomène perçu comme néfaste au développement économique, parce qu'il a tendance à réduire la productivité du travail. Par conséquent, le présent travail a pour objectif d'explorer le contexte dans lequel l'investissement public en éducation peut effectivement jouer son rôle de catalyseur du développement. L'analyse de cette question se fait à l'aide d'un modèle d'équilibre général s'étalant sur deux périodes et dans lequel les agents sont homogènes en tout point, à l'exception de leur niveau de dotation initial. À la première période, ceux-ci choisissent quel niveau de dotation initial consacrer à la consommation ainsi qu'à l'éducation. À la seconde période, compte tenu de leur niveau d'éducation acquis à la première période, chaque agent gagne un revenu dans le secteur légitime et peut aussi tirer un revenu du secteur criminel, si leur niveau d'éducation lui permet. Dans ce contexte, il est alors démontré que dans un pays ayant un niveau de richesse moyen élevé, il y aura moins de crimes à col blanc, comparativement à un pays similaire en tout point, mais dotée d'un niveau de richesse moyen moins élevé. Concernant les pays plus pauvres, notre étude met en évidence un dilemme au niveau de la politique de développement : si, pour augmenter le niveau de capital humain moyen nécessaire pour déclencher le processus de développement économique, le gouvernement d'un pays pauvre doit baisser les coûts d'investissement en capital humain, il provoquera, par cette action, une augmentation de l'incidence des crimes à col blanc.
293

Three essays on financial stability

Gnagne, Jean Armand 04 October 2018 (has links)
Cette thèse s’intéresse à la stabilité financière. Nous considérons plusieurs modèles économétriques visant à offrir une meilleure compréhension des perturbations pouvant affecter les systèmes bancaires et financiers. L’objectif ici est de doter les institutions publiques et réglementaires d’un éventail plus large d’instruments de surveillance. Dans le premier chapitre, nous appliquons un modèle logit visant à identifier les principaux déterminants des crises financières. En plus des variables explicatives traditionnelles suggérées par la littérature, nous considérons une mesure des coûts de transactions (l’écart acheteur-vendeur) sur les marchés financiers. Nos estimations indiquent que des coûts de transactions élevés sont généralement associés à des risques accrus de crises financières. Dans un contexte où l’instauration d’une taxe sur les transactions financières (TTF) ferait augmenter les coûts de transactions, nos résultats suggèrent que l’instauration d’une telle taxe pourrait accroître les probabilités de crises financières. Dans le second chapitre, nous analysons la formation des risques financiers dans un contexte où le nombre de données disponibles est de plus en plus élevé. Nous construisons des prédicteurs de faillites bancaires à partir d’un grand ensemble de variables macro-financières que nous incorporons dans un modèle à variable discrète. Nous établissons un lien robuste et significatif entre les variables issues du secteur immobilier et les faillites bancaires. Le troisième chapitre met l’emphase sur la prévision des créances bancaires en souffrance (nonperforming loans). Nous analysons plusieurs modèles proposés par la littérature et évaluons leur performance prédictive lorsque nous remplaçons les variables explicatives usuelles par des prédicteurs sectoriels construits à partir d’une grande base de données. Nous trouvons que les modèles basés sur ces composantes latentes prévoient les créances en souffrance mieux que les modèles traditionnels, et que le secteur immobilier joue à nouveau un rôle important. / The primary focus of this thesis is on financial stability. More specifically, we investigate different issues related to the monitoring and forecasting of important underlying systemic financial vulnerabilities. We develop various econometric models aimed at providing a better assessment and early insights about the build-up of financial imbalances. Throughout this work, we consider complementary measures of financial (in)stability endowing hence the regulatory authorities with a deeper toolkit for achieving and maintaining financial stability. In the first Chapter, we apply a logit model to identify important determinants of financial crises. Alongwiththetraditionalexplanatoryvariablessuggestedintheliterat ure, weconsider a measure of bid-ask spreads in the financial markets of each country as a proxy for the likely effect of a Securities Transaction Tax (STT) on transaction costs. One key contribution of this Chapter is to study the impact that a harmonized, area- wide tax, often referred to as Tobin Tax would have on the stability of financial markets. Our results confirm important findingsuncoveredintheliterature, butalsoindicatethathighertransactioncostsaregenerally associated with a higher risk of crisis. We document the robustness of this key result to possible endogeneity effects and to the 2008−2009 global crisis episode. To the extent that a widely-based STT would increase transaction costs, our results therefore suggest that the establishment of this tax could increase the risk of financial crises. In the second Chapter, we assess the build-up of financial imbalances in a data-rich environment. Concretely, we concentrate on one key dimension of a sound financial system by monitoring and forecasting the monthly aggregate commercial bank failures in the United States. We extract key sectoral predictors from a large set of macro-financial variables and incorporate them in a hurdle negative binomial model to predict the number of monthly commercial bank failures. We find a strong and robust relationship between the housing industry and bank failures. This evidence suggests that housing industry plays a key role in the buildup of vulnerability in the banking sector. Different specifications of our model confirm the robustness of our results. In the third Chapter, we focus on the modeling of non-performing loans (NPLs), one other dimension along with, financial vulnerabilities are scrutinized. We apply different models proposed in the recent literature for fitting and forecasting U.S. banks non-performing loans (NPLs). We compare the performance of these models to those of similar models in which we replace traditional explanatory variables by key sectoral predictors all extracted from the large set of potential U.S. macro-financial variables. We uncover that the latent-componentbased models all outperform the traditional models, suggesting then that practitioners and researchers could consider latent factors in their modeling of NPLs. Moreover, we also confirm that the housing sector greatly impacts the evolution of non-performing loans over time.
294

Evaluating the utility of short-term hydrological forecasts in a hydropower system

Nikghalb Ashouri, Hajar 26 January 2019 (has links)
Le fonctionnement optimal d'un système de réservoirs est un processus décisionnel complexe impliquant, entre autres, l'identication d'un compromis temporel concernant l'utilisation de l'eau : la dernière unité d'eau doit-elle être conservée ou plutôt utilisée pour un usage immédiat? La variabilité des apports hydrologiques complique encore davantage ce processus décisionnel puisque la recherche de ce compromis doit être effectuée sans une connaissance parfaite des conditions futures. De manière générale, l'équilibre optimal entre les utilisations immédiates et futures de l'eau nécessite l'intégration de règles de gestion à court et à long terme. Si les règles à court terme conduisent à des décisions à courte vue, les stratégies opérationnelles à long terme ne sont pas appropriées pour gérer des événements à court terme tels que les inondations. Nous proposons un cadre de modélisation basé sur l'approche de décomposition temporelle (DT) : Les stratégies à moyen/long terme sont tout d'abord déterminées puis utilisées comme limites pour l'optimisation des stratégies à court terme. Le modèle d'optimisation à moyen terme capture la persistance temporelle trouvée dans le processus des apports hydrologiques hebdomadaires, alors que les prévisions hydrologiques d'ensemble (PHE) sont utilisées pour piloter le modèle à court terme sur un pas de temps journalier. Plus spécifiquement, la programmation dynamique stochastique duale (SDDP) génère les fonctions des bénéces de valeur hebdomadaires qui sont ensuite imposées à un modèle de programmation linéaire implémenté sur chaque membre des PHE de 14 jours. Ce cadre de modélisation est mis en oeuvre selon un mode de gestion en horizon roulant sur une cascade de centrales hydroélectriques dans le bassin de la rivière Gatineau dans la province du Québec au Canada. À l'aide de ce cadre de modélisation, nous analysons la relation entre la valeur économique et les caractéristiques statistiques des PHE. Les résultats montrent que l'énergie générée par le système hydroélectrique augmente avec la précision et la résolution de la prévision, mais que la relation n'est pas univoque. En effet, d'autres facteurs semblent contribuer à l'utilité de la prévision / The optimal operation of a system of reservoirs is a complex decision-making problem involving, among others, the identification of a temporal trade-offs regarding the use of water. Should the last unit of water be kept in storage or rather be released for use downstream? The variability of natural inflows further complicates this decision-making problem: at any given point in space and time, this trade-off must be made without a perfect knowledge of future reservoir in flows. Generally speaking, the optimal balance between immediate and future uses of water requires the integration of short- and long-term policies. If short-term policies lead to shortsighted decisions, long-term operational strategies are not appropriate to handle short-term events such as floods. We propose a modeling framework based on the time decomposition (TD) approach: mid/long-term policies are determined first and then used as boundary conditions for the optimization of short-term policies. The mid-term optimization model captures the temporal persistence found in the weekly streamflow process whereas Ensemble Streamflow Forecasts (ESF) are used to drive the short-term model on a daily time step. More specifically, a Stochastic Dual Dynamic Programming (SDDP) generates the weekly benefit-to-go functions that are then imposed to a linear programming model implemented on each 14-days member of the ESF. This modelling framework is implemented in a rolling-horizon mode on a cascade of hydropower stations in the Gatineau River basin, Quebec, Canada. Using this modelling framework, we analyze the relationship between the economic value of different sets of short-term hydrologic forecasts. The results show that the energy generated by the hydropower system increases with the forecast's accuracy and resolution but that the relationship is not univocal; other factors seem to contribute to the forecast's utility.
295

Essays on time series forecasting with neural-network or long-dependence autoregressive models and macroeconomic news effects on bond yields

Nongni Donfack, Morvan 11 April 2022 (has links)
Cette thèse, organisée en trois chapitres, porte sur la modélisation et la prévision des séries chronologiques économiques et financières. Les deux premiers chapitres proposent de nouveaux modèles économétriques pour l'analyse des données économiques et financières en relaxant certaines hypothèses irréalistes habituellement faites dans la littérature. Le chapitre 1 développe un nouveau modèle de volatilité appelé TVP[indice ANN]-GARCH. Ce modèle offre une dynamique riche pour modéliser les données financières en considérant une structure GARCH (Generalized autoregressive conditional heteroscedasticity) dans laquelle les paramètres varient dans le temps selon un réseau de neurones artificiels (ANN). L'utilisation des ANNs permet de résoudre le problème de l'évaluation de la vraisemblance (présent dans les modèles à paramètres variables dans le temps (TVP)) et permet également l'utilisation de variables explicatives supplémentaires. Le chapitre développe également un algorithme Monte Carlo séquentiel (SMC) original et efficace pour estimer le modèle. Une application empirique montre que le modèle se compare favorablement aux processus de volatilité populaires en termes de prévisions de court et de long terme. L'approche peut facilement être étendue à tout modèle à paramètres fixes. Le chapitre 2 développe trois polynômes de retard autorégressifs (AR) parcimonieux qui génèrent des fonctions d'autocorrélation à décroissance lente, comme on l'observe généralement dans les séries chronologiques financières et économiques. La dynamique des polynômes de retard est similaire à celle de deux processus très performants, à savoir le modèle MSM (Multifractal Markov-Switching) et le modèle FHMV (Factorial Hidden Markov Volatility). Ils sont très flexibles car ils peuvent être appliqués à de nombreux modèles populaires tels que les processus ARMA, GARCH et de volatilité stochastique. Une analyse empirique met en évidence l'utilité des polynômes de retard pour la prévision de la moyenne conditionnelle et de la volatilité. Ils devraient être considérés comme des modèles de prévision alternatifs pour les séries chronologiques économiques et financières. Le dernier chapitre s'appuie sur une approche de régression prédictive en deux étapes pour identifier l'impact des nouvelles macroéconomiques américaines sur les rendements obligataires de trois petites économies ouvertes (Canada, Royaume-Uni et Suède). Nos résultats suggèrent que les nouvelles macroéconomiques américaines sont significativement plus importantes pour expliquer la dynamique de la courbe des taux dans les petites économies ouvertes (PEO) que les nouvelles nationales elles-mêmes. Les nouvelles relatives à la politique monétaire américaine ne sont pas les seuls facteurs importants des variations des rendements obligataires des PEO, mais les nouvelles relatives au cycle économique jouent également un rôle significatif. / This thesis, organized in three chapters, focuses on modelling and forecasting economic and financial time series. The first two chapters propose new econometric models for analysing economic and financial data by relaxing unrealistic assumptions usually made in the literature. Chapter 1 develops a new volatility model named TVP[subscript ANN]-GARCH. The model offers rich dynamics to model financial data by allowing for a generalized autoregressive conditional heteroscedasticity (GARCH) structure in which parameters vary over time according to an artificial neural network (ANN). The use of ANNs for parameters dynamics is a valuable contribution as it helps to deal with the problem of likelihood evaluation (exhibited in time-varying parameters (TVP) models). It also allows for the use of additional explanatory variables. The chapter develops an original and efficient Sequential Monte Carlo sampler (SMC) to estimate the model. An empirical application shows that the model favourably compares to popular volatility processes in terms of out-of sample fit. The approach can easily be extended to any fixed-parameters model. Chapter 2 develops three parsimonious autoregressive (AR) lag polynomials that generate slowly decaying autocorrelation functions as generally observed financial and economic time series. The dynamics of the lag polynomials are similar to that of two well performing processes, namely the Markov-Switching Multifractal (MSM) and the Factorial Hidden Markov Volatility (FHMV) models. They are very flexible as they can be applied in many popular models such as ARMA, GARCH, and stochastic volatility processes. An empirical analysis highlights the usefulness of the lag polynomials for conditional mean and volatility forecasting. They could be considered as forecasting alternatives for economic and financial time series. The last chapter relies on a two steps predictive regression approach to identify the impact of US macroeconomic releases on three small open economies (Canada, United Kingdom, and Sweden) bond yields at high and low frequencies. Our findings suggest that US macro news are significantly more important in explaining yield curve dynamics in small open economies (SOEs) than domestic news itself. Not only US monetary policy news are important drivers of SOEs bond yield changes, but business cycle news also play a significant role.
296

Effet sur l'offre de travail d'une politique de fractionnement du revenu aux fins d'impôts

Piedboeuf, Étienne 23 April 2018 (has links)
Lors de l'élection fédérale de 2011, le parti Conservateur du Canada a proposé d'instaurer le fractionnement du revenu de travail pour les couples avec un enfant de moins de 18 ans, lors du retour à l'équilibre budgétaire. Cette mesure à été officiellement annoncée dans le cadre du budget 2015-2016. Dans ce travail, nous utilisons un modèle d'offre de travail à choix discrets pour examiner l'effet de cette réforme fiscale prospective sur l'offre de travail des couples. Nous trouvons qu'avec des comportement constant, cette réforme fiscale pourrait coûter 2,9 milliards de dollars contrairement au 2,2 milliards annoncés. Avec une offre de travail variable, nous trouvons que suite au départ potentiel de près de 95 000 femmes du marché du travail, le coût de la réforme pourrait atteindre 3,7 milliards de dollars.
297

Response order effects in dichotomous voting intention questions : evidence from the 2008 US presidential election

Morin-Chassé, Alexandre 16 April 2018 (has links)
Mon mémoire vérifie si les répondants aux questions d'intentions de vote dichotomiques posées par questionnaires téléphoniques sont influencés par l'ordre de présentation des candidats. La théorie du contentement prédit l'absence d'effet d'ordre. Mon mémoire teste cette hypothèse de "non-effet". J'élabore le cadre d'analyse du tir à la corde, distinguant six scénarios éventuellement cachés derrière les effets mesurés. Deux scénarios correspondent à mon hypothèse. Ma stratégie de recherche consiste à éliminer les scénarios rivaux jusqu'à ce qu'il ne reste que les deux scénarios de non-effet. Les intentions de vote de la campagne présidentielle américaine de 2008 sont extraites du Roper Center. L'expérience 1 effectue une méta-analyse des effets d'ordres dans 53 questions. Trois scénarios rivaux sont éliminés. L'expérience 2 confirme que les effets mesurés sont dus à des divisions légèrement asymétriques des échantillons lors de la rotation aléatoire des candidats, éliminant le dernier scénario rival. Ce test échoue à rejeter l'hypothèse de non-effet.
298

Measuring public opinion using Big Data : applications in computational social sciences

Temporão, Mickael 15 April 2019 (has links)
La démocratie est fondée sur l’idée que les gouvernements sont sensibles à l’opinion des citoyens qu’ils sont élus pour représenter. Des mesures fiables de l’opinion publique sont requises afin de permettre aux élus de gouverner de manière efficace. Les sources traditionnelles d’information sur l’opinion publique se complexifient avec l’accroissement des modalités de communication et les changements culturels qui y sont associés. La diversification des technologies de l’information et de la communication ainsi que la forte baisse des taux de réponse aux enquêtes de sondages provoquent une crise de confiance dans les méthodes d’échantillonnage probabiliste classique. Une source d’information sur l’opinion publique de plus en plus riche, mais relativement peu exploitée, se présente sous la forme d’ensembles de données extraordinairement volumineuses et complexes, communément appelées Big Data. Ces données présentent de nombreux défis liés à l’inférence statistique, notamment parce qu’elles prennent généralement la forme d’échantillons non probabilistes. En combinant des avancées récentes en sciences sociales numériques, en statistiques et en technologie de l’information, cette thèse, constituée de trois articles, aborde certains de ces défis en développant de nouvelles approches, permettant l’extraction d’informations adaptées aux larges ensembles de données. Ces nouvelles approches permettent d’étudier l’opinion publique sous de nouveaux angles et ainsi de contribuer à des débats théoriques importants dans la littérature sur la recherche sur l’opinion publique en rassemblant les preuves empiriques nécessaires afin de tester des théories de la science politique qui n’avaient pas pu être abordées, jusqu’à présent, en raison du manque des données. Dans le premier article, sur le placement idéologique des utilisateurs sur les médias sociaux, nous développons un modèle permettant de prédire l’idéologie et l’intention de vote des utilisateurs sur les médias sociaux en se basant sur le jargon qu’ils emploient dans leurs interactions sur les plateformes de médias sociaux. Dans le second article, sur l’identité nationale au Canada, nous présentons une approche permettant d’étudier l’hétérogénéité de l’identité nationale en explorant la variance de l’attachement à des symboles nationaux parmi les citoyens à partir de données provenant d’un vaste sondage en ligne. Dans le troisième article portant sur les prédictions électorales, nous introduisons une approche se basant sur le concept de la sagesse des foules, qui facilite l’utilisation de données à grande échelle dans le contexte d’études électorales non-aléatoires afin de corriger les biais de sélection inhérents à de tels échantillons. Chacune de ces études améliore notre compréhension collective sur la manière dont les sciences sociales numériques peuvent accroître notre connaissance théorique des dynamiques de l’opinion publique et du comportement politique. / Democracy is predicated on the idea that governments are responsive to the publics which they are elected to represent. In order for elected representatives to govern effectively, they require reliable measures of public opinion. Traditional sources of public opinion research are increasingly complicated by the expanding modalities of communication and accompanying cultural shifts. Diversification of information and communication technologies as well as a steep decline in survey response rates is producing a crisis of confidence in conventional probability sampling. An increasingly rich, yet relatively untapped, source of public opinion takes the form of extraordinarily large, complex datasets commonly referred to as Big Data. These datasets present numerous challenges for statistical inference, not least of which is that they typically take the form of non-probability sample. By combining recent advances in social science, computer science, statistics, and information technology, this thesis, which combines three distinct articles, addresses some of these challenges by developing new and scalable approaches to facilitate the extraction of valuable insights from Big Data. In so doing, it introduces novel approaches to study public opinion and contributes to important theoretical debates within the literature on public opinion research by marshalling the empirical evidence necessary to test theories in political science that were previously unaddressed due to data scarcity. In our first article, Ideological scaling of social media users, we develop a model that predicts the ideology and vote intention of social media users by virtue of the vernacular that they employ in their interactions on social media platforms. In our second article, The symbolic mosaic, we draw from a large online panel survey in Canada to make inferences about the heterogeneous construction of national identities by exploring variance in the attachment to symbols among various publics. Finally, in our third article, Crowdsourcing the vote, we endeavour to draw on the wisdom of the crowd in large, non-random election studies as part of an effort to control for the selection bias inherent to such samples. Each of these studies makes a contribution to our collective understanding of how computational social science can advance theoretical knowledge of the dynamics of public opinion and political behaviour.
299

Analyse géographique de la vulnérabilité de la population associée aux inondations dans trois municipalités québécoises : Châteauguay, Montmagny et Sainte-Brigitte-de-Laval

Tanguay, Louis-Pierre 24 April 2018 (has links)
Dans un contexte d'amplification d'évènements climatiques majeurs, la population fait face à différents impacts négatifs, touchant autant leur bien-être que leur environnement. Ce mémoire de maîtrise consiste à réaliser une analyse géographique de la vulnérabilité de la population québécoise face aux inondations. Une analyse plus approfondie est effectuée sur les municipalités de Châteauguay, Montmagny et Sainte-Brigitte-de-Laval. Jusqu'à ce jour, peu d'indicateurs étaient disponibles pour analyser la vulnérabilité de la population face à cet aléa climatique à l'échelle du Québec. Cette étude permet d'identifier et d'analyser les zones vulnérables aux inondations à l'échelle des municipalités québécoises. Dans le but de cartographier ces phénomènes, la sélection de variables retenues d'après une revue de littérature, la création d'indicateurs synthétiques et d'une cartographie synthétique de la vulnérabilité sont primordiales. La mise en place d'une cartographie participative auprès des acteurs municipaux a été effectuée afin de connaître la situation spécifique des municipalités face aux inondations et de valider les résultats obtenus lors de l'élaboration des indicateurs synthétiques. Cette recherche, autant au niveau méthodologique que cartographique, se base sur deux dimensions de la vulnérabilité, soit la sensibilité et la capacité à faire face. À terme, cette étude a permis de mettre en évidence les zones se retrouvant dans une situation de vulnérabilité à la survenue de cet aléa climatique extrême, correspondant ainsi aux zones sensibles et où la capacité à faire face aux inondations est moindre. Mots-clés : Vulnérabilité, inondation, sensibilité, capacité à faire face, cartographie, municipalités québécoises.
300

Développement d'un indicateur visuel de la qualité structurale du sol

Chavez Benalcazar, Eduardo David 01 March 2024 (has links)
Titre de l'écran-titre (visionné le 26 février 2024) / Les producteurs agricoles et leurs conseillers ont besoin d'outils simples pour mesurer l'état de la structure des sols et évaluer les effets de leurs pratiques; cependant, aucune des méthodes d'évaluation visuelle n'a été validée dans les conditions des sols minéraux du Québec. Ce projet vise la conception d'une nouvelle méthode pour diagnostiquer la qualité structurale des sols minéraux du Québec par évaluation visuelle et tactile. Ce nouvel indicateur, l'indicateur visuel de la qualité structurale des profils des sols minéraux (IVQS), a été élaboré à partir de six descripteurs pédomorphologiques prélevés dans l'étude de l'état de santé des sols agricoles du Québec (EESSAQ) et recensés lors de l'inventaire pédologique : le type, la classe et le grade de la structure, la consistance, la porosité fine et la porosité grossière. Le développement de l'IVQS a consisté à quantifier des catégories de descripteurs ainsi qu'à pondérer les descripteurs pour construire une note. Les résultats de l'IVQS et ceux du VESS (Visual Evaluation of Soil Structure), une méthode d'évaluation visuelle similaire à l'IVQS et souvent rapportée dans littérature scientifique; ont été évalués en les comparant à cinq paramètres physiques de sols : diamètre moyen pondéré (DMP), masse volumique apparente (MVA), macroporosité, matière organique (MO) et conductivité hydraulique (Ksat); et le rendement des cultures. L'algorithme de l'IVQS est sensible et permet de démontrer des différences significatives de l'état structural entre sols cultivés et sols témoins inventoriés dans l'EESSAQ pour la majorité des types de sols minéraux. Les résultats de l'IVQS et du VESS sont fortement corrélés entre eux dans les sols des groupes texturaux argileux, loameux et limoneux. Les corrélations entre les cinq paramètres physiques et le rendement relatif avec l'IVQS et le VESS sont toutefois faibles dans les cinq groupes texturaux. Les associations inconsistantes observées dans l'horizon B des cinq groupes texturaux et de façon majoritaire dans les sols sableux et squelettiques, invitent à revoir la méthodologie de l'IVQS utilisé dans l'horizon B et plus particulièrement dans les sols sableux et squelettiques. Malgré les faibles corrélations observées avec les paramètres physiques du sol et le rendement des cultures, la méthodologie actuelle de l'IVQS présente plusieurs avantages par rapport aux méthodes d'évaluation visuelle existantes. En conclusion, l'IVQS serait pertinent à utiliser lors de l'évaluation de la qualité structurale de la majorité des types de sols minéraux québécois, mais des travaux supplémentaires seraient nécessaires pour mieux comprendre ou améliorer la relation de cet indicateur avec les autres indicateurs de santé des sols et la productivité de cultures. / Farmers and their advisors need simple tools to assess the condition of soil structure and evaluate their practices; however, none of the visual assessment methods have been validated under the conditions of mineral soils in Quebec. This project aims to design a new method to diagnose the structural quality of Quebec's mineral soils through visual and tactile assessment. This new indicator, the Visual Indicator of Structural Quality of Mineral Soil Profiles (IVQS), was developed based on six pedomorphologic descriptors: type, class, and grade of structure, consistency, fine porosity, and coarse porosity collected during a national soil health survey conducted in Quebec (EESSAQ). The development of IVQS involved quantifying descriptor categories and weighting descriptors to construct a score. IVQS results and those of the Visual Evaluation of Soil Structure (VESS) method, a visual soil structure assessment method commonly reported in the literature, were evaluated and compared to five soil physical parameters: mean weighted diameter (MWD), bulk density (BD), macroporosity, organic matter (OM), and hydraulic conductivity (Ksat); and crop yield. The IVQS algorithm is sensitive in demonstrating significant differences in structural condition between cultivated and control soils inventoried in EESSAQ for the majority of mineral soil types. IVQS and VESS are strongly correlated together in clayey, loamy, and silty textural groups. Correlations between IVQS and VESS and the five physical parameters and relative yield show are however weak in the five textural groups. Inconsistent associations observed in the B horizon of the five textural groups and predominantly for sandy and skeletal soils suggest a need to review the IVQS methodology used for the B horizon and entirely for sandy and skeletal soils. Despite the weak relationships observed between physical parameters and crop yield, the current IVQS methodology has several advantages over existing visual assessment methods. In conclusion, IVQS is a relevant tool for evaluating the structural quality of the majority of Quebec's mineral soil types, but further work should be undertaken to improve relationships between IVQS and other soil health indicators and crop productivity.

Page generated in 0.1099 seconds