41 |
Analyse des pratiques d’évaluation des apprentissages dans les disciplines de l’ingénierie dans le contexte de l’enseignement supérieur en TunisieMessaoud, Ali 08 1900 (has links)
L’évaluation des apprentissages occupe une place importante dans les dispositifs de formation. Les décisions évaluatives peuvent avoir un impact majeur sur l’avenir professionnel de l’apprenant. Les enjeux peuvent être également élevés pour toute la société. Par ailleurs, bien que l’enseignant soit le premier responsable de l’évaluation, d’autres acteurs internes et externes y participent : les évalués, les acteurs institutionnels, les décideurs du ministère, les organismes accréditeurs, etc. L’évaluation semble bien plus complexe qu’elle n’y paraît.
Dans le contexte de l’enseignement supérieur tunisien, il y a un manque de recherche dans le champ de l’éducation et plus particulièrement en lien avec la question de l’évaluation des apprentissages. C’est pourquoi cette étude se propose de tenter de dissiper le flou qui entoure les pratiques évaluatives, qui, à notre connaissance, n’ont pas été traitées comme objet de recherche dans le contexte de l’université tunisienne.
Dans la présente étude, le concept de « culture d’évaluation » est central. L’analyse culturelle réalisée s’appuie sur la forte ressemblance entre les concepts de culture et celui de pratique. Cela nous a conduit à adopter un cadre d’analyse inspiré de la théorie des architectures de la pratique (Kemmis, 2009; Kemmis et al., 2014b). Les objectifs spécifiques consistent d’abord à décrire en détail les pratiques d’évaluation des apprentissages des enseignants ciblés et, ensuite, à identifier les patrons culturels associés à ces pratiques.
L’ethnographie est la méthodologie retenue pour cette recherche. Elle implique de mener une étude de terrain auprès d’un groupe social de « natifs ». Il s’agit d’un groupe d’enseignants appartenant aux disciplines de l’ingénierie œuvrant à l’université de Gafsa. Les données ont été recueillies à l’aide des méthodes de l’entrevue individuelle semi-dirigée, de l’observation participante et de l’étude de documents.
L’analyse des pratiques évaluatives dans le cadre de cette étude a permis de dégager quelques constats généraux. D’abord, l’évaluation est avant tout un dispositif technique. Il s’agit en outre d’une activité plurielle où des pratiques singulières se développent. Néanmoins, les enseignants tendent à suivre un processus officiel générique. Un autre constat concerne le caractère solitaire de l’activité d’évaluation qui se manifeste dans le manque de collaboration et l’existence de pratiques de « bricolage ». Il apparaît aussi que les enseignants sont insatisfaits des pratiques évaluatives existantes et tentent par de multiples moyens de les améliorer, mais sans impact réel. Le système évaluatif officiel est trop rigide pour permettre de vrais changements dans les pratiques. Cela contribue à renforcer la logique du devoir qui consiste à répondre aux exigences administratives en matière d’évaluation. Paradoxalement, les prescriptions officielles ne sont pas toujours respectées. Les résultats montrent également l’existence de conflits dans les activités d’évaluation collaboratives. Tous ces éléments conduisent à un manque de transparence dans l’évaluation. Finalement, les résultats suggèrent une certaine prévalence de la tolérance dans la culture d’évaluation.
À travers cette étude, nous présentons une ethnographie assez détaillée en tant que contribution importante pour la recherche en évaluation. Les acteurs du terrain pourraient s’y référer pour développer des dispositifs de formation plus efficaces en ingénierie. / Assessment of learning occupies a central position in training structures. Assessment decisions can have a major impact on the learner professional future. The stakes can be high for all the society as well. In addition, although the teacher has the lead responsibility for assessment, other internal and external actors are involved: the students, the institutional actors, the decision-makers at ministry level, accreditation bodies, etc. Assessment seems much more complex than it looks.
In the context of Tunisian higher education, there is a lack of research in the field of education, especially regarding the issue of assessment of learning. Consequently, this study proposes to dispel the lack of clarity that surrounds assessment practices, which, to our knowledge, have not been considered as a research topic in the context of the Tunisian university.
In this study, the concept of "culture of assessment" is central. The cultural analysis undertaken is based on the strong similarity between the concepts of culture and that of practice. This led us to adopt an analytical framework inspired by the theory of architectures of practice (Kemmis, 2009; Kemmis et al., 2014b). This research had two specific research objectives: first, to provide a detailed description of the targeted teachers assessment practices and, secondly, to identify the cultural patterns related to these practices.
We have chosen ethnography as a research methodology in this study. It involves conducting field research with a social group of "natives". It’s a group of engineering teachers working at the University of Gafsa. Data were collected using the following methods: semi-structured individual interview, participant observation and documents.
In this study, the analysis of assessment practices allowed us to form few overall observations. First of all, assessment is primarily a technical process. It is also a plural activity where unique practices develop. However, teachers tend to follow a generic formal process. Another conclusion concerns the solitary nature of the assessment activity which manifests itself in the lack of collaboration and the existence of improvisation practices. In addition, it appears that teachers express dissatisfaction with existing assessment practices and try in many ways to improve them but with no real impact. The official assessment system is too rigid to allow real changes in practices. This contributes in reinforcing the logic of duty which consists in trying to meet the administrative requirements for assessment. Paradoxically, official requirements are not always respected. The results also show the existence of conflicts in collaborative assessment activities. We also concluded that assessment lacks transparency. Finally, the results suggest a certain prevalence of tolerance in the assessment culture.
In this study, we present a quite detailed ethnography as an important contribution to research on assessment. Actors in the field could use it as a reference in order to develop more effective training systems in the field of engineering.
|
42 |
Misspecified financial models in a data-rich environmentNokho, Cheikh I. 03 1900 (has links)
En finance, les modèles d’évaluation des actifs tentent de comprendre les différences de rendements observées entre divers actifs. Hansen and Richard (1987) ont montré que ces modèles sont des représentations fonctionnelles du facteur d’actualisation stochastique que les investisseurs utilisent pour déterminer le prix des actifs sur le marché financier. La littérature compte de nombreuses études économétriques qui s’intéressent à leurs estimations et à la comparaison de leurs performances, c’est-à-dire de leur capa- cité à expliquer les différences de rendement observées. Cette thèse, composée de trois articles, contribue à cette littérature.
Le premier article examine l’estimation et la comparaison des modèles d’évaluation des actifs dans un environnement riche en données. Nous mettons en œuvre deux méthodes de régularisation interprétables de la distance de Hansen and Jagannathan (1997, HJ ci-après) dans un contexte où les actifs sont nombreux. Plus précisément, nous introduisons la régularisation de Tikhonov et de Ridge pour stabiliser l’inverse de la matrice de covariance de la distance de HJ. La nouvelle mesure, qui en résulte, peut être interprétée comme la distance entre le facteur d’actualisation d’un modèle et le facteur d’actualisation stochastique valide le plus proche qui évalue les actifs avec des erreurs contrôlées. Ainsi, ces méthodes de régularisation relâchent l’équation fondamentale de l’évaluation des actifs financiers. Aussi, elles incorporent un paramètre de régularisation régissant l’ampleur des erreurs d’évaluation. Par la suite, nous présentons une procédure pour estimer et faire des tests sur les paramètres d’un modèle d’évaluation des actifs financiers avec un facteur d’actualisation linéaire en minimisant la distance de HJ régularisée. De plus, nous obtenons la distribution asymptotique des estimateurs lorsque le nombre d’actifs devient grand. Enfin, nous déterminons la distribution de la distance régularisée pour comparer différents modèles d’évaluation des actifs. Empiriquement, nous estimons et comparons quatre modèles à l’aide d’un ensemble de données comportant 252 portefeuilles.
Le deuxième article estime et compare dix modèles d’évaluation des actifs, à la fois inconditionnels et conditionnels, en utilisant la distance de HJ régularisée et 3 198 portefeuilles s’étendant de juillet 1973 à juin 2018. Ces portefeuilles combinent les portefeuilles bien connus triés par caractéristiques avec des micro-portefeuilles. Les micro-portefeuilles sont formés à l’aide de variables financières mais contiennent peu d’actions (5 à 10), comme indiqué dans Barras (2019). Par conséquent, ils sont analogues aux actions individuelles, offrent une grande variabilité de rendements et améliorent le pouvoir discriminant des portefeuilles classiques triés par caractéristiques. Parmi les modèles considérés, quatre sont des modèles macroéconomiques ou théoriques, dont le modèle de CAPM avec consommation (CCAPM), le modèle de CAPM avec consommation durable (DCAPM) de Yogo (2006), le modèle de CAPM avec capital humain (HCAPM) de Jagannathan and Wang (1996), et le modèle d’évaluation des actifs avec intermédiaires financiers (IAPM) de He, Kelly, and Manela (2017). Cinq modèles basés sur les anomalies sont considérés, tels que les modèles à trois (FF3) et à cinq facteurs (FF5) proposés par Fama and French, 1993 et 2015, le modèle de Carhart (1997) intégrant le facteur Momentum dans FF3, le modèle de liquidité de Pástor and Stambaugh (2003) et le modèle q5 de Hou et al. (2021). Le modèle de consommation de Lettau and Ludvigson (2001) utilisant des données trimestrielles est également estimé. Cependant, il n’est pas inclus dans les comparaisons en raison de la puissance de test réduite. Par rapport aux modèles inconditionnels, les modèles conditionnels tiennent compte des cycles économiques et des fluctuations des marchés financiers en utilisant les indices d’incertitude macroéconomique et financière de Ludvigson, Ma, and Ng (2021). Ces modèles conditionnels ont des erreurs de spécification considérablement réduites. Les analyses comparatives des modèles inconditionnels indiquent que les modèles macroéconomiques présentent globalement les mêmes pouvoirs explicatifs. De plus, ils ont un pouvoir explicatif global inférieur à celui des modèles basés sur les anomalies, à l’exception de FF3. L’augmentation de FF3 avec le facteur Momentum et de liquidité améliore sa capacité explicative. Cependant ce nouveau modèle est inférieur à FF5 et q5. Pour les modèles conditionnels, les modèles macroéconomiques DCAPM et HCAPM surpassent CCAPM et IAPM. En outre, ils ont des erreurs de spécification similaires à celles des modèles conditionnels de Carhart et de liquidité, mais restent en deçà des modèles FF5 et q5. Ce dernier domine tous les autres modèles.
Le troisième article présente une nouvelle approche pour estimer les paramètres du facteur d’actualisation linéaire des modèles d’évaluation d’actifs linéaires mal spécifiés avec de nombreux actifs. Contrairement au premier article de Carrasco and Nokho (2022), cette approche s’applique à la fois aux rendements bruts et excédentaires. La méthode proposée régularise toujours la distance HJ : l’inverse de la matrice de second moment est la matrice de pondération pour les rendements bruts, tandis que pour les rendements excédentaires, c’est l’inverse de la matrice de covariance. Plus précisément, nous dérivons la distribution asymptotique des estimateurs des paramètres du facteur d’actualisation stochastique lorsque le nombre d’actifs augmente. Nous discutons également des considérations pertinentes pour chaque type de rendements et documentons les propriétés d’échantillon fini des estimateurs. Nous constatons qu’à mesure que le nombre d’actifs augmente, l’estimation des paramètres par la régularisation de l’inverse de la matrice de covariance des rendements excédentaires présente un contrôle de taille supérieur par rapport à la régularisation de l’inverse de la matrice de second moment des rendements bruts. Cette supériorité découle de l’instabilité inhérente à la matrice de second moment des rendements bruts. De plus, le rendement brut de l’actif sans risque présente une variabilité minime, ce qui entraîne une colinéarité significative avec d’autres actifs que la régularisation ne parvient pas à atténuer. / In finance, asset pricing models try to understand the differences in expected returns observed among various assets. Hansen and Richard (1987) showed that these models are functional representations of the discount factor investors use to price assets in the financial market. The literature counts many econometric studies that deal with their estimation and the comparison of their performance, i.e., how well they explain the differences in expected returns. This thesis, divided into three chapters, contributes to this literature.
The first paper examines the estimation and comparison of asset pricing models in a data-rich environment. We implement two interpretable regularization schemes to extend the renowned Hansen and Jagannathan (1997, HJ hereafter) distance to a setting with many test assets. Specifically, we introduce Tikhonov and Ridge regularizations to stabilize the inverse of the covariance matrix in the HJ distance. The resulting misspecification measure can be interpreted as the distance between a proposed pricing kernel and the nearest valid stochastic discount factor (SDF) pricing the test assets with controlled errors, relaxing the Fundamental Equation of Asset Pricing. So, these methods incorporate a regularization parameter governing the extent of the pricing errors. Subsequently, we present a procedure to estimate the SDF parameters of a linear asset pricing model by minimizing the regularized distance. The SDF parameters completely define the asset pricing model and determine if a particular observed factor is a priced source of risk in the test assets. In addition, we derive the asymptotic distribution of the estimators when the number of assets and time periods increases. Finally, we derive the distribution of the regularized distance to compare comprehensively different asset pricing models. Empirically, we estimate and compare four empirical asset pricing models using a dataset of 252 portfolios.
The second paper estimates and compares ten asset pricing models, both unconditional and conditional, utilizing the regularized HJ distance and 3198 portfolios spanning July 1973 to June 2018. These portfolios combine the well-known characteristic-sorted portfolios with micro portfolios. The micro portfolios are formed using firms' observed financial characteristics (e.g. size and book-to-market) but contain few stocks (5 to 10), as discussed in Barras (2019). Consequently, they are analogous to individual stocks, offer significant return spread, and improve the discriminatory power of the characteristics-sorted portfolios. Among the models, four are macroeconomic or theoretical models, including the Consumption Capital Asset Pricing Model (CCAPM), Durable Consumption Capital Asset Pricing Model (DCAPM) by Yogo (2006), Human Capital Capital Asset Pricing Model (HCAPM) by Jagannathan and Wang (1996), and Intermediary Asset pricing model (IAPM) by He, Kelly, and Manela (2017). Five anomaly-driven models are considered, such as the three (FF3) and Five-factor (FF5) Models proposed by Fama and French, 1993 and 2015, the Carhart (1997) model incorporating momentum into FF3, the Liquidity Model by Pástor and Stambaugh (2003), and the Augmented q-Factor Model (q5) by Hou et al. (2021). The Consumption model of Lettau and Ludvigson (2001) using quarterly data is also estimated but not included in the comparisons due to the reduced power of the tests. Compared to the unconditional models, the conditional ones account for the economic business cycles and financial market fluctuations by utilizing the macroeconomic and financial uncertainty indices of Ludvigson, Ma, and Ng (2021). These conditional models show significantly reduced pricing errors. Comparative analyses of the unconditional models indicate that the macroeconomic models exhibit similar pricing performances of the returns. In addition, they display lower overall explanatory power than anomaly-driven models, except for FF3. Augmenting FF3 with momentum and liquidity factors enhances its explanatory capability. However, the new model is inferior to FF5 and q5. For the conditional models, the macroeconomic models DCAPM and HCAPM outperform CCAPM and IAPM. Furthermore, they have similar pricing errors as the conditional Carhart and liquidity models but still fall short of the FF5 and q5. The latter dominates all the other models.
This third paper introduces a novel approach for estimating the SDF parameters in misspecified linear asset pricing models with many assets. Unlike the first paper, Carrasco and Nokho (2022), this approach is applicable to both gross and excess returns as test assets. The proposed method still regularizes the HJ distance: the inverse of the second-moment matrix is the weighting matrix for the gross returns, while for excess returns, it is the inverse of the covariance matrix. Specifically, we derive the asymptotic distribution of the SDF estimators under a double asymptotic condition where the number of test assets and time periods go to infinity. We also discuss relevant considerations for each type of return and document the finite sample properties of the SDF estimators with gross and excess returns. We find that as the number of test assets increases, the estimation of the SDF parameters through the regularization of the inverse of the excess returns covariance matrix exhibits superior size control compared to the regularization of the inverse of the gross returns second-moment matrix. This superiority arises from the inherent instability of the second-moment matrix of gross returns. Additionally, the gross return of the risk-free asset shows minimal variability, resulting in significant collinearity with other test assets that the regularization fails to mitigate.
|
43 |
Choix de portefeuille de grande taille et mesures de risque pour preneurs de décision pessimistesNoumon, Codjo Nérée Gildas Maxime 08 1900 (has links)
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées.
Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère.
Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays.
Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011. / This thesis consists of three chapters on the topics of portfolio choice in a high-dimensional context, and risk measurement. The first chapter addresses the estimation error issue that arises when constructing large portfolios in the mean-variance framework. The second chapter investigates the relevance of currency risk for optimal domestic portfolios, evaluates their ability of to diversify away currency risk, and study the links between portfolio weights stability and currency risk. Finally, under the assumption that decision makers are pessimistic, the third chapter derives the risk premium, propose a measure of the degree of pessimism, and provide a statistical framework for their estimation.
The first chapter improves the performance of the optimal portfolio weig-hts obtained under the mean-variance framework of Markowitz (1952). Indeed, these weights give unsatisfactory results, when the mean and variance are replaced by their sample counterparts (plug-in rules). This problem is amplified when the number of assets is large and the sample covariance is singular or nearly singular. The chapter investigates four regularization techniques to stabilizing the inverse of the covariance matrix: the ridge, spectral cut-off, Landweber-Fridman, and LARS Lasso. These four methods involve a tuning parameter that needs to be selected. The main contribution is to derive a data-based method for selecting the tuning parameter in an optimal way, i.e. in order to minimize the expected loss in utility of a mean-variance investor. The cross-validation type criterion derived is found to take a similar form for the four regularization methods. The resulting regularized rules are compared to the sample-based mean-variance portfolio and the naive 1/N strategy in terms of in-sample and out-of-sample Sharpe ratio and expected loss in utility. The main finding is that regularization to covariance matrix significantly improves the performance of the mean-variance problem and outperforms the naive portfolio, especially in ill-posed cases, as suggested by our simulations and empirical studies.
In the second chapter, we investigate the extent to which optimal and stable portfolios of domestic assets can reduce or eliminate currency risk. This is done using monthly returns on 48 U.S. industries, from 1976 to 2008. To tackle the instabilities inherent to large portfolios, we use the spectral cut-off regularization described in Chapter 1. This gives rise to a family of stable global minimum portfolios that allows investors to select different percentages of principal components for portfolio construction. Our empirical tests are based on a conditional International Asset Pricing Model (IAPM), augmented with the size and book-to-market factors of Fama and French (1993). Using two trade-weighted currency indices of industrialized countries currencies and emerging markets currencies, we find that currency risk is priced and time-varying for global minimum portfolios. These strategies also lead to a significant reduction in the exposure to currency risk, while keeping the average premium contribution to total premium approximately the same. The global minimum weights considered are an alternative to market capitalization weights used in the U.S. market index. Therefore, our findings complement the well established results that currency risk is significantly priced and economically meaningful at the industry and country level in most countries.
Finally, the third chapter derives a measure of the risk premium for rank-dependent preferences and proposes a measure of the degree of pessimism, given a distortion function. The introduced measures generalize the common risk measures derived in the expected utility theory framework, which is frequently violated in both experimental and real-life situations. These measures are derived in the neighborhood of a given random loss variable, using the notion of local utility function. A particular interest is devoted to the CVaR, which is now widely used for asset allocation and has been advocated to complement the Value-at-risk (VaR) proposed since 1996 by the Basel Committee on Banking Supervision. We provide the statistical framework needed to conduct inference on the derived measures. Finally, the proposed estimators
|
44 |
Évaluation économique des services écosystémiques dans la région de Montréal : analyse spatiale et préférences expriméesDupras, Jérôme 01 1900 (has links)
Les services écosystémiques (SE) réfèrent aux bénéfices que produisent et soutiennent la biodiversité et les écosystèmes et qui profitent à l’être humain. Dans beaucoup de cas, ils ne sont pas pris en compte dans le système économique. Cette externalisation des SE engendre des décisions sur l’utilisation du territoire et des ressources naturelles qui ignorent leur contribution à la qualité de vie des communautés. Afin notamment de sensibiliser l’opinion publique à l’importance des SE et de mieux les intégrer dans les processus décisionnels, ont été développées des démarches d’évaluation économique des SE.
Dans cette thèse, nous avons cherché à comprendre à la fois comment l’utilisation passée et actuelle des sols dans la région de Montréal affecte la valeur des SE et comment ces aménités naturelles sont perçues et valorisées par la population, dans une perspective d’aménagement futur du territoire. Pour ce faire, nous avons utilisé deux approches : l’analyse spatiale recourant aux systèmes d’information géographique et l’analyse des préférences exprimées par des techniques d’enquête.
Pour l’analyse spatiale, nous avons combiné des analyses cartographiques à des valeurs monétaires associées aux SE publiées dans la littérature. Nous avons alors estimé la valeur des écosystèmes d’un territoire par le transfert de bénéfices, de prix de marchés directs et de coûts évités. Cette démarche nous a permis de comprendre la relation entre l’utilisation actuelle du territoire du Grand Montréal écologique et la valeur des services fournis par les écosystèmes, que nous avons estimée à 2,2 milliards de dollars par année. Elle nous a permis aussi de mesurer les effets sur la valeur des SE du changement d’utilisation des sols entre les années 1960 et 2010. Nous avons montré que malgré différentes politiques de contrôle et d’encadrement de l’étalement urbain au cours de cette période, les pertes économiques non marchandes liées aux SE s’élèvent à 236 millions de dollars par année.
Pour l’analyse des préférences exprimées, nous avons utlilisé deux méthodes, l’évaluation contingente et le choix multi-attributs, avec l’objectif de mesurer le consentement à payer de répondants pour des variations dans l’aménagement du territoire. Nous avons montré d’une part que les répondants valorisent significativement l’incidence des pratiques agro-environnementales sur la qualité de l’environnement et des paysages en consentant à payer entre 159 et 333 dollars par ménage par année pour une amélioration de la diversité du paysage agricole. D’autre part, leur volonté à payer pour l’amélioration de l’état des milieux humides du Québec est estimée entre 389 et 455 dollars par ménage par année. L’utilisation conjointe des deux méthodes nous a permis d’en comparer les résultats. Nous avons en outre démontré que le choix du format de question de valorisation de l’évaluation contingente affecte la convergence des résultats.
Enfin, nous avons proposé des pistes de recherches futures portant sur l’intégration des démarches d’analyse biophysique, économique et politique dans des outils de prise de décision mieux adaptés à la dynamique des écosystèmes, de la biodiversité et des communautés humaines. / Ecosystem services (ES) refer to benefits produced and sustained by biodiversity and ecosystems that benefit humans. In many cases, they are not considered in the economic system. This externalization of SE generates decisions on land use and natural resources that ignore their contribution to the well-being of communities. In order to raise awareness of the importance of ES and better integrate them into decision-making processes, economic approaches to value ES have been developed.
In this thesis, we sought to understand both how the past and current land use in the Montreal area affects the value of ES and how these natural amenities are perceived and valued by the population in a future planning and management perspective. To accomplish this, we used two approaches: spatial analysis using geographic information systems and analysis of stated preferences by survey techniques.
In the spatial analysis approach, we combined cartographic analyzes to monetary values associated to ES published in the literature. We then estimated the value of ecosystems using benefit transfer, direct market prices and avoided costs methods. This approach has allowed us to understand the relationship between the current land use in the Greater Montreal and the economic value of the services provided by ecosystems, which we estimated at 2.2 billion dollars per year. It also allowed us to estimate the effects of land use changes between 1960 and 2010 on the value of ES. We showed that despite different land use planning policies implemented to manage urban sprawl during this period, non-market economic losses related to ES have reached 236 million dollars per year.
In the stated preferences approach, we used two methods, contingent valuation and choice experiment, with the aim of measuring the willingness to pay of respondents for proposed changes in their environment. In a first study, we showed that respondents significantly value the impact of agri-environmental practices on the quality of the environment and landscapes and are willing to pay between 159 and 333 dollars per household per year on improving the diversity of agricultural landscape. In a second study, their willingness to pay on improving the status of wetlands in Quebec is estimated at between 389 and 455 dollars per household per year. The combined use of the two methods allowed us to compare the results. We also demonstrated that the choice of valuation question format in contingent valuation affects the convergence of the results.
Finally, we propose directions for future research related to the integration of ecological, economic and political analyzes of ES that would lead to better assessments of the dynamics of ecosystems, biodiversity and human communities.
|
45 |
Des tâches d’évaluation en mathématiques au livret scolaire : Étude qualitative des pratiques de huit enseignants de CM1 et CM2 / Assessment tasks in mathematics schoolbook : Qualitative study of practices of eight teachers CM1 and CM2Sebaï, Nassira 25 October 2012 (has links)
L’approche par les compétences fait partie de la rénovation des systèmes éducatifs. La loi de 1990 institue, pour chaque élève, un livret scolaire qui s’appuie sur des référentiels de compétences. Nous étudions les pratiques d’évaluation et du quotidien de huit professeurs des écoles de CM1 et de CM2. Notre recherche, descriptive, se place dans le cadre des réflexions sur les pratiques enseignantes. Elle se situe dans le champ de la didactique et s’appuie sur des contenus disciplinaires en mathématiques dans deux domaines de connaissance : les fractions et la résolution de problèmes. Notre dispositif d’étude des pratiques enseignantes s’appuie sur un corpus constitué de tâches d’évaluation et de tâches du quotidien ainsi que sur des entretiens à visée compréhensive pendant lesquels les maîtres corrigent les copies de trois à quatre élèves de niveau scolaire moyen choisies par eux. Il s’agit de comprendre le processus d’évaluation depuis le choix des tâches jusqu’au remplissage du livret scolaire qui sert à communiquer sur les acquis des élèves. Nos résultats montrent que l’évaluation des compétences se fait chez l’ensemble des professeurs à travers des tâches standardisées dans le domaine des fractions. Dans la résolution de problèmes, les tâches sont décomposées chez les professeurs qui adhèrent à l’APC alors qu’elles ne le sont pas chez ceux qui ne se préoccupent pas des compétences. Lors de l’évaluation des productions des élèves, les erreurs n’ont pas un statut « formatif ». Les livrets scolaires ont une fonction sommative. Ils fonctionnent comme des bulletins de notes. / The competency-based instruction is an integral part of the renewal of education systems. The 1990 law introduces, for each pupil, a report book based on reference frameworks for competences. We study the evaluation practices and the daily professional lives of eight 4th-5th grade teachers. Our research adopts a descriptive approach and comes within the reflections on teaching practices. It belongs to the field of didactics and employs subject-specific contents in two knowledge fields of mathematics, i.e. the fractions and problem solving. Our study scheme for teaching practices lies on a corpus of evaluation and daily tasks as well as on a set of comprehensive interviews during which the teachers select and grade the exams of three or four pupils with an average school level. The aim is to understand the evaluation process from the choice of tasks to the filling up of report books which serve as communication supports for the pupils’ achievements.The results show that, for all teachers, the evaluation of competences is achieved through a set of standardized tasks in the field of fractions. Regarding the problem solving field teachers supporting the APC break down the tasks while teachers, that are less concerned about the competences, do not proceed in the same manner. During the pupils’ evaluation, the mistakes do not have any formative function. The report books carry out a summative function. They are assimilated to grades reports
|
46 |
Façons de faire l’évaluation formative d’enseignants de français sénégalais : une analyse de leurs savoirs pratiques en contexte d’effectifs pléthoriques au Lycée.Diedhiou, Serigne Ben Moustapha (S.B.M.) 12 1900 (has links)
Cette recherche documente les façons de faire l’évaluation formative d’enseignants de français du Lycée exerçant en contexte de classes pléthoriques au Sénégal. Le choix récent dans ce pays de l’approche par compétences invite à privilégier cette fonction de l’évaluation, au regard de son potentiel pour la progression des apprentissages des élèves (Allal & Mottier Lopez, 2005; Black & Wiliam, 2009; Morrissette, 2010). Cependant, les orientations ministérielles concernant sa mise en œuvre sont très générales, et jusqu’ici, la recherche a laissé dans l’ombre son application en contexte de classes pléthoriques.
Puisant au domaine des savoirs pratiques (Schön, 1983) et à une vision interactive et située de l’évaluation formative (Mottier Lopez, 2007; Morrissette, 2010), j’ai conduit une démarche de recherche collaborative auprès de 14 enseignants de français exerçant dans le même Lycée, ponctuée par 6 entretiens de groupe. Un premier registre d’analyse a décrit des façons de faire rattachées à trois dimensions de la pratique de l’évaluation formative: l’analyse du contexte de la pratique, la construction négociée du savoir et la gestion de l’effectif. Un second registre d’analyse de leurs façons de faire en contexte d’«étrangeté culturelle» (Douville, 2002) a permis de conceptualiser leur savoir-évaluer en relation avec leur façon d’interpréter les problèmes qui se posent aux élèves, leur conception de l’erreur et leurs manières de réinventer les modes d’accomplissement traditionnels de l’évaluation ancrés dans la culture scolaire. / This research documents the ways formative assessment is operationalized by French teachers working in the context of overcrowded classrooms in a Senegalese High School. The recent choice for implementing the competency-based approach in this country invites teachers to promote the use of formative assessment which is geared towards the provision of high quality learning (Allal & Mottier Lopez, 2005, Black & Wiliam, 2009 Morrissette, 2010). However, Ministerial guidelines for its implementation are very general, and so far, research has not been carried out as regards its application in overcrowded classes.
Building on the field of reflective practice (Schön, 1983) and an interactive situated vision of formative assessment (Mottier Lopez, 2007; Morrissette, 2010), I led a collaborative research with 14 French teachers working in the same High School. Six focus groups discussions were carried out which shed light on three dimensions related to formative assessment practices: contextual analysis of teacher practices, the negotiated construction of knowledge and the management of the overcrowded classrooms. Analysis of formative assessment practices in the context of « cultural strangeness » (free translation) (Douville, 2002) helped to conceptualize their know-how on evaluation in light of how they interpret the problems faced by students, their conception of what error constitutes and the ways they reinvent the traditional performance evaluation methods rooted in the school culture.
|
47 |
Choix de portefeuille de grande taille et mesures de risque pour preneurs de décision pessimistesNoumon, Codjo Nérée Gildas Maxime 08 1900 (has links)
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées.
Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère.
Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays.
Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011. / This thesis consists of three chapters on the topics of portfolio choice in a high-dimensional context, and risk measurement. The first chapter addresses the estimation error issue that arises when constructing large portfolios in the mean-variance framework. The second chapter investigates the relevance of currency risk for optimal domestic portfolios, evaluates their ability of to diversify away currency risk, and study the links between portfolio weights stability and currency risk. Finally, under the assumption that decision makers are pessimistic, the third chapter derives the risk premium, propose a measure of the degree of pessimism, and provide a statistical framework for their estimation.
The first chapter improves the performance of the optimal portfolio weig-hts obtained under the mean-variance framework of Markowitz (1952). Indeed, these weights give unsatisfactory results, when the mean and variance are replaced by their sample counterparts (plug-in rules). This problem is amplified when the number of assets is large and the sample covariance is singular or nearly singular. The chapter investigates four regularization techniques to stabilizing the inverse of the covariance matrix: the ridge, spectral cut-off, Landweber-Fridman, and LARS Lasso. These four methods involve a tuning parameter that needs to be selected. The main contribution is to derive a data-based method for selecting the tuning parameter in an optimal way, i.e. in order to minimize the expected loss in utility of a mean-variance investor. The cross-validation type criterion derived is found to take a similar form for the four regularization methods. The resulting regularized rules are compared to the sample-based mean-variance portfolio and the naive 1/N strategy in terms of in-sample and out-of-sample Sharpe ratio and expected loss in utility. The main finding is that regularization to covariance matrix significantly improves the performance of the mean-variance problem and outperforms the naive portfolio, especially in ill-posed cases, as suggested by our simulations and empirical studies.
In the second chapter, we investigate the extent to which optimal and stable portfolios of domestic assets can reduce or eliminate currency risk. This is done using monthly returns on 48 U.S. industries, from 1976 to 2008. To tackle the instabilities inherent to large portfolios, we use the spectral cut-off regularization described in Chapter 1. This gives rise to a family of stable global minimum portfolios that allows investors to select different percentages of principal components for portfolio construction. Our empirical tests are based on a conditional International Asset Pricing Model (IAPM), augmented with the size and book-to-market factors of Fama and French (1993). Using two trade-weighted currency indices of industrialized countries currencies and emerging markets currencies, we find that currency risk is priced and time-varying for global minimum portfolios. These strategies also lead to a significant reduction in the exposure to currency risk, while keeping the average premium contribution to total premium approximately the same. The global minimum weights considered are an alternative to market capitalization weights used in the U.S. market index. Therefore, our findings complement the well established results that currency risk is significantly priced and economically meaningful at the industry and country level in most countries.
Finally, the third chapter derives a measure of the risk premium for rank-dependent preferences and proposes a measure of the degree of pessimism, given a distortion function. The introduced measures generalize the common risk measures derived in the expected utility theory framework, which is frequently violated in both experimental and real-life situations. These measures are derived in the neighborhood of a given random loss variable, using the notion of local utility function. A particular interest is devoted to the CVaR, which is now widely used for asset allocation and has been advocated to complement the Value-at-risk (VaR) proposed since 1996 by the Basel Committee on Banking Supervision. We provide the statistical framework needed to conduct inference on the derived measures. Finally, the proposed estimators
|
48 |
Towards the identification of a neighbourhood park typology : a conceptual and methodological explorationBird, Madeleine 08 1900 (has links)
Peu d’études ont évalué les caractéristiques des parcs pouvant encourager l’activité physique spécifiquement chez les jeunes. Cette étude vise à estimer la fiabilité d’un outil d’observation des parcs orienté vers les jeunes, à identifier les domaines conceptuels des parcs capturés par cet outil à l’aide d’une opérationnalisation du modèle conceptuel des parcs et de l’activité physique et à identifier différents types de parcs.
Un total de 576 parcs ont été évalués en utilisant un outil d’évaluation des parcs. La fiabilité intra-juges et la fiabilité inter-juges de cet outil ont été estimées. Une analyse exploratoire par composantes principales (ACP) a été effectuée en utilisant une rotation orthogonale varimax et les variables étaient retenues si elles saturaient à ≥0.3 sur une composante. Une analyse par grappes (AG) à l’aide de la méthode de Ward a ensuite été réalisée en utilisant les composantes principales et une mesure de l’aire des parcs. L’outil était généralement fiable et l’ACP a permis d'identifier dix composantes principales qui expliquaient 60% de la variance totale. L’AG a donné un résultat de neuf grappes qui expliquaient 40% de la variance totale. Les méthodes de l’ACP et l’AG sont donc faisables avec des données de parcs. Les résultats ont été interprétés en utilisant l’opérationnalisation du modèle conceptuel. / Few studies have characterized park features that may be appealing for youth physical activity (PA). This study assesses the reliability of a youth-oriented direct-observation park assessment tool; identifies park domains captured by the tool using an operationalized conceptual model of parks and PA, and identifies distinct park types.
576 parks were audited using a park observation tool; intra- and inter-rater reliability were estimated. Exploratory principal component analysis (PCA) was conducted and variables were retained if they loaded at 0.3 or higher. A cluster analysis (CA) was conducted using the principal components and park area. The tool was found to be reliable and PCA yielded ten principal components explaining 60% of the total variance. The CA yielded a nine-cluster outcome explaining 40% of the total variance. PCA and CA were found to be feasible methods to use with park data. The operationalization of the conceptual model helped interpret these results.
|
49 |
Façons de faire l’évaluation formative d’enseignants de français sénégalais : une analyse de leurs savoirs pratiques en contexte d’effectifs pléthoriques au LycéeDiedhiou, Serigne Ben Moustapha 12 1900 (has links)
No description available.
|
50 |
Towards the identification of a neighbourhood park typology : a conceptual and methodological explorationBird, Madeleine 08 1900 (has links)
Peu d’études ont évalué les caractéristiques des parcs pouvant encourager l’activité physique spécifiquement chez les jeunes. Cette étude vise à estimer la fiabilité d’un outil d’observation des parcs orienté vers les jeunes, à identifier les domaines conceptuels des parcs capturés par cet outil à l’aide d’une opérationnalisation du modèle conceptuel des parcs et de l’activité physique et à identifier différents types de parcs.
Un total de 576 parcs ont été évalués en utilisant un outil d’évaluation des parcs. La fiabilité intra-juges et la fiabilité inter-juges de cet outil ont été estimées. Une analyse exploratoire par composantes principales (ACP) a été effectuée en utilisant une rotation orthogonale varimax et les variables étaient retenues si elles saturaient à ≥0.3 sur une composante. Une analyse par grappes (AG) à l’aide de la méthode de Ward a ensuite été réalisée en utilisant les composantes principales et une mesure de l’aire des parcs. L’outil était généralement fiable et l’ACP a permis d'identifier dix composantes principales qui expliquaient 60% de la variance totale. L’AG a donné un résultat de neuf grappes qui expliquaient 40% de la variance totale. Les méthodes de l’ACP et l’AG sont donc faisables avec des données de parcs. Les résultats ont été interprétés en utilisant l’opérationnalisation du modèle conceptuel. / Few studies have characterized park features that may be appealing for youth physical activity (PA). This study assesses the reliability of a youth-oriented direct-observation park assessment tool; identifies park domains captured by the tool using an operationalized conceptual model of parks and PA, and identifies distinct park types.
576 parks were audited using a park observation tool; intra- and inter-rater reliability were estimated. Exploratory principal component analysis (PCA) was conducted and variables were retained if they loaded at 0.3 or higher. A cluster analysis (CA) was conducted using the principal components and park area. The tool was found to be reliable and PCA yielded ten principal components explaining 60% of the total variance. The CA yielded a nine-cluster outcome explaining 40% of the total variance. PCA and CA were found to be feasible methods to use with park data. The operationalization of the conceptual model helped interpret these results.
|
Page generated in 0.1048 seconds