• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 157
  • 46
  • 9
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 218
  • 96
  • 50
  • 31
  • 26
  • 26
  • 25
  • 24
  • 22
  • 21
  • 20
  • 20
  • 20
  • 18
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Identification paramétrique en dynamique transitoire : traitement d’un problème couplé aux deux bouts / Parametric identification in transiant dynamic : traitment of a boundary value problem

Nouisri, Amine 18 November 2015 (has links)
Les travaux de thèse portent sur l'identification paramétrique en dynamique transitoire à partir des mesures fortement bruitées, l'un des objectifs à long terme étant de proposer une méthode d’identification peu intrusive afin de pouvoir être implémentée dans des codes de calcul éléments finis commerciaux. Dans ce travail, le concept de l'erreur en relation de comportement modifiée a été retenu pour traiter le problème d’identification des paramètres matériau. La minimisation de la fonctionnelle coût sous contraintes débouche, dans le cas de la dynamique transitoire, sur un problème dit « aux deux bouts » dans lequel il s’agit de résoudre un problème différentiel spatio-temporel avec des conditions à la fois initiales et finales en temps. Il en résulte un problème couplé entre les champs direct et adjoint dont le traitement est délicat. Dans un premier temps, des méthodes précédemment développées telles que la « méthode de Riccati » et la « méthode de tirs » ont été étudiées. Il est montré que l’identification par ces méthodes est robuste même pour des mesures fortement corrompues, mais qu’elles sont limitées par la complexité d’implémentation dans un code industriel, des problèmes de conditionnement ou de coût de calcul. Dans un second temps, une approche itérative basée sur une méthode de sur-relaxation a été développée et comparée à celles précédemment mentionnées sur des exemples académiques, validant l’intérêt de cette nouvelle approche. Enfin, des comparaisons ont été menées entre cette technique et une variante « discrétisée » de la formulation introduite par Bonnet et Aquino [Inverse Problems, vol. 31, 2015]. / This thesis deals with parameters identification in transient dynamic in case of highly noisy experimental data. One long-term goal is the derivation of a non-intrusive method dedicated to the implementation in a commercial finite element code.In this work, the modified error in the constitutive relation framework is used to treat the identification of material parameters. The minimization of the cost function under constraints leads, in the case of transient dynamics, to a « two points boundary value problem » in which the differential space-time problem involves both initial and final time conditions. This results in a problem coupling the direct and adjoint fields, whose treatment is difficult.In the first part, methods such as those based on the « Riccati equations » and the « shooting methods » have been studied. It is shown that the identification is robust even in the case of highly corrupted measures, but these methods are limited either by the implementation intrusiveness, conditioning problems or the numerical cost.In the second part, an iterative over-relaxation approach is developed and compared to the aforementioned approaches on academic problems in order to validate the interest of the method. Finally, comparisons are carried out between this approach and a « discretized » variation of the formulation introduced by Bonnet and Aquino [Inverse Problems, vol. 31, 2015].
192

L'influence du documentaire militant sur les conceptions de la forêt : une analyse des représentations sociales de la forêt entourant le film L'erreur boréale dans la presse écrite

Paré, Isabelle 19 April 2018 (has links)
événements, comme la diffusion du documentaire militant L'erreur boréale, de Richard Desjardins et Robert Monderie, propulsent les débats sur la place publique, alimentant la polémique. Ce documentaire environnemental militant, dont la portée significative fait consensus, est un pionnier du genre au Québec. Étudier les traces de la controverse qu'il a soulevée dans la presse écrite, un média perçu comme offrant une perspective unique sur les enjeux environnementaux, s'impose parce qu'elle est un lieu d'accès particulièrement fécond d'un point de vue communicationnel. Postulant, à la suite de Callon et ses collègues (2001), que toute controverse est une occasion d'exploration et d'apprentissage des enjeux soulevés, nous analysons en quoi la diffusion du documentaire a influencé les conceptions de la forêt véhiculées dans la presse écrite au travers la controverse déclenchée. Une approche méthodologique dite mixte, mettant de l'avant un devis explicatif séquentiel, a été employée. La combinaison d'une analyse de similitude et d'une analyse thématique du contenu a permis de dégager les représentations sociales (RS) de la forêt, tel qu'elles sont véhiculées dans les quotidiens La Tribune et Le Soleil, avant et après la diffusion de L'erreur boréale. Dans La Tribune, l'analyse des RS avant la diffusion du film a permis d'en dégager une, la forêt généreuse. La controverse a entraîné l'émergence ou la transformation de quatre RS : la forêt joyau, la forêt dure mais généreuse, la forêt menacée et la forêt abstraite. Dans le cas du Le Soleil, la situation est plus éclatée. Cinq RS de la forêt sont dégagées : la forêt gagne-pain, la forêt-entreprise, la forêt matière première, la forêt-fierté et la forêt ravagée. Après la diffusion du documentaire, la situation est si foisonnante que seuls les contours préfigurant d'éventuelles RS se laissent deviner. On constate alors que la forêt semble conçue pour les problèmes qu'elle soulève : problèmes économique, législatif, spécialisé, émotif, de relations publiques ou de collusion. Les résultats suggèrent l'influence notable de la diffusion de L'erreur boréale sur les conceptions de la forêt véhiculées dans la presse écrite des suites de la controverse que ce documentaire a suscitée.
193

L’erreur lexicale au secondaire : analyse d’erreurs lexicales d’élèves de 3e secondaire et description du rapport à l’erreur lexicale d’enseignants de français

Anctil, Dominic 12 1900 (has links)
Cette recherche vise à décrire 1) les erreurs lexicales commises en production écrite par des élèves francophones de 3e secondaire et 2) le rapport à l’erreur lexicale d’enseignants de français (conception de l’erreur lexicale, pratiques d’évaluation du vocabulaire en production écrite, modes de rétroaction aux erreurs lexicales). Le premier volet de la recherche consiste en une analyse d’erreurs à trois niveaux : 1) une description linguistique des erreurs à l’aide d’une typologie, 2) une évaluation de la gravité des erreurs et 3) une explication de leurs sources possibles. Le corpus analysé est constitué de 300 textes rédigés en classe de français par des élèves de 3e secondaire. L’analyse a révélé 1144 erreurs lexicales. Les plus fréquentes sont les problèmes sémantiques (30%), les erreurs liées aux propriétés morphosyntaxiques des unités lexicales (21%) et l’utilisation de termes familiers (17%). Cette répartition démontre que la moitié des erreurs lexicales sont attribuables à une méconnaissance de propriétés des mots autres que le sens et la forme. L’évaluation de la gravité des erreurs repose sur trois critères : leur acceptation linguistique selon les dictionnaires, leur impact sur la compréhension et leur degré d’intégration à l’usage. Les problèmes liés aux registres de langue sont généralement ceux qui sont considérés comme les moins graves et les erreurs sémantiques représentent la quasi-totalité des erreurs graves. Le troisième axe d’analyse concerne la source des erreurs et fait ressortir trois sources principales : l’influence de la langue orale, la proximité sémantique et la parenté formelle entre le mot utilisé et celui visé. Le second volet de la thèse concerne le rapport des enseignants de français à l’erreur lexicale et repose sur l’analyse de 224 rédactions corrigées ainsi que sur une série de huit entrevues menées avec des enseignants de 3e secondaire. Lors de la correction, les enseignants relèvent surtout les erreurs orthographiques ainsi que celles relevant des propriétés morphosyntaxiques des mots (genre, invariabilité, régime), qu’ils classent parmi les erreurs de grammaire. Les erreurs plus purement lexicales, c’est-à-dire les erreurs sémantiques, l’emploi de termes familiers et les erreurs de collocation, demeurent peu relevées, et les annotations des enseignants concernant ces types d’erreurs sont vagues et peu systématiques, donnant peu de pistes aux élèves pour la correction. L’évaluation du vocabulaire en production écrite est toujours soumise à une appréciation qualitative, qui repose sur l’impression générale des enseignants plutôt que sur des critères précis, le seul indicateur clair étant la répétition. Les explications des enseignants concernant les erreurs lexicales reposent beaucoup sur l’intuition, ce qui témoigne de certaines lacunes dans leur formation en lien avec le vocabulaire. Les enseignants admettent enseigner très peu le vocabulaire en classe au secondaire et expliquent ce choix par le manque de temps et d’outils adéquats. L’enseignement du vocabulaire est toujours subordonné à des tâches d’écriture ou de lecture et vise davantage l’acquisition de mots précis que le développement d’une réelle compétence lexicale. / This research aims to describe 1) francophone students’ lexical errors in writing and 2) teachers’ relation to lexical errors (conception of error, vocabulary evaluation practices, feedback provided). The first part of the research consists in a three-level error analysis: 1) a linguistic description based on an error typology, 2) an evaluation of error gravity and 3) an explanation of the possible sources of error. The corpus analyzed is composed of 300 texts written in French class by 3rd year high school students. The analysis revealed 1144 lexical errors. The most common are semantic problems (30%), errors related to morphosyntactic properties of words (21%) and the use of colloquial words (17%). This distribution shows that half of the lexical errors are due to a lack of knowledge of word properties other than meaning and form. The evaluation of error gravity is based on three criteria: their acceptability according to dictionaries, their impact on comprehension and their degree of integration to language. Problems related to register are usually those perceived as less serious and semantic problems represent the vast majority of serious errors. The third level of analysis concerns the possible causes of the errors and identifies three main sources: influence of oral language, semantic proximity and formal similarity between the word used and the target word. The second part of the thesis concerns French teachers’ relation to lexical errors and is based on the analysis of 224 corrected essays and eight interviews. When correcting, teachers focus their attention on errors involving morphosyntactic properties of words (gender, invariability, government pattern), which they consider as grammatical errors. The more genuine lexical errors (semantic errors, use of colloquial words and collocation errors) are rarely pointed out, and comments provided regarding these types of errors are vague and inconsistent, giving students very few hints for correction. The evaluation of vocabulary in written production is always subject to a qualitative assessment, based on the teacher’s general impression rather than specific criteria, the only clear indicator being repetition. The explanations teachers provide about lexical problems rely heavily on intuition, which shows some deficiencies in their training in regards to vocabulary.
194

Choix de portefeuille de grande taille et mesures de risque pour preneurs de décision pessimistes

Noumon, Codjo Nérée Gildas Maxime 08 1900 (has links)
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011. / This thesis consists of three chapters on the topics of portfolio choice in a high-dimensional context, and risk measurement. The first chapter addresses the estimation error issue that arises when constructing large portfolios in the mean-variance framework. The second chapter investigates the relevance of currency risk for optimal domestic portfolios, evaluates their ability of to diversify away currency risk, and study the links between portfolio weights stability and currency risk. Finally, under the assumption that decision makers are pessimistic, the third chapter derives the risk premium, propose a measure of the degree of pessimism, and provide a statistical framework for their estimation. The first chapter improves the performance of the optimal portfolio weig-hts obtained under the mean-variance framework of Markowitz (1952). Indeed, these weights give unsatisfactory results, when the mean and variance are replaced by their sample counterparts (plug-in rules). This problem is amplified when the number of assets is large and the sample covariance is singular or nearly singular. The chapter investigates four regularization techniques to stabilizing the inverse of the covariance matrix: the ridge, spectral cut-off, Landweber-Fridman, and LARS Lasso. These four methods involve a tuning parameter that needs to be selected. The main contribution is to derive a data-based method for selecting the tuning parameter in an optimal way, i.e. in order to minimize the expected loss in utility of a mean-variance investor. The cross-validation type criterion derived is found to take a similar form for the four regularization methods. The resulting regularized rules are compared to the sample-based mean-variance portfolio and the naive 1/N strategy in terms of in-sample and out-of-sample Sharpe ratio and expected loss in utility. The main finding is that regularization to covariance matrix significantly improves the performance of the mean-variance problem and outperforms the naive portfolio, especially in ill-posed cases, as suggested by our simulations and empirical studies. In the second chapter, we investigate the extent to which optimal and stable portfolios of domestic assets can reduce or eliminate currency risk. This is done using monthly returns on 48 U.S. industries, from 1976 to 2008. To tackle the instabilities inherent to large portfolios, we use the spectral cut-off regularization described in Chapter 1. This gives rise to a family of stable global minimum portfolios that allows investors to select different percentages of principal components for portfolio construction. Our empirical tests are based on a conditional International Asset Pricing Model (IAPM), augmented with the size and book-to-market factors of Fama and French (1993). Using two trade-weighted currency indices of industrialized countries currencies and emerging markets currencies, we find that currency risk is priced and time-varying for global minimum portfolios. These strategies also lead to a significant reduction in the exposure to currency risk, while keeping the average premium contribution to total premium approximately the same. The global minimum weights considered are an alternative to market capitalization weights used in the U.S. market index. Therefore, our findings complement the well established results that currency risk is significantly priced and economically meaningful at the industry and country level in most countries. Finally, the third chapter derives a measure of the risk premium for rank-dependent preferences and proposes a measure of the degree of pessimism, given a distortion function. The introduced measures generalize the common risk measures derived in the expected utility theory framework, which is frequently violated in both experimental and real-life situations. These measures are derived in the neighborhood of a given random loss variable, using the notion of local utility function. A particular interest is devoted to the CVaR, which is now widely used for asset allocation and has been advocated to complement the Value-at-risk (VaR) proposed since 1996 by the Basel Committee on Banking Supervision. We provide the statistical framework needed to conduct inference on the derived measures. Finally, the proposed estimators
195

Approche cognitive en didactique des langues : analyse et interprétation d'erreurs écrites prototypiques en français langue étrangère par des apprenants chinois et remédiation / A cognitive approach to language learning : an analysis and interpretation of chinese learners’ writing prototypical errors in french as a foreign language and remedial work / 认知角度的语言教学 : 从中国学生法语学习的典型错误分析及对策出发

Ying, Xiaohua 14 June 2013 (has links)
Notre thèse est une thèse de linguistique française. Elle a pour but d’analyser et d’interpréter les erreurs à l’écrit en FLE par des apprenants chinois aux niveaux débutant et intermédiaire, de proposer un processus de remédiation aux erreurs récurrentes ayant un certain degré de prototypie et de procurer une meilleure méthodologie en didactique du FLE en Chine. L’erreur n’est pas un item à corriger qui implique le remplacement par une forme correcte, mais un révélateur significatif qui nous permet d’entrevoir le processus d’apprentissage chez l’apprenant. Notre analyse d’erreurs adopte donc une dimension cognitive. Du point de vue théorique, elle porte sur l’analyse linguistique des erreurs ; du point de vue pratique, elle porte sur la remédiation envisageable comprenant à la fois une micro-remédiation qui recherche la motivation linguistique permettant de faciliter l’apprentissage des points langue et une macro-remédiation qui vise à promouvoir une approche cognitive en didactique du FLE afin de doter l’apprenant d’une compétence métacognitive et de le transformer en sujet de l’apprentissage. / This is a PhD dissertation in French linguistics. The main purpose of this dissertation is to analyse and interpret the error made by Chinese primary or intermediate learners, to propose some remedial measures for those recurring and prototypical errors, and to provide a better teaching methodology in teaching French as a foreign language in China. An error is not only an item to be replaced by a correct form, but a significant revealer which allows us to glimpse the learning process of learners. This thesis is to adopt a cognitive approach. From a theoretical point of view, it concerns the linguistic analysis of errors; from a practical point of view, it concerns feasible remedial measures which comprise a micro-remediation and a macro-remediation. The former studies the language motivation in order to make language learning easier and the latter seeks to promote a cognitive approach in teaching in order to train the metacognitive learner and to transform the learner into the subject of learning. / 本论文是一篇法语语言学方向的博士论文,旨在分析和阐释中国法语学习者语言错误,对学习者常犯的、具有典型性的错误寻求解决对策,并找到适合中国学生法语学习的教学法。我们的研究以初级和中级水平的法语学习者的写作错误为对象。错误不是一个只需用正确形式代替或“订正”的内容,它为我们探究学习过程提供了可能,具有重要意义。论文从认知角度对错误进行分析和阐述,并寻找错误解决的可行性对策,具有理论和实践的双重意义。对错误的对策研究从微观和宏观两方面展开:前者针对学习者的主要错误,寻找相关语言点的语言理据,力求降低学习难度;后者提倡在法语外语教学中推行认知教学法,培养学习者的元认知能力,使学习者转变为学习过程的主体。
196

Vers une stratégie robuste et efficace pour le contrôle des calculs par éléments finis en ingénierie mécanique / Towards a robust and effective strategy for the control of finite element computations in mechanical engineering

Pled, Florent 13 December 2012 (has links)
Ce travail de recherche vise à contribuer au développement de nouveaux outils d'estimation d'erreur globale et locale en ingénierie mécanique. Les estimateurs d'erreur globale étudiés reposent sur le concept d'erreur en relation de comportement à travers des techniques spécifiques de construction de champs admissibles, assurant l'aspect conservatif ou garanti de l'estimation. Une nouvelle méthode de construction de champs admissibles est mise en place et comparée à deux autres méthodes concurrentes, en matière de précision, coût de calcul et facilité d'implémentation dans les codes éléments finis. Une amélioration de cette nouvelle méthode hybride fondée sur une minimisation locale de l'énergie complémentaire est également proposée. Celle-ci conduit à l'introduction et à l'élaboration de critères géométriques et énergétiques judicieux, permettant un choix approprié des régions à sélectionner pour améliorer localement la qualité des champs admissibles. Dans le cadre des estimateurs d'erreur locale basés sur l'utilisation conjointe des outils d'extraction et des estimateurs d'erreur globale, deux nouvelles techniques d'encadrement de l'erreur en quantité d'intérêt sont proposées. Celles-ci sont basées sur le principe de Saint-Venant à travers l'emploi de propriétés spécifiques d'homothétie, afin d'améliorer la précision des bornes d'erreur locale obtenues à partir de la technique d'encadrement classique fondée sur l'inégalité de Cauchy-Schwarz. Les diverses études comparatives sont menées dans le cadre des problèmes d'élasticité linéaire en quasi-statique. Le comportement des différents estimateurs d'erreur est illustré et discuté sur des exemples numériques tirés d'applications industrielles. Les travaux réalisés constituent des éléments de réponse à la problématique de la vérification dans un contexte industriel. / This research work aims at contributing to the development of innovative global and goal-oriented error estimation tools applied to Computational Mechanics. The global error estimators considered rely on the concept of constitutive relation error through specific techniques for constructing admissible fields ensuring the recovery of strict and high-quality error estimates. A new hybrid method for constructing admissible stress fields is set up and compared to two other techniques with respect to three different criteria, namely the quality of associated error estimators, the computational cost and the simplicity of practical implementation into finite element codes. An enhanced version of this new technique based on local minimization of the complementary energy is also proposed. Judicious geometric and energetic criteria are introduced to select the relevant zones for optimizing the quality of the admissible fields locally. In the context of goal-oriented error estimation based on the use of both extraction techniques and global error estimators, two new improved bounding techniques are proposed. They lean on Saint-Venant's principle through specific homotheticity properties in order to obtain guaranteed and relevant bounds of better quality than with the classical bounding technique based on the Cauchy-Schwarz inequality. The various comparative studies are conducted on linear elasticity problems under quasi-static loading conditions. The behaviour of the different error estimators is illustrated and discussed through several numerical experiments carried out on industrial cases. The associated results may open up opportunities and help broaden the field of model verification for both academic research and industrial applications.
197

Inverse problems occurring in uncertainty analysis / Inversion probabiliste bayésienne en analyse d'incertitude

Fu, Shuai 14 December 2012 (has links)
Ce travail de recherche propose une solution aux problèmes inverses probabilistes avec des outils de la statistique bayésienne. Le problème inverse considéré est d'estimer la distribution d'une variable aléatoire non observée X à partir d'observations bruitées Y suivant un modèle physique coûteux H. En général, de tels problèmes inverses sont rencontrés dans le traitement des incertitudes. Le cadre bayésien nous permet de prendre en compte les connaissances préalables d'experts en particulier lorsque peu de données sont disponibles. Un algorithme de Metropolis-Hastings-within-Gibbs est proposé pour approcher la distribution a posteriori des paramètres de X avec un processus d'augmentation des données. A cause d'un nombre élevé d'appels, la fonction coûteuse H est remplacée par un émulateur de krigeage (métamodèle). Cette approche implique plusieurs erreurs de natures différentes et, dans ce travail,nous nous attachons à estimer et réduire l'impact de ces erreurs. Le critère DAC a été proposé pour évaluer la pertinence du plan d'expérience (design) et le choix de la loi apriori, en tenant compte des observations. Une autre contribution est la construction du design adaptatif adapté à notre objectif particulier dans le cadre bayésien. La méthodologie principale présentée dans ce travail a été appliquée à un cas d'étude en ingénierie hydraulique. / This thesis provides a probabilistic solution to inverse problems through Bayesian techniques.The inverse problem considered here is to estimate the distribution of a non-observed random variable X from some noisy observed data Y explained by a time-consuming physical model H. In general, such inverse problems are encountered when treating uncertainty in industrial applications. Bayesian inference is favored as it accounts for prior expert knowledge on Xin a small sample size setting. A Metropolis-Hastings-within-Gibbs algorithm is proposed to compute the posterior distribution of the parameters of X through a data augmentation process. Since it requires a high number of calls to the expensive function H, the modelis replaced by a kriging meta-model. This approach involves several errors of different natures and we focus on measuring and reducing the possible impact of those errors. A DAC criterion has been proposed to assess the relevance of the numerical design of experiments and the prior assumption, taking into account the observed data. Another contribution is the construction of adaptive designs of experiments adapted to our particular purpose in the Bayesian framework. The main methodology presented in this thesis has been applied to areal hydraulic engineering case-study.
198

Vers une stratégie robuste et efficace pour le contrôle des calculs par éléments finis en ingénierie mécanique

Pled, Florent 13 December 2012 (has links) (PDF)
Ce travail de recherche vise à contribuer au développement de nouveaux outils d'estimation d'erreur globale et locale en ingénierie mécanique. Les estimateurs d'erreur globale étudiés reposent sur le concept d'erreur en relation de comportement à travers des techniques spécifiques de construction de champs admissibles, assurant l'aspect conservatif ou garanti de l'estimation. Une nouvelle méthode de construction de champs admissibles est mise en place et comparée à deux autres méthodes concurrentes, en matière de précision, coût de calcul et facilité d'implémentation dans les codes éléments finis. Une amélioration de cette nouvelle méthode hybride fondée sur une minimisation locale de l'énergie complémentaire est également proposée. Celle-ci conduit à l'introduction et à l'élaboration de critères géométriques et énergétiques judicieux, permettant un choix approprié des régions à sélectionner pour améliorer localement la qualité des champs admissibles. Dans le cadre des estimateurs d'erreur locale basés sur l'utilisation conjointe des outils d'extraction et des estimateurs d'erreur globale, deux nouvelles techniques d'encadrement de l'erreur en quantité d'intérêt sont proposées. Celles-ci sont basées sur le principe de Saint-Venant à travers l'emploi de propriétés spécifiques d'homothétie, afin d'améliorer la précision des bornes d'erreur locale obtenues à partir de la technique d'encadrement classique fondée sur l'inégalité de Cauchy-Schwarz. Les diverses études comparatives sont menées dans le cadre des problèmes d'élasticité linéaire en quasi-statique. Le comportement des différents estimateurs d'erreur est illustré et discuté sur des exemples numériques tirés d'applications industrielles. Les travaux réalisés constituent des éléments de réponse à la problématique de la vérification dans un contexte industriel.
199

Récursivité au carrefour de la modélisation de séquences, des arbres aléatoires, des algorithmes stochastiques et des martingales

Cénac, Peggy 15 November 2013 (has links) (PDF)
Ce mémoire est une synthèse de plusieurs études à l'intersection des systèmes dynamiques dans l'analyse statistique de séquences, de l'analyse d'algorithmes dans des arbres aléatoires et des processus stochastiques discrets. Les résultats établis ont des applications dans des domaines variés allant des séquences biologiques aux modèles de régression linéaire, processus de branchement, en passant par la statistique fonctionnelle et les estimations d'indicateurs de risque appliqués à l'assurance. Tous les résultats établis utilisent d'une façon ou d'une autre le caractère récursif de la structure étudiée, en faisant apparaître des invariants comme des martingales. Elles sont au coeur de ce mémoire, utilisées comme outils dans les preuves ou comme objets d'étude.
200

L’erreur lexicale au secondaire : analyse d’erreurs lexicales d’élèves de 3e secondaire et description du rapport à l’erreur lexicale d’enseignants de français

Anctil, Dominic 12 1900 (has links)
Cette recherche vise à décrire 1) les erreurs lexicales commises en production écrite par des élèves francophones de 3e secondaire et 2) le rapport à l’erreur lexicale d’enseignants de français (conception de l’erreur lexicale, pratiques d’évaluation du vocabulaire en production écrite, modes de rétroaction aux erreurs lexicales). Le premier volet de la recherche consiste en une analyse d’erreurs à trois niveaux : 1) une description linguistique des erreurs à l’aide d’une typologie, 2) une évaluation de la gravité des erreurs et 3) une explication de leurs sources possibles. Le corpus analysé est constitué de 300 textes rédigés en classe de français par des élèves de 3e secondaire. L’analyse a révélé 1144 erreurs lexicales. Les plus fréquentes sont les problèmes sémantiques (30%), les erreurs liées aux propriétés morphosyntaxiques des unités lexicales (21%) et l’utilisation de termes familiers (17%). Cette répartition démontre que la moitié des erreurs lexicales sont attribuables à une méconnaissance de propriétés des mots autres que le sens et la forme. L’évaluation de la gravité des erreurs repose sur trois critères : leur acceptation linguistique selon les dictionnaires, leur impact sur la compréhension et leur degré d’intégration à l’usage. Les problèmes liés aux registres de langue sont généralement ceux qui sont considérés comme les moins graves et les erreurs sémantiques représentent la quasi-totalité des erreurs graves. Le troisième axe d’analyse concerne la source des erreurs et fait ressortir trois sources principales : l’influence de la langue orale, la proximité sémantique et la parenté formelle entre le mot utilisé et celui visé. Le second volet de la thèse concerne le rapport des enseignants de français à l’erreur lexicale et repose sur l’analyse de 224 rédactions corrigées ainsi que sur une série de huit entrevues menées avec des enseignants de 3e secondaire. Lors de la correction, les enseignants relèvent surtout les erreurs orthographiques ainsi que celles relevant des propriétés morphosyntaxiques des mots (genre, invariabilité, régime), qu’ils classent parmi les erreurs de grammaire. Les erreurs plus purement lexicales, c’est-à-dire les erreurs sémantiques, l’emploi de termes familiers et les erreurs de collocation, demeurent peu relevées, et les annotations des enseignants concernant ces types d’erreurs sont vagues et peu systématiques, donnant peu de pistes aux élèves pour la correction. L’évaluation du vocabulaire en production écrite est toujours soumise à une appréciation qualitative, qui repose sur l’impression générale des enseignants plutôt que sur des critères précis, le seul indicateur clair étant la répétition. Les explications des enseignants concernant les erreurs lexicales reposent beaucoup sur l’intuition, ce qui témoigne de certaines lacunes dans leur formation en lien avec le vocabulaire. Les enseignants admettent enseigner très peu le vocabulaire en classe au secondaire et expliquent ce choix par le manque de temps et d’outils adéquats. L’enseignement du vocabulaire est toujours subordonné à des tâches d’écriture ou de lecture et vise davantage l’acquisition de mots précis que le développement d’une réelle compétence lexicale. / This research aims to describe 1) francophone students’ lexical errors in writing and 2) teachers’ relation to lexical errors (conception of error, vocabulary evaluation practices, feedback provided). The first part of the research consists in a three-level error analysis: 1) a linguistic description based on an error typology, 2) an evaluation of error gravity and 3) an explanation of the possible sources of error. The corpus analyzed is composed of 300 texts written in French class by 3rd year high school students. The analysis revealed 1144 lexical errors. The most common are semantic problems (30%), errors related to morphosyntactic properties of words (21%) and the use of colloquial words (17%). This distribution shows that half of the lexical errors are due to a lack of knowledge of word properties other than meaning and form. The evaluation of error gravity is based on three criteria: their acceptability according to dictionaries, their impact on comprehension and their degree of integration to language. Problems related to register are usually those perceived as less serious and semantic problems represent the vast majority of serious errors. The third level of analysis concerns the possible causes of the errors and identifies three main sources: influence of oral language, semantic proximity and formal similarity between the word used and the target word. The second part of the thesis concerns French teachers’ relation to lexical errors and is based on the analysis of 224 corrected essays and eight interviews. When correcting, teachers focus their attention on errors involving morphosyntactic properties of words (gender, invariability, government pattern), which they consider as grammatical errors. The more genuine lexical errors (semantic errors, use of colloquial words and collocation errors) are rarely pointed out, and comments provided regarding these types of errors are vague and inconsistent, giving students very few hints for correction. The evaluation of vocabulary in written production is always subject to a qualitative assessment, based on the teacher’s general impression rather than specific criteria, the only clear indicator being repetition. The explanations teachers provide about lexical problems rely heavily on intuition, which shows some deficiencies in their training in regards to vocabulary.

Page generated in 0.094 seconds