• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 136
  • 52
  • 12
  • 1
  • 1
  • 1
  • Tagged with
  • 198
  • 57
  • 32
  • 31
  • 31
  • 24
  • 21
  • 20
  • 19
  • 19
  • 19
  • 19
  • 18
  • 17
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Adaptation de maillages pour des schémas numériques d'ordre très élevé

Mbinky, Estelle 20 December 2013 (has links) (PDF)
L'adaptation de maillages est un processus itératif qui consiste à changer localement la taille et l'orientation du maillage en fonction du comportement de la solution physique étudiée. Les méthodes d'adaptation de maillages ont prouvé qu'elles pouvaient être extrêmement efficaces en réduisant significativement la taille des maillages pour une précision donnée et en atteignant rapidement une convergence asymptotique d'ordre 2 pour des problèmes contenant des singularités lorsqu'elles sont couplées à des méthodes numériques d'ordre élevé. Dans les techniques d'adaptation de maillages basées sur les métriques, deux approches ont été proposées: les méthodes multi-échelles basées sur un contrôle de l'erreur d'interpolation en norme Lp et les méthodes ciblées à une fonctionnelle qui contrôle l'erreur d'approximation sur une fonctionnelle d'intérêt via l'utilisation de l'état adjoint. Cependant, avec l'émergence de méthodes numériques d'ordre très élevé telles que la méthode de Galerkin discontinue, il devient nécessaire de prendre en compte l'ordre du schéma numérique dans le processus d'adaptation de maillages. Il est à noter que l'adaptation de maillages devient encore plus cruciale pour de tels schémas car ils ne convergent qu'à l'ordre 1 dans les singularités de l'écoulement. Par conséquent, le raffinement du maillage au niveau des singularités de la solution doit être d'autant plus important que l'ordre de la méthode est élevé. L'objectif de cette thèse sera d'étendre les résultats numériques et théoriques obtenus dans le cas de l'adaptation pour des solutions linéaires par morceaux à l'adaptation pour des solutions d'ordre élevé polynomiales par morceaux. Ces solutions sont représentées sur le maillage par des éléments finis de Lagrange d'ordre k ≥ 2. Cette thèse portera sur la modélisation de l'erreur d'interpolation locale, polynôme homogène de degré k ≥ 3 dans le formalisme du maillage continu. Or, les méthodes d'adaptation de maillages basées sur les métriques nécessitent que le modèle d'erreur soit une forme quadratique, laquelle fait apparaître intrinsèquement un espace métrique. Pour pouvoir exhiber un tel espace, il est nécessaire de décomposer le polynôme homogène et de l'approcher par une forme quadratique à la puissance k/2. Cette modélisation permet ainsi de révéler un champ de métriques indispensable pour communiquer avec le générateur de maillages. En deux et trois dimensions, des méthodes de décomposition de tenseurs telles que la décomposition de Sylvester nous permettront de décomposer la fonction exacte d'erreur puis d'en déduire le modèle d'erreur quadratique. Ce modèle d'erreur local est ensuite utilisé pour contrôler globalement l'erreur en norme Lp et le maillage optimal est obtenu en minimisant cette erreur. Dans cette thèse, on s'attachera à démontrer la convergence à l'ordre k de la méthode d'adaptation de maillages pour des fonctions analytiques et pour des simulations numériques utilisant des solveurs d'ordre k ≥ 3.
162

Identification de systèmes par modèle non entier à partir de signaux d'entrée sortie bruités

Chetoui, Manel 18 December 2013 (has links) (PDF)
Les principales contributions de cette thèse concernent l'identification à temps continu des systèmes par modèles non entiers dans un contexte à erreurs en les variables. Deux classes de méthodes sont développées : la première classe est fondée sur les statistiques d'ordre trois et la deuxième est fondée sur les statistiques d'ordre quatre. Dans chaque classe, deux cas différents sont distingués : le premier cas suppose que tous les ordres de dérivation non entiers sont connus a priori et seuls les coefficients de l'équation différentielle non entière sont estimés en utilisant les estimateurs fondés sur les statistiques d'ordre supérieur. Le deuxième cas suppose que les ordres de dérivation sont commensurables à un ordre nu estimé au même titre que les coefficients de l'équation différentielle non entière par des techniques d'optimisation non linéaire combinées aux estimateurs fondés sur les cumulants d'ordre trois et quatre. Des exemples de simulation numérique illustrent les développements théoriques. Des applications pratiques sur la modélisation du phénomène de diffusion de chaleur dans un barreau d'Aluminium et sur la modélisation d'un système électronique ont montré la pertinence des méthodes développées.
163

Techniques pour l'évaluation et l'amélioration du comportement des technologies émergentes face aux fautes aléatoires / Techniques for the evaluation and the improvement of emergent technologies’ behavior facing random errors

Costenaro, Enrico 09 December 2015 (has links)
L'objectif principal de cette thèse est de développer des techniques d'analyse et mitigation capables à contrer les effets des Evènements Singuliers (Single Event Effects) - perturbations externes et internes produites par les particules radioactives, affectant la fiabilité et la sureté en fonctionnement des circuits microélectroniques complexes. Cette thèse à la vocation d'offrir des solutions et méthodologies industrielles pour les domaines d'applications terrestres exigeant une fiabilité ultime (télécommunications, dispositifs médicaux, ...) en complément des travaux précédents sur les Soft Errors, traditionnellement orientés vers les applications aérospatiales, nucléaires et militaires.Les travaux présentés utilisent une décomposition de sources d'erreurs dans les circuits actuels, visant à mettre en évidence les contributeurs les plus importants.Les upsets (SEU) - Evènements Singuliers (ES) dans les cellules logiques séquentielles représentent actuellement la cible principale pour les efforts d'analyse et d'amélioration à la fois dans l'industrie et dans l'académie. Cette thèse présente une méthodologie d'analyse basée sur la prise en compte de la sensibilité de chaque état logique d'une cellule (state-awareness), approche qui améliore considérablement la précision des résultats concernant les taux des évènements pour les instances séquentielles individuelles. En outre, le déséquilibre intrinsèque entre la susceptibilité des différents états des bascules est exploité pour mettre en œuvre une stratégie d'amélioration SER à très faible coût.Les fautes transitoires (SET) affectant la logique combinatoire sont beaucoup plus difficiles à modéliser, à simuler et à analyser que les SEUs. L'environnement radiatif peut provoquer une multitude d'impulsions transitoires dans les divers types de cellules qui sont utilisés en configurations multiples. Cette thèse présente une approche pratique pour l'analyse SET, applicable à des circuits industriels très complexes. Les principales étapes de ce processus consiste à: a) caractériser complètement la bibliothèque de cellules standard, b) évaluer les SET dans les réseaux logiques du circuit en utilisant des méthodes statiques et dynamiques et c) calculer le taux SET global en prenant en compte les particularités de l'implémentation du circuit et de son environnement.L'injection de fautes reste la principale méthode d'analyse pour étudier l'impact des fautes, erreurs et disfonctionnements causés par les évènements singuliers. Ce document présente les résultats d'une analyse fonctionnelle d'un processeur complexe dans la présence des fautes et pour une sélection d'applications (benchmarks) représentatifs. Des techniques d'accélération de la simulation (calculs probabilistes, clustering, simulations parallèles) ont été proposées et évalués afin d'élaborer un environnement de validation industriel, capable à prendre en compte des circuits très complexes. Les résultats obtenus ont permis l'élaboration et l'évaluation d'un hypothétique scénario de mitigation qui vise à améliorer sensiblement, et cela au moindre coût, la fiabilité du circuit sous test. Les résultats obtenus montrent que les taux d'erreur, SDC (Silent Data Corruption) et DUE (Detectable Uncorrectable Errors) peuvent être considérablement réduits par le durcissement d'un petite partie du circuit (protection sélective). D'autres techniques spécifiques ont été également déployées: mitigation du taux de soft-errors des Flip-Flips grâce à une optimisation du Temporal De-Rating par l'insertion sélective de retard sur l'entrée ou la sortie des bascules et biasing du circuit pour privilégier les états moins sensibles.Les méthodologies, algorithmes et outils CAO proposés et validés dans le cadre de ces travaux sont destinés à un usage industriel et ont été valorisés dans le cadre de plateforme CAO commerciale visant à offrir une solution complète pour l'évaluation de la fiabilité des circuits et systèmes électroniques complexes. / The main objective of this thesis is to develop analysis and mitigation techniques that can be used to face the effects of radiation-induced soft errors - external and internal disturbances produced by radioactive particles, affecting the reliability and safety in operation complex microelectronic circuits. This thesis aims to provide industrial solutions and methodologies for the areas of terrestrial applications requiring ultimate reliability (telecommunications, medical devices, ...) to complement previous work on Soft Errors traditionally oriented aerospace, nuclear and military applications.The work presented uses a decomposition of the error sources, inside the current circuits, to highlight the most important contributors.Single Event Effects in sequential logic cells represent the current target for analysis and improvement efforts in both industry and academia. This thesis presents a state-aware analysis methodology that improves the accuracy of Soft Error Rate data for individual sequential instances based on the circuit and application. Furthermore, the intrinsic imbalance between the SEU susceptibility of different flip-flop states is exploited to implement a low-cost SER improvement strategy.Single Event Transients affecting combinational logic are considerably more difficult to model, simulate and analyze than the closely-related Single Event Upsets. The working environment may cause a myriad of distinctive transient pulses in various cell types that are used in widely different configurations. This thesis presents practical approach to a possible exhaustive Single Event Transient evaluation flow in an industrial setting. The main steps of this process consists in: a) fully characterize the standard cell library using a process and library-aware SER tool, b) evaluate SET effects in the logic networks of the circuit using a variety dynamic (simulation-based) and static (probabilistic) methods and c) compute overall SET figures taking into account the particularities of the implementation of the circuit and its environment.Fault-injection remains the primary method for analyzing the effects of soft errors. This document presents the results of functional analysis of a complex CPU. Three representative benchmarks were considered for this analysis. Accelerated simulation techniques (probabilistic calculations, clustering, parallel simulations) have been proposed and evaluated in order to develop an industrial validation environment, able to take into account very complex circuits. The results obtained allowed the development and evaluation of a hypothetical mitigation scenario that aims to significantly improve the reliability of the circuit at the lowest cost.The results obtained show that the error rate, SDC (Silent Data Corruption) and DUE (Detectable Uncorrectable Errors) can be significantly reduced by hardening a small part of the circuit (Selective mitigation).In addition to the main axis of research, some tangential topics were studied in collaboration with other teams. One of these consisted in the study of a technique for the mitigation of flip-flop soft-errors through an optimization of the Temporal De-Rating (TDR) by selectively inserting delay on the input or output of flip-flops.The Methodologies, the algorithms and the CAD tools proposed and validated as part of the work are intended for industrial use and have been included in a commercial CAD framework that offers a complete solution for assessing the reliability of circuits and complex electronic systems.
164

Analyse des productions écrites des militaires coréens apprenant le français / Analysis of written productions of Korean military learning French

Cha, Sung-bok 04 September 2012 (has links)
Notre recherche a pour objectif d’interpréter les erreurs de productions écrites chez les apprenants militaires coréens lors de leur apprentissage du français. Actuellement, au sein de d’École Militaire Académique en Corée du Sud, l’enseignement de la grammaire française occupe encore la place la plus importante, même si une certaine approche communicative dans la didactique des langues étrangères commence à faire sont apparition. Dans l’approche communicative, deux compétences (orale et écrite) sont prioritaires lors de l’enseignement / apprentissage des langues étrangères. Mais du fait de certaines difficultés liées à la distance entre la France et la Corée du Sud et à l’organisation actuelle de l’enseignement à l’École Militaire Académique, notre recherche n’a pu porter que sur l’analyse des erreurs à l’écrit ainsi qu’à leur remédiation.Notre travail s’articule en trois parties. La première repose sur la présentation de la situation atuelle de l’enseignement / apprentissage du français à l’École Militaire Académique de l’Armée de Terre. Une enquête menée auprès des élèves officiers nous permet d’aborder leur motivation et leur attitude face à l’apprentissage du français et d’observer comment leur est actuellement enseignée le français dans cette école. La deuxième partie est consacrée à la théorie et à la méthodologie fondée sur les recherches de la langue de l’apprenant. Nous nous proposons de retracer l’itinéraire des recherches comparatives en commençant par l’analyse contrastive jusqu’à l’étude de l’interlangue. La troisième partie porte sur l’analyse des données de façon détaillée pour élucider les difficultés linguistiques intraphrastiques et textuelles rencontrées dans la production écrite par les apprenants militaires coréens en situation d’apprentissage du français au niveau intermédiaire.Cette analyse nous permet de mieux comprendre le processus d’apprentissage du français chez les apprenants militaires et de réfléchir aux améliorations qu’il convienrait d’apporter à l’enseignement du français dans l’École Militaire Académique. / The objective of our research is to interpret the types of errors made in written documents by Korean junior officers studying French. In the South Korean Military Academy for the Army French grammar is the most important part of the syllabus, though now more importance is given to communicative aspects of language training than previously. In communication the two competences (written and spoken) are both priorities in foreign language training. The organization of language training in the South Korean Military Academy for the Army and the distance between France and South Korea means our research has concentrated on the analysis of errors in written communication and ways to improve these.This work is in three parts. The first examines the current situation with language teaching at the South Korean Military Academy for the Army. This allowed us to follow the motivation and attitude of students learning French and to find out how it is taught in this school. The second part concentrates on the theory and methodology based on language research for learners of the language, using comparative research and starting with comparative analysis of the study between languages. The third part analyses in detail the linguistic difficulties in written French (both text and structure) encountered by intermediate level students at the South Korean Military Academy for the Army.This detailed analysis allows us to better understand the learning process for French language by these students at the South Korean Military Academy for the Army and to propose areas for improvement in the teaching of French.
165

Application of perturbation theory methods to nuclear data uncertainty propagation using the collision probability method / Application de la théorie des perturbations à la propagation des incertitudes des données nucléaires par la méthode des probabilités de première collision

Sabouri, Pouya 28 October 2013 (has links)
Dans cette thèse, nous présentons une étude rigoureuse des barres d'erreurs et des sensibilités de paramètres neutroniques (tels le keff) aux données nucléaires de base utilisées pour les calculer. Notre étude commence au niveau fondamental, i.e. les fichiers de données ENDF et leurs incertitudes, fournies sous la forme de matrices de variance/covariance, et leur traitement. Lorsqu'un calcul méthodique et consistant des sensibilités est consenti, nous montrons qu'une approche déterministe utilisant des formalismes bien connus est suffisante pour propager les incertitudes des bases de données avec un niveau de précision équivalent à celui des meilleurs outils disponibles sur le marché, comme les codes Monte-Carlo de référence. En appliquant notre méthodologie à trois exercices proposés par l'OCDE, dans le cadre des Benchmarks UACSA, nous donnons des informations, que nous espérons utiles, sur les processus physiques et les hypothèses sous-jacents aux formalismes déterministes utilisés dans cette étude. / This dissertation presents a comprehensive study of sensitivity/uncertainty analysis for reactor performance parameters (e.g. the k-effective) to the base nuclear data from which they are computed. The analysis starts at the fundamental step, the Evaluated Nuclear Data File and the uncertainties inherently associated with the data they contain, available in the form of variance/covariance matrices. We show that when a methodical and consistent computation of sensitivity is performed, conventional deterministic formalisms can be sufficient to propagate nuclear data uncertainties with the level of accuracy obtained by the most advanced tools, such as state-of-the-art Monte Carlo codes. By applying our developed methodology to three exercises proposed by the OECD (UACSA Benchmarks), we provide insights of the underlying physical phenomena associated with the used formalisms.
166

Contributions au traitement spatio-temporel fondé sur un modèle autorégressif vectoriel des interférences pour améliorer la détection de petites cibles lentes dans un environnement de fouillis hétérogène Gaussien et non Gaussien / Contribution to space-time adaptive processing based on multichannel autoregressive modelling of interferences to improve small and slow target’s detection in non homogenous Gaussian and non-Gaussian clutter

Petitjean, Julien 06 December 2010 (has links)
Cette thèse traite du traitement adaptatif spatio-temporel dans le domaine radar. Pour augmenter les performances en détection, cette approche consiste à maximiser le rapport entre la puissance de la cible et celle des interférences, à savoir le bruit thermique et le fouillis. De nombreuses variantes de cet algorithme existent, une d’entre elles est fondée sur une modélisation autorégressive vectorielle des interférences. Sa principale difficulté réside dans l’estimation des matrices autorégressives à partir des données d’entrainement ; ce point constitue l’axe de notre travail de recherche. En particulier, notre contribution porte sur deux aspects. D’une part, dans le cas où l’on suppose que le bruit thermique est négligeable devant le fouillis non gaussien, les matrices autorégressives sont estimées en utilisant la méthode du point fixe. Ainsi, l’algorithme est robuste à la distribution non gaussienne du fouillis.D’autre part, nous proposons une nouvelle modélisation des interférences différenciant le bruit thermique et le fouillis : le fouillis est considéré comme un processus autorégressif vectoriel, gaussien et perturbé par le bruit blanc thermique. Ainsi, de nouvelles techniques d'estimation des matrices autorégressives sont proposées. La première est une estimation aveugle par bloc reposant sur la technique à erreurs dans les variables. Ainsi, l’estimation des matrices autorégressives reste robuste pour un rapport faible entre la puissance de la cible et celle du fouillis (< 5 dB). Ensuite, des méthodes récursives ont été développées. Elles sont fondées sur des approches du type Kalman : filtrage de Kalman étendu et filtrage par sigma point (UKF et CDKF), ainsi que sur le filtre H∞.Une étude comparative sur des données synthétiques et réelles, avec un fouillis gaussien ou non gaussien, est menée pour révéler la pertinence des différents estimateurs en terme de probabilité de détection. / This dissertation deals with space-time adaptive processing in the radar’s field. To improve the detection’s performances, this approach consists in maximizing the ratio between the target’s power and the interference’s one, i.e. the thermal noise and the clutter. Several variants of its algorithm exist, one of them is based on multichannel autoregressive modelling of interferences. Its main problem lies in the estimation of autoregressive matrices with training data and guides our research’s work. Especially, our contribution is twofold.On the one hand, when thermal noise is considered negligible, autoregressive matrices are estimated with fixed point method. Thus, the algorithm is robust against non-gaussian clutter.On the other hand, a new modelling of interferences is proposed. The clutter and thermal noise are separated : the clutter is considered as a multichannel autoregressive process which is Gaussian and disturbed by the white thermal noise. Thus, new estimation’s algorithms are developed. The first one is a blind estimation based on errors in variable methods. Then, recursive approaches are proposed and used extension of Kalman filter : the extended Kalman filter and the Sigma Point Kalman filter (UKF and CDKF), and the H∞ filter. A comparative study on synthetic and real data with Gausian and non Gaussian clutter is carried out to show the relevance of the different algorithms about detection’s probability.
167

A science-gateway for workflow executions : Online and non-clairvoyant self-healing of workflow executions on grids / Auto-guérison en ligne et non clairvoyante des exécutions de chaînes de traitement sur grilles de calcul : Méthodes et évaluation dans une science-gateway pour l’imagerie médicale

Da Silva, Rafael Ferreira 29 November 2013 (has links)
Les science-gateways, telles que la Plate-forme d’Imagerie Virtuelle (VIP), permettent l’accès à un grand nombre de ressources de calcul et de stockage de manière transparente. Cependant, la quantité d’informations et de couches intergicielles utilisées créent beaucoup d’échecs et d’erreurs de système. Dans la pratique, ce sont souvent les administrateurs du système qui contrôlent le déroulement des expériences en réalisant des manipulations simples mais cruciales, comme par exemple replanifier une tâche, redémarrer un service, supprimer une exécution défaillante, ou copier des données dans des unités de stockages fiables. De cette manière, la qualité de service fournie est correcte mais demande une intervention humaine importante. Automatiser ces opérations constitue un défi pour deux raisons. Premièrement, la charge de la plate-forme est en ligne, c’est-à-dire que de nouvelles exécutions peuvent se présenter à tout moment. Aucune prédiction sur l’activité des utilisateurs n’est donc possible. De fait, les modèles, décisions et actions considérés doivent rester simples et produire des résultats pendant l’exécution de l’application. Deuxièmement, la plate-forme est non-clairvoyante à cause du manque d’information concernant les applications et ressources en production. Les ressources de calcul sont d’ordinaire fournies dynamiquement par des grappes hétérogènes, des clouds ou des grilles de volontaires, sans estimation fiable de leur disponibilité ou de leur caractéristiques. Les temps d’exécution des applications sont difficilement estimables également, en particulier dans le cas de ressources de calculs hétérogènes. Dans ce manuscrit, nous proposons un mécanisme d’auto-guérison pour la détection autonome et traitement des incidents opérationnels dans les exécutions des chaînes de traitement. Les objets considérés sont modélisés comme des automates finis à états flous (FuSM) où le degré de pertinence d’un incident est déterminé par un processus externe de guérison. Les modèles utilisés pour déterminer le degré de pertinence reposent sur l’hypothèse que les erreurs, par exemple un site ou une invocation se comportant différemment des autres, sont rares. Le mécanisme d’auto-guérison détermine le seuil de gravité des erreurs à partir de l’historique de la plate-forme. Un ensemble d’actions spécifiques est alors sélectionné par règle d’association en fonction du niveau d’erreur. / Science gateways, such as the Virtual Imaging Platform (VIP), enable transparent access to distributed computing and storage resources for scientific computations. However, their large scale and the number of middleware systems involved in these gateways lead to many errors and faults. In practice, science gateways are often backed by substantial support staff who monitors running experiments by performing simple yet crucial actions such as rescheduling tasks, restarting services, killing misbehaving runs or replicating data files to reliable storage facilities. Fair quality of service (QoS) can then be delivered, yet with important human intervention. Automating such operations is challenging for two reasons. First, the problem is online by nature because no reliable user activity prediction can be assumed, and new workloads may arrive at any time. Therefore, the considered metrics, decisions and actions have to remain simple and to yield results while the application is still executing. Second, it is non-clairvoyant due to the lack of information about applications and resources in production conditions. Computing resources are usually dynamically provisioned from heterogeneous clusters, clouds or desktop grids without any reliable estimate of their availability and characteristics. Models of application execution times are hardly available either, in particular on heterogeneous computing resources. In this thesis, we propose a general self-healing process for autonomous detection and handling of operational incidents in workflow executions. Instances are modeled as Fuzzy Finite State Machines (FuSM) where state degrees of membership are determined by an external healing process. Degrees of membership are computed from metrics assuming that incidents have outlier performance, e.g. a site or a particular invocation behaves differently than the others. Based on incident degrees, the healing process identifies incident levels using thresholds determined from the platform history. A specific set of actions is then selected from association rules among incident levels.
168

Enseignement / apprentissage des langues étrangères au Yémen. Etude des erreurs et difficultés en français rencontrées par des étudiants yéménites à partir de l’analyse des productions écrites / Teaching / Learning Foreign Languages in Yemen. Study of Mistakes and Challenges Encountered by Yemeni College Students Learning the French Language; Based on Analysis of Written Production

Naji, Tareq 17 October 2012 (has links)
La présente étude consiste à étudier la compétence écrite chez les étudiants de français à l’université de Taëz, au Yémen, par le biais de l’analyse des erreurs dans les productions écrites recueillies dans le cadre d’un corpus spécial élaboré pour cet effet. Bien que le repérage des erreurs d’expression écrite puisse paraître une opération simple et systématique, l’appréhension des mécanismes de production de ces erreurs et l’analyse de leurs véritables raisons constituent la partie immergée de l’iceberg. Pour mener à bien cette investigation, il a fallu établir des catégories opérationnelles dans lesquelles pourront s’inscrire les erreurs significatives relevées, en vue d’une analyse plus étayée. Des concepts opératoires inspirés des travaux didactiques de plusieurs auteurs nous ont permis de mieux cerner les rouages du processus enseignement/apprentissage du français et d’élargir notre perspective de recherche des racines des erreurs tant dans les stratégies d’auto-apprentissage mises en oeuvre par les apprenants eux-mêmes, que dans les conditions du déroulement de l’enseignement dispensé au département de français. Des difficultés grammaticales, syntaxiques, lexicales inhérentes à la langue française du point de vue d’un apprenant yéménite, jusqu’aux problèmes d’inattention, de manque de motivation, de ressources documentaires ou d’exposition à la langue française, en passant par le mode de fonctionnement des cours et les modalités des contrôles, nous découvrons, durant toutes ces étapes de parcours, les différentes sources des difficultés constatées. Lesquelles permettent, d’une part, l’explication du phénomène des erreurs dans la situation particulière qui est celle des étudiants yéménites, et d’autre part, la conception de solutions adéquates susceptibles de remédier à ces erreurs de façon radicale et non seulement symptomatique. Aussi, espérons-nous attirer l’attention de tous les protagonistes impliqués dans le processus didactique, sur les problèmes réels auxquels se heurtent l’étudiant yéménite désireux d’apprendre cette langue ainsi que sur les meilleures approches possibles pour entreprendre les réformes et les traitements nécessaires. / La présente étude consiste à étudier la compétence écrite chez les étudiants de français à l’université de Taëz, au Yémen, par le biais de l’analyse des erreurs dans les productions écrites recueillies dans le cadre d’un corpus spécial élaboré pour cet effet. Bien que le repérage des erreurs d’expression écrite puisse paraître une opération simple et systématique, l’appréhension des mécanismes de production de ces erreurs et l’analyse de leurs véritables raisons constituent la partie immergée de l’iceberg. Pour mener à bien cette investigation, il a fallu établir des catégories opérationnelles dans lesquelles pourront s’inscrire les erreurs significatives relevées, en vue d’une analyse plus étayée. Des concepts opératoires inspirés des travaux didactiques de plusieurs auteurs nous ont permis de mieux cerner les rouages du processus enseignement/apprentissage du français et d’élargir notre perspective de recherche des racines des erreurs tant dans les stratégies d’auto-apprentissage mises en œuvre par les apprenants eux-mêmes, que dans les conditions du déroulement de l’enseignement dispensé au département de français. Des difficultés grammaticales, syntaxiques, lexicales inhérentes à la langue française du point de vue d’un apprenant yéménite, jusqu’aux problèmes d’inattention, de manque de motivation, de ressources documentaires ou d’exposition à la langue française, en passant par le mode de fonctionnement des cours et les modalités des contrôles, nous découvrons, durant toutes ces étapes de parcours, les différentes sources des difficultés constatées. Lesquelles permettent, d’une part, l’explication du phénomène des erreurs dans la situation particulière qui est celle des étudiants yéménites, et d’autre part, la conception de solutions adéquates susceptibles de remédier à ces erreurs de façon radicale et non seulement symptomatique. Aussi, espérons-nous attirer l’attention de tous les protagonistes impliqués dans le processus didactique, sur les problèmes réels auxquels se heurtent l’étudiant yéménite désireux d’apprendre cette langue ainsi que sur les meilleures approches possibles pour entreprendre les réformes et les traitements nécessaires.
169

Contributions à l'estimation pour petits domaines

Stefan, Marius 26 August 2005 (has links)
Dans la thèse nous nous occupons de l'estimation de la moyenne d'un petit domaine sous un modèle one-fold et utilisant MINQUE pour estimer les composantes de la variance, sous un modèle two-fold avec variances aléatoires, sous des plans noninformatifs et informatifs. / Doctorat en sciences, Orientation statistique / info:eu-repo/semantics/nonPublished
170

Dimensionnement et gestion d’un stockage d’énergie pour l'atténuation des incertitudes de production éolienne / Sizing and control of an energy storage system to mitigate wind power uncertainty

Haessig, Pierre 17 July 2014 (has links)
Le contexte de nos travaux de thèse est l'intégration de l'énergie éolienne sur les réseaux insulaires. Ces travaux sont soutenus par EDF SEI, l'opérateur électrique des îles françaises. Nous étudions un système éolien-stockage où un système de stockage d'énergie doit aider un producteur éolien à tenir, vis-à-vis du réseau, un engagement de production pris un jour à l'avance. Dans ce contexte, nous proposons une démarche pour l'optimisation du dimensionnement et du contrôle du système de stockage (gestion d'énergie). Comme les erreurs de prévision J+1 de production éolienne sont fortement incertaines, la gestion d'énergie du stockage est un problème d'optimisation stochastique (contrôle optimal stochastique). Pour le résoudre, nous étudions tout d'abord la modélisation des composants du système (modélisation énergétique du stockage par batterie Li-ion ou Sodium-Soufre) ainsi que des entrées (modélisation temporelle stochastique des entrées incertaines). Nous discutons également de la modélisation du vieillissement du stockage, sous une forme adaptée à l'optimisation de la gestion. Ces modèles nous permettent d'optimiser la gestion de l'énergie par la méthode de la programmation dynamique stochastique (SDP). Nous discutons à la fois de l'algorithme et de ses résultats, en particulier de l'effet de la forme des pénalisations sur la loi de gestion. Nous présentons également l'application de la SDP sur des problèmes complémentaires de gestion d'énergie (lissage de la production d'un houlogénérateur, limitation des rampes de production éolienne). Cette étude de l'optimisation de la gestion permet d'aborder l'optimisation du dimensionnement (choix de la capacité énergétique). Des simulations temporelles stochastiques mettent en évidence le fort impact de la structure temporelle (autocorrélation) des erreurs de prévision sur le besoin en capacité de stockage pour atteindre un niveau de performance donné. La prise en compte de paramètres de coût permet ensuite l'optimisation du dimensionnement d'un point de vue économique, en considérant les coûts de l'investissement, des pertes ainsi que du vieillissement. Nous étudions également le dimensionnement du stockage lorsque la pénalisation des écarts à l'engagement comporte un seuil de tolérance. Nous terminons ce manuscrit en abordant la question structurelle de l'interaction entre l'optimisation du dimensionnement et celle du contrôle d'un système de stockage, car ces deux problèmes d'optimisation sont couplés. / The context of this PhD thesis is the integration of wind power into the electricity grid of small islands. This work is supported by EDF SEI, the system operator for French islands. We study a wind-storage system where an energy storage is meant to help a wind farm operator fulfill a day-ahead production commitment to the grid. Within this context, we propose an approach for the optimization of the sizing and the control of the energy storage system (energy management). Because day-ahead wind power forecast errors are a major source of uncertainty, the energy management of the storage is a stochastic optimization problem (stochastic optimal control). To solve this problem, we first study the modeling of the components of the system. This include energy-based models of the storage system, with a focus on Lithium-ion and Sodium-Sulfur battery technologies. We then model the system inputs and in particular the stochastic time series like day-ahead forecast errors. We also discuss the modeling of storage aging, using a formulation which is adapted to the control optimization. Assembling all these models enables us to optimize the energy management of the storage system using the stochastic dynamic programming (SDP) method. We introduce the SDP algorithms and present our optimization results, with a special interest for the effect of the shape of the penalty function on the energy control law. We also present additional energy management applications with SDP (mitigation of wind power ramps and smoothing of ocean wave power). Having optimized the storage energy management, we address the optimization of the storage sizing (choice of the rated energy). Stochastic time series simulations show that the temporal structure (autocorrelation) of wind power forecast errors have a major impact on the need for storage capacity to reach a given performance level. Then we combine simulation results with cost parameters, including investment, losses and aging costs, to build a economic cost function for sizing. We also study storage sizing when the penalization of commitment deviations includes a tolerance threshold. We finish this manuscript with a structural study of the interaction between the optimizations of the sizing and the control of an energy storage system, because these two optimization problems are coupled.

Page generated in 0.0512 seconds