• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 157
  • 46
  • 9
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 218
  • 96
  • 50
  • 31
  • 26
  • 26
  • 25
  • 24
  • 22
  • 21
  • 20
  • 20
  • 20
  • 18
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Modélisation et étude 3D des phénomènes de cisaillement adiabatiques dans les procédés de mise en forme à grande vitesse

Delalondre, Fabien 19 December 2008 (has links) (PDF)
Malgré des résultats prometteurs, les procédés de mise en forme à grande vitesse sont encore peu utilisés dans l'industrie du fait d'un manque de compréhension du phénomène de Bande de Cisaillement Adiabatique (BCA).<br/>Ce travail présente le développement d'outils numériques permettant la simulation adaptative et l'analyse de BCA dans des procédés 3D de mise en forme à grande vitesse. L'utilisation du modèle ALE-adaptatif séquentiel développé dans le logiciel Forge3 permet pour la première fois la simulation automatique de BCA 3D. L'étude des résultats numériques permet de proposer une description innovante du processus de formation de BCA. Les moyens de calcul requis s'avérant très importants, un nouveau code éléments finis hautement parallèle appelé Forge++ est développé. Ce dernier inclut de nouveaux algorithmes tels que le couplage thermomécanique implicite, la méthode de stabilisation RFB et un recouvrement par patch parallèle pour une meilleure simulation de BCA.
92

Systèmes OFDM ultra large bande :<br />Estimation de canal et détection améliorée prenant en compte les imprécisions d'estimation

Sadough, Seyed Mohammad Sajad 07 January 2008 (has links) (PDF)
Les travaux présentés dans cette thèse se situent dans le cadre de la transmission OFDM appliqué au contexte Ultra Large Bande. L'objectif principal va être l'estimation du canal de propagation et la conception de récepteurs en prenant en compte la connaissance non idéale du canal. On propose d'abord une approche semi-aveugle d'estimation du canal basée sur l'algorithme EM. Le canal est décrit au moyen de sa décomposition dans une base d'ondelettes, ce qui fournit une représentation parcimonieuse. La complexité de l'estimation est réduite grâce au fait que les coefficients d'ondelettes jugés non significatif sont écartés. Ensuite, on propose des structures de réception où la conception du détecteur prend en compte la présence des erreurs d'estimation de canal. La détection au sens maximum de vraisemblance (MV) est améliorée en modifiant sa métrique de détection pour le cas où le canal est estimé de manière imparfaite. La métrique MV améliorée ainsi obtenue nous permet de remettre en question le schéma de détection de type turbo maximum a posteriori (MAP) et l'adapter à la connaissance imparfaite du canal. En outre, le choix de l'étiquetage lors de l'attribution des bits aux symboles est également discuté. De plus, on dérive les débits de coupure atteignables (achievable outage rates) avec le détecteur MV améliorée ou un détecteur MV désadapté (utilisant les estimés de canal comme s'il s'agissait des vraies) qu'on comparera avec un détecteur théorique défini comme étant le meilleur récepteur possible en présence d'erreurs d'estimation de canal. Enfin, un récepteur itératif à complexité réduite basé sur un filtrage MMSE et l'annulation parallèle d'interférence (turbo-PIC) est introduit. L'idée de notre approche consiste à prendre en compte la connaissance imparfaite du canal dans la conception du filtre MMSE ainsi que dans la partie annulation d'interférence. Il est important de souligner que les améliorations proposées dans cette thèse ne résultent pas en une augmentation sensible de la complexité algorithmique au niveau du récepteur.
93

Erreurs arithmétiques des élèves et interventions de l'enseignant débutant : une analyse didactique en termes de schèmes

Normandeau, Marie-Pierre 01 1900 (has links)
Ancrée dans le domaine de la didactique des mathématiques, notre thèse cible le « travail de l’erreur » effectué par trois enseignants dans leur première année de carrière. Libérés des contraintes associées au système de formation initiale, ces sujets assument pleinement leur nouveau rôle au sein de la classe ordinaire. Ils se chargent, entre autres, de l’enseignement de l’arithmétique et, plus précisément, de la division euclidienne. Parmi leurs responsabilités se trouvent le repérage et l’intervention sur les procédures erronées. Le « travail de l’erreur » constitue l’expression spécifique désignant cette double tâche (Portugais 1995). À partir d’un dispositif de recherche combinant les méthodes d’observation et d’entrevue, nous documentons des séances d’enseignement afin de dégager les situations où nos maîtres du primaire identifient des erreurs dans les procédures algorithmiques des élèves et déploient, subséquemment, des stratégies d’intervention. Nous montrons comment ces deux activités sont coordonnées en décrivant les choix, décisions et actions mises en œuvre par nos sujets. Il nous est alors possible d’exposer l’organisation de la conduite de ces jeunes enseignants en fonction du traitement effectif de l’erreur arithmétique. En prenant appui sur la théorie de champs conceptuels (Vergnaud 1991), nous révélons l’implicite des connaissances mobilisées par nos sujets et mettons en relief les mécanismes cognitifs qui sous-tendent cette activité professionnelle. Nous pouvons ainsi témoigner, du moins en partie, du travail de conceptualisation réalisé in situ. Ce travail analytique permet de proposer l’existence d’un schème du travail de l’erreur chez ces maîtres débutants, mais aussi de spécifier sa nature et son fonctionnement. En explorant le versant cognitif de l’activité enseignante, notre thèse aborde une nouvelle perspective associée au thème du repérage et de l’intervention sur l’erreur de calcul de divisions en colonne. / Rooted in the Didactic of Mathematics’ field, this thesis looks into the practice of three new teachers. Free from the constraints and pressures associated with the teacher training context, these subjects take on a new role in their first year on the job. Among all of the affiliated responsibilities are those related to the teaching of arithmetic and, more specifically, the long division algorithm. “Le travail de l’erreur” is the expression used by Portugais (1995) to design error management by the teacher. It includes the diagnosis of errors and the strategies unfurled to help the pupil remedy his/her mistakes. This double task is the object of this study. Combining research methods of observation and interview, we aim to describe error management in a regular elementary class setting. We delineate situations where our subjects identify and intervene on errors made by students during the arithmetic procedure. We examine how these two activities are coordinated, by documenting the novice teachers choices, decisions and actions. We focus on the organization of their conduct throughout the different situations. A theoretical framework based on the “conceptual field theory” or “théorie des champs conceptuels” (Vergnaud, 1991) enables us to reveal the implicit teaching knowledge comprised in the behavior adopted by the young professionals. This analysis reveals the dynamics of piagetian assimilation/ accommodation mechanisms. It also gives us evidence of the conceptualizing process underlying teacher conduct. We utilize the concept of “scheme” to better understand this cognitive activity. We propose the existence of “le schème du travail de l’erreur” and aim to specify his nature and function. This allows us to describe the conceptual structure, which shapes and organizes the novice’s ability to manage errors in their pupil’s calculation of written divisions.
94

Chimères, données manquantes et congruence : validation de différentes méthodes par simulations et application à la phylogénie des mammifères

Campbell, Véronique January 2009 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
95

Les erreurs syntaxiques des élèves du secondaire au Québec : analyse de corpus

Nollet, Julie 08 1900 (has links)
Ce mémoire de maitrise vise à dresser un portrait des erreurs syntaxiques des élèves du secondaire en analysant un corpus de textes de cinq groupes du Québec, de la 1re à la 5e secondaire. Les résultats actuels aux épreuves ministérielles des élèves de 5e secondaire nous indiquent que les élèves éprouvent des difficultés avec l’écriture du français. Une analyse approfondie nous permet de comprendre que l’amélioration de la situation passe par une meilleure connaissance des erreurs syntaxiques des élèves. En nous appuyant sur la grille de Boivin et Pinsonneault (2014), nous avons analysé les données provenant du codage des textes d’élèves de la 1re à la 5e secondaire. L’analyse de ces données nous a permis de constater que parmi les sept grandes catégories d’erreurs de la grille, c’est en syntaxe que les élèves commettent le plus d’erreurs. Une incursion au cœur des six sous-catégories de la syntaxe a révélé que la ponctuation causait le plus de problème aux élèves, et ce, à tous les niveaux. Les erreurs liées à la détermination de la catégorie grammaticale des mots (homophones) arrivaient en deuxième place. Par la suite, nous avons précisé davantage l’analyse en déterminant, pour chacun des codes, l’évolution du nombre d’erreurs d’un niveau du secondaire à l’autre. Il est ressorti de cette étude que les deux principales erreurs, basées sur les sous-catégories syntaxiques, sont celles portant sur l’usage de la virgule et celles liées à la confusion qui existe encore un verbe terminant par «er» et un adjectif ou un participe passé terminant par «é-e-s». / This Master’s thesis develops an accurate portrait of the syntax errors made by high school students in Quebec by analyzing a text corpus from five groups from secondary 1 to secondary 5. The actual results in ministerial exams from secondary 5’s students show us that the students are having difficulty writing French. A deeper analysis helps us understand that improving the situation requires deeper knowledge of students’ syntax errors. Building on Boivin and Pinsonneault’s (2014) matrix, we analyzed texts written by students from secondary 1 to secondary 5. The data analysis shows that among the seven main categories of mistakes in the matrix, syntax is the one in which students make the most mistakes. A closer look at the six sub-categories within the syntax category reveals that punctuation is the most challenging factor for students at all levels. Mistakes related to determining the words’ grammatical category (homophones) came second. Further analysis reveals that, for each code, the evolution of the amount of errors from one school year to another. The two main errors, based on the six syntax sub-categories, were those based on the use of the comma and those related to the confusion existing between a verb ending in “er” and an adjective or past participle ending in “é-e-s”.
96

Maîtrise du lexique chez les étudiants universitaires : typologie des problèmes lexicaux et analyse des stratégies de résolution de problèmes lexicaux

Anctil, Dominic January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
97

Multiscale data assimilation approaches and error characterisation applied to the inverse modelling ofatmospheric constituent emission fields / Assimilation de données multi-échelle et caractérisation des erreurs pour la modélisation inverse des sources de polluants atmosphériques

Koohkan, Mohammad Reza 20 December 2012 (has links)
Dans les études géophysiques, l'assimilation de données a pour but d'estimer l'état d'un système ou les paramètres d'un modèle physique de façon optimale. Pour ce faire, l'assimilation de données a besoin de trois types d'informations : des observations, un modèle physique/numérique et une description statistique de l'incertitude associée aux paramètres du système. Dans ma thèse, de nouvelles méthodes d'assimilation de données sont utilisées pour l'étude de la physico-chimie de l'atmosphère: (i) On y utilise de manière conjointe la méthode 4D-Var avec un modèle sous-maille statistique pour tenir compte des erreurs de représentativité. (ii) Des échelles multiples sont prises en compte dans la méthode d'estimation BLUE. (iii) Enfin, la méthode du maximum de vraisemblance est appliquée pour estimer des hyper-paramètres qui paramètrisent les erreurs à priori. Ces trois approches sont appliquées de manière spécifique à des problèmes de modélisation inverse des sources de polluant atmosphérique. Dans une première partie, la modélisation inverse est utilisée afin d'estimer les émissions de monoxyde de carbone sur un domaine représentant la France. Les stations du réseau d'observation considérées sont impactées par les erreurs de représentativité. Un modèle statistique sous-maille est introduit. Il est couplé au système 4D-Var afin de réduire les erreurs de représentativité. En particulier, les résultats de la modélisation inverse montrent que la méthode 4D-Var seule n'est pas adaptée pour gérer le problème de représentativité. Le système d'assimilation des données couplé conduit à une meilleure représentation de la variabilité de la concentration de CO avec une amélioration très significative des indicateurs statistiques. Dans une deuxième partie, on évalue le potentiel du réseau IMS (International Monitoring System) du CTBTO pour l'inversion d'une source accidentelle de radionucléides. Pour évaluer la performance du réseau, une grille multi-échelle adaptative pour l'espace de contrôle est optimisée selon un critère basé sur les degrés de liberté du signal (DFS). Les résultats montrent que plusieurs régions restent sous-observées par le réseau IMS. Dans la troisième et dernière partie, sont estimés les émissions de Composés Organiques Volatils (COVs) sur l'Europe de l'ouest. Cette étude d'inversion est faite sur la base des observations de 14 COVs extraites du réseau EMEP. L'évaluation des incertitudes des valeurs des inventaires d'émission et des erreurs d'observation sont faites selon le principe du maximum de vraisemblance. La distribution des inventaires d'émission a été supposée tantôt gaussienne et tantôt semi-normale. Ces deux hypothèses sont appliquées pour inverser le champs des inventaires d'émission. Les résultats de ces deux approches sont comparés. Bien que la correction apportée sur les inventaires est plus forte avec l'hypothèse Gaussienne que semi-normale, les indicateurs statistiques montrent que l'hypothèse de la distribution semi-normale donne de meilleurs résultats de concentrations que celle Gaussienne. / Data assimilation in geophysical sciences aims at optimally estimating the state of the system or some parameters of the system's physical model. To do so, data assimilation needs three types of information: observations and background information, a physical/numerical model, and some statistical description that prescribes uncertainties to each componenent of the system.In my dissertation, new methodologies of data assimilation are used in atmospheric chemistry and physics: the joint use of a 4D-Var with a subgrid statistical model to consistently account for representativeness errors, accounting for multiple scale in the BLUE estimation principle, and a better estimation of prior errors using objective estimation of hyperparameters. These three approaches will be specifically applied to inverse modelling problems focussing on the emission fields of tracers or pollutants. First, in order to estimate the emission inventories of carbon monoxide over France, in-situ stations which are impacted by the representativeness errors are used. A subgrid model is introduced and coupled with a 4D-Var to reduce the representativeness error. Indeed, the results of inverse modelling showed that the 4D-Var routine was not fit to handle the representativeness issues. The coupled data assimilation system led to a much better representation of theCO concentration variability, with a significant improvement of statistical indicators, and more consistent estimation of the CO emission inventory. Second, the evaluation of the potential of the IMS (International Monitoring System) radionuclide network is performed for the inversion of an accidental source. In order to assess the performance of the global network, a multiscale adaptive grid is optimised using a criterion based on degrees of freedom for the signal (DFS). The results show that several specific regions remain poorly observed by the IMS network. Finally, the inversion of the surface fluxes of Volatile Organic Compounds (VOC) are carried out over Western Europe using EMEP stations. The uncertainties of the background values of the emissions, as well as the covariance matrix of the observation errors, are estimated according to the maximum likelihood principle. The prior probability density function of the control parameters is chosen to be Gaussian or semi-normal distributed. Grid-size emission inventories are inverted under these two statistical assumptions. The two kinds of approaches are compared. With the Gaussian assumption, the departure between the posterior and the prior emission inventories is higher than when using the semi-normal assumption, but that method does not provide better scores than the semi-normal in a forecast experiment.
98

Flexibilité du contrôle moteur dans les mouvements complexes dirigés / Motor flexibility in complex goal directed movements

Fautrelle, Lilian 04 November 2011 (has links)
L’objectif général de cette thèse est d’étudier dans les mouvements complexes, les propriétés psychophysiques de flexibilité d’un programme moteur suite à une perturbation inattendue et certaines de ses bases neurales. Pour ce faire, trois études comportementales et une étude en imagerie par résonance magnétique fonctionnelles ont été menées. (1)Les principaux résultats de notre première étude démontrent que lors de la réalisation de mouvements complexes, après un déplacement inattendu de la cible visuelle, des corrections motrices peuvent apparaître très rapidement en une centaine de millisecondes dans les muscles de la jambe et du bras. De telles latences pourraient indiquer que les corrections motrices rapides à partir des entrées visuelles pourraient être générées grâce à des boucles corticales de bas niveaux. (2) Lors d’un déplacement imprévu de la cible visuelle pendant l’exécution d’un mouvement complexe dirigé, les temps de correction sont significativement corrélés entre certaines paires de muscles, indépendamment de leur localisation anatomique ou de leur ordre d’apparition dans la séquence temporelle de recrutement musculaire. Ces résultats suggèrent que le système nerveux central est capable d’utiliser des synergies motrices fonctionnelles et complexes lors de la génération de corrections motrices. (3) Lorsque la taille de la cible est modifiée de manière imprévisible pendant l’exécution du plan moteur initial, la durée du mouvement augmente, indépendamment de la variabilité de la précision terminale du mouvement de pointage. Ce résultat suggère que les retours sensori-moteurs et une représentation en (quasi) temps réel de la vitesse de l’effecteur sont utilisés pour générer et contrôler le déplacement de la main. (4) Enfin, lors d’une tâche de rattrapés de balles répétitifs, en manipulant les conditions de prédiction a priori de la masse des balles utilisées, la dernière étude de ce travail expérimental démontre qu’un réseau cérébelleux bilatéral, impliquant les lobules IV, V et VI, est très majoritairement impliqué dans les processus de calcul de l’erreur sensori-motrice. Dans les boucles corticales classiques impliquées dans la flexibilité motrice, le cervelet est engagé dans la génération de l’erreur sensori-motrice. Néanmoins, il semblerait que d’autres boucles de plus bas niveaux puissent être également employées afin de générer des corrections motrices très rapides. La coordination entre ces différentes boucles reste à être étudiée plus précisément. / The main objective of this thesis is to study the motor flexibility in complex movements when an unexpected event makes the initial motor plan inefficient. In this way, three kinematic and electromyographic studies and a fourth with functional magnetic resonance imaging were realized. (1)The main result of the first study clearly demonstrate that during complex movements express motor corrections in the upper and lower limbs, with latency responses of less than 100 ms, were revealed by contrasting electromyographic activities in perturbed and unperturbed trials. Such findings could indicate that visual on-going movement corrections may be accomplished via fast loops at the level of the upper and lower limbs and may not require cortical involvement. (2) When an unexpected target jump occurred, correction times were strongly correlated together for some pairs of muscles independently of their occurrences during the motor sequence and independently of the location of the muscles at the anatomical level. This second study suggests that the CNS re-programs a new motor synergy after the target jumps in order to correct the on going reaching movement. (3) When the target size is varied during the initial motor plan execution, the movement duration can increase independently of the variability of the final endpoint. These results suggests that when the speed-accuracy trade-off is unexpectedly modified, terminal feedbacks based on intermediate representations of the endpoint velocity are used to monitor and control the hand displacement. (4) Finally, when catching a falling ball and the possibility of prediction about the ball weight was manipulated, the last study of this thesis showed that both the right and left cerebellum is engaged in processing sensory–motor errors, and more particularly the lobules IV, V and VI. For classical loops involved in motor flexibility, sensory-motor errors are processed within the cerebellum. However, some shorter sub-cortical loops seem also to be involved for faster motor corrections. The coordination between these different loops needs to be explained more precisely.
99

Machine translation of proper names from english and french into vietnamese : an error analysis and some proposed solutions / Traduction automatique des noms propres de l’anglais et du français vers le vietnamien : analyse des erreurs et quelques solutions

Phan Thi Thanh, Thao 11 March 2014 (has links)
Dans l'ère de l'information et de la connaissance, la traduction automatique (TA) devientprogressivement un outil indispensable pour transposer la signification d'un texte d'une langue source versune langue cible. La TA des noms propres (NP), en particulier, joue un rôle crucial dans ce processus,puisqu'elle permet une identification précise des personnes, des lieux, des organisations et des artefacts àtravers les langues. Malgré un grand nombre d'études et des résultats significatifs concernant lareconnaissance d'entités nommées (dont le nom propre fait partie) dans la communauté de TAL dans lemonde, il n'existe presque aucune recherche sur la traduction automatique des noms propres (TANP) pourle vietnamien. En raison des caractéristiques différentes d'écriture de NP, la translittération ou la transcription etla traduction de plusieurs de langues incluant l'anglais, le français, le russe, le chinois, etc. vers levietnamien, le TANP de ces langues vers le vietnamien est stimulant et problématique. Cette étude seconcentre sur les problèmes de TANP d’anglais vers le vietnamien et de français vers le vietnamienrésultant du moteurs courants de la TA et présente les solutions de prétraitement de ces problèmes pouraméliorer la qualité de la TA. A travers l'analyse et la classification d'erreurs de la TANP faites sur deux corpus parallèles detextes avec PN (anglais-vietnamien et français-vietnamien), nous proposons les solutions concernant deuxproblématiques importantes: (1) l'annotation de corpus, afin de préparer des bases de données pour leprétraitement et (2) la création d'un programme pour prétraiter automatiquement les corpus annotés, afinde réduire les erreurs de la TANP et d'améliorer la qualité de traduction des systèmes de TA, tels queGoogle, Vietgle, Bing et EVTran. L'efficacité de différentes méthodes d'annotation des corpus avec des NP ainsi que les tauxd'erreurs de la TANP avant et après l'application du programme de prétraitement sur les deux corpusannotés est comparés et discutés dans cette thèse. Ils prouvent que le prétraitement réduitsignificativement le taux d'erreurs de la TANP et, par la même, contribue à l'amélioration de traductionautomatique vers la langue vietnamienne. / Machine translation (MT) has increasingly become an indispensable tool for decoding themeaning of a text from a source language into a target language in our current information and knowledgeera. In particular, MT of proper names (PN) plays a crucial role in providing the specific and preciseidentification of persons, places, organizations, and artefacts through the languages. Despite a largenumber of studies and significant achievements of named entity recognition in the NLP communityaround the world, there has been almost no research on PNMT for Vietnamese language. Due to the different features of PN writing, transliteration or transcription and translation from a variety of languages including English, French, Russian, Chinese, etc. into Vietnamese, the PNMT from those languages into Vietnamese is still challenging and problematic issue. This study focuses on theproblems of English-Vietnamese and French-Vietnamese PNMT arising from current MT engines. First,it proposes a corpus-based PN classification, then a detailed PNMT error analysis to conclude with somepre-processing solutions in order to improve the MT quality. Through the analysis and classification of PNMT errors from the two English-Vietnamese and French-Vietnamese parallel corpora of texts with PNs, we propose solutions concerning two major issues:(1)corpus annotation for preparing the pre-processing databases, and (2)design of the pre-processingprogram to be used on annotated corpora to reduce the PNMT errors and enhance the quality of MTsystems, including Google, Vietgle, Bing and EVTran. The efficacy of different annotation methods of English and French corpora of PNs and the results of PNMT errors before and after using the pre-processing program on the two annotated corporaare compared and discussed in this study. They prove that the pre-processing solution reducessignificantly PNMT errors and contributes to the improvement of the MT systems’ for Vietnameselanguage.
100

Improving the Numerical Accuracy of Floating-Point Programs with Automatic Code Transformation Methods / Amélioration de la précision numérique de programmes basés sur l'arithmétique flottante par les méthodes de transformation automatique

Damouche, Nasrine 12 December 2016 (has links)
Les systèmes critiques basés sur l’arithmétique flottante exigent un processus rigoureux de vérification et de validation pour augmenter notre confiance en leur sureté et leur fiabilité. Malheureusement, les techniques existentes fournissent souvent une surestimation d’erreurs d’arrondi. Nous citons Arian 5 et le missile Patriot comme fameux exemples de désastres causés par les erreurs de calculs. Ces dernières années, plusieurs techniques concernant la transformation d’expressions arithmétiques pour améliorer la précision numérique ont été proposées. Dans ce travail, nous allons une étape plus loin en transformant automatiquement non seulement des expressions arithmétiques mais des programmes complets contenant des affectations, des structures de contrôle et des fonctions. Nous définissons un ensemble de règles de transformation permettant la génération, sous certaines conditions et en un temps polynômial, des expressions pluslarges en appliquant des calculs formels limités, au sein de plusieurs itérations d’une boucle. Par la suite, ces larges expressions sont re-parenthésées pour trouver la meilleure expression améliorant ainsi la précision numérique des calculs de programmes. Notre approche se base sur les techniques d’analyse statique par interprétation abstraite pour sur-rapprocher les erreurs d’arrondi dans les programmes et au moment de la transformation des expressions. Cette approche est implémenté dans notre outil et des résultats expérimentaux sur des algorithmes numériques classiques et des programmes venant du monde d’embarqués sont présentés. / Critical software based on floating-point arithmetic requires rigorous verification and validation process to improve our confidence in their reliability and their safety. Unfortunately available techniques for this task often provide overestimates of the round-off errors. We can cite Arian 5, Patriot rocket as well-known examples of disasters. These last years, several techniques have been proposed concerning the transformation of arithmetic expressions in order to improve their numerical accuracy and, in this work, we go one step further by automatically transforming larger pieces of code containing assignments, control structures and functions. We define a set of transformation rules allowing the generation, under certain conditions and in polynomial time, of larger expressions by performing limited formal computations, possibly among several iterations of a loop. These larger expressions are better suited to improve, by re-parsing, the numerical accuracy of the program results. We use abstract interpretation based static analysis techniques to over-approximate the round-off errors in programs and during the transformation of expressions. A tool has been implemented and experimental results are presented concerning classical numerical algorithms and algorithms for embedded systems.

Page generated in 0.3152 seconds