Spelling suggestions: "subject:"arithmétique"" "subject:"arithmétiques""
91 |
Évaluation analytique de la précision des systèmes en virgule fixe pour des applications de communication numérique / Analytical approach for evaluation of the fixed point accuracyChakhari, Aymen 07 October 2014 (has links)
Par rapport à l'arithmétique virgule flottante, l'arithmétique virgule fixe se révèle plus avantageuse en termes de contraintes de coût et de consommation, cependant la conversion en arithmétique virgule fixe d'un algorithme spécifié initialement en virgule flottante se révèle être une tâche fastidieuse. Au sein de ce processus de conversion, l'une des étapes majeures concerne l'évaluation de la précision de la spécification en virgule fixe. En effet, le changement du format des données de l'application s'effectue en éliminant des bits ce qui conduit à la génération de bruits de quantification qui se propagent au sein du système et dégradent la précision des calculs en sortie de l'application. Par conséquent, cette perte de précision de calcul doit être maîtrisée et évaluée afin de garantir l'intégrité de l'algorithme et répondre aux spécifications initiales de l'application. Le travail mené dans le cadre de cette thèse se concentre sur des approches basées sur l'évaluation de la précision à travers des modèles analytiques (par opposition à l'approche par simulations). Ce travail traite en premier lieu de la recherche de modèles analytiques pour évaluer la précision des opérateurs non lisses de décision ainsi que la cascade d'opérateurs de décision. Par conséquent, la caractérisation de la propagation des erreurs de quantification dans la cascade d'opérateurs de décision est le fondement des modèles analytiques proposés. Ces modèles sont appliqués à la problématique de l'évaluation de la précision de l'algorithme de décodage sphérique SSFE (Selective Spanning with Fast Enumeration) utilisé pour les systèmes de transmission de type MIMO (Multiple-Input Multiple-Output). Dans une seconde étape, l'évaluation de la précision des structures itératives d'opérateurs de décision a fait l'objet d'intérêt. Une caractérisation des erreurs de quantification engendrées par l'utilisation de l'arithmétique en virgule fixe est menée afin de proposer des modèles analytiques basés sur l'estimation d'une borne supérieure de la probabilité d'erreur de décision ce qui permet de réduire les temps d'évaluation. Ces modèles sont ensuite appliqués à la problématique de l'évaluation de la spécification virgule fixe de l'égaliseur à retour de décision DFE (Decision Feedback Equalizer). Le second aspect du travail concerne l'optimisation des largeurs de données en virgule fixe. Ce processus d'optimisation est basé sur la minimisation de la probabilité d'erreur de décision dans le cadre d'une implémentation sur un FPGA (Field-Programmable Gate Array) de l'algorithme DFE complexe sous contrainte d'une précision donnée. Par conséquent, pour chaque spécification en virgule fixe, la précision est évaluée à travers les modèles analytiques proposés. L'estimation de la consommation des ressources et de la puissance sur le FPGA est ensuite obtenue à l'aide des outils de Xilinx pour faire un choix adéquat des largeurs des données en visant à un compromis précision/coût. La dernière phase de ce travail traite de la modélisation en virgule fixe des algorithmes de décodage itératif reposant sur les concepts de turbo-décodage et de décodage LDPC (Low-Density Parity-Check). L'approche proposée prend en compte la structure spécifique de ces algorithmes ce qui implique que les quantités calculées au sein du décodeur (ainsi que les opérations) soient quantifiées suivant une approche itérative. De plus, la représentation en virgule fixe utilisée (reposant sur le couple dynamique et le nombre de bits total) diffère de la représentation classique qui, elle, utilise le nombre de bits accordé à la partie entière et la partie fractionnaire. Avec une telle représentation, le choix de la dynamique engendre davantage de flexibilité puisque la dynamique n'est plus limitée uniquement à une puissance de deux. Enfin, la réduction de la taille des mémoires par des techniques de saturation et de troncature est proposée de manière à cibler des architectures à faible-complexité. / Traditionally, evaluation of accuracy is performed through two different approaches. The first approach is to perform simulations fixed-point implementation in order to assess its performance. These approaches based on simulation require large computing capacities and lead to prohibitive time evaluation. To avoid this problem, the work done in this thesis focuses on approaches based on the accuracy evaluation through analytical models. These models describe the behavior of the system through analytical expressions that evaluate a defined metric of precision. Several analytical models have been proposed to evaluate the fixed point accuracy of Linear Time Invariant systems (LTI) and of non-LTI non-recursive and recursive linear systems. The objective of this thesis is to propose analytical models to evaluate the accuracy of digital communications systems and algorithms of digital signal processing made up of non-smooth and non-linear operators in terms of noise. In a first step, analytical models for evaluation of the accuracy of decision operators and their iterations and cascades are provided. In a second step, an optimization of the data length is given for fixed-point hardware implementation of the Decision Feedback Equalizer DFE based on analytical models proposed and for iterative decoding algorithms such as turbo decoding and LDPC decoding-(Low-Density Parity-Check) in a particular quantization law. The first aspect of this work concerns the proposition analytical models for evaluating the accuracy of the non-smooth decision operators and the cascading of decision operators. So, the characterization of the quantization errors propagation in the cascade of decision operators is the basis of the proposed analytical models. These models are applied in a second step to evaluate the accuracy of the spherical decoding algorithmSSFE (Selective Spanning with Fast Enumeration) used for transmission MIMO systems (Multiple-Input Multiple -Output). In a second step, the accuracy evaluation of the iterative structures of decision operators has been the interesting subject. Characterization of quantization errors caused by the use of fixed-point arithmetic is introduced to result in analytical models to evaluate the accuracy of application of digital signal processing including iterative structures of decision. A second approach, based on the estimation of an upper bound of the decision error probability in the convergence mode, is proposed for evaluating the accuracy of these applications in order to reduce the evaluation time. These models are applied to the problem of evaluating the fixed-point specification of the Decision Feedback Equalizer DFE. The estimation of resources and power consumption on the FPGA is then obtained using the Xilinx tools to make a proper choice of the data widths aiming to a compromise accuracy/cost. The last step of our work concerns the fixed-point modeling of iterative decoding algorithms. A model of the turbo decoding algorithm and the LDPC decoding is then given. This approach integrates the particular structure of these algorithms which implies that the calculated quantities in the decoder and the operations are quantified following an iterative approach. Furthermore, the used fixed-point representation is different from the conventional representation using the number of bits accorded to the integer part and the fractional part. The proposed approach is based on the dynamic and the total number of bits. Besides, the dynamic choice causes more flexibility for fixed-point models since it is not limited to only a power of two.
|
92 |
Points algébriques de hauteur bornée / Algebraic points of bounded heightLe Rudulier, Cécile 31 October 2014 (has links)
L'étude de la répartition des points rationnels ou algébriques d'une variété algébrique selon leur hauteur est un problème classique de géométrie diophantienne. Dans cette thèse, nous nous intéresserons au cardinal asymptotique de l'ensemble des points algébriques de degré fixé et de hauteur bornée d'une variété lisse de Fano définie sur un corps de nombres, lorsque la borne sur la hauteur tend vers l'infini. En particulier nous montrerons que cette question peut-être reliée à la conjecture de Batyrev-Manin-Peyre, c'est-à-dire le cas des points rationnels, sur un schéma de Hilbert ponctuel. Nous en déduisons ainsi la distribution des points algébriques de degré fixé d'une courbe rationnelle. Lorsque la variété de départ est une surface lisse de Fano, notre étude montre que les schémas de Hilbert associés fournissent, sous certaines conditions, de nouveaux contre-exemples à la conjecture de Batyrev-Manin-Peyre. Néanmoins, pour deux surfaces que nous étudions en détail, les schémas de Hilbert associés vérifient une version légèrement affaiblie de la conjecture de Batyrev-Manin-Peyre. / The study of the distribution of rational or algebraic points of an algebraic variety according to their height is a classic problem in Diophantine geometry. In this thesis, we will be interested in the asymptotic cardinality of the set of algebraic points of fixed degree and bounded height of a smooth Fano variety defined over a number field, when the bound on the height tends to infinity. In particular, we show that this can be connected to the Batyrev-Manin-Peyre conjecture, i.e. the case of rational points, on some ponctual Hilbert scheme. We thus deduce the distribution of algebraic points of fixed degree on a rational curve. When the variety is a smooth Fano surface, our study shows that the associated Hilbert schemes provide, under certain conditions, new counterexamples to the Batyrev-Manin-Peyre conjecture. However, in two cases detailed in this thesis, the associated Hilbert schemes satisfie a slightly weaker version of the Batyrev-Manin-Peyre conjecture.
|
93 |
Arithmétique rapide pour des corps finis / Fast finite field arithmeticLarrieu, Robin 10 December 2019 (has links)
La multiplication de polynômes est une opération fondamentale en théorie de la complexité. En effet, pour de nombreux problèmes d’arithmétique, la complexité des algorithmes s’exprime habituellement en fonction de la complexité de la multiplication. Un meilleur algorithme de multiplication permet ainsi d’effectuer les opérations concernées plus rapidement. Un résultat de 2016 a établi une meilleure complexité asymptotique pour la multiplication de polynômes dans des corps finis. Cet article constitue le point de départ de la thèse ; l’objectif est d’étudier les conséquences à la fois théoriques et pratiques de la nouvelle borne de complexité.La première partie s’intéresse à la multiplication de polynômes à une variable. Cette partie présente deux nouveaux algorithmes censés accélérer le calcul en pratique (plutôt que d’un point de vue asymptotique). S’il est difficile dans le cas général d’observer l’amélioration prévue, certains cas précis sont particulièrement favorables. En l’occurrence, le second algorithme proposé, spécifique aux corps finis, conduit à une meilleure implémentation de la multiplication dans F_2[X], environ deux fois plus rapide que les logiciels précédents.La deuxième partie traite l’arithmétique des polynômes à plusieurs variables modulo un idéal, telle qu’utilisée par exemple pour la résolution de systèmespolynomiaux. Ce travail suppose une situation simplifiée, avec seulement deux variables et sous certaines hypothèses de régularité. Dans ce cas particulier, la deuxième partie de la thèse donne des algorithmes de complexité asymptotiquement optimale (à des facteurs logarithmiques près), par rapport à la taille des entrées/sorties. L’implémentation pour ce cas spécifique est alors nettement plus rapide que les logiciels généralistes, le gain étant de plus en plus marqué lorsque la taille de l’entrée augmente. / The multiplication of polynomials is a fundamental operation in complexity theory. Indeed, for many arithmetic problems, the complexity of algorithms is expressed in terms of the complexity of polynomial multiplication. For example, the complexity of euclidean division or of multi-point evaluation/interpolation (and others) is often expressed in terms of the complexity of polynomial multiplication. This shows that a better multiplication algorithm allows to perform the corresponding operations faster. A 2016 result gave an improved asymptotic complexity for the multiplication of polynomials over finite fields. This article is the starting point of the thesis; the present work aims to study the implications of the new complexity bound, from a theoretical and practical point of view.The first part focuses on the multiplication of univariate polynomials. This part presents two new algorithms that should make the computation faster in practice (rather than asymptotically speaking). While it is difficult in general to observe the predicted speed-up, some specific cases are particularly favorable. Actually, the second proposed algorithm, which is specific to finite fields, leads to a better implementation for the multiplication in F 2 [X], about twice as fast as state-of-the-art software.The second part deals with the arithmetic of multivariate polynomials modulo an ideal, as considered typically for polynomial system solving. This work assumes a simplified situation, with only two variables and under certain regularity assumptions. In this particular case, there are algorithms whose complexity is asymptotically optimal (up to logarithmic factors), with respect to input/output size. The implementation for this specific case is then significantly faster than general-purpose software, the speed-up becoming larger and larger when the input size increases.
|
94 |
Approche arithmétique RNS de la cryptographie asymétrique / RNS arithmetic approach of asymmetric cryptographyEynard, Julien 28 May 2015 (has links)
Cette thèse se situe à l'intersection de la cryptographie et de l'arithmétique des ordinateurs. Elle traite de l'amélioration de primitives cryptographiques asymétriques en termes d'accélération des calculs et de protection face aux attaques par fautes par le biais particulier de l'utilisation des systèmes de représentation des nombres par les restes (RNS). Afin de contribuer à la sécurisation de la multiplication modulaire, opération centrale en cryptographie asymétrique, un nouvel algorithme de réduction modulaire doté d'une capacité de détection de faute est présenté. Une preuve formelle garantit la détection des fautes sur un ou plusieurs résidus pouvant apparaître au cours d'une réduction. De plus, le principe de cet algorithme est généralisé au cas d'une arithmétique dans un corps fini non premier. Ensuite, les RNS sont exploités dans le domaine de la cryptographie sur les réseaux euclidiens. L'objectif est d'importer dans ce domaine certains avantages des systèmes de représentation par les restes dont l'intérêt a déjà été montré pour une arithmétique sur GF(p) notamment. Le premier résultat obtenu est une version en représentation hybride RNS-MRS de l'algorithme du « round-off » de Babai. Puis une technique d'accélération est introduite, permettant d'aboutir dans certains cas à un algorithme entièrement RNS pour le calcul d'un vecteur proche. / This thesis is at the crossroads between cryptography and computer arithmetic. It deals with enhancement of cryptographic primitives with regard to computation acceleration and protection against fault injections through the use of residue number systems (RNS) and their associated arithmetic. So as to contribute to secure the modular multiplication, which is a core operation for many asymmetric cryptographic primitives, a new modular reduction algorithm supplied with fault detection capability is presented. A formal proof guarantees that faults affecting one or more residues during a modular reduction are well detected. Furthermore, this approach is generalized to an arithmetic dedicated to non-prime finite fields Fps . Afterwards, RNS are used in lattice-based cryptography area. The aim is to exploit acceleration properties enabled by RNS, as it is widely done for finite field arithmetic. As first result, a new version of Babai’s round-off algorithm based on hybrid RNS-MRS representation is presented. Then, a new and specific acceleration technique enables to create a full RNS algorithm computing a close lattice vector.
|
95 |
L'habileté des élèves du district fédéral du Brésil à estimer des résultats de calculsBoessenkool, Geessina Gerda 27 November 2019 (has links)
Cette recherche vise deux objectifs: (1) évaluer l'habileté des élèves brésiliens à estimer des résultats de calculs, et (2) mettre en évidence les stratégies qu'ils utilisent pour faire de telles estimations. Pour atteindre le premier, nous avons administré à l’aide du rétroprojecteur un test à 197 élèves de 5e et 172 de 8e année provenant de trois écoles (une privée et deux publiques) du Brésil. Pour réaliser le second, nous avons fait des entrevues cliniques avec 16 sujets, choisis parmi les précédents d'après leur rendement fort, moyen ou faible au test d'estimation. Les résultats obtenus montrent que les élèves des deux niveaux sont très faibles dans l'estimation de résultats de calculs, qui n'est pas enseignée à l'école. La plupart n'emploient qu'une stratégie d'estimation: la stratégie frontale. Les élèves de 8e année affichent un rendement nettement supérieur, de même que les élèves provenant de l'école privée. Les garçons obtiennent de meilleurs résultats que les filles. / Québec Université Laval, Bibliothèque 2019
|
96 |
Optimisation Globale basée sur l'Analyse d'Intervalles: Relaxation Affine et Limitation de la MémoireNinin, Jordan 08 December 2010 (has links) (PDF)
Depuis une vingtaine d'années, la résolution de problèmes d'optimisation globale non convexes avec contraintes a connu un formidable essor. Les algorithmes de branch and bound basée sur l'analyse d'intervalles ont su trouver leur place, car ils ont l'avantage de prouver l'optimalité de la solution de façon déterministe, avec un niveau de certitude pouvant aller jusqu'à la précision machine. Cependant, la complexité exponentielle en temps et en mémoire de ces algorithmes induit une limite intrinsèque, c'est pourquoi il est toujours nécessaire d'améliorer les techniques actuelles. - Dans cette thèse, nous avons développé de nouvelles arithmétiques basées sur l'arithmétique d'intervalles et l'arithmétique affine, afin de calculer des minorants et des majorants de meilleure qualité de fonctions explicites sur un intervalle. - Nous avons ensuite développé une nouvelle méthode automatique de construction de relaxations linéaires. Cette construction est basée sur l'arithmétique affine et procède par surcharge des opérateurs. Les programmes linéaires ainsi générés ont exactement le même nombre de variables et de contraintes d'inégalité que les problèmes originaux, les contraintes d'égalité étant remplacées par deux inégalités. Cette nouvelle procédure permet de calculer des minorants fiables et des certificats d'infaisabilité pour chaque sous-domaine à chaque itération de notre algorithme de branch and bound par intervalles. De nombreux tests numériques issus du site COCONUT viennent confirmer l'efficacité de cette approche. - Un autre aspect de cette thèse a été l'étude d'une extension de ce type d'algorithmes en introduisant une limite sur mémoire disponible. L'idée principale de cette approche est de proposer un processus inverse de l'optimisation par le biais d'un principe métaheuristique: plutôt que d'améliorer des solutions locales à l'aide de métaheuristiques telles que les algorithmes Taboo ou VNS, nous partons d'une méthode exacte et nous la modifions en une heuristique. De cette façon, la qualité de la solution trouvée peut être évaluée. Une étude de la complexité de ce principe métaheuristique a également été effectuée. - Enfin, pour finir l'étude, nous avons appliqué notre algorithme à la résolution de problème en géométrie plane, ainsi qu'à la résolution d'un problème de dimensionnement de moteur électrique. Les résultats obtenus ont permis de confirmer l'intérêt de ce type d'algorithme, en résolvant des problèmes ouverts sur les polygones convexes et proposant des structures innovantes en génie électrique.
|
97 |
Génération numérique de signaux RF pour les terminaux de communication mobile par modulation delta-sigmaFrappé, Antoine 07 December 2007 (has links) (PDF)
Dans le cadre de la radio logicielle, un transmetteur numérique, basé sur la modulation ΔΣ, est proposé. Son architecture est construite autour de deux modulateurs ΔΣ passe-bas suréchantillonnés du 3ème ordre qui fournissent un signal multiplexé sur 1 bit à haute cadence, qui code directement le signal RF dans le domaine numérique. La séquence de sortie peut ensuite être appliquée à l'entrée d'un amplificateur de puissance commuté ayant une bonne efficacité.<br />Le standard UMTS a été choisi comme exemple d'application et un générateur de signaux RF 1 bit à 7,8Géch/s a été réalisé dans une technologie 90nm CMOS. Une arithmétique redondante comprenant des signaux complémentaires, une quantification de sortie non exacte et une évaluation anticipée de la sortie ont été implémentées pour parvenir à la cadence désirée. Une logique dynamique différentielle sur 3 phases d'horloge, générées par une DLL, a été utilisée au niveau circuit.<br />Le circuit intégré du transmetteur prototype démontre une fonctionnalité complète jusqu'à une fréquence d'horloge de 4GHz, permettant ainsi d'atteindre une bande passante de 50MHz autour d'une fréquence porteuse de 1GHz. Si la bande image est utilisée, la fréquence d'émission peut être déplacée jusqu'à 3GHz. Avec une fréquence d'horloge de 2,6GHz et un canal WCDMA de 5MHz modulé autour d'une fréquence porteuse à 650MHz, 53,6dB d'ACLR sont obtenus pour une puissance de canal en sortie de -3,9dBm. Pour la bande image (1,95GHz), l'ACPR est de 44,3dB pour une puissance maximale du canal en sortie de -15,8dBm, ce qui rentre dans les spécifications UMTS. L'aire active du circuit est de 0,15mm² et sa consommation de 69mW sous 1V à cette fréquence.
|
98 |
Le théorème de concentration et la formule des points fixes de Lefschetz en géométrie d’Arakelov / Concentration theorem and fixed point formula of Lefschetz type in Arakelov geometryTang, Shun 18 February 2011 (has links)
Dans les années quatre-vingts dix du siècle dernier, R. W. Thomason a démontréun théorème de concentration pour la K-théorie équivariante algébrique sur lesschémas munis d’une action d’un groupe algébrique G diagonalisable. Comme d’habitude,un tel théorème entraîne une formule des points fixes de type Lefschetz qui permetde calculer la caractéristique d’Euler-Poincaré équivariante d’un G-faisceau cohérent surun G-schéma propre en termes d’une caractéristique sur le sous-schéma des points fixes.Le but de cette thèse est de généraliser les résultats de R.W. Thomason dans le contextede la géométrie d’Arakelov. Dans ce travail, nous considérons les schémas arithmétiquesau sens de Gillet-Soulé et nous tout d’abord démontrons un analogue arithmétiquedu théorème de concentration pour les schémas arithmétiques munis d’une action duschéma en groupe diagonalisable associé à Z/nZ. La démonstration résulte du théorèmede concentration algébrique joint à des arguments analytiques. Dans le dernier chapitre,nous formulons et démontrons deux types de formules de Lefschetz arithmétiques. Cesdeux formules donnent une réponse positive à deux conjectures énoncées par K. Köhler,V. Maillot et D. Rössler. / In the nineties of the last century, R. W. Thomason proved a concentrationtheorem for the algebraic equivariant K-theory on the schemes which are endowed withan action of a diagonalisable group scheme G. As usual, such a concentration theoreminduces a fixed point formula of Lefschetz type which can be used to calculate theequivariant Euler-Poincaré characteristic of a coherent G-sheaf on a proper G-schemein terms of a characteristic on the fixed point subscheme. It is the aim of this thesis togeneralize R. W. Thomason’s results to the context of Arakelov geometry. In this work,we consider the arithmetic schemes in the sense of Gillet-Soulé and we first prove anarithmetic analogue of the concentration theorem for the arithmetic schemes endowedwith an action of the diagonalisable group scheme associated to Z/nZ. The proof is acombination of the algebraic concentration theorem and some analytic arguments. Inthe last chapter, we formulate and prove two kinds of arithmetic Lefschetz formulae.These two formulae give a positive answer to two conjectures made by K. Köhler, V.Maillot and D. Rössler.
|
99 |
Optimisation Globale basée sur l'Analyse d'Intervalles : relaxation Affine et Limitation de la Mémoire / Global Optimization based on Interval Analysis : affine Relaxation and Limited MemoryNinin, Jordan 08 December 2010 (has links)
Depuis une vingtaine d’années, la résolution de problèmes d’optimisation globale non convexes avec contraintes a connu un formidable essor. Les algorithmes de branch and bound basée sur l’analyse d’intervalles ont su trouver leur place, car ils ont l’avantage de prouver l’optimalité de la solution de façon déterministe, avec un niveau de certitude pouvant aller jusqu’à la précision machine. Cependant, la complexité exponentielle en temps et en mémoire de ces algorithmes induit une limite intrinsèque, c’est pourquoi il est toujours nécessaire d’améliorer les techniques actuelles. Dans cette thèse, nous avons développé de nouvelles arithmétiques basées sur l’arithmétique d’intervalles et l’arithmétique affine, afin de calculer des minorants et des majorants de meilleure qualité de fonctions explicites sur un intervalle. Nous avons ensuite développé une nouvelle méthode automatique de construction de relaxations linéaires. Cette construction est basée sur l’arithmétique affine et procède par surcharge des opérateurs. Les programmes linéaires ainsi générés ont exactement le même nombre de variables et de contraintes d’inégalité que les problèmes originaux, les contraintes d’égalité étant remplacées par deux inégalités. Cette nouvelle procédure permet de calculer des minorants fiables et des certificats d’infaisabilité pour chaque sous-domaine à chaque itération de notre algorithme de branch and bound par intervalles. De nombreux tests numériques issus du site COCONUT viennent confirmer l’efficacité de cette approche. Un autre aspect de cette thèse a été l’étude d’une extension de ce type d’algorithmes en introduisant une limite sur mémoire disponible. L’idée principale de cette approche est de proposer un processus inverse de l’optimisation par le biais d’un principe métaheuristique : plutôt que d’améliorer des solutions locales à l’aide de métaheuristiques telles que les algorithmes Taboo ou VNS, nous partons d’une méthode exacte et nous la modifions en une heuristique. De cette façon, la qualité de la solution trouvée peut être évaluée. Une étude de la complexité de ce principe métaheuristique a également été effectuée. Enfin, pour finir l’étude, nous avons appliqué notre algorithme à la résolution de problème en géométrie plane, ainsi qu’à la résolution d’un problème de dimensionnement de moteur électrique. Les résultats obtenus ont permis de confirmer l’intérêt de ce type d’algorithme, en résolvant des problèmes ouverts sur les polygones convexes et proposant des structures innovantes en génie électrique. / Since about thirty years, interval Branch and Bound algorithms are increasingly used to solve constrained global optimization problems in a deterministic way. Such algorithms are reliable, i.e., they provide an optimal solution and its value with guaranteed bounds on the error, or a proof that the problem under study is infeasible. Other approaches to global optimization, while useful and often less time-consuming than interval methods, do not provide such a guarantee. However, the exponential complexity in time and memory of interval Branch and Bound algorithms implies a limitation, so it is always necessary to improve these methods. In this thesis, we have developed new arithmetics based on interval arithmetic and affine arithmetic, to compute better lower and upper bounds of a factorable function over an interval. An automatic method for constructing linear relaxations of constrained global optimization problems is proposed. Such a construction is based on affine and interval arithmetics and uses operator overloading. These linear programs have exactly the same numbers of variables and of inequality constraints as the given problems. Each equality constraint is replaced by two inequalities. This new procedure for computing reliable bounds and certificates of infeasibility is inserted into a classical interval Branch and Bound algorithm. Extensive computation experiments, made on a sample of test problems from the COCONUT database, prove its effectiveness. Another aspect is the study of an extension of such a global optimization code by limiting the available memory. The main idea of this new kind of metaheuristique is to propose a reverse process of optimization via heuristics : rather than improving local solutions by using metaheuristics such as Taboo or VNS, we begin with an exact method and we modify it into a heuristic one. In such a way, the quality of the solution could be evaluated. Moreover, a study of the complexity of this metaheurisque has been done. Finally, we applied our algorithm to solve open problem in geometry, and to solve a design problem of an electric motor. The results have confirmed the usefulness of this kind of algorithms, solving open problems on convex polygons and offering innovative structures in electrical engineering.
|
100 |
Erreurs arithmétiques des élèves et interventions de l'enseignant débutant : une analyse didactique en termes de schèmesNormandeau, Marie-Pierre 01 1900 (has links)
Ancrée dans le domaine de la didactique des mathématiques, notre thèse cible le « travail de l’erreur » effectué par trois enseignants dans leur première année de carrière. Libérés des contraintes associées au système de formation initiale, ces sujets assument pleinement leur nouveau rôle au sein de la classe ordinaire. Ils se chargent, entre autres, de l’enseignement de l’arithmétique et, plus précisément, de la division euclidienne. Parmi leurs responsabilités se trouvent le repérage et l’intervention sur les procédures erronées. Le « travail de l’erreur » constitue l’expression spécifique désignant cette double tâche (Portugais 1995).
À partir d’un dispositif de recherche combinant les méthodes d’observation et d’entrevue, nous documentons des séances d’enseignement afin de dégager les situations où nos maîtres du primaire identifient des erreurs dans les procédures algorithmiques des élèves et déploient, subséquemment, des stratégies d’intervention. Nous montrons comment ces deux activités sont coordonnées en décrivant les choix, décisions et actions mises en œuvre par nos sujets. Il nous est alors possible d’exposer l’organisation de la conduite de ces jeunes enseignants en fonction du traitement effectif de l’erreur arithmétique.
En prenant appui sur la théorie de champs conceptuels (Vergnaud 1991), nous révélons l’implicite des connaissances mobilisées par nos sujets et mettons en relief les mécanismes cognitifs qui sous-tendent cette activité professionnelle. Nous pouvons ainsi témoigner, du moins en partie, du travail de conceptualisation réalisé in situ. Ce travail analytique permet de proposer l’existence d’un schème du travail de l’erreur chez ces maîtres débutants, mais aussi de spécifier sa nature et son fonctionnement. En explorant le versant cognitif de l’activité enseignante, notre thèse aborde une nouvelle perspective associée au thème du repérage et de l’intervention sur l’erreur de calcul de divisions en colonne. / Rooted in the Didactic of Mathematics’ field, this thesis looks into the practice of three new teachers. Free from the constraints and pressures associated with the teacher training context, these subjects take on a new role in their first year on the job. Among all of the affiliated responsibilities are those related to the teaching of arithmetic and, more specifically, the long division algorithm. “Le travail de l’erreur” is the expression used by Portugais (1995) to design error management by the teacher. It includes the diagnosis of errors and the strategies unfurled to help the pupil remedy his/her mistakes. This double task is the object of this study.
Combining research methods of observation and interview, we aim to describe error management in a regular elementary class setting. We delineate situations where our subjects identify and intervene on errors made by students during the arithmetic procedure. We examine how these two activities are coordinated, by documenting the novice teachers choices, decisions and actions. We focus on the organization of their conduct throughout the different situations.
A theoretical framework based on the “conceptual field theory” or “théorie des champs conceptuels” (Vergnaud, 1991) enables us to reveal the implicit teaching knowledge comprised in the behavior adopted by the young professionals. This analysis reveals the dynamics of piagetian assimilation/ accommodation mechanisms. It also gives us evidence of the conceptualizing process underlying teacher conduct. We utilize the concept of “scheme” to better understand this cognitive activity. We propose the existence of “le schème du travail de l’erreur” and aim to specify his nature and function. This allows us to describe the conceptual structure, which shapes and organizes the novice’s ability to manage errors in their pupil’s calculation of written divisions.
|
Page generated in 0.0521 seconds