• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 109
  • 59
  • 14
  • Tagged with
  • 178
  • 89
  • 65
  • 57
  • 28
  • 27
  • 26
  • 25
  • 23
  • 23
  • 23
  • 22
  • 22
  • 21
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Tools for the Design of Reliable and Efficient Functions Evaluation Libraries / Outils pour la conception de bibliothèques de calcul de fonctions efficaces et fiables

Torres, Serge 22 September 2016 (has links)
La conception des bibliothèques d’évaluation de fonctions est un activité complexe qui requiert beaucoup de soin et d’application, particulièrement lorsque l’on vise des niveaux élevés de fiabilité et de performances. En pratique et de manière habituelle, on ne peut se livrer à ce travail sans disposer d’outils qui guident le concepteur dans le dédale d’un espace de solutions étendu et complexe mais qui lui garantissent également la correction et la quasi-optimalité de sa production. Dans l’état actuel de l’art, il nous faut encore plutôt raisonner en termes de « boite à outils » d’où le concepteur doit tirer et combiner des mécanismes de base, au mieux de ses objectifs, plutôt qu’imaginer que l’on dispose d’un dispositif à même de résoudre automatiquement tous les problèmes.Le présent travail s’attache à la conception et la réalisation de tels outils dans deux domaines:∙ la consolidation du test d’arrondi de Ziv utilisé, jusqu’à présent de manière plus ou moins empirique, dans l’implantation des approximations de fonction ;∙ le développement d’une implantation de l’algorithme SLZ dans le but de résoudre le « Dilemme du fabricant de table » dans le cas de fonctions ayant pour opérandes et pour résultat approché des nombres flottants en quadruple précision (format Binary64 selon la norme IEEE-754). / The design of function evaluation libraries is a complex task that requires a great care and dedication, especially when one wants to satisfy high standards of reliability and performance. In actual practice, it cannot be correctly performed, as a routine operation, without tools that not only help the designer to find his way in a complex and extended solution space but also to guarantee that his solutions are correct and (almost) optimal. As of the present state of the art, one has to think in terms of “toolbox” from which he can smartly mix-and-match the utensils that fit better his goals rather than expect to have at hand a solve-all automatic device.The work presented here is dedicated to the design and implementation of such tools in two realms:∙ the consolidation of Ziv’s rounding test that is used, in a more or less empirical way, for the implementation of functions approximation;∙ the development of an implementation of the SLZ-algorithm in order to solve the Table Maker Dilemma for the function with quad-precision floating point (IEEE-754 Binary128 format) arguments and images.
22

Étude théorique et implantation matérielle d'unités de calcul en représentation modulaire des nombres pour la cryptographie sur courbes elliptiques / Theoretical study and hardware implementation of arithmetical units in Residue Number System (RNS) for Elliptic Curve Cryptography (ECC)

Bigou, Karim 03 November 2014 (has links)
Ces travaux de thèse portent sur l'accélération de calculs de la cryptographie sur courbes elliptiques (ECC) grâce à une représentation peu habituelle des nombres, appelée représentation modulaire des nombres (ou RNS pour residue number system). Après un état de l'art de l'utilisation du RNS en cryptographie, plusieurs nouveaux algorithmes RNS, plus rapides que ceux de l'état de l'art, sont présentés. Premièrement, nous avons proposé un nouvel algorithme d'inversion modulaire en RNS. Les performances de notre algorithme ont été validées via une implantation FPGA, résultant en une inversion modulaire 5 à 12 fois plus rapide que l'état de l'art, pour les paramètres cryptographiques testés. Deuxièmement, un algorithme de multiplication modulaire RNS a été proposé. Cet algorithme décompose les valeurs en entrée et les calculs, afin de pouvoir réutiliser certaines parties lorsque c'est possible, par exemple lors du calcul d'un carré. Il permet de réduire de près de 25 % le nombre de pré-calculs à stocker et jusqu'à 10 % le nombre de multiplications élémentaires pour certaines applications cryptographiques (p. ex. le logarithme discret). Un algorithme d'exponentiation reprenant les mêmes idées est aussi présenté, réduisant le nombre de multiplications élémentaires de 15 à 22 %, contre un surcoût en pré-calculs à stocker. Troisièmement, un autre algorithme de multiplication modulaire RNS est proposé, ne nécessitant qu'une seule base RNS au lieu de 2 pour l'état de l'art, et utilisable uniquement dans le cadre ECC. Cet algorithme permet, pour certains corps bien spécifiques, de diviser par 2 le nombre de multiplications élémentaires et par 4 les pré-calculs à stocker. Les premiers résultats FPGA donnent des implantations de notre algorithme jusqu'à 2 fois plus petites que celles de l'algorithme de l'état de l'art, pour un surcoût en temps d'au plus 10 %. Finalement, une méthode permettant des tests de divisibilités multiples rapides est proposée, pouvant être utilisée en matériel pour un recodage de scalaire, accélérant certains calculs pour ECC. / The main objective of this PhD thesis is to speedup elliptic curve cryptography (ECC) computations, using the residue number system (RNS). A state-of-art of RNS for cryptographic computations is presented. Then, several new RNS algorithms, faster than state-of-art ones, are proposed. First, a new RNS modular inversion algorithm is presented. This algorithm leads to implementations from 5 to 12 times faster than state-of-art ones, for the standard cryptographic parameters evaluated. Second, a new algorithm for RNS modular multiplication is proposed. In this algorithm, computations are split into independant parts, which can be reused in some computations when operands are reused, for instance to perform a square. It reduces the number of precomputations by 25 % and the number of elementary multiplications up to 10 %, for some cryptographic applications (for example with the discrete logarithm). Using the same idea, an exponentiation algorithm is also proposed. It reduces from 15 % to 22 % the number of elementary multiplications, but requires more precomputations than state-of-art. Third, another modular multiplication algorithm is presented, requiring only one RNS base, instead of 2 for the state-of-art. This algorithm can be used for ECC and well-chosen fields, it divides by 2 the number of elementary multiplications, and by 4 the number of precomputations to store. Partial FPGA implementations of our algorithm halves the area, for a computation time overhead of, at worse, 10 %, compared to state-of-art algorithms. Finally, a method for fast multiple divisibility tests is presented, which can be used in hardware for scalar recoding to accelerate some ECC computations.
23

Towards reliable implementation of digital filters / Vers une implémentation fiable des filtres numériques

Volkova, Anastasia 25 September 2017 (has links)
Dans cette thèse nous essayons d'améliorer l'évaluation de filtres numériques en nous concentrant sur la précision de calcul nécessaire.Ce travail est réalisé dans le contexte d'un générateur de code matériel/logiciel fiable pour des filtres numériques linéaires, en particulier filtres à Réponse Impulsionnelle Infinie (IIR). Avec ce travail, nous mettons en avant les problèmes liés à l'implémentation de filtres linéaires en arithmétique Virgule Fixe tout en prenant en compte la précision finie des calculs nécessaires à la transformation de filtres vers code. Ce point est important dans le cadre de filtres utilisés dans des systèmes embarqués critique comme les véhicules autonomes. Nous fournissons une nouvelle méthodologie pour l'analyse d'erreur lors de l'étude d'algorithmes de filtres linéaires du point de vue de l'arithmétique des ordinateurs. Au cœur de cette méthodologie se trouve le calcul fiable de la mesure Worst Case Peak Gain d'un filtre qui est la norme l1 de sa réponse impulsionnelle. L'analyse d'erreur proposée est basée sur la combinaison de techniques telles que l'analyse d'erreur en Virgule Flottante, l'arithmétique d'intervalles et les implémentations multi-précisions. Cette thèse expose également la problématique de compromis entre les coûts matériel (e.g. la surface) et la précision de calcul lors de l'implémentation de filtres numériques sur FPGA. Nous fournissons des briques de bases algorithmiques pour une solution automatique de ce problème. Finalement, nous intégrons nos approches dans un générateur de code pour les filtres au code open-source afin de permettre l'implémentation automatique et fiable de tout algorithme de filtre linéaire numérique. / In this thesis we develop approaches for improvement of the numerical behavior of digital filters with focus on the impact of accuracy of the computations. This work is done in the context of a reliable hardware/software code generator for Linear Time-Invariant (LTI) digital filters, in particular with Infinite Impulse Response (IIR). With this work we consider problems related to the implementation of LTI filters in Fixed-Point arithmetic while taking into account finite precision of the computations necessary for the transformation from filter to code. This point is important in the context of filters used in embedded critical systems such as autonomous vehicles. We provide a new methodology for the error analysis when linear filter algorithms are investigated from a computer arithmetic aspect. In the heart of this methodology lies the reliable evaluation of the Worst-Case Peak Gain measure of a filter, which is the l1 norm of its impulse response. The proposed error analysis is based on a combination of techniques such as rigorous Floating-Point error analysis, interval arithmetic and multiple precision implementations. This thesis also investigates the problematic of compromise between hardware cost (e.g. area) and the precision of computations during the implementation on FPGA. We provide basic brick algorithms for an automatic solution of this problem. Finally, we integrate our approaches into an open-source unifying framework to enable automatic and reliable implementation of any LTI digital filter algorithm.
24

Modelage de contexte simplifié pour la compression basée sur la transformée en cosinus discrète

Auclair Beaudry, Jean-Sébastien January 2009 (has links)
Le manque grandissant de médecins spécialistes à l'extérieur des grands centres influe négativement sur' la qualité des soins reçus par les patients. Une solution possible à ce problème est la supervision des médecins généralistes en région par des spécialistes disponibles dans les grands centres. Cette supervision à distance nécessite le développement de technologies répondant aux besoins précis de celle-ci. Dans le cadre de ce projet de recherche, la transmission de l'image est considérée. En vue de développer un codec vidéo adéquat pour l'application dans le futur, le codec intra-image est étudié. Plus précisément, le but recherché est de simplifier et de rendre parallélisable le codec AGU 1 [PONOMARENKO et coll., 2005] sans en réduire les performances en deça des performances de JPEG2000 [SxoDRAS et coll., 2001]. Ces améliorations facilitent la réalisation matérielle du codec en réduisant la latence si critique aux applications de télésupervision. Pour accomplir ces objectifs, le modelage du contexte du codec AGU doit être modifié. La méthodologie proposée passe par l'implémentation du codec AGU, l'étude de la source de données et la modification du modelage de contexte. La modification en question est le remplacement de l'utilisation d'une méthode adaptative basée sur un arbre de conditions par un réseau de neurones. Au terme de cette recherche, le réseau de neurones utilisé comme modeleur de contexte s'avère être un succès. Une structure à neuf entrées et aucune couche cachée est utilisée et permet de rendre presque triviale l'opération de modelage du contexte en gardant des performances supérieures à JPEG2000 en moyenne. La performance est inférieure à JPEG2000 pour une seule image de test sur cinq. Dans le futur, il est possible d'étudier comment améliorer davantage ce codec intra-image à travers l'utilisation d'un meilleur réseau de neurones ou d'une transformée différente. Il est également souhaitable d'étudier comment faire évoluer le codec en un codec inter-image.
25

Bornes inférieures et supérieures dans les circuits arithmétiques

Tavenas, Sébastien 09 July 2014 (has links) (PDF)
La complexité arithmétique est l'étude des ressources nécessaires pour calcu- ler des polynômes en n'utilisant que des opérations arithmétiques. À la fin des années 70, Valiant a défini (de manière semblable à la complexité booléenne) des classes de polynômes. Les polynômes, ayant des circuits de taille polyno- miale, considérés faciles forment la classe VP. Les sommes exponentielles de ces derniers correpondent alors à la classe VNP. L'hypothèse de Valiant est la conjecture que VP ̸= VNP.Bien que cette conjecture soit encore grandement ouverture, cette dernière semble toutefois plus accessible que son homologue booléen. La structure algé- brique sous-jacente limite les possibilités de calculs. En particulier, un résultat important du domaine assure que les polynômes faciles peuvent aussi être cal- culés efficacement en paralèlle. De plus, quitte à autoriser une augmentation raisonnable de la taille, il est possible de les calculer avec une profondeur de calcul bornée par une constante. Comme ce dernier modèle est très restreint, de nombreuses bornes inférieures sont connues. Nous nous intéresserons en premier temps à ces résultats sur les circuits de profondeur constante.Bürgisser a montré qu'une conjecture (la τ-conjecture) qui borne supérieu- rement le nombre de racines de certains polynômes univariés, impliquait des bornes inférieures en complexité arithmétique. Mais, que se passe-t-il alors, si on essaye de réduire, comme précédemment, la profondeur du polynôme consi- déré? Borner le nombre de racines réelles de certaines familles de polynômes permetterait de séparer VP et VNP. Nous étudierons finalement ces bornes su- périeures sur le nombre de racines réelles.
26

Relations entre les habiletés mathématiques et la mémoire de travail et effets d’un entraînement de la mémoire de travail chez des élèves du premier cycle du primaire

Charest-Girard, Camille January 2017 (has links)
La mémoire de travail (MdeT) est le sujet de plusieurs études récentes, notamment en raison des liens qu'elle entretient avec des variables d’intérêt telles que l’intelligence (Kuhn, 2016), le langage (Dehn, 2008) et les apprentissages (Alloway & Alloway, 2010). Le modèle de la MdeT de Baddeley et Hitch (1974) est le plus souvent utilisé dans les études sur le développement cognitif (Kroesbergen, van’t Noordende, & Kolkman, 2014). Ce modèle est dit multi-composantes puisqu’il divise la MdeT en trois principales composantes, soit l’administrateur central, la boucle phonologique et le calepin visuo-spatial. Ces trois composantes sont liées à la performance générale en mathématiques (p. ex., De Smedt et al., 2009, Meyer, Salimpoor, Wu, Geary, & Menon, 2010; Rasmussen & Bisanz, 2005). Par contre, les résultats restent divergents quant aux liens entre les composantes de la MdeT et des habiletés mathématiques spécifiques. La présente recherche vise donc à préciser, en premier lieu, les liens qui unissent les composantes de la MdeT à la performance en arithmétique et en résolution de problèmes chez des enfants tout-venant de 1re et de 2e année. Pour ce faire, 77 enfants tout-venant ont été évalués. Les résultats montrent que la MdeT est liée à la performance en arithmétique et en résolution de problèmes. Par contre, le calepin visuo-spatial n’est pas impliqué, ce qui sous-tend l’usage de stratégies verbales dès la 1re année. L’implication des deux autres composantes de la MdeT varie, quant à elle, selon le niveau scolaire, mais pas selon l’habileté mathématique. Effectivement, alors que l’administrateur central est impliqué en arithmétique et en résolution de problèmes en 1re et en 2e année, la boucle phonologique n’est impliquée qu’en 1re année, ce qui sous-tend un changement vers des stratégies de récupération directe en mémoire à long terme en 2e année. La présence de liens entre la MdeT et les mathématiques ouvre par ailleurs la porte à des interventions prometteuses, telles que l’entrainement de la MdeT, pour améliorer les performances en mathématiques. Notre recherche vise donc, en second lieu, à vérifier les effets d’un entrainement de la MdeT sur les principales composantes de la MdeT et sur la performance en arithmétique et en résolution de problèmes chez des jeunes du premier cycle du primaire. Pour vérifier les effets de l’entrainement, 73 participants ont été séparés entre un groupe contrôle de type liste d’attente et un groupe expérimental qui a bénéficié d’un entrainement de la MdeT pendant 6 semaines. Les enfants ont été évalués à trois reprises, soit avant l’entrainement, tout de suite après l’entrainement et 6 mois plus tard. Les résultats révèlent que l’entrainement informatisé de la MdeT améliore seulement les capacités de l’administrateur central; ces gains, dans la modalité verbale, tendent à se maintenir sur 6 mois contrairement à ceux en modalité visuo-spatiale. Les bienfaits de l’entrainement ne se transfèrent pas à la performance en mathématiques. En revanche, un effet compensatoire est observé en résolution de problèmes, puisqu’une amélioration de la performance est observée chez les enfants qui avaient une plus faible MdeT au départ. Ainsi, les effets de l’entrainement sont spécifiques; de façon générale, à la MdeT et plus particulièrement à l’administrateur central, et de façon différentielle, aux habiletés de résolution de problèmes pour les élèves ayant de plus faibles capacités de MdeT.
27

L'acquisition des préalables cognitifs dans le domaine quantitatif chez les enfants de milieu socioéconomiquement faible : implication parentale

Jalbert, Julie January 2005 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
28

Effets de difficulté séquentielle stratégique : études en cognition numérique / Strategy sequential difficulty effects : In numerical cognition

Uittenhove, Kim 17 December 2012 (has links)
Dans cette thèse, nous soutenons l'idée que les ressources cognitives disponibles pour l'exécution d'une stratégie dépendent non seulement de la personne et des exigences de la stratégie que nous allons exécuter, mais aussi des demandes propres à la stratégie qu'on vient d'exécuter. L'exécution d'une stratégie devrait alors être moins efficace lorsqu'elle suit une stratégie difficile (i.e., effets de difficulté séquentielle). Nous avons testé l'existence d'effets de difficulté séquentielle dans quatres expériences portant sur l'estimation calculatoire (i.e., estimer la solution de problèmes arithmétiques en arrondissant les opérandes). Nous avons observé une moindre efficacité d'exécution de la stratégie mixte sur des additions à deux chiffres (i.e., arrondir une opérande vers le bas et une opérande vers le haut) après avoir exécuté la stratégie d'arrondi supérieur, laquelle est la stratégie la plus difficile pour cette tâche. En outre, cet effet était davantage présent chez des personnes ayant une moindre capacité de mémoire de travail ainsi que chez des patients souffrant de la maladie d'Alzheimer. Ces résultats confirment l'existence d'effets de difficulté séquentielle stratégique. En outre, ils suggèrent que la capacité de mémoire de travail est impliquée. / In this thesis, we defend the notion that cognitive resources available for strategy execution do not only depend on the participant and current task demands but also on prior task demands. Strategy performance should thus be less efficient when the previous strategy was difficult (i.e., sequential difficulty effects). The notion of sequential difficulty effects was tested in four experiments with computational estimation (i.e., estimating the solution to arithmetic problems by rounding the operands). We found that execution of a mixed-rounding strategy on two-digit addition problems (i.e., rounding one operand down and one operand up) was less efficient after an easy rounding-down strategy than after a difficult rounding-up strategy. Moreover, the effect was stronger in individuals with less efficient working-memory capacity and in Alzheimer patients. These results confirm the existence of strategy sequential difficulty effects and suggest that working memory is involved.
29

Enseignement de la résolution de problèmes arithmétiques à des élèves du 3e cycle du primaire présentant des difficultés d'apprentissage

Bisaillon, Nathalie January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
30

Contribution aux opérateurs arithmétiques GF(2m) et leurs applications à la cryptographie sur courbes elliptiques / Contributions to GF(2m) Operators for Cryptographic Purposes

Métairie, Jérémy 19 May 2016 (has links)
La cryptographie et la problématique de la sécurité informatique deviennent des sujets de plus en plus prépondérants dans un monde hyper connecté et souvent embarqué. La cryptographie est un domaine dont l'objectif principal est de ''protéger'' l'information, de la rendre inintelligible à ceux ou à celles à qui elle n'est pas destinée. La cryptographie repose sur des algorithmes solides qui s'appuient eux-mêmes sur des problèmes mathématiques réputés difficiles (logarithme discret, factorisation des grands nombres etc). Bien qu'il soit complexe, sur papier, d'attaquer ces systèmes de protection, l'implantation matérielle ou logicielle, si elle est négligée (non protégée contre les attaques physiques), peut apporter à des entités malveillantes des renseignements complémentaires (temps d’exécution, consommation d'énergie etc) : on parle de canaux cachés ou de canaux auxiliaires. Nous avons, dans cette thèse, étudié deux aspects. Le premier est l'apport de nouvelles idées algorithmiques pour le calcul dans les corps finis binaires GF(2^m) utilisés dans le cadre de la cryptographie sur courbes elliptiques. Nous avons proposé deux nouvelles représentations des éléments du corps : la base normale permutée et le Phi-RNS. Ces deux nouveautés algorithmiques ont fait l'objet d'implémentations matérielles en FPGA dans laquelle nous montrons que ces premières, sous certaines conditions, apportent un meilleur compromis temps-surface. Le deuxième aspect est la protection d'un crypto-processeur face à une attaque par canaux cachés (dite attaque par «templates»). Nous avons implémenté, en VHDL, un crypto-processeur complet et nous y avons exécuté, en parallèle, des algorithmes de «double-and-add» et «halve-and-add» afin d'accélérer le calcul de la multiplication scalaire et de rendre, de par ce même parallélisme, notre crypto-processeur moins vulnérable face à certaines attaques par canaux auxiliaires. Nous montrons que le parallélisme seul des calculs ne suffira pas et qu'il faudra marier le parallélisme à des méthodes plus conventionnelles pour assurer, à l'implémentation, une sécurité raisonnable. / Cryptography and security market is growing up at an annual rate of 17 % according to some recent studies. Cryptography is known to be the science of secret. It is based on mathematical hard problems as integers factorization, the well-known discrete logarithm problem. Although those problems are trusted, software or hardware implementations of cryptographic algorithms can suffer from inherent weaknesses. Execution time, power consumption (...) can differ depending on secret informations such as the secret key. Because of that, some malicious attacks could be used to exploit these weak points and therefore can be used to break the whole crypto-system. In this thesis, we are interested in protecting our physical device from the so called side channel attacks as well as interested in proposing new GF(2^m) multiplication algorithms used over elliptic curves cryptography. As a protection, we first thought that parallel scalar multiplication (using halve-and-add and double-and-add algorithms both executed at the same time) would be a great countermeasure against template attacks. We showed that it was not the case and that parallelism could not be used as protection by itself : it had to be combined with more conventional countermeasures. We also proposed two new GF(2^m) representations we respectively named permuted normal basis (PNB) and Phi-RNS. Those two representations, under some requirements, can offer a great time-area trade-off on FPGAs.

Page generated in 0.0666 seconds