Spelling suggestions: "subject:"entier""
81 |
Etudes sur les équations de Ramanujan-Nagell et de Nagell-Ljunggren ou semblablesDupuy, Benjamin 03 July 2009 (has links) (PDF)
Dans cette thèse, on étudie deux types d'équations diophantiennes. Une première partie de notre étude porte sur la résolution des équations dites de Ramanujan-Nagell $Cx^2+b^{2m}D=y^n$. Une deuxième partie porte sur les équations dites de Ngell-Ljunggren\\ $\frac{x^p+y^p}{x+y}=p^ez^q$ incluant le cas diagonal $p=q$. Les nouveaux résultats obtenus seront appliqués aux équations de la forme $x^p+y^p=Bz^q$. L'équation de Catalan-Fermat (cas $B=1$) fera l'objet d'un traitement à part.
|
82 |
Conception Vectorielle de Registre à rétroaction avec retenue sur les corps finis.Marjane, Abdelaziz 08 July 2011 (has links) (PDF)
Dans ce mémoire, on introduit une conception vectorielle des registres à rétroaction lin éaire avec retenue introduits par Goresky et Klapper que l'on dénomme VFCSR. Via l'anneau des vecteurs de Witt, on développe une analyse de ces registres qui établit les propriétés essentielles des séquences de sortie comme l'existence de séquences de période maximale, la qualité de pseudo-al éa du point de vue de la corr élation arithm étique et statistique, le comportement de la m émoire, etc. On étudie différents modes de conception de ces registres (modes Fibonacci, Galois et Ring). Comme application, on propose un g én érateur d'al éa cryptographique en mode "stream cipher" bas e sur un registre VFCSR quadratique.
|
83 |
Méthodes d'optimisations de programmes bas niveauTOUATI, Sid-Ahmed-Ali 30 June 2010 (has links) (PDF)
Ce manuscrit synthétise plus d'une décade de notre recherche académique sur le sujet d'optimisation de codes bas niveau, dont le but est une intégration dans un compilateur optimisant ou dans un outil d'optimisation semi-automatique. Dans les programmes bas niveau, les caractéristiques du processeur sont connues et peuvent être utilisées pour générer des codes plus en harmonie avec le matériel. Nous commençons notre document par une vue générale sur le problème d'ordonnancement des phases de compilation. Actuellement, des centaines d'étapes de compilation et d'optimisation de codes existent; un problème fondamental et ouvert reste de savoir comment les combiner et les ordonner efficacement. Pour pallier rapidement cette difficulté, une stratégie du moindre effort consiste à appliquer une compilation itérative en exécutant successivement le programme avant de décider de la technique d'optimisation de code à employer et avec quels paramètres. Nous prouvons que l'approche de compilation itérative ne simpli fie pas fondamentalement le problème, et l'utilisation de modèles statiques de performances reste un choix raisonnable. Un problème classique de con it entre deux étapes de compilation est celui qui lie l'allocation de registres et l'ordonnancement d'instructions. Nous montrons comment gérer efficacement cet antagonisme en séparant les contraintes de registres des contraintes d'ordonnancement d'instructions. Cela est possible grâce à la notion de saturation en registres (RS), qui est le besoin maximal en registres pour tous les ordonnancements possibles d'un graphe. Nous apportons une contribution formelle et une heuristique efficace, qui permettent la détection de contraintes de registres toujours véri fiées; ils peuvent par conséquent être négligées. Nous introduisons la plate-forme SIRA, qui permet de garantir l'absence de code de vidage avant l'ordonnancement d'instructions. SIRA est un modèle basé sur la théorie des graphes permettant de borner le besoin maximal en registres pour tout pipeline logiciel, sans altérer, si possible, le parallélisme d'instructions. SIRA modélise les contraintes cycliques des registres dans différentes architectures possibles : avec plusieurs types de registres, avec tampons ou les d'attente, et avec des bancs de registres rotatifs. Nous apportons une heuristique efficace qui montre des résultats satisfaisants, que ce soit comme outil indépendant, ou comme passe intégrée dans un vrai compilateur. Dans le contexte des processeurs exhibant des retards d'accès aux registres (VLIW, EPIC, DSP), nous attirons l'attention sur le problème qui peut survenir lorsque les contraintes de registres sont traitées avant l'ordonnancement d'instructions. Ce problème est la création de circuits négatifs ou nuls dans le graphe de dépendances de données. Nous montrons comment éliminer ces circuits indésirables dans le contexte de SIRA. SIRA définit une relation formelle entre le nombre de registres alloués, le parallélisme d'instructions et le facteur de déroulage d'une boucle. Nous nous basons sur cette relation pour écrire un algorithme optimal qui minimise le facteur de déroulage tout en sauvegardant le parallélisme d'instructions et en garantissant l'absence de code de vidage. D'après nos connaissances, ceci est le premier résultat qui démontre que le compactage de la taille de code n'est pas un objectif antagoniste à l'optimisation des performances de code. L'interaction entre la hiérarchie mémoire et le parallélisme d'instructions est un point central si l'on souhaite réduire le coût des latences d'opérations de chargement. Premièrement, notre étude pratique avec des micro-benchmarks montre que les processeurs superscalaires ayant une exécution dans le désordre ont un bug de performances dans leur mécanisme de désambiguation mémoire. Nous montrons ensuite qu'une vectorisation des opérations mémoire résoud ce problème pour des codes réguliers. Deuxièmement, nous étudions l'optimisation de préchargement de données pour des codes VLIW embarqués irréguliers. Finalement, avec l'arrivée des processeurs multicoeurs, nous observons que les temps d'exécution des programmes deviennent très variables. A fin d'améliorer la reproductibilité des résultats expérimentaux, nous avons conçu le Speedup-Test, un protocole statistique rigoureux. Nous nous basons sur des tests statistiques connus (tests de Shapiro-Wilk, F de Fisher, de Student, de Kolmogorov-Smirnov, de Wilcoxon- Mann-Whitney) a n d'évaluer si une accélération observée du temps d'exécution médian ou moyen est signi cative.
|
84 |
La comparaison structurale des protéines : de la maximisation du recouvrement de cartes de contacts à l'alignement basé sur les distancesMalod-Dognin, Noël 29 January 2010 (has links) (PDF)
En biologie structurale, il est couramment admit que la structure tridimensionnelle d'une protéine détermine sa fonction. Ce paradigme permet de supposer que deux protéines possédant des structures tridimensionnelles similaires peuvent partager un ancêtre commun et donc posséder des fonctions similaires. Déterminer la similarité entre deux structures de protéines est une tâche importante qui a été largement étudiée. Parmi toutes les méthodes proposées, nous nous intéressons à la mesure de similarité appelée “maximisation du recouvrement de cartes de contacts” (ou CMO), principalement parce qu'elle fournit des scores de similarité pouvant être utilisés pour obtenir de bonnes classifications automatiques des structures de protéines. Dans cette thèse, la comparaison de deux structures de protéines est modélisée comme une recherche de sous-graphe dans des graphes k-partis spécifiques appelés graphes d'alignements, et nous montrons que cette tâche peut être efficacement réalisée en utilisant des techniques avancées issues de l'optimisation combinatoire. Dans la seconde partie de cette thèse, nous modélisons CMO comme une recherche de sousgraphe maximum induit par les arêtes dans des graphes d'alignements, problème pour lequel nous proposons un solveur exact qui surpasse les autres algorithmes de la littérature. Même si nous avons réussi à accélérer CMO, la procédure d'alignement requière encore trop de temps de calculs pour envisager des comparaisons à grande échelle. La troisième partie de cette thèse est consacrée à l'accélération de CMO en utilisant des connaissances issues de la biologie structurale. Nous proposons une approche hiérarchique pour résoudre CMO qui est basée sur les structures secondaires des protéines. Enfin, bien que CMO soit une très bonne mesure de similarité, les alignements qu'elle fournit possèdent souvent de fortes valeurs de déviation (root mean squared deviation, ou RMSD). Pour palier à cette faiblesse, dans la dernière partie de cette thèse, nous proposons une nouvelle méthode de comparaison de structures de protéines basée sur les distances internes que nous appelons DAST (pour Distance-based Alignment Search Tool). Elle est modélisée comme une recherche de clique maximum dans des graphes d'alignements, pour laquelle nous présentons un solveur dédié montrant de très bonnes performances.
|
85 |
Application de la théorie des nombres à la conception optimale et à l'implémentation de très faible complexité des filtres numériquesDaher, Ali 08 December 2009 (has links) (PDF)
L'objectif principal de notre étude est de développer des algorithmes rapides pour une conception optimale et une implantation de très faible complexité des filtres numériques. Le critère d'optimisation choisi est celui de la minimisation de l'erreur quadratique moyenne. Ainsi, nous avons étudié et développé de nouveaux algorithmes de synthèse des filtres à réponse impulsionnelle finie (RIF) associés aux deux techniques de filtrage par blocs, overlap-save (OLS) et overlap-add (OLA). Ces deux techniques de filtrage RIF consistent à traiter le signal par blocs au moyen de la transformée de Fourier rapide (TFR) et permettent ainsi de réduire la complexité arithmétique des calculs de convolution. Les algorithmes que nous avons proposés sont basés sur le développement du modèle matriciel des structures OLS et OLA et sur l'utilisation des propriétés de l'algèbre linéaire, en particulier celles des matrices circulantes. Pour réduire davantage la complexité et la distorsion de filtrage, nous avons approfondi les bases mathématiques de la transformée en nombres de Fermat (FNT : Fermat Number Transform) qui est amenée à trouver des applications de plus en plus diverses en traitement du signal. Cette transformée, définie sur un corps de Galois d'ordre égal à un nombre de Fermat, est un cas particulier des transformées en nombres entiers (NTT : Number Theoretic Transform). Comparé à la TFR, la FNT permet un calcul sans erreur d'arrondi ainsi qu'une large réduction du nombre de multiplications nécessaires à la réalisation du produit de convolution. Pour mettre en évidence cette transformée, nous avons proposé et étudié une nouvelle conception des filtres blocs OLS et OLA mettant en oeuvre la FNT. Nous avons ensuite développé un algorithme de très faible complexité pour la synthèse du filtre optimal en utilisant les propriétés des matrices circulantes que nous avons développées dans le corps de Galois. Les résultats de l'implantation en virgule fixe du filtrage par blocs ont montré que l'utilisation de la FNT à la place de la TFR permettra de réduire la complexité et les erreurs de filtrage ainsi que le coût de synthèse du filtre optimal.
|
86 |
Application de la transformée en nombres entiers à la conception d'algorithmes de faible complexité pour l'annulation d'échos acoustiquesAlaeddine, Hamzé 12 July 2007 (has links) (PDF)
Le principal objectif de notre étude est d'évaluer la possibilité d'un développement en temps réel d'un système d'annulation d'écho acoustique. Pour réduire le coût de calcul de ce système, nous avons approfondi les bases mathématiques de la transformée en nombres entiers (NTT : Number Theoretic Transform) qui est amenée à trouver des applications de plus en plus diverses en traitement du signal. Nous avons introduit plus particulièrement la transformée en nombres de Fermat (FNT : Fermat Number Transform) qui permet une réduction, par rapport à la FFT (Fast Fourier Transform), des nombres de multiplications nécessaires à la réalisation de certaines fonctions telles que les produits de convolution. Pour mettre en évidence cette transformée, nous avons proposé et étudié de nouveaux algorithmes d'annulation d'écho de faible complexité que nous avons traités par blocs et rendus robustes avant de les implanter au moyen de la FNT. Le résultat de cette implantation, comparée à une implantation par la FFT, a montré une forte réduction du nombre de multiplications accompagnée d'une augmentation du nombre d'opérations classiques. Pour réduire cette augmentation, nous avons proposé une nouvelle technique de la transformée, intitulée Generalized Sliding FNT (GSFNT). Celle-ci consiste à calculer la FNT d'une succession de séquences qui diffèrent d'un certain nombre d'échantillons l'une de l'autre. Le résultat des simulations des performances de ces algorithmes d'annulation d'écho, traités au moyen de cette technique, a montré que celle-ci permet de pallier à l'augmentation du nombre d'opérations classiques observée lors d'une implantation en FNT. Enfin, l'implantation des algorithmes d'annulation d'écho en FNT et par une nouvelle procédure de l'algorithme MDF (Multi-Delay Filter ) associée à la nouvelle méthode de calcul du pas d'adaptation, a permis une réduction significative de la complexité de calcul.
|
87 |
On the sets of real vectors recognized by finite automata in multiple basesBrusten, Julien 08 June 2011 (has links)
This thesis studies the properties of finite automata recognizing sets of real vectors encoded in positional notation using an integer base. We consider both general infinite-word automata, and the restricted class of weak deterministic automata, used, in particular, as symbolic data structures for representing the sets of vectors definable in the first order additive theory of real and integer numbers.
<br><br>
In previous work, it has been established that all sets definable in the additive theory of reals and integers can be handled by weak deterministic automata regardless of the chosen numeration base. In this thesis, we address the reciprocal property, proving that the sets of vectors that are simultaneously recognizable in all bases, by either weak deterministic or Muller automata, are those definable in the additive theory of reals and integers.
<br><br>
Precisely, for weak deterministic automata, we establish that the sets of real vectors simultaneously recognizable in two multiplicatively independent bases are necessarily definable in the additive theory of reals and integers. For general automata, we show that the multiplicative independence is not sufficient, and we prove that, in this context, the sets of real vectors that
are recognizable in two bases that do not share the same set of prime factors are exactly those definable in the additive theory of reals and integers.
<br><br>
Those results lead to a precise characterization of the sets of real vectors that are recognizable in multiple bases, and provide a theoretical justification to the use of weak automata as symbolic representations of sets.
<br><br>
As additional contribution, we also obtain valuable insight into the internal structure of automata recognizing sets of vectors definable in the additive theory of reals and integers.
|
88 |
Application des techniques d'aide à la décision à la planification sanitaire régionalePelletier, Christine 05 October 1999 (has links) (PDF)
La planification sanitaire régionale consiste à répartir dans l'espace régional les ressources sanitaires rares (équipement lourd, personnel, ...) entre différentes structures sanitaires existantes ou non, afin d'"optimiser" la réponse aux besoins en soins de la population régionale. Cette répartition s'effectue dans un contexte décisionnel multidimensionnel, dont les dimensions médicale, économique et celles relatives à l'aménagement du territoire. Depuis une quarantaine d'années, la recherche de méthodes rationnelles applicables à la planification sanitaire a permis l'investigation de nombreuses voies de modélisation, et la proposition de méthodes variées. Malgré leur multitude, aucune d'entre elles n'a acquis de légitimité auprès des planificateurs. Trois motifs expliquent ce phénomène: le caractère restrictif de la définition donnée au système de santé, la complexité des techniques mathématiques utilisée, souvent obscures pour les non initiés, et le rôle passif réservé au planificateur. Le travail présenté dans ce mémoire propose la formalisation d'un outil interactif d'aide à la planification sanitaire. Cette formalisation s'appuie sur une approche globale du système de santé, à partir de laquelle nous avons établit une définition de la planification sanitaire. A l'issue de cette formalisation, nous proposons un outil HERO qui lie un Système d'Information Géographique (SIG) avec un outil de résolution multiobjectif. Via le SIG, l'outil informe le planificateur sur l'état de santé de la population ainsi que sur les mécanismes de production et de consommation de soins. L'outil de résolution multiobjectif assiste ce dernier dans l'élaboration d'un plan en lui fournissant un moyen d'évaluation de la pertinence de ses choix dans la répartition spatiale des ressources. Le fonctionnement de HERO est illustré sur un exemple utilisant des données du Bas-Rhin (France).
|
89 |
Contributions à la théorie des jeux d'évolution et de congestionWan, Cheng 26 September 2012 (has links) (PDF)
Cette thèse porte sur les jeux d'évolution et de congestion.Après une revue des études sur les jeux de congestion dans les réseaux dans le chapitre 1, nous étudions la relation entre la composition des joueurs (non-atomiques, atomiques, composites) et les coûts d'équilibre dans les chapitres 2 et 3. En particulier, l'impact de la formation des coalitions est examiné.Les chapitres 4 et 5 introduisent le comportement de délégation dans les jeux composites et les jeux divisibles en entiers. Plusieurs jeux et processus de délégation dans des contextes différents sont définis et étudiés.Enfin, nous nous penchons sur l'aspect dynamique des jeux. Le chapitre 6 est consacré à une dynamique à deux échelles qui modélise le phénomène de sélection à niveaux multiples. La thèse est conclue par une revue des études sur les dynamiques de type réplicateur dans le chapitre 7.
|
90 |
Méthodes de résolution exactes et heuristiques pour un problème de tournées de techniciensMathlouthi, Ines 12 1900 (has links)
No description available.
|
Page generated in 0.0825 seconds