Spelling suggestions: "subject:"algèbre""
141 |
Étude d'un formalisme concurrent pour les phénomènes d'auto-organisation et la biologie moléculaireTarissan, Fabien 13 December 2006 (has links) (PDF)
Dans cette thèse, nous proposons un langage formel, le gk-calcul, issu de la famille des algèbres de processus. Ce langage se distingue notamment des langages concurrents habituels par la rupture de la dissymétrie inhérente à la notion d'émetteur et de récepteur traditionnellement considérée. Cette rupture permet alors de voir les interactions entre les éléments du langage comme des phénomènes de collisions, approche bien adaptée aux questions d'auto-organisation qui font l'objet de la première partie de cette thèse.<br /><br />La question qui se pose est celle de la construction concurrente et décentralisée de formes géométriques abstraites (arbres et graphes) ainsi que de phénomènes plus génériques décrits sous forme de transfert d'information dans des systèmes à base de réécriture de graphes, éventuellement hiérarchisés dans l'optique d'une application à la biologie moléculaire. Cette première partie s'accompagne notamment d'une implémentation en Ocaml simulant un algorithme d'auto-assemblage de graphes.<br /><br />Dans un second temps, nous développons un sous-ensemble du langage présenté, en enrichissant une version restreinte aux interactions binaires avec une notion de membrane et d'interactions entre membranes. Ce nouveau langage se montre à même de décrire une biologie moléculaire simplifiée, qualitative, basée sur les interactions entre protéines et membranes. Cette partie de la thèse s'attache alors à montrer la valeur descriptive de ce langage sur quelques exemples et à explorer des définitions pertinentes d'équivalence entre solutions biologiques.
|
142 |
Elimination des quantificateurs dans le cadre quasi-analytiqueMichas, François 21 June 2012 (has links) (PDF)
Nous associons à tout polydisque compact B [appartenant à] Rn une algèbre CB de fonctions réelles de classe C∞ définies au voisinage de B. La collection des algèbres CB est supposée stable par certaines opérations, dont la composition et la dérivation partielle. Nous supposons de plus que, lorsque B est centrée à l'origine, l'algèbre des germes à l'origine des éléments de CB est quasianalytique (c'est à dire qu'elle ne contient pas de germe plat). A l'aide de ces fonctions, nous définissons des ensembles C-semi- analytiques et C-sous-analytiques comme on le fait traditionnellement en géométrie analytique réelle. Notre résultat principal est un théorème du type Tarski-Seidenberg pour ces ensembles. Son énoncé dit essentiellement que les ensembles sous-C-analytiques peuvent être définis par des égalités et des inégalités satisfaites par des termes obtenus en composant des fonctionsdes algèbres C_B , les fonctions x → x1/n , et la fonction x → 1/x. Sa preuve se fait en exprimant les solutions de sytèmes d'équations quasianalytiques au moyen d'un théorème de préparation issu de la théorie des modèles
|
143 |
Quaternions et Algèbres Géométriques, de nouveaux outils pour les images numériques couleurDenis, Patrice 13 December 2007 (has links) (PDF)
Les travaux de cette thèse s'inscrivent dans le contexte du traitement et de l'analyse des images couleur. Les premiers travaux pour traiter ces images consistaient à appliquer des traitements déjà existant en niveaux de gris marginalement sur les trois composantes constituant la couleur et le plus généralement dans l'espace RVB. Ces traitements ont été peu à peu améliorés notamment par l'utilisation d'espaces couleur d'avantage liés à la perception humaine mais aussi par des approches vectorielles. Dans ce travail de thèse nous nous plaçons dans la continuité de ces travaux et nous proposons une modélisation mathématique de la dimension vectorielle dans le but de manipuler les couleurs de manière globale. Trois formalismes sont présentés pour représenter la couleur : les complexes, les quaternions et les algèbres géométriques. Dans ce cadre, il est proposé de définir de nouveaux outils d'analyse couleur avec notamment une caractérisation numérique fréquentielle de chacun de ces modèles. Une étude approfondie de leurs utilisations permet de faire ressortir leurs propriétés ainsi que leurs principaux avantages et inconvénients à savoir : impossibilité des complexes à représenter les vecteurs couleurs qui par nature s'expriment en trois dimensions minimum contrairement aux quaternions et aux algèbres géométriques ; distinction entre objets manipulés (vecteurs couleur) et opérations effectuées sur ces objets (projections, rotations,...) pour les algèbres géométriques contrairement aux quaternions... Enfin nous avons montré que la transformée de Fourier quaternionique analyse la couleur avec une direction indiquée par un vecteur couleur, tandis que la transformée de Fourier définie au moyen de l'algèbre G3, plus générique, répartit l'information couleur sur des composantes fréquentielles indépendantes. L'utilisation de modèles algébriques pour représenter l'information couleur permet la définition et le développement d'un filtre spatial de détection de contours tenant compte de la dispersion dans l'espace couleur.
|
144 |
Clones sous-maximaux inf-réductiblesGrecianu, Andrei-Paul January 2009 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
|
145 |
Le cône diamantKhlifi, Olfa 18 February 2010 (has links) (PDF)
Le cône diamant a été introduit par N. J. Wildberger pour l'algèbre de Lie sl(n;R). C'est une présentation combinatoire d'une base de l'espace C[N] des fonctions polynomiales sur le facteur nilpotent N de la décompositon d'Iwasawa de SL(n;R), qui respecte la stratification naturelle de ce N-module indécomposable. Cette approche combinatoire peut se réaliser à l'aide de tableaux de Young, qui indexent une telle base. On réalise l'algèbre C[N] comme un quotient, appelé algèbre de forme réduite, de l'algèbre de forme S_ de SL(n;R), on en déduit une base indexée par des tableaux de Young semi standards particuliers, dits tableaux quasi standards. Dans cette thèse cette construction est étendue aux cas des algèbres semi simples de rang 2, puis des algèbres sp(2n), enfin aux super algèbres de Lie sl(m; 1). Dans chaque cas, on définit les tableaux quasi standards, et on montre qu'ils forment une bonne base de l'algèbre de forme réduite, soit directement, soit en utilisant une variante du jeu de taquin de Schützenberger.
|
146 |
Approches formelles pour l'analyse de la performabilité des systèmes communicants mobiles : Applications aux réseaux de capteurs sans filAbo, Robert 06 December 2011 (has links) (PDF)
Nous nous intéressons à l'analyse des exigences de performabilité des systèmes communicants mobiles par model checking. Nous modélisons ces systèmes à l'aide d'un formalisme de haut niveau issu du π-calcul, permettant de considérer des comportements stochastiques, temporels, déterministes, ou indéterministes. Cependant, dans le π-calcul, la primitive de communication de base des systèmes est la communication en point-à-point synchrone. Or, les systèmes mobiles, qui utilisent des réseaux sans fil, communiquent essentiellement par diffusion locale. C'est pourquoi, dans un premier temps, nous définissons la communication par diffusion dans le π-calcul, afin de mieux modéliser les systèmes que nous étudions. Nous proposons d'utiliser des versions probabilistes et stochastiques de l'algèbre que nous avons défini, pour permettre des études de performance. Nous en définissons une version temporelle permettant de considérer le temps dans les modèles. Mais l'absence d'outils d'analyse des propriétés sur des modèles spécifiés en une algèbre issue du π-calcul est un obstacle majeur à notre travail. La définition de règles de traduction en langage PRISM, nous permet de traduire nos modèles, en modèles de bas niveau supports du model checking, à savoir des chaînes de Markov à temps discret, à temps continu, des automates temporisés, ou des automates temporisés probabilistes. Nous avons choisi l'outil PRISM car, à notre connaissance, dans sa dernière version, il est le seul outil à supporter les formalismes de bas niveau que nous venons de citer, et ainsi il permet de réaliser des études de performabilité complètes. Cette façon de procéder nous permet de pallier à l'absence d'outils d'analyse pour nos modèles. Par la suite, nous appliquons ces concepts théoriques aux réseaux de capteurs sans fil mobiles.
|
147 |
Codes correcteurs avec les polynômes tordusChaussade, Lionel 22 November 2010 (has links) (PDF)
Les anneaux de polynômes sont l'un des outils privilégiés pour construire et étudier des familles de codes correcteurs. Nous nous proposons, dans cette thèse, d'utiliser des anneaux de Öre, qui sont des anneaux de polynômes non-commutatifs, afin de créer des codes correcteurs. Cette approche nous permet d'obtenir des familles de codes correcteurs plus larges que si l'on se restreint au cas commutatif mais qui conservent de nombreuses propriétés communes. Nous obtenons notamment un algorithme qui permet de fabriquer des codes correcteurs dont la distance de Hamming ou la distance rang est prescrite. C'est ainsi que nous avons exhibé deux codes qui améliorent la meilleure distance minimale connue pour un code de même longueur et de même dimension. L'un est de paramètres $[42,14,21]$ sur le corps $\mathbb{F}_8$ et l'autre de paramètres $[40,23,10]$ sur $\mathbb{F}_4$. La généralisation de cette étude au cas d'anneaux polynomiaux multivariés est également présentée; l'outil principal est alors la théorie des bases de Gröbner qui s'adapte dans ce cadre non-commutatif et permet de manipuler des idéaux pour créer de nouvelles familles de codes correcteurs.
|
148 |
Modèles et calculs garantis pour les systèmes (min,+)-linéairesLe Corronc, Euriell 04 November 2011 (has links) (PDF)
Cette thèse se situe dans le contexte des systèmes (min,+)-linéaires incertains, contenus dans des intervalles dont seules les bornes sont connues. Dans un premier temps, puisque les calculs exacts - somme, inf-convolution, étoile de Kleene/clôture sous-additive - sont souvent coûteux en espace mémoire et en temps de calculs, des calculs approchés sont proposés à travers des fonctions d'inclusion. Les résultats obtenus sont des intervalles particuliers appelés conteneurs. La borne supérieure d'un conteneur est l'élément le plus grand de la classe d'équivalence du système approché selon la transformée de Legendre-Fenchel. La borne inférieure représente un minorant de cette classe d'équivalence et ainsi du système exact. Les caractéristiques de convexité de ces bornes permettent d'obtenir des algorithmes de calculs de complexité linéaire et quasi-linéaire. Dans un second temps, la commande des systèmes (min,+)-linéaires incertains est étudiée. Ces incertitudes peuvent apparaître suite aux calculs effectués sur les conteneurs proposés ci-dessus, mais également lorsque des paramètres incertains ou variables sont présents lors des modélisations. Des structures de contrôles existantes (précompensateur, retour de sortie) sont appliquées à ces systèmes incertains et les problèmes suivants sont ainsi traités : problème du Window Flow Control, réduction de l'incertitude en sortie du système contrôlé par un précompensateur, calcul d'un précompensateur neutre ralentissant les entrées sans dégrader la dynamique du système seul.
|
149 |
Semi-anneau de fusion des groupes quantiquesMrozinski, Colin 05 December 2013 (has links) (PDF)
Cette thèse se propose d'étudier des problèmes de classification des groupes quantiques via des invariants issus de leur théorie de représentation. Plus précisément, nous classifions les algèbres de Hopf possédant un semi-anneau de fusion isomorphe à un groupe algébrique réductif donné G. De tels groupes quantiques sont alors appelés G-déformations. Dans cette thèse, nous étudions les cas GL(2) et SO(3). Nous donnons une classification complète des GL(2)-déformations en construisant une famille d'algèbres de Hopf indexées par des matrices inversibles. Nous décrivons leurs catégories de comodules et donnons certains résultats de classification quant à leurs objets de Hopf-Galois. Ensuite, nous donnons une classification des SO(3)-déformations compactes tout en étudiant le cas non-compact. Finalement, la dernière partie de la thèse est une étude de l'algèbre sous-jacente à une certaine famille d'algèbres de Hopf, dont nous exhibons une base. Cette base nous permet de calculer le centre des ces algèbres ainsi que quelques groupes de (co)homologie.
|
150 |
Formal methods for functional verification of cache-coherent systems-on-chip / Méthodes Formelles pour la vérification fonctionnelle des systèmes sur puce cache cohérentKriouile, Abderahman 17 September 2015 (has links)
Les architectures des systèmes sur puce (System-on-Chip, SoC) actuelles intègrent de nombreux composants différents tels que les processeurs, les accélérateurs, les mémoires et les blocs d'entrée/sortie, certains pouvant contenir des caches. Vu que l'effort de validation basée sur la simulation, actuellement utilisée dans l'industrie, croît de façon exponentielle avec la complexité des SoCs, nous nous intéressons à des techniques de vérification formelle. Nous utilisons la boîte à outils CADP pour développer et valider un modèle formel d'un SoC générique conforme à la spécification AMBA 4 ACE récemment proposée par ARM dans le but de mettre en œuvre la cohérence de cache au niveau système. Nous utilisons une spécification orientée contraintes pour modéliser les exigences générales de cette spécification. Les propriétés du système sont vérifié à la fois sur le modèle avec contraintes et le modèle sans contraintes pour détecter les cas intéressants pour la cohérence de cache. La paramétrisation du modèle proposé a permis de produire l'ensemble complet des contre-exemples qui ne satisfont pas une certaine propriété dans le modèle non contraint. Notre approche améliore les techniques industrielles de vérification basées sur la simulation en deux aspects. D'une part, nous suggérons l'utilisation du modèle formel pour évaluer la bonne construction d'une unité de vérification d'interface. D'autre part, dans l'objectif de générer des cas de test semi-dirigés intelligents à partir des propriétés de logique temporelle, nous proposons une approche en deux étapes. La première étape consiste à générer des cas de tests abstraits au niveau système en utilisant des outils de test basé sur modèle de la boîte à outils CADP. La seconde étape consiste à affiner ces tests en cas de tests concrets au niveau de l'interface qui peuvent être exécutés en RTL grâce aux services d'un outil commercial de génération de tests dirigés par les mesures de couverture. Nous avons constaté que notre approche participe dans la transition entre la vérification du niveau interface, classiquement pratiquée dans l'industrie du matériel, et la vérification au niveau système. Notre approche facilite aussi la validation des propriétés globales du système, et permet une détection précoce des bugs, tant dans le SoC que dans les bancs de test commerciales. / State-of-the-art System-on-Chip (SoC) architectures integrate many different components, such as processors, accelerators, memories, and I/O blocks. Some of those components, but not all, may have caches. Because the effort of validation with simulation-based techniques, currently used in industry, grows exponentially with the complexity of the SoC, this thesis investigates the use of formal verification techniques in this context. More precisely, we use the CADP toolbox to develop and validate a generic formal model of a heterogeneous cache-coherent SoC compliant with the recent AMBA 4 ACE specification proposed by ARM. We use a constraint-oriented specification style to model the general requirements of the specification. We verify system properties on both the constrained and unconstrained model to detect the cache coherency corner cases. We take advantage of the parametrization of the proposed model to produce a comprehensive set of counterexamples of non-satisfied properties in the unconstrained model. The results of formal verification are then used to improve the industrial simulation-based verification techniques in two aspects. On the one hand, we suggest using the formal model to assess the sanity of an interface verification unit. On the other hand, in order to generate clever semi-directed test cases from temporal logic properties, we propose a two-step approach. One step consists in generating system-level abstract test cases using model-based testing tools of the CADP toolbox. The other step consists in refining those tests into interface-level concrete test cases that can be executed at RTL level with a commercial Coverage-Directed Test Generation tool. We found that our approach helps in the transition between interface-level and system-level verification, facilitates the validation of system-level properties, and enables early detection of bugs in both the SoC and the commercial test-bench.
|
Page generated in 0.0461 seconds