• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1009
  • 504
  • 139
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 1643
  • 459
  • 446
  • 336
  • 328
  • 290
  • 262
  • 250
  • 234
  • 217
  • 203
  • 188
  • 178
  • 165
  • 162
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1121

Cadre conceptuel pour l’élaboration d’indicateurs de collaboration à partir des traces d’activité / Framework for the elaboration of collaboration indicators from activity traces

Gendron, Élise 13 December 2010 (has links)
L’objectif général de ces travaux de recherche vise à faciliter les activités collaboratives médiées par un progiciel de gestion de connaissances. Plus précisément, nous souhaitons améliorer les activités collaboratives par la mise en place d’indicateurs. Nous entendons par là faciliter le déroulement ou des processus collaboratifs mis en œuvre et soutenir les réseaux sociaux au sein des activités. Pour cela, nous proposons d’observer l’activité des utilisateurs en proposant des indicateurs de collaboration calculés à partir des traces numériques d’activités. Le premier objectif de cette thèse est d’identifier ce que sont les indicateurs de collaboration en déterminant les informations qui les définissent. Pour pouvoir exploiter au mieux les indicateurs, nous proposons une classification composée de six grandes caractéristiques indépendantes qui correspondent aux éléments fondamentaux pour l’élaboration d’indicateurs de collaboration. Cette classification nous fournit des indications pour construire, modéliser et mettre en place un indicateur dans un environnement collaboratif tel que ceux que nous étudions dans le cadre du projet. De plus, cette thèse présente un framework de gestion d’indicateurs basé sur une approche centrée utilisateur. En effet, en observant l’utilisation actuelle des indicateurs dans des plateformes de gestion de contenus, nous nous sommes rendus-compte que le processus d’élaboration et d'acceptation était long et complexe. Par conséquent, lorsqu’un indicateur est en place dans un environnement et qu’il fonctionne correctement, il est intéressant de le réutiliser dans d’autres contextes. Cette réutilisation peut se faire intégralement ou partiellement. Nous proposons donc une modélisation qui prend en compte les problématiques de réutilisation ainsi que de personnalisation et d’adaptation des indicateurs en fonction des utilisateurs et/ou du contexte de l’activité. Dans notre approche, les indicateurs sont calculés à partir des traces d’activités laissées par les utilisateurs de la plate-forme. Pour faciliter la mise en place de ces indicateurs, nous avons développé un outil informatique qui va permettre d’assister les utilisateurs dans l’élaboration d’indicateurs : GINDIC (Générateur d’INDICateurs). Avec cet outil, les concepteurs vont pouvoir construire des indicateurs : leur définition, les calculs effectués sur les traces pour obtenir la valeur de l’indicateur et leur visualisation. Nous avons choisi de gérer les indicateurs à l’aide d’un système à base de règles, où les traces sont des faits, tandis que les processus de calcul des indicateurs sont des règles. Cette thèse s’est effectuée dans le cadre d’un projet ANR intitulé ProCoGeC (Progiciel Collaboratif de Gestion de Connaissances). Un langage à base de règles a été confronté aux besoins de ce projet. Il nous permet de décrire les processus de construction de l’ensemble des indicateurs issus d’un recueil des besoins. De plus, une expérimentation de l’outil a été réalisée auprès d’un des partenaires industriels du projet, client d’une plate-forme collaborative de gestion de contenus. / The objective of the research carried is to facilitate collaborative activities in knowledge management software. More particularly, we aim to improve collaborative activities by the implementation of indicators. We intend thus to facilitate the progression of one or several implemented collaborative processes and to support the social networks within the activities. For that purpose, we propose to observe the users’ activity by providing collaboration indicators calculated from the digital traces of activities. The first objective of this thesis is to identify the characteristics of the collaboration indicators. In order to make the best possible use of indicators, we propose a classification composed of six main independent characteristics which correspond to the fundamental elements for the elaboration of collaboration indicators. This classification supplies us with indications to build, model and set up an indicator in a collaborative environment such as those studied in the context of the project. Moreover, this thesis presents a framework for the management of indicators based on a user-centred approach. Indeed, by observing the current use of indicators in platforms of knowledge management, we realized that the process of elaboration and acceptance was long and complex. Consequently, when an indicator is established in an environment and when it works properly, it is interesting to reuse it in other contexts. This reusing can be done entirely or partially. We thus propose a type of modeling which takes into account the reuse issues as well as those of the personalization and adaptation of indicators according to the user and\or to the context of the activity. In our approach, the indicators are calculated from the activity traces left by the users. To facilitate the implementation of these indicators, we have developed a tool which assists the users during the elaboration of indicators: GINDIC (Generator of INDICATORS). With this tool, the designers are able to build indicators: their definition, the calculations made on traces to obtain the indicator value, and their displaying. We have chosen to manage indicators by using a rules-based system, where traces are facts, whereas the calculation processes for indicators are rules. This thesis has been written within the framework of a project financed by the French National Research Agency entitled ProCoGeC (Collaborative Software package of Management of Knowledge). A rules-based language was compared with the needs of the ProCoGeC project. It helps us to describe the calculation processes for all indicators stemming from the users’ requirements. An experiment with the tool has been carried out with one of the industrial partners of the project, who is the client of a collaborative platform of knowledge management.
1122

Efficacité énergétique dans le calcul très haute performance : application à la tolérance aux pannes et à la diffusion de données / Energy efficiency in very high-performance computing : application to fault tolerance and data broadcasting

Diouri, Mohammed El Mehdi 27 September 2013 (has links)
Les infrastructures de calcul très haute performance ont connu une croissance rapide en particulier ces dernières années. Cette croissance a toujours été motivée par les besoins accrus en puissance de calcul qu'expriment les scientifiques dans divers domaines. Cependant, ces systèmes devenus de plus en plus larges constituent de gros consommateurs d'électricité et consomment déjà plusieurs mégawatts. Afin de consommer ''moins'' et ''mieux'', nous avons proposé un environnement logiciel qui d'une part, permet de choisir avant de pré-exécuter l'application, les versions de services applicatifs consommant le moins d'énergie, et qui d'autre part, repose sur une grille électrique intelligente pour planifier les réservations des ressources de calcul de ces infrastructures. Cet environnement, appelé SESAMES, a été adapté à deux services applicatifs indispensables au calcul très haute performance : la tolérance aux pannes et la diffusion de données. Des validations expérimentales ont montré que l'on peut réduire la consommation énergétique de chacun des deux services étudiés en s'appuyant sur les estimations énergétiques précises fournies par SESAMES pour n'importe quel contexte d'exécution et pour n'importe quelle plate-forme dotée de wattmètres. Notre méthodologie d'estimation repose sur une description du contexte d'exécution et sur une calibration de la plate-forme d'exécution basée sur la collecte de mesures énergétiques. Des simulations ont démontré que l'ordonnanceur multi-critères des réservations de ressources proposé dans SESAMES, permet de réduire à la fois la consommation énergétique, le coût financier et l'impact environnemental de ces réservations, tout en respectant les contraintes imposées par l'utilisateur et le fournisseur d'énergie. / High performance computing (HPC) infrastructures have experienced a rapid growth, particularly these last years. This growth has been driven by the increased need in terms of computational power expressed by scientists in various fields. However, their increasing size makes them important electricity consumers since they already consume several megawatts. In order to consume "less" and better", we proposed a framework which permits to choose the less consuming versions of the services before pre-executing the application. In addition, our framework relies on a smart grid in order to schedule resource reservations on these computing infrastructures. This framework, called SESAMES, is adapted to two services required in high performance computing: fault tolerance and data broadcasting. Experimental validations have shown that we can reduce the energy consumption of both services by relying on accurate energy estimations provided by SESAMES for any execution context and for any platform equipped with wattmeters. Our estimation methodology is based on a description of the execution context and on a platform calibration that consists of gathering energy measurements. Simulations have shown that the multi-criteria reservation scheduler proposed in SESAMES, simultaneously reduces the energy consumption, the financial cost and the environmental impact of these reservations, while respecting the constraints imposed by the user and the energy supplier.
1123

Linear logic, type assignment systems and implicit computational complexity / Logique linéaire, systèmes de types et complexité implicite

De Benedetti, Erika 10 February 2015 (has links)
La complexité implicite (ICC) vise à donner des caractérisations de classes de complexité dans des langages de programmation ou des logiques, sans faire référence à des bornes sur les ressources (temps, espace mémoire). Dans cette thèse, nous étudions l’approche de la logique linéaire à la complexité implicite. L’objectif est de donner des caractérisations de classes de complexité, à travers des variantes du lambda-calcul qui sont typables dans de tels systèmes. En particulier, nous considérons à la fois une perspective monovalente et une perspective polyvalente par rapport à l’ICC. Dans le premier cas, le but est de caractériser une hiérarchie de classes de complexité à travers un lambda-calcul élémentaire typé dans la logique linéaire élémentaire (ELL), où la complexité ne dépend que de l’interface d’un programme, c’est à dire son type. La deuxième approche rend compte à la fois des fonctions calculables en temps polynomial et de la normalisation forte, à travers des termes du lambda-calcul pur qui sont typés dans un système inspiré par la logique linéaire Soft (SLL); en particulier, par rapport à l’approche logique ordinaire, ici nous abandonnons la modalité “!” en faveur de l’emploi des types stratifiés, vus comme un raffinement des types intersection non associatifs, afin d’améliorer la typabilité et, en conséquence, l’expressivité. Enfin, nous explorons l’utilisation des types intersection, privés de certaines de leurs propriétés, vers une direction plus quantitative que l’approche qualitative habituelle, afin d’obtenir une borne sur le calcul de lambda-termes purs, en obtenant en plus une caractérisation de la normalisation forte. / In this thesis we explore the linear logic approach to implicit computational complexity, through the design of type assignment systems based on light linear logic, or heavily inspired by them, with the purpose of giving a characterization of one or more complexity classes, through variants of lambda-calculi which are typable in such systems. In particular, we consider both a monovalent and a polyvalent perspective with respect to ICC. In the first one the aim is to characterize a hierarchy of complexity classes through an elementary lambda-calculus typed in Elementary Linear Logic (ELL), where the complexity depends only on the interface of a term, namely its type. The second approach gives an account of both the functions computable in polynomial time and of strong normalization, through terms of pure lambda-calculus which are typed in a system inspired by Soft Linear Logic (SLL); in particular, with respect to the usual logical take, in the latter we give up the “!” modality in favor of employing stratified types as a refinement of non-associative intersection types, in order to improve typability and, as a consequence, expressivity.Finally we explore the use of intersection types, deprived of some of their usual properties, towards a more quantitative approach rather than the usual qualitative one, namely in order to compute a bound on the computation of pure lambda-terms, obtaining in addition a characterization of strong normalization.
1124

Analytic Combinatorics in Several Variables : Effective Asymptotics and Lattice Path Enumeration / Combinatoire analytique en plusieurs variables : asymptotique efficace et énumération de chemin de treillis

Melczer, Stephen 13 June 2017 (has links)
La combinatoire analytique étudie le comportement asymptotique des suites à travers les propriétés analytiques de leurs fonctions génératrices. Ce domaine a conduit au développement d’outils profonds et puissants avec de nombreuses applications. Au delà de la théorie univariée désormais classique, des travaux récents en combinatoire analytique en plusieurs variables (ACSV) ont montré comment calculer le comportement asymptotique d’une grande classe de fonctions différentiellement finies:les diagonales de fractions rationnelles. Cette thèse examine les méthodes de l’ACSV du point de vue du calcul formel, développe des algorithmes rigoureux et donne les premiers résultats de complexité dans ce domaine sous des hypothèses très faibles. En outre, cette thèse donne plusieurs nouvelles applications de l’ACSV à l’énumération des marches sur des réseaux restreintes à certaines régions: elle apporte la preuve de plusieurs conjectures ouvertes sur les comportements asymptotiques de telles marches,et une étude détaillée de modèles de marche sur des réseaux avec des étapes pondérées. / The field of analytic combinatorics, which studies the asymptotic behaviour ofsequences through analytic properties of their generating functions, has led to thedevelopment of deep and powerful tools with applications across mathematics and thenatural sciences. In addition to the now classical univariate theory, recent work in thestudy of analytic combinatorics in several variables (ACSV) has shown how to deriveasymptotics for the coefficients of certain D-finite functions represented by diagonals ofmultivariate rational functions. This thesis examines the methods of ACSV from acomputer algebra viewpoint, developing rigorous algorithms and giving the firstcomplexity results in this area under conditions which are broadly satisfied.Furthermore, this thesis gives several new applications of ACSV to the enumeration oflattice walks restricted to certain regions. In addition to proving several openconjectures on the asymptotics of such walks, a detailed study of lattice walk modelswith weighted steps is undertaken.
1125

Calcul quantique : algèbre et géométrie projective / Quantum computation : algebra and projective geometry

Baboin, Anne-Céline 27 January 2011 (has links)
Cette thèse a pour première vocation d’être un état de l’art sur le calcul quantique, sinon exhaustif, simple d’accès (chapitres 1, 2 et 3). La partie originale de cet essai consiste en deux approches mathématiques du calcul quantique concernant quelques systèmes quantiques : la première est de nature algébrique et fait intervenir des structures particulières : les corps et les anneaux de Galois (chapitre 4), la deuxième fait appel à la géométrie dite projective (chapitre 5). Cette étude a été motivée par le théorème de Kochen et Specker et par les travaux de Peres et Mermin qui en ont découlé / The first vocation of this thesis would be a state of the art on the field of quantum computation, if not exhaustive, simple access (chapters 1, 2 and 3). The original (interesting) part of this treatise consists of two mathematical approaches of quantum computation concerning some quantum systems : the first one is an algebraic nature and utilizes some particular structures : Galois fields and rings (chapter 4), the second one calls to a peculiar geometry, known as projective one (chapter 5). These two approaches were motivated by the theorem of Kochen and Specker and by work of Peres and Mermin which rose from it
1126

Indoor localization in wireless sensor networks / Localisation indoor dans les réseaux de capteurs sans fil

Lv, Xiaowei 19 March 2015 (has links)
Ce manuscrit est dédié à la résolution du problème de localisation dans les réseaux de capteurs sans fil mobiles. Les méthodes développées se basent principalement sur des caractéristiques de fingerprints ainsi que sur des informations de mobilité. Les premières s'attaquent aux valeurs de RSSI entre capteurs tandis que les deuxièmes prennent en considération la mobilité des capteurs mesurée à l'aide d'accéléromètres et de gyroscopes. La combinaison des données collectées est effectuée dans le cadre de l'analyse par intervalles, ou bien du filtrage de Kalman. Les travaux proposés introduisent des modèles de mobilité d'ordres un, deux ou trois, permettant d'approximer au mieux les trajectoires des capteurs à l'aide des accélérations mesurées. Ceux-là sont couplés à l'algorithme des K plus proches voisins, d'abord dans un système centralisé. Ensuite, les modèles de mobilités sont améliorés pour prendre en compte les rotations des nœuds. Une méthode de localisation décentralisée est également proposée dans ce qui suit, s'adaptant au mécanisme fonctionnel des réseaux de capteurs de grande échelle. Enfin, ce manuscrit propose une méthode de zonage visant à déterminer les zones dans lesquelles les capteurs résident. La méthode proposée aborde le problème de zonage en utilisant à la fois la théorie des fonctions de croyance et l'analyse par intervalles / This thesis is dedicated to solve the localization problem in mobile wireless sensor networks. It works mainly with fingerprints features and inertial movements information. The former tackles the RSSIs values between sensors while the latter deals with the objets movement attitude by using accelerometer and gyroscope. The combination of both information is performed in terms of interval analysis, or Kalman filtering. The proposed work introduces three orders mobility models to approximate nodes trajectories using accelerations, combined then to the weighted K nearest neighbors algorithm in a centralized scheme. Then the mobility models are extended up to the inertial information taking into consideration the rotations of the nodes. A decentralized localization method is also proposed in the following in view of the working mechanism of large scale sensor networks. Finally, this thesis proposes a zoning localization method aiming at determining the zones in which the nodes reside. The proposed method addresses the zoning problem by using both the belief functions theory and the interval analysis
1127

Modélisation multiphysique de structures nanométriques résonantes / Multiphysics medling of resonant nanostructures

Mezghani, Fadhil 26 September 2016 (has links)
La simulation multiphysique de l'interaction rayonnement-matière, des effets thermiques et mécaniques induits dans un matériau nanostructuré à un intérêt notamment lorsqu'il s'agit d'élaborer des capteurs voire de les optimiser. En effet, les effets thermiques peuvent être utilisés pour des applications chimiques ou biologiques et les dilatations mécaniques peuvent influer sur la durabilité du capteur et sur son efficacité. A l’échelle nanométrique, les longueurs caractéristiques des effets thermo-électro-magnétique-mécaniques ne sont pas du même ordre de grandeur et la simulation éléments finis doit être adaptée à chaque problème avec un contrôle adapté à l'erreur de la solution physique. Une procédure utilisant un remailleur adaptatif 3D Optiform et Comsol Multiphysics permet une relaxation du maillage ou un raffinement adapté afin d'accélérer la résolution (RAM et CPU) et améliorer la solution physique. Des simulations numériques des nano-objets de formes simples et des nanoantennes pour lesquelles l'exaltation du champ électromagnétique est localisée dans des zones de quelques nanomètres, alors que le gradient de température est beaucoup plus homogène dans le domaine de calcul et les dilatations sont nanométriques sont effectuées / Multiphysics simulation of light-matter interaction, induced temperature and dilation in nanostructures is of interest especially when it comes to develop or optimize sensors. Indeed, thermal effects can be used for chemical or biological applications, and mechanical dilation can affect the durability of the sensor and its effectiveness.However, the characteristic lengths of electromagnetic fields, temperature and dilation are not of the same magnitude and the mesh used in a finite element multiphysics model must be adapted to each problem. An efficient numerical model for controlling the error in the computational domain is necessary while allowing the relaxation or the refinement of the mesh, in order to decrease the computational time and memory.The purpose of this thesis is to show that the adaptation loop of the mesh for solving a multiphysics 3D problem using Comsol Multiphysics in OPTIFORM mesher, based on the error estimation of the physical solution, is more efficient than a conventional remeshing process.The proposed procedure is applied to simulate nano-objects with simple shapes and to nanoantennas for which the confinement of the electromagnetic field is localized on a few nanometers, while the gradient of the temperature is much smoother in the computational domain but leading to nanoscale dilation
1128

Simulation numérique de l’écaillage des barrières thermiques avec couplage thermo-mécanique / Coupled thermomechanical simulation of the failure of thermal barrier coatings of turbine blades

Rakotomalala, Noémie 15 May 2014 (has links)
L'objectif de ce travail de thèse est de mettre en place une simulation thermo-mécanique couplée d'une aube revêtue permettant de modéliser l'écaillage de la barrière-thermique qui survient dans les conditions de service de l'aube. La barrière thermique est un revêtement isolant déposé à la surface du substrat monocristallin base Nickel AM1 constitutif de l'aube préalablement recouverte d'une sous-couche. Le mode de dégradation dominant dans ces systèmes est la création de fissures qui résultent de l'accroissement des ondulations hors-plan d'une couche intermédiaire d'oxyde formée en service entre la céramique et la sous-couche. En vue de modéliser ce phénomène d'écaillage, un ensemble d'outils numériques permettant de réaliser un calcul 3D par éléments finis thermo-mécanique couplé de l'aube revêtue est développé au sein du code de calcul par éléments finis Z-set. L'insertion d'éléments de zone cohésive mécanique et thermique au niveau de l'interface barrière-thermique/substrat permet de tenir compte simultanément des changements dans le processus de transert de charge et des variations du flux de chaleur causés par l'amorçage et la propagation d'une fissure interfaciale. L'élément fini d'interface mixte de Lorentz qui repose sur un Lagrangien augmenté, est mis en oeuvre. Afin de tenir compte des propriétés structurelles du revêtement, la modélisation de la barrière thermique est réalisée au moyen d'éléments de coque thermo-mécaniques reposant sur l'approche dite “Continuum Based”. Ces éléments sont développés puis validés dans le cadre de la thèse. La méthode utilisée pour réalier le couplage thermo-mécanique est l'algorithme partitioné CSS (Conventional Serial Staggered) sous-cyclé à pas de couplage fixe dont on montre les limitations dans le cas d'une simulation impliquant la propagation d'une fissure. L'introduction de pas de couplage adaptatifs contrôlés au moyen d'une variable interne du problème mécanique a permis de contourner ces limitations. L'ensemble des briques numériques est validé sur des cas tests de complexité croissante. Des cas d'applications effectués sur des géométries tubulaires à gradient thermique de paroi sont réalisés afin de tester le modèle couplé sur des structures et des chargements proches des conditions de service de l'aube. Enfin, des calculs thermo-mécaniques couplés sur aube revêtue sont présentés. / The purpose of this thesis is to perform a coupled thermomechanical simulation of the failure of thermal barrier coatings for turbine blades under service conditions. The thermal barrier coating is an insulating component applied to the single crystal Nickel-based superalloy AM1 substrate which is covered with a bond coat beforehand. The main degradation mode of those systems is due to the initiation and propagation of cracks caused by the out-of-plane undulation growth of an oxide layer formed in service. A set of numerical tools is implemented into the Finite Element code Z-set in order to perform a 3D thermomechanically coupled simulation of the failure of thermal barrier coatings for turbine blades. Inserting thermomechanical cohesive zone elements at the interface between the coating and the substrate makes it possible to account for the changes in the load transfer and the variations in the heat flux as a consequence of interface degradations. The mixed finite interface element of Lorentz based on an Augmented Lagrangian is used. The thermal barrier coating is modelled by means of thermomechanical shell elements implemented using the Continuum-Based approach to take advantage of the structural properties of the coating layer. Moreover, the partitionned CSS (Conventional Serial Staggered) algorithm used to couple thermal and mechanical problems is assessed. The limitations of sub-cycling with constant coupling time-step are shown through a simulation with crack propagation. The introduction of adaptative time-stepping allows to circumvent that issue. The numerical tools are assessed on test cases with increasing complexity. Numerical simulations on cylindrical tube with a thermal through-thickness gradient are performed with realistic loading sequences. Finally, thermomechanical simulations on turbine blades covered with thermal barrier coating are shown.
1129

Analyse statique des systèmes de contrôle-commande : invariants entiers et flottants / Static analysis of control-command systems : floating-point and integer invariants

Maisonneuve, Vivien 06 February 2015 (has links)
Un logiciel critique est un logiciel dont le mauvais fonctionnement peut avoir un impact important sur la sécurité ou la vie des personnes, des entreprises ou des biens.L'ingénierie logicielle pour les systèmes critiques est particulièrement difficile et combine différentes méthodes pour garantir la qualité des logiciels produits.Parmi celles-ci, les méthodes formelles peuvent être utilisées pour prouver qu'un logiciel respecte ses spécifications.Le travail décrit dans cette thèse s'inscrit dans le contexte de la validation de propriétés de sûreté de programmes critiques, et plus particulièrement des propriétés numériques de logiciels embarqués dans des systèmes de contrôle-commande.La première partie de cette thèse est consacrée aux preuves de stabilité au sens de Lyapunov.Ces preuves s'appuient sur des calculs en nombres réels, et ne sont pas valables pour décrire le comportement d'un programme exécuté sur une plateforme à arithmétique machine.Nous présentons un cadre théorique générique pour adapter les arguments des preuves de stabilité de Lyapunov aux arithmétiques machine.Un outil effectue automatiquement la traduction de la preuve en nombres réels vers une preuve en nombres a virgule flottante.La seconde partie de la thèse porte sur l'analyse des relations affines, en utilisant une interprétation abstraite basée sur l'approximation des valuations associées aux points de contrôle d'un programme par des polyèdres convexes.Nous présentons ALICe, un framework permettant de comparer différentes techniques de génération d'invariants.Il s'accompagne d'une collection de cas de tests tirés de publications sur l'analyse de programmes, et s'interface avec trois outils utilisant différents algorithmes de calcul d'invariants: Aspic, iscc et PIPS.Afin d'affiner les résultats de PIPS, deux techniques de restructuration de code sont introduites, et plusieurs améliorations sont apportées aux algorithmes de génération d'invariants et évaluées à l'aide d'ALICe. / A critical software is a software whose malfunction may result in death or serious injury to people, loss or severe damage to equipment or environmental harm.Software engineering for critical systems is particularly difficult, and combines different methods to ensure the quality of produced software.Among them, formal methods can be used to prove that a software obeys its specifications.This thesis falls within the context of the validation of safety properties for critical software, and more specifically, of numerical properties for embedded software in control-command systems.The first part of this thesis deals with Lyapunov stability proofs.These proofs rely on computations with real numbers, and do not accurately describe the behavior of a program run on a platform with machine arithmetic.We introduce a generic, theoretical framework to adapt the arguments of Lyapunov stability proofs to machine arithmetic.A tool automatically translates the proof on real numbers to a proof with floating-point numbers.The second part of the thesis focuses on linear relation analysis, using an abstract interpretation based on the approximation by convex polyhedrons of valuations associated with each control point in a program.We present ALICe, a framework to compare different invariant generation techniques.It comes with a collection of test cases taken from the program analysis literature, and interfaces with three tools, that rely on different algorithms to compute invariants: Aspic, iscc and PIPS.To refine PIPS results, two code restructuring techniques are introduced, and several improvements are made to the invariant generation algorithms and evaluated using ALICe.
1130

Quantification de groupes p-adiques et applications aux algèbres d'opérateurs. / Quantization of p-adic groups and applications to operator algebras.

Jondreville, David 26 June 2017 (has links)
Cette thèse est consacrée à l'étude des déformations des C*-algèbres munies d'une action de groupe, du point de vue de la quantification équivariante non-formelle, dans le cas non-archimédien. Nous construisons une théorie de déformation des C*-algèbres munies d'une action d'un espace vectoriel de dimension finie sur un corps local non-archimédien de caractéristique différente de 2 ainsi que pour des quotients du groupe affine d'un corps local dont le corps résiduel est de cardinal impair. Par ailleurs, nous construisons des familles de 2-cocycles unitaires afin de déformer des groupes quantiques localement compacts agissant sur ces C*-algèbres déformées. / This thesis is devoted to the study of deformation of C*-algebras endowed with a group action, from the perspective of non-formal equivariant quantization, in the non-Archimedean setting. We construct a deformation theory of C*-algebras endowed with an action of a finite dimensional vector space over a non-Archimedean local field of characteristic different from 2 and for quotients of the affine group of a local field whose residue field has cardinality not divisible by 2. Moreover, we construct families of dual unitary 2-cocycles in order to deform locally compact quantum groups acting on these deformed C*-algebras.

Page generated in 0.0377 seconds