• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 239
  • 77
  • 22
  • 2
  • 1
  • Tagged with
  • 344
  • 139
  • 132
  • 97
  • 91
  • 87
  • 67
  • 63
  • 62
  • 49
  • 39
  • 38
  • 35
  • 29
  • 28
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Dioïdes et idéaux de polynômes en analyse statique / Static analysis with dioids and polynomial ideals

Jobin, Arnaud 16 January 2012 (has links)
L'analyse statique a pour but de vérifier qu'un programme a le comportement souhaité c.à.d. satisfait des propriétés de sûreté. Toutefois, inférer les propriétés vérifiées par un programme est un problème difficile : le théorème de Rice énonce que toute propriété non triviale d'un langage de programmation Turing-complet est indécidable. Afin de contourner cette difficulté, les analyses statiques effectuent des approximations des comportements possibles du programme. La théorie de l'interprétation abstraite permet de donner un cadre formel à ces approximations. Cette théorie, introduite par Cousot & Cousot propose un cadre d'approximation basé sur la notion de treillis, de connexion de Galois et de calculs de points fixes par itération. Ce cadre permet de définir la qualité des approximations effectuées et notamment la notion de meilleure approximation. À l'opposé, les notions quantitatives n'apparaissent pas naturellement dans ce cadre. Nous nous sommes donc posés la question de l'inférence, par analyse statique, de propriétés s'exprimant de manière quantitative (telles que l'utilisation de la mémoire ou le temps d'exécution). / Static analysis aims to verify that programs behave correctly i.e. satisfy safety properties. However, generating properties verified by a program is a difficult problem : Rice’s theorem states that any non-trivial property about the language recognized by a Turing machine is undecidable. In order to avoid this difficulty, static analyses approximate the possible behaviours of the program. Abtract interpretation theory defines a formal framework for approximating programs. This theory, introduced by Cousot & Cousot is based on the mathematical structure of lattices, Galois connections and iterative fixpoints calculus. This framework defines the notion of correct approximation and allows for qualitatively compare approximations. On the contrary, it is not suitable for handling quantitative properties (such as memory usage and execution time).
12

Problèmes d'optimisation de formes par méthodes capacitaires / Shape optimization problems with capacitary measures

Lux-Grenard, Anne 21 October 2009 (has links)
On introduit une nouvelle modélisation du décollement de membrane soumise à une force croissante par rapport au temps, basée sur une évolution quasi-statique, s'appuyant sur la notion de mouvement général minimisant introduit par De Giorgi. Notre modèle utilise les quasi-ouverts et/ou les mesures capacitaires pour représenter l'état de la membrane à un instant t. Dans notre cas, l'évolution de la membrane est régie par un principe énergétique développé par Mielke, qui a été aussi utilisé dans la propagation des fissures introduite Francfort et Marigo. On obtient ainsi une évolution quasi-statique de la membrane représentée comme mesure capacitaire qui, sans être en contradiction avec le modèle mécanique de Andrews et Shillor, met en valeur les phénomènes de relaxation. On effectue ensuite des simulations numériques sur ce modèle, faites à la fois sur la représentation du décollement de membrane par des quasi-ouverts mais aussi par des mesures, et à chaque fois, un algorithme de descente local compatible avec le point de vue des mécaniciens, et un algorithme plus global à stratégie évolutionnaire sont implémentés. Ces simulations mettent en valeur les phénomènes de relaxation aperçus dans l'étude théorique. Enfin, la dernière partie s'intéresse aux résultats d'identification de multi-fissures de G. Alessandrini et A. Diaz Valenzuela et aux points conductifs introduits par Z. Belhachmi et D. Bucur. Le but est d'étendre et d'étudier ce concept sur un matériau non homogène, pour un défaut ayant un nombre infini de composantes connexes de diamètre minoré / This thesis introduces a new model for debonding membranes, subject to a debonding force depending on time. We deal with a quasi-static evolution in the framework of the minimizing movement theory introduced by De Giorgi. This new tool is based on the analysis of the evolution of capacitary measures and shapes. In our case, the evolution process is governed by an energy principle developped by Mielke also used in the crack propagation model of Francfort and Marigo. The membrane, represented by a capacitary measure, is subject to a natural relaxation phenomenon during the evolution, being in accordance with the mechanical model of Andrews and Shillor. The second chapter consists on the numerical analysis of this model, from two points of view : representation of the debonding membranes by quasi-open sets and by capacitary measures, respectively. In each case, local algorithms in agreement with mechanical point of view and evolutionary strategy algorithms which allow to escape from local minimizers are implemented. These computations emphasize the relaxation phenomenon in agreement with the theory. The last part deals with the identification of multi-cracks by electrostatic boundary measurements. We extend uniqueness results of G. Alessandrini and A. Diaz Valenzuela relying on the analysis of the conductive points introduced by Z. Belhachmi and D. Bucur. The goal is to deal with a non homogeneous material and to prove uniqueness (for two boundary measurement of defects detection having an infinite number of connected components of minorated diameter
13

Analyse de la complexité des programmes par interprétation sémantique

Pechoux, Romain 14 November 2007 (has links) (PDF)
Il existe de nombreuses approches développées par la communauté Implicit Computational Complexity (ICC) permettant d'analyser les ressources nécessaires à la bonne exécution des algorithmes. Dans cette thèse, nous nous intéressons plus particulièrement au contrôle des ressources à l'aide d'interprétations sémantiques. <br />Après avoir rappelé brièvement la notion de quasi-interprétation ainsi que les différentes propriétés et caractérisations qui en découlent, nous présentons les différentes avancées obtenues dans l'étude de cet outil : nous étudions le problème de la synthèse qui consiste à trouver une quasi-interprétation pour un programme donné, puis, nous abordons la question de la modularité des quasi-interprétations. La modularité permet de diminuer la complexité de la procédure de synthèse et de capturer un plus grand nombre d'algorithmes. Après avoir mentionné différentes extensions des quasi-interprétations à des langages de programmation réactif, bytecode ou d'ordre supérieur, nous introduisons la sup-interprétation. Cette notion généralise la quasi-interprétation et est utilisée dans des critères de contrôle des ressources afin d'étudier la complexité d'un plus grand nombre d'algorithmes dont des algorithmes sur des données infinies ou des algorithmes de type diviser pour régner. Nous combinons cette notion à différents critères de terminaison comme les ordres RPO, les paires de dépendance ou le size-change principle et nous la comparons à la notion de quasi-interprétation. En outre, après avoir caractérisé des petites classes de complexité parallèles, nous donnons quelques heuristiques permettant de synthétiser des sup-interprétations sans la propriété sous-terme, c'est à dire des sup-interprétations qui ne sont pas des quasi-interprétations. Enfin, dans un dernier chapitre, nous adaptons les sup-interprétations à des langages orientés-objet, obtenant ainsi différents critères pour contrôler les ressources d'un programme objet et de ses méthodes.
14

Systèmes photovoltaïques raccordés au réseau : Choix et dimensionnement des étages de conversion

Vighetti, Stéphane 24 September 2010 (has links) (PDF)
L'énergie photovoltaïque connaît actuellement un fort développement. Après être restée pendant de longues années un moyen de production anecdotique (site isolé) le photovoltaïque devient aujourd'hui une source d'énergie connectée au réseau, en compétition avec les sources conventionnelles. Ce développement concerne principalement les installations de moins de 3kWc (90% des installations françaises). L'augmentation du nombre de ces centrales de petites puissances au coeur des bâtiments (intégré au bâti) met en exergue les problèmes d'ombrages et peu fortement limiter la production. C'est dans ce contexte de maximisation de la production PV et de changement des fonctionnalités que cette thèse explore les topologies de champs PV (générateurs PV + électronique de puissance) pouvant répondre à ces nouvelles exigences.
15

Abstraction de traces en analyse statique et transformation de programmes.

Rival, Xavier 21 October 2005 (has links) (PDF)
Cette thµese est consacree à l'etude d'abstractions d'ensemble de traces adaptees µa l'analyse statique et aux transformations de programmes. Cette etude a ete menee dans le cadre de l'interpretation abstraite. Dans une premiµere partie, nous proposons un cadre general permettant de definir des analyses effectuant un partitionnement des traces. Cela permet en particulier d'utiliser des proprietes definies par l'histoire des executions, pou ecrire des disjonctions de proprietes abstraites utiles lors de l'analyse statique. Ainsi, nous obtenons des analyses plus efficaces, qui sont non seulement plus precises mais aussi plus rapides. La methode a ete implementee et eprouvee dans l'analyseur de code C Astree, et on obtient d'excellents resultats lors de l'analyse d'applications industrielles de grande taille. La seconde partie est consacree au developpement de methodes permettant d'automatiser le diagnostique des alarmes produites par un analyseur tel qu'Astree. En eff en raison de l'incompletude de l'analyseur, une alarme peut, soit reveler une veritable erreur dans le programme, soit provenir d'une imprecision de l'analyse. Nous proposons tout d'abord d'extraire des slices semantiques, c'est à ire des sous-ensembles de traces du programme, satisfaisant certaines conditions ; cette technique permet de mieux caracteriser le contexte d'une alarme et peut aider, soit àprouver l'alarme fausse, soit à montrer un veritable contexte d'erreur. Ensuite, nous definissons des familles d'analyses de dependances adaptees µa la recherche d'origine de comportements anormaux dans un programme, afin d'aider µa un diagnostique plus efficace des raisons d'une alarme. Les resultats lors de l'implementation d'un prototype sont encourageants. Enfin, dans la troisiµeme partie, nous definissons une formalisation generale de la compilation dans le cadre de l'interpretation abstraite et integrons diverses techniques de compilation certifiee dans ce cadre. Tout d'abord, nous proposons une methode fondee sur la traduction d'invariants obtenus lors d'une analyse du code source et sur la verification independante des invariants traduits. Ensuite, nous formalisons la methode de preuve d'equivalence, qui produit une preuve de correction de la compilation, en prouvant l'equivalence du programme compile et du programme source. Enfin, nous comparons ces methodes du point de vue theorique et µa l'aide de resultats experimentaux.
16

Dynamiques non linéaires, volatilité et équilibre /

Mele, Antonio. January 1998 (has links)
Texte remanié de: Th. doct.--Sc. écon.--Paris 10, 1995. / Bibliogr. p. 201-210.
17

Défense contre les attaques de logiciels / Defense against software exploits

Boudjema, El Habib 04 May 2018 (has links)
Dans ce début du troisième millénium, nous sommes témoins d'un nouvel âge. Ce nouvel âge est caractérisé par la transition d'une économie industrielle vers une économie basée sur la technologie de l'information. C'est l’âge de l'information. Aujourd’hui le logiciel est présent dans pratiquement tous les aspects de notre vie. Une seule vulnérabilité logicielle peut conduire à des conséquences dévastatrices. La détection de ces vulnérabilités est une tâche qui devient de plus en plus dure surtout avec les logiciels devenant plus grands et plus complexes. Dans cette thèse, nous nous sommes intéressés aux vulnérabilités de sécurité impactant les applications développées en langage C et particulièrement les vulnérabilités provenant de l'usage des fonctions de ce langage. Nous avons proposé une liste de vérifications pour la détection des portions de code causant des vulnérabilités de sécurité. Ces vérifications sont sous la forme de conditions rendant l'appel d'une fonction vulnérable. Des implémentations dans l'outil Carto-C et des expérimentations sur la base de test Juliet et les sources d'applications réelles ont été réalisées. Nous nous sommes également intéressés à la détection de vulnérabilités exploitables au niveau du code binaire. Nous avons défini en quoi consiste le motif comportemental d'une vulnérabilité. Nous avons proposé une méthode permettant de rechercher ces motifs dans les traces d'exécutions d'une application. Le calcul de ces traces d'exécution est effectué en utilisant l'exécution concolique. Cette méthode est basée sur l'annotation de zones mémoires sensibles et la détection d'accès dangereux à ces zones. L'implémentation de cette méthode a été réalisée dans l'outil Vyper et des expérimentations sur la base de test Juliet et les codes binaires d'applications réelles ont été menées avec succès / In the beginning of the third millennium we are witnessing a new age. This new age is characterized by the shift from an industrial economy to an economy based on information technology. It is the Information Age. Today, we rely on software in practically every aspect of our life. Information technology is used by all economic actors: manufactures, governments, banks, universities, hospitals, retail stores, etc. A single software vulnerability can lead to devastating consequences and irreparable damage. The situation is worsened by the software becoming larger and more complex making the task of avoiding software flaws more and more difficult task. Automated tools finding those vulnerabilities rapidly before it is late, are becoming a basic need for software industry community. This thesis is investigating security vulnerabilities occurring in C language applications. We searched the sources of these vulnerabilities with a focus on C library functions calling. We dressed a list of property checks to detect code portions leading to security vulnerabilities. Those properties give for a library function call the conditions making this call a source of a security vulnerability. When these conditions are met the corresponding call must be reported as vulnerable. These checks were implemented in Carto-C tool and experimented on the Juliet test base and on real life application sources. We also investigated the detection of exploitable vulnerability at binary code level. We started by defining what an exploitable vulnerability behavioral patterns are. The focus was on the most exploited vulnerability classes such as stack buffer overflow, heap buffer overflow and use-after-free. After, a new method on how to search for this patterns by exploring application execution paths is proposed. During the exploration, necessary information is extracted and used to find the patterns of the searched vulnerabilities. This method was implemented in our tool Vyper and experimented successfully on Juliet test base and real life application binaries.level. We started by defining what an exploitable vulnerability behavioral patterns are. The focus was on the most exploited vulnerability classes such as stack buffer overflow, heap buffer overflow and use-after-free. After, a new method on how to search for this patterns exploring application execution paths is proposed. During the exploration, necessary information is extracted and used to find the patterns of the searched vulnerabilities. This method was implemented in our Vyper tool and experimented successfully on Juliet test base and real life application binaries
18

Étude d'une machine à réluctance de type " Vernier " alimentée en courant et autopilotée.

Azizi-Ghannadi, Ghadir, January 1900 (has links)
Th. doct.-ing.--Électrotech.--Toulouse--I.N.P., 1978. N°: 15.
19

Gestion de fichiers de configuration par une vue abstraite modifiable

Giraldeau, Francis January 2011 (has links)
La gestion de fichiers de configuration sous Linux est complexe et propice aux erreurs étant donné le grand nombre de fichiers de formats différents. Toutes les techniques couramment utilisées pour modifier ces fichiers sont insatisfaisantes. Nous proposons d'abstraire la syntaxe variée des fichiers de configuration par une structure de données unique et modifiable. Nous nous intéressons aux algorithmes permettant de transformer un fichier de configuration - une chaîne de caractères - en une représentation abstraite, y effectuer des modifications et reporter ces modifications dans le fichier d'origine, ce qui doit se traduire par une modification minimale du fichier. Deux logiciels qui permettent d'effectuer des transformations bidirectionnelles sur des chaînes de caractères sont modifiés pour nos besoins, soit XSugar et Augeas. XSugar fait en sorte que certains caractères peuvent être perdus lors d'une transformation aller-retour. Dans le contexte de la gestion de fichiers de configuration, il est essentiel de préserver tous les caractères présents dans la représentation concrète, mais exclus de la représentation abstraite, de manière à les restituer dans la version concrète modifiée. Nous proposons deux techniques permettant de surmonter ces limitations. Cependant, les résultats ont été partiellement atteints. Augeas est limité dans le traitement de certains types de fichiers balisés, comme les fichiers XML. Une extension au langage adaptée à ce problème a été développée. Cette extension permet de transformer efficacement tout type de fichiers balisés. Le développement d'un module pour la configuration du serveur Web Apache démontre le succès dans l'application pratique de cette extension et constitue une première dans le domaine.
20

Utilisation de modèles analytiques et numériques pour la prédiction du comportement sous charge statique de dispositifs de retenue de ponts routiers de niveau PL-2 en béton armé de barre d'armature de polymères renforcés de fibres de verre

Fortier, Alexandre January 2014 (has links)
Ce mémoire présente les résultats de calculs analytiques de prédiction du comportement de dispositifs de retenue de niveau PL-2 armé d'armature en polymères renforcés de fibres de verre (PRFV) soumis aux essais de chargement quasi statique horizontal. L'un des modèles analytiques à l'étude est le calcul de la charge ultime que peut reprendre un dispositif de retenue en fonction des dimensions de la fissure au niveau de la connexion. Le deuxième modèle analytique à l'étude est le calcul de prédiction de la relation charge-déflexion en tête de muret. La collaboration entre le Ministère des Transports du Québec (MTQ), le Ministère des Transports de l'Alberta et l'Université de Sherbrooke a permis d'effectuer des essais quasi statiques sur plusieurs configurations durant les dernières années. Les configurations de dispositifs provenant du MTQ sont des barrières de type 210 et 311 dont les murets et les dalles sont entièrement armés de barres en PRFV. Les configurations des dispositifs de l'Alberta sont quant à eux des dispositifs de type S-1642 et S-1650 dont les murets sont armés de barres en PRFV et les dalles sont armées de barres d'acier enduit d'époxy. Grâce à cette banque de données, il est possible d'effectuer l'étude des modèles sur différentes configurations et ainsi déterminer certaines de leurs limites. De plus, une modélisation par éléments finis de la configuration de dispositif de retenue de type 311 (PL-2) a été effectuée. Le dispositif a été modélisé en trois dimensions avec le logiciel ADINA. De ce modèle, une comparaison avec les données expérimentales a été effectuée afin de le valider. De plus, une étude paramétrique a été effectuée sur l'influence des résistances du béton de la dalle et du muret et du module d'élasticité des barres en polymères renforcés de fibres (PRF). En effet, des bétons de 35 MPa et 50 MPa ont été utilisés afin de représenter trois cas de combinaison de résistance en compression des bétons. Finalement, trois grades de modules élastiques ont été utilisés sur le dispositif ayant un béton de 35 MPa au niveau de la dalle et un béton de 50 MPa au niveau du muret (combinaison la plus courante) afin d'étudier l'effet du module élastique des barres.

Page generated in 0.0779 seconds