• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 681
  • 354
  • 225
  • 112
  • 92
  • 75
  • 54
  • 44
  • 13
  • 12
  • 12
  • 12
  • 10
  • 9
  • 6
  • Tagged with
  • 1766
  • 738
  • 183
  • 176
  • 135
  • 133
  • 127
  • 126
  • 123
  • 119
  • 119
  • 101
  • 100
  • 95
  • 92
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Vers des générateurs de nombres aléatoires uniformes et gaussiens à très haut débit

Santoro, Renaud 17 April 2018 (has links)
L'objectif d'un générateur de nombres aléatoires (RNG) est de produire une séquence binaire aléatoire indépendante, imprédictible et uniformément répartie. Les RNG sont nécessaires dans toutes sortes d'applications telles que la cryptographie, les télécommunications, les simulations numériques, le test de circuits VLSI ou encore les algorithmes probabilistes. Ainsi, le nombre d'applications embarquées nécessitant des RNG matériels augmente constamment, spécialement au sein des circuits reconfigurables. En vue de la conception matérielle d'un RNG, la solution est d'utiliser un générateur hybride composé d'un générateur vraiment aléatoire (TRNG) et d'un générateur pseudo-aléatoire (PRNG). Prouver mathématiquement qu'un générateur est aléatoire est généralement difficile, voire impossible. Les RNG sont souvent évalués via des tests statistiques. L'évaluation d'un TRNG est beaucoup plus complexe que celle d'un PRNG car la qualité d'un TRNG est fonction de la source de bruit utilisée, de l'environnement extérieur et de la qualité d'implantation au sein du circuit ciblé. Fischer et al. [1] ont proposé l'un des premiers TRNG totalement implantable au sein d'un circuit FPGA. Depuis, un grand nombre de générateurs a été présenté dans la littérature. Un des objectifs de cette thèse a été de proposer une méthodologie objective analysant la qualité des TRNG sélectionnés au sein de circuits reconfigurables. La méthode d'évaluation, rapide et efficace est basée sur l'utilisation de tests statistiques matériels proposés par l'AIS 31 [2]. L'intérêt de la méthode est d'évaluer les TRNG au sein du même circuit FPGA afin d'analyser ceux-ci dans des conditions similaires d'utilisation. La version matérielle de l'AIS 31 permet d'évaluer des TRNG présentant un débit maximal de 84.2 Mbits/s. Le coût matériel de celle-ci est de 4042 LUT, soit environ 10% d'un FPGA Xilinx Virtex 5 SX50. La méthode proposée permet de trouver facilement le débit optimal des TRNG au sein d'un circuit reconfigurable. Ainsi, l'intérêt d'une pré-caractérisation du fonctionnement d'un TRNG est prouvé. À partir de l'étude précédente, un TRNG est sélectionné pour ses propriétés statistiques. Une architecture de générateur hybride permettant de produire des nombres aléatoires uniformes à très haut débit est ensuite proposée. Cependant, malgré la qualité du générateur sélectionné, l'aléa en sortie du TRNG peut varier au cours du temps à cause d'attaques externes possibles sur le circuit, de la variation des conditions extérieures ou encore du vieillissement des composants. La qualité aléatoire de la séquence de germes produite par un TRNG est primordiale pour assurer l'imprédictibilité d'un PRNG. Afin d'améliorer la robustesse d'un TRNG, des mécanismes de tests statistiques en ligne doivent être mis en œuvre. Ainsi, une évaluation en temps réel du comportement du générateur est réalisée et les séquences défaillances générées par celui-ci sont évitées. Cette étude propose d'utiliser une implantation efficace de la batterie du FIPS 140-2. La surface négligeable du circuit au sein des FPGA actuels et les performances obtenues par le composant permettent de contrôler la qualité du TRNG sélectionné en temps réel. Un RNG hybride à très haut débit implanté sur une cible reconfigurable et au sein d'un circuit VLSI est proposé. L'étude menée sur le RNG hybride a débouché sur un partenariat industriel réalisé avec une entreprise spécialisée en cryptographie à travers le projet pôle images et réseaux SPRING (Shelf Proof Random Integrated Number Generator). Dans certaines applications, il est parfois nécessaire de générer des nombres aléatoires suivant une distribution de probabilité différente d'une loi uniforme. À partir de l'utilisation du RNG hybride proposé, l'implantation d'un générateur de nombres aléatoires gaussiens à très haut débit est présenté. Par ailleurs, le circuit implanté permet de générer efficacement des nombres aléatoires suivant une loi de Rayleigh. Après sélection d'un excellent TRNG, un PRNG à débit très élevé est recherché. La structure parallèle des automates cellulaires fait de ces PRNG une architecture très intéressante en vue d'une implantation matérielle. La seconde partie de la thèse est consacrée à la recherche de la règle optimale d'un automate cellulaire à cinq voisins. Le chapitre étudie, entre autres, le coût matériel engendré par l'implantation de tests statistiques très performants. / The purpose of a random number generator (RNG) is to produce a random binary sequence independent, unpredictable and uniformly distributed. A RNG is needed in all kinds of applications such as cryptography, telecommunications, computer simulations, testing of VLSI circuits or probabilistic algorithms. The number of embedded applications requiring hardware RNG is constantly increasing, especially in the reconfigurable circuits. In view of the physical design of a RNG, the solution is to use a hybrid generator composed of a truly random generator (TRNG) and a pseudo-random number generator (PRNG). Proving mathematically that a generator is random is usually difficult or impossible. RNGs are often evaluated using statistical tests. Evaluation of a TRNG is much more complex than PRNG testing as the TRNG quality is a function of the noise source used in the external environment and the implementation quality within the target circuit. Fischer et al. have proposed one of the first TRNG totally embedded within an FPGA. Then, a large generator number has been presented in the literature. One objective of this thesis was to propose an objective methodology for analyzing the quality of recognized TRNGs in reconfigurable circuits. The evaluation method, fast and efficient, is based on the use of hardware statistical tests proposed by the AIS 31 and the FIPS 140-2. The advantage of the method is to evaluate the TRNGs in the same FPGA chip to analyze them in similar conditions of use. The hardware version of AIS 31 allows the TRNG evaluation with a maximum throughput of 84.2 Mb/s. The material cost of it is 4042 LUTs, about 10 % of a Xilinx Virtex 5 FPGA SX50. Moreover, the method is used to find the optimal TRNG data rate for the targeted reconfigurable circuit, showing the TRNG pre-characterization interest. From the previous study, a TRNG is selected for its statistical properties. A high data rate hybrid generator is then proposed. However, despite the quality of the selected generator, the TRNG randomness can vary in time due to possible external attacks on the circuit, changes in external conditions or aging components. The quality of the seed sequences provided by a TRNG is important to ensure the unpredictability of a PRNG. To improve the robustness of a TRNG, online statistical tests must be implemented. Thus, a real-time evaluation of the generator behavior is performed and the TRNG weaknesses are filtered. This study proposes to use an efficient implementation of the FIPS 140-2 battery. The negligible area and the performance allow to control the TRNG quality in real time. A hybrid RNG implemented on a reconfigurable target and within a VLSI circuit is then proposed. The study conducted on the RNG hybrid resulted in an industry partnership. Then, in some applications, it is sometimes necessary to generate random numbers following a probability distribution different from a uniform distribution. From the use of the proposed hybrid RNG, a very high data rate Gaussian random number generator is proposed. Furthermore, the circuit can generate random numbers according to a Rayleigh law. From previous studies, a hybrid RNG is proposed for FPGA implementation and is embedded into the cryptography solution proposed by a French company. The RNG generates uniform random bits and his innovating by the TRNG real time monitoring realized by embedded the FIPS 140-2 tests. Then, the realization of two ASIC in 130 nm technology are described. The chips will allow to evaluate the performance of ASIC TRNGs. Moreover, the second circuit embeds high throughput Gaussian and Rayleigh noise generators.
222

Trajets

Blondeau, Benoît 17 April 2018 (has links)
Le monde dont je fais partie me touche et me projette dans la confusion. Il me semble que mes idées sur celui-ci demeurent toujours partielles de par sa démesure et son infinité. C'est entre autres parce que j'y suis immergé, comme un élément constituant, et donc hanté par les choses qui m'entourent et m'habitent. Par un processus de création venant du corps connaissant les matériaux, il y a bien une méthode qui prévaut : celle du ± recyclage ¿. En soupesant la charge de possibles dans les matériaux, leurs énergies et leurs forces, j'opère une digestion massive du réel, de proche en proche, un remaniement chirurgical par incorporation - ce qui tient du sismographique ou du tellurique, de la mastication. Ce travail est un faire qui surgit d'une présence face aux choses, un mouvement pour habiter la matière. Il y a là une quête de connaissances et de compréhension de tout ou de n'importe quoi. La vision transperce tout objet et ne connaît aucune autre limite que la sienne, c'est-à-dire celle de l'individuation et de ses contingences. Ma peinture est mouvement de transgression : sortir des limites et aller ailleurs. La peinture, intrinsèquement événementielle, détourne toujours la volonté vers des inattendus. Ainsi elle est vécue comme une activité de l'ordre du trajet : trace et capture du réel en images plutôt que projet. La peinture ne reproduit pas le visible; elle rend plutôt les visions ou fantômes du corps sensible entreprenant, et donc une singularisation. Elle est une revendication vivante de liberté. Mon travail en peinture est un travail d'intensification ou d'infestation qui se pose en contraste, voire en opposition, au monde de la banlieue nord-américaine, de son amour de la neutralisation, de la séparation et de l'imitation. La ± schizophrénie ¿ qui découle du capitalisme contemporain contribue, dans la durée, au durcissement de modèles d'existences types, à une stereotypic de la pensée qui transforme la liberté d'où ces modèles semblent issus, en contraintes et en dépendances. Je m'appelle Benoît Blondeau et je viens des Saules.
223

Criblage de bactéries productrices d'enzymes (fucosidase et fucoïdane hydrolase) capables de dégrader les fucoïdanes

Depont, Mélanie 17 April 2018 (has links)
Les fucanes, ou fucoïdanes, sont des polysaccharides caractéristiques des algues brunes comme Saccharina longicruris. Leur hydrolyse par des enzymes bactériennes amplifie leurs activités biologiques. Cependant, peu d'enzymes capables d'hydrolyser les fucoïdanes ont été découvertes et leurs actions sont spécifiques à la structure de chaque fucoïdane. Le but de ce projet est d'identifier des bactéries marines capables d'hydrolyser le fucoïdane. Des bactéries fucosidase positives ont d'abord été isolées par des préenrichissements à partir d'échantillons d'algues et d'eau de mer prélevés dans le fleuve St-Laurent (Ste-Luce, mai 2007) et sélectionnées par une réaction chromogénique. Le séquençage d'une section de la petite sous-unité du gène d'ADNr 16S a révélé que les bactéries sélectionnées appartenaient à Pseudoalteromonas spp. La cinétique de croissance d'une souche de Pseudoalteromonas dans un milieu à base d'eau de mer (Marine Broth) avec ou sans les différents sucres composant le fucoïdane (glucose, fucose ou galactose) n'a pas révélé de différence entre les milieux testés. Le dosage des activités enzymatiques de type fucosidase et fucoïdane hydrolase des extraits bruts de biomasse a été déterminé par la mesure de la libération du nitrophénol lors de l'hydrolyse du PNP-oc-L-fucoside et par le dosage des sucres réducteurs, respectivement. L'activité spécifique de la fucosidase, optimisée à 20°C, est d'environ 0,014 U/mg et elle est constante dans le temps. Celle de la fucoïdane hydrolase, atteint sa valeur maximale de 0,67 U/mg après une heure d'incubation et est optimale à 50°C. Ce travail a permis l'isolement d'une bactérie productrice de deux enzymes capables de dégrader les fucoïdanes, soit la fucosidase et la fucoïdane hydrolase. Les gènes codant pour ces enzymes pourront ultérieurement être identifiés et servir au développement d'un procédé commercial de fractionnement du fucoïdane par bioconversion.
224

Contributions à la résolution des processus décisionnels de Markov centralisés et décentralisés : algorithmes et théorie

Dibangoye, Jilles Steeve 17 April 2018 (has links)
Cette thèse porte sur les problèmes de prise de décisions séquentielles sous incertitudes dans un système mono ou multi-agents. Les processus décisionnels de Markov offrent un modèle mathématique permettant à la fois de formaliser et de résoudre de tels problèmes. Il existe de multiple travaux proposant des techniques efficaces pour la résolution des processus décisionnels de Markov. Néanmoins, trois facteurs, dits malédictions, limitent grandement le passage à l'échelle de ces techniques. Le premier facteur, la malédiction de la dimension, est le plus connu. Il lie la complexité des algorithmes au nombre d'états du système dont la croissance est exponentielle en fonction des attributs des états. Le second facteur, la malédiction de l'historique, a été identifié plus récemment. Il lie la complexité des algorithmes à la dimension exponentielle de l'espace des historiques à prendre en compte afin de résoudre le problème. Enfin, le dernier facteur, là malédiction de la distributivité, est identifié dans cette thèse. Il lie la complexité des algorithmes à la contrainte du contrôle distribué d'un système, résultant sur une complexité doublement exponentielle. À travers nos contributions, nous proposons une réponse à chacune des trois malédictions. Nous atténuons à la fois la malédiction de la dimension et la malédiction de l'historique en exploitant les dépendances causales soit entre états soit entre historiques. Suivant cette idée, nous proposons une famille d'algorithmes exacts et approximatifs, nommée programmation dynamique topologique, visant à résoudre les processus décisionnels de Markov complètement ou partiellement observables. Ces algorithmes permettent de réduire considérablement le nombre de mises à jour d'un état ou d'un historique. Ainsi, lorsque les problèmes sont munis d'une structure topologique, la programmation dynamique topologique offre une solution efficace. Pour pallier aux effets de la malédiction de la distributivité, nous avons proposé d'étendre la planification centralisée au cadre du contrôle distribué. Nous proposons une analyse formelle des problèmes de contrôle distribué des processus décisionnels de Markov sous le regard de la planification centralisée. De cette analyse, de nombreux algorithmes de planification centralisée ont vu le jour. Parmi eux, figure point-based incremental pruning (PBIP), l'algorithme approximatif pour la résolution des processus de Markov décentralisés, le plus efficace à ce jour.
225

Caractérisation de la décantabilité des eaux pluviales

Berrouard, Émilie 16 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2010-2011 / La sédimentation des particules contenues dans les eaux de ruissellement est reconnue comme étant le phénomène le plus important pour l'amélioration de la qualité de l'eau en bassin de rétention avant son rejet au milieu récepteur. Ce projet de maîtrise vise à apporter des éléments clés dans sa compréhension. L'objectif est de mettre en place un protocole de mesure de vitesses de chute adapté aux besoins du projet. La combinaison de ces vitesses à l'évaluation de la distribution de la taille des particules fournira des informations sur l'influence des temps de rétention en bassin autant du point de vue qualité de l'eau que sur le gain en termes de décantation physique des particules. L'objectif est donc d'obtenir des résultats décrivant les vitesses de chute des particules contenues dans les eaux de ruissellement et les diamètres de ces particules. Un protocole devra aussi être élaboré afin de mesurer cette dernière caractéristique. D'un point de vue gestion du bassin, il y a aussi un objectif visant à mettre en lumière l'existence ou non de relations entre le type d'événement pluvieux et les vitesses de chute enregistrées. À l'été 2008 et 2009, des campagnes de mesures ont été menées afin de récolter des données sur la qualité des eaux de ruissellement dans une zone résidentielle typique de Québec et des eaux à l'intérieur du bassin. L'évaluation des différents protocoles existants permettant de mesurer la vitesse de sédimentation a mené à l'emploi du protocole ViCAs élaboré à Lyon en France. Les résultats obtenus à partir du ViCAs ont permis de fractionner sous différentes classes de vitesse de chute les échantillons composites récupérés à l'entrée et à la sortie du bassin de rétention étudié. Les proportions de chaque classe varient grandement d'un événement à l'autre. Leur mise en relation avec les caractéristiques des événements pluvieux ayant généré ces eaux de ruissellement a permis de conclure que les vitesses de chute sont proportionnelles à l'intensité de pluie maximale, à la hauteur de précipitation et au volume ruisselé. La durée de l'événement a aussi un effet notable, mais non linéaire. Les essais sur le terrain combinés à ceux du laboratoire permettent de croire qu'une période de décantation de deux jours et demi entraîne l'enlèvement maximal atteignable des matières en suspension. Par contre, la comparaison des mesures de distribution de taille de particules, effectuées sur les échantillons composites des eaux de ruissellement, avec les distributions de vitesses de chute n'a pu mener à des conclusions. Il ne semble pas possible de faire un lien direct entre ces deux variables.
226

Éthologie et inactualité dans la pensée

Guimont, Benoît 17 April 2018 (has links)
Ce mémoire prend pour point de départ la pensée philosophique, c'est-à-dire un art spécifique, un art de penser. Par des détours, des redéfinitions d'objets et des transfigurations dans la forme d'écriture, c'est à l'élaboration d'un plan de pensée, rejoignant des problématiques éthico-politiques, que s'est vouée la réflexion qui fut ici mise en oeuvre. En utilisant les écrits de certains philosophes dont les principaux sont Michel Foucault, Gilles Deleuze, Félix Guattari et Michel de Certeau, il s'agissait avant tout de dégager les coordonnées au travers desquelles se déploient les différentes opérations d'une pensée saisie à partir de ses multiples relations avec les éléments hétérogènes qui constituent son milieu. Que ce travail ne soit qu'un point de relais dans une réflexion qui demande toujours à être relancée, c'est ce qui est de prime abord supposé. Ainsi donc, l'essentiel de son contenu tient dans la limite vers laquelle il tend et vers laquelle surtout il tend à s'abîmer; et s'il faut vraiment résumer la démarche poursuivie, c'est au jeu que nous ferons appel; pour que peut-être ce qui est discuté ici devienne une mise en scène intérieure, avec ses décors, ses personnages, ses expressions et ses fous rires.
227

Stabilité des couleurs des systèmes bois/vernis améliorée par les revêtements nanocomposites aqueux à usage extérieur

Auclair, Nicolas 17 April 2018 (has links)
En utilisation extérieure, les dégradations les plus importantes du bois sont dues à plusieurs phénomènes, tels que l'hydrolyse, l'oxydation ou les attaques biologiques, qui ont pour conséquence, entres autre, de décolorer le bois et de réduire les propriétés mécaniques. En effet, le bois étant un matériau biologique, l'exposition au rayonnement ultraviolet (UV) engendre plusieurs réactions de dégradation de la lignine, ce qui provoque une décoloration non-désirée. De plus, les effets de la température, de l'humidité et du contact direct avec l'eau peuvent accélérer ce phénomène. Parmi les différentes stratégies de stabilisation de la couleur du bois, l'application d'un revêtement de surface est certainement la plus populaire. Le film joue un rôle d'écran protecteur contre les UV et les intempéries. Ces couches protectrices se composent de macromolécules (polyuréthane, polyacrylates...) qui se dégradent également par apport d'énergie UV. C'est pour cette raison qu'il est nécessaire d'y ajouter des molécules organiques susceptibles d'absorber une partie du rayonnement UV ou de limiter les réactions de dégradation radicalaire. Or, l'ajout de nanoparticules inorganiques de certains oxydes de métaux de transition semble donner des résultats plus prometteurs que les absorbeurs UV traditionnels tels que les amines stériquement encombrées. Ainsi, le présent projet à comme objectif d'étudier l'effet de nanoparticules inorganiques dans des revêtements industriels aqueux pour la stabilisation des couleurs.
228

Conception globale des générateurs asynchrones à double alimentation pour éoliennes

Aguglia, Davide 17 April 2018 (has links)
L'industrie des aérogénérateurs a connu une croissance spectaculaire au cours des dernières années. La chaîne de conversion électromécanique la plus employée dans le domaine de puissance de l'ordre du MW utilise une Machine Asynchrone à Double Alimentation (MADA). L'avantage principal de cette solution concerne son coût initial qui est réduit par rapport aux topologies concurrentes. Ce type d'aérogénérateur utilise un multiplicateur de vitesse à engrenages qui adapte la vitesse de rotation élevée de la MADA à la basse vitesse de rotation de la turbine éolienne. Cette composante qui nécessite des coûts de maintenance élevés est à l'origine des principaux problèmes de fiabilité associés aux aérogénérateurs qui utilisent la MADA. Par exemple, le multiplicateur est soumis à de fortes contraintes lors des régimes de défauts électriques qui peuvent survenir sur le réseau électrique. Bien que les industriels aient développé des multiplicateurs de vitesse qui s'adaptent mieux au domaine des aérogénérateurs, il apparaît qu'aucune solution globale et innovatrice n'a été proposée pour faire face à cette problématique. Ce travail présente un environnement de conception globale et optimale de la chaîne de conversion électromécanique utilisant la MADA pour les aérogénérateurs dont la puissance est de l'ordre du MW. L'établissement des divers modèles de dimensionnement et la mise au point des outils méthodologiques disponibles dans l'environnement sont détaillés. Les principaux composants de la chaîne de conversion sont modélisés et la MADA fait l'objet d'une attention particulière quant à son dimensionnement. Des méthodes analytiques et numériques sont proposées pour mener à bien la conception optimale de l'entraînement tout entier incluant la MADA, le multiplicateur de vitesse mécanique et le convertisseur statique de puissance. La mise en oeuvre de l'environnement est illustrée par des solutions de conception globale associées à différents spécifications du cahiers des charges incluant la distribution annuelle de vitesses de vent sur le site. Les résultats obtenus montrent qu'il existe différentes solutions originales tant du point de vue topologique que dimensionnel. En particulier, on montre qu'il est possible de diminuer le nombre d'étages de multiplication mécanique de la vitesse pour améliorer la fiabilité et le coût global de l'installation. / During the last few years the wind turbine industry experienced an impressive growth. The most used topology of electromechanical conversion system for wind power plants in the MW range is based on the so called Doubly-Fed Induction Generator (DFIG). The advantage of this topology lies in a reduced initial cost compared to alternative topologies. The DFIG based wind turbine is using a gearbox to adapt the generator's high rotating speed to the turbine's low rotating speed. This mechanical component, which presents high maintenance costs, is the major cause of reliability problems of DFIG based wind turbines. For instance, during severe grid fault conditions (i.e. short-circuits) the gearbox is mechanically stressed. Although the new gearbox generation has been improved to better fit to the wind industry constraints, one can notice that no new and innovative solutions have been proposed to cope with this problematic. This works presents a global and optimal design methodology associated to a specific CAD environment of DFIG based electromechanical conversion systems for wind turbines in the MW power range. The development of the different design models and the realization of the methodological tools available in the environment are detailed. The main components of the electromechanical conversion system are modeled and the DFIG design procedure is detailed. Different analytical and numerical methods are proposed to perform an efficient optimal design of the whole drive system that includes the DFIG, the gearbox and the static power converter. The environment efficiency is demonstrated by the determination of different optimal global design solutions associated to several kinds of specifications, which take into account the annual wind speed statistical distribution on the site. The results show that there are several original solutions in terms of topological structure and dimensions. The use of the proposed design methodology demonstrates that it is possible to reduce the number of gearbox stages in order to increase the plant reliability and to decrease its global cost.
229

Le rôle de la pensée utopique dans l'aménagement viable des villes de demain

Ganjavie, Amir 17 April 2018 (has links)
La pensée utopique a toujours joué un rôle central dans la littérature sur l'urbanisme. En fait, Choay (1965, 1980, 2005b) affirme que les utopistes étaient les premiers urbanistes et que l'utopie a toujours constitué un laboratoire de recherche pour les urbanistes au cours de l'histoire. Cette recherche théorique vise à comprendre le rôle de la pensée utopique dans l'aménagement des villes de demain. Elle vise plus précisément à comprendre en quoi certains projets urbains exploratoires ou porteurs d'utopie peuvent proposer une manière différente d'aborder les problèmes de villes toujours de plus en plus étalées. Pour ces fins, l'analyse interprétative de deux cas utopiens -KM3 (MVRDV) et le Projet Local (Magnaghi)- permet de dégager trois raisons justifiant l'importance de la pensée utopique pour saisir les villes contemporaines soit l'utopie comme outil révélateur, l'utopie comme laboratoire de recherche et l'utopie comme moyen d'aborder les questions éthiques.
230

Cadre algébrique pour le renforcement de politique de sécurité sur des systèmes concurrents par réécriture automatique de programmes

Langar, Mohamed Mahjoub 16 April 2018 (has links)
La société moderne est de plus en plus dépendante de l'informatique dont le rôle est devenu tellement vital au point que tout dysfonctionnement peut engendrer des pertes considérables voire des conséquences irréversibles telles que la perte de vies humaines. Pour minimiser les dégâts, plusieurs techniques et outils ont été mis en place au cours des dernières années. Leur objectif est de faire en sorte que nos systèmes informatiques fonctionnent < < ~tout le temps~> > , et ce, tout en produisant les résultats escomptés. La duplication du matériel et les tests de logiciels sont parmi les techniques les plus utilisées. Cependant, sans méthodes formelles, rien n'est garanti et des problèmes peuvent surgir à tout moment. En contrepartie, l'utilisation de méthodes formelles n'est pas à la portée de tout le monde y compris les programmeurs chevronnés et la tâche reste subtile et complexe même pour les spécialistes. Quelques lignes de code nécessitent parfois des centaines de lignes de preuve difficiles à lire et à comprendre. Malgré tout, leur utilisation n'est plus un luxe, mais plutôt nécessaire afin d'éviter les dégâts engendrés par les mauvais fonctionnements de nos systèmes critiques. Le principal objectif de notre recherche est de développer un cadre formel et automatique pour le renforcement de politique de sécurité sur des systèmes concurrents. Plus précisément, l'idée consiste à ajouter dans un programme des tests à des endroits soigneusement calculés pour qu'une politique de sécurité soit respectée. La nouvelle version du programme préserve toutes les traces de la version originale respectant la politique de sécurité et bloque les traces qui ne peuvent plus respecter la politique de sécurité même si elles sont complétées par certains suffixes. Les principaux résultats ayant contribué à l'atteinte de cet objectif sont : 1. La définition d'une algèbre de processus [symbol] offrant un cadre purement algébrique pour le renforcement de politique de sécurité sur des systèmes concurrents. Plus précisément, nous avons défini un nouvel opérateur qui permet de renforcer, d'une manière intuitive, une politique de sécurité sur un système concurrent. 2. La définition d'une logique, dénotée par [symbol], inspirée des expressions régulières étendues. En effet, [symbol] est une logique linéaire qui exprime la classe de langage régulier, mais avec la possibilité d'exprimer des propriétés infinies. 3. La définition d'une algèbre [symbol] basée sur l'algèbre [symbol]. [symbol] définit un nouvel opérateur de renforcement qui tient compte de l'introduction de la logique. 4. Le développement d'une technique d'optimisation qui, pour une certaine classe de propriétés de sécurité, permet de réduire le nombre de tests insérés dans le programme renforcé. / One of the important goals of the software development process is proving that the produced systems always meet their requirements. However, establishing this goal is not only subtle and complex, but also requires high qualified persons. In addition, this operation is mostly omitted due to its high cost and the system is tested while trying to reduce the risk of errors as much as possible. The cost is, nevertheless, paid when this operation is required in order to avoid catastrophic consequences and major errors. In these cases, tools like theorem prover and those used for automatic generation of software are helpful to significantly reduce the cost of proof. Our aim is that this tool proves to be powerful and simple enough to generate benefits even to small companies and individuals with scarce budgets and limited theoretical skills . Many promising formal frameworks for automatic enforcement of security policies in programs have been proposed during the last years. Their goal is to ensure that a program respects a given security policy which generally specifies acceptable executions of the program and can be expressed in terms of access control problems, information flow, availability of resources, confidentiality, etc. The literature records various techniques for enforcing security policies belonging to mainly two principal classes: static approaches including typing theory, Proof Carrying Code, and dynamic approaches including reference monitors, Java stack inspection. Static analysis aims at enforcing properties before program execution. In dynamic analysis, however, the enforcement takes place at runtime by intercepting critical events during the program execution and halting the latter whenever an action is attempting to violate the property being enforced. Recently, several researchers have explored rewriting techniques in order to gather advantages of both static and dynamic methods. The idea consists in modifying a program statically, so that the produced version respects the requested requirements. The rewritten program is generated from the original one by adding, when necessary, some tests at some critical points to obtain the desired behaviors. This thesis aims to propose an algebraic and automatic approach that could generate from a given program, and a security policy, a new version of this program that respects the requested security policy. More precisely, we define an operator [symbol] that takes as input a process [symbol] and a security policy [symbol] and generates [symbol], a new process that respects the following conditions: [symbol] "satisfies" the security policy [symbol]. [symbol], behaviours of [symbol] are also behaviours of [symbol]. [symbol], all good behaviours of [symbol] are also behaviours [symbol]. The main results of our research are the following~: 1. The definition of a process algebra [symbol] offering an algebraic framework for the enforcement of security policies on concurrent systems. 2. The definition of a logic, denoted by [symbol], inspired from Kleene algebras and regular expressions. Basically, it allows to specify properties that can be checked on a trace-based model and properties related to infinite behavior (e.g. a server should not send the password of users). The choice of this logic is motivated by its syntax that is close to the one chosen for processes. In fact, this similarity is helpful to simplify the definition of our formal monitor. 3. The development of an optimization technique which, for a certain class of security properties, reduces the number of tests added in the target.

Page generated in 0.0252 seconds