• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 319
  • 203
  • 28
  • 2
  • Tagged with
  • 567
  • 211
  • 200
  • 197
  • 150
  • 132
  • 101
  • 100
  • 96
  • 87
  • 78
  • 70
  • 69
  • 63
  • 61
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Preuve de validité du vérificateur de code octet Java

Lazaar, Jamal January 2008 (has links) (PDF)
L'utilisation du langage Java dans plusieurs environnements (web, systèmes embarqués, systèmes mobiles, etc.) a élevé considérablement le niveau d'exigence envers ce langage, ce qui a amené les chercheurs et les développeurs à s'intéresser au système de sécurité de la Machine Virtuelle Java (MVJ) qui repose principalement sur le vérificateur du code octet. Dans ce mémoire, nous expliquons le fonctionnement du vérificateur Java, son rôle, les différentes techniques proposées pour son implémentation et un algorithme que nous proposons comme alternative sérieuse aux autres vérificateurs qui existent déjà. Nous nous intéresserons plus particulièrement à l'effet des sous-routines sur le bon typage des instructions. Nous présentons aussi une nouvelle approche de vérification de la synchronisation en nous basant sur l'analyse de flot de données et en identifiant les références qui pointent vers le même objet. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Machine Virtuelle Java, Code octet, Vérificateur, Synchronisation, Java, ClassLoader, Instructions, Treillis, Analyse de flot de données, Fonctions de transfert, Point fixe.
52

Estimation de la borne supérieur par des approches statistiques et par la méthode de Stringer

Joubir, Sami January 2010 (has links) (PDF)
Ce mémoire présente de nouvelles approches statistiques pour estimer la borne supérieure d'une population dans un contexte bien particulier, celui de la vérification comptable. Étant donné que dans la plupart des cas on se retrouve avec des échantillons où le nombre d'erreurs est souvent. faible ou nul, les méthodes classiques risquent fort d'être inadéquates. Dans ce mémoire, nous allons revenir sur quelques méthodes classiques puis présenter différentes méthodes spécifiques proposées par des chercheurs et nous mettrons l'accent sur la méthode de Stringer qui est très utilisée dans la pratique de la profession. Notre objectif est de voir dans quels cas ces méthodes pourraient être plus efficaces que les méthodes classiques. Les propriétés des méthodes classiques sont connues, contrairement à celles des approches spécifiqes où plusieurs d'entre elles n'ont jamais été démontrées et, parmi elles, la méthode de Stringer qui nous intéresse particulièrement. À cet effet, dans le chapitre 3, nous allons faire des simulations pour confirmer les comparaisons théoriques entre les méthodes dont on connait les propriétés et voir les résultats de celles qu'on ne connaît pas. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Échantillonnage, Estimation, Borne supérieure, Méthodes classiques, Méthode de Stringer.
53

Test unitaire de processus BPEL : génération orientée chemins de cas de test

Alaoui Selsouli, Molay El Mehdi 09 1900 (has links) (PDF)
Dans ce mémoire, nous proposons une méthode pour la génération des cas de test pour des processus métiers exprimés en langage BPEL. Cette méthode tient compte de la nature concurrente de ce langage ainsi que des caractéristiques qui lui sont propres. Elle adopte une approche orientée chemin. Ce faisant, ladite méthode définit une extension de la version usuelle du graphe de flot de contrôle (CFG) - baptisée BPEL Control Flow Graph (B-CFG) - pour la traduction du code BPEL en un modèle. En parcourant ce modèle, des chemins de test concurrents, qui sont à habiller par la suite par des données de test, sont générés. Ces chemins concurrents sont représentés d'une façon formelle et appropriée. La génération de ces chemins se fait selon différents critères de couverture. Ces critères, qui ont été à la base définis pour la programmation séquentielle, nous les avons adaptés de façon à pouvoir les appliquer pour le cas d'un langage concurrent comme le BPEL. Finalement, des propositions de pistes de solution sont fournies pour la question de génération de données de test, ainsi que pour la question de spécification/exécution des cas de test. ______________________________________________________________________________
54

Vérification des politiques XACML avec le langage Event-B

Errachid, Mohammed 03 1900 (has links) (PDF)
Les politiques permettent de définir les règles de la sécurité et de la gestion des différents composants du système. Cela implique l'emploi d'un langage pour exprimer les règles d'affaires et les règles non fonctionnelles, et de donner aux utilisateurs la possibilité de tester et de corriger les politiques. Plusieurs langages tels que XACML, Rei ou PONDER, sont utilisés pour exprimer les politiques par rapport aux objectifs du système d'information. Ces langages peuvent définir plusieurs règles et politiques, mais la plupart de ces langages ne donnent pas de mécanisme pour tester et vérifier la présence des conflits et de l'incohérence entre les politiques du système. Ce mémoire vise la vérification des politiques de contrôle d'accès. Notre approche consiste à traduire les politiques XACML sous forme d'un ensemble de machines abstraites de la méthode B. Nous exprimons aussi les propriétés à vérifier par des formules logiques. L'approche offre aux utilisateurs des moyens pour vérifier les politiques afin de s'assurer que les règles expriment bien les objectifs régissant le comportement et les interactions des systèmes gérés. Dans la première phase, les composantes des politiques XACML ont été exprimées avec des expressions formelles basées sur la logique du premier ordre. Par la suite, les outils développés pour la méthode B, comme le langage Event-B sous la plate forme Rodin, ont été utilisés pour vérifier les règles des politiques par rapport à un ensemble de propriétés que nous avons définies. Notre approche est plus flexible et permet aux utilisateurs de tester et de vérifier les règles avant l'implémentation de ces politiques. Une telle vérification est fondée sur les preuves avec logique du premier ordre, où des propriétés importantes de la politique peuvent être énoncées et prouvées. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Politique, XACML, Méthode formelle, Event-B, Vérification.
55

Effets des dimensions de l'intensité morale sur l'évaluation du risque en audit par les auditeurs

Daoud, Akram 12 1900 (has links) (PDF)
L'objectif de la présente recherche est d'étudier l'effet des dimensions de l'intensité morale sur l'évaluation du risque d'audit. Cette recherche permettrait de mieux comprendre la variabilité du risque d'audit sur la base de variables situationnelles. Les résultats permettraient également aux firmes d'audit de mieux contrôler le comportement éthique des auditeurs dans leurs missions d'audit. La norme internationale d'audit ISA 200 (IFAC, 2011, 6 définit le risque d'audit comme « le risque que l'auditeur exprime une opinion inappropriée sur des états financiers comportant des anomalies significatives ». Afin de mieux évaluer le risque d'audit, l'auditeur évalue les conséquences indésirables probables, autrement dit, le risque de la situation. Les dimensions de l'intensité morale, développée par Jones (1991), ont été utilisées pour étudier l'effet des caractéristiques d'une situation sur le processus de prise de décision. Dans le domaine de l'audit, chaque situation confrontée présente un risque qui dépend de l'ampleur des conséquences potentielles et de la probabilité de leur réalisation. De même, l'auditeur établit des relations avec d'autres personnes autant internes qu'externes à l'entité auditée. La situation décisionnelle de l'auditeur semble impliquer certaines dimensions de l'intensité morale. Quatre des six dimensions de l'intensité morale ont été étudiées, la magnitude des conséquences, la probabilité des effets, la concentration des effets et la proximité. Pour mesurer les hypothèses de recherche, une collecte des données a été effectuée auprès de 202 étudiants qui ont répondu à un questionnaire impliquant une situation d'audit où l'auditeur fait face à une manipulation du compte de stock. L'intensité morale d'une situation est mesurée sur la base des items développés par May et Pauli (2002). Les résultats ne supportent qu'une seule hypothèse relative à l'effet de la probabilité des effets sur l'évaluation du risque d'audit. Toutefois, une combinaison de la magnitude des conséquences et de la probabilité des effets explique en partie la variation du risque d'audit. Ces deux dimensions de l'intensité morale expriment le risque de la situation. Cette affirmation confirme le cadre théorique qui soutient la relation inverse entre le risque d'audit et le risque de situation. La contribution de la présente recherche permet de mieux comprendre le processus d'évaluation du risque d'audit à travers les caractéristiques d'une situation confrontée. L'auditeur pourrait mieux justifier ses jugements professionnels dans de telles situations. De même, la présente recherche contribue au développement du modèle du risque d'audit. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : auditeur, mission d'audit, risque d'audit, risque de situation, intensité morale.
56

Verification formelle et optimisation de l'allocation de registres

Robillard, Benoit, Bruno 30 November 2010 (has links) (PDF)
La prise de conscience générale de l'importance de vérifier plus scrupuleusement les programmes a engendré une croissance considérable des efforts de vérification formelle de programme durant cette dernière décennie. Néanmoins, le code qu'exécute l'ordinateur, ou code exécutable, n'est pas le code écrit par le développeur, ou code source. La vérification formelle de compilateurs est donc un complément indispensable à la vérification de code source.L'une des tâches les plus complexes de compilation est l'allocation de registres. C'est lors de celle-ci que le compilateur décide de la façon dont les variables du programme sont stockées en mémoire durant son exécution. La mémoire comporte deux types de conteneurs : les registres, zones d'accès rapide, présents en nombre limité, et la pile, de capacité supposée suffisamment importante pour héberger toutes les variables d'un programme, mais à laquelle l'accès est bien plus lent. Le but de l'allocation de registres est de tirer au mieux parti de la rapidité des registres, car une allocation de registres de bonne qualité peut conduire à une amélioration significative du temps d'exécution du programme.Le modèle le plus connu de l'allocation de registres repose sur la coloration de graphe d'interférence-affinité. Dans cette thèse, l'objectif est double : d'une part vérifier formellement des algorithmes connus d'allocation de registres par coloration de graphe, et d'autre part définir de nouveaux algorithmes optimisants pour cette étape de compilation. Nous montrons tout d'abord que l'assistant à la preuve Coq est adéquat à la formalisation d'algorithmes d'allocation de registres par coloration de graphes. Nous procédons ainsi à la vérification formelle en Coq d'un des algorithmes les plus classiques d'allocation de registres par coloration de graphes, l'Iterated Register Coalescing (IRC), et d'une généralisation de celui-ci permettant à un utilisateur peu familier du système Coq d'implanter facilement sa propre variante de cet algorithme au seul prix d'une éventuelle perte d'efficacité algorithmique. Ces formalisations nécessitent des réflexions autour de la formalisation des graphes d'interférence-affinité, de la traduction sous forme purement fonctionnelle d'algorithmes impératifs et de l'efficacité algorithmique, la terminaison et la correction de cette version fonctionnelle. Notre implantation formellement vérifiée de l'IRC a été intégrée à un prototype du compilateur CompCert.Nous avons ensuite étudié deux représentations intermédiaires de programmes, dont la forme SSA, et exploité leurs propriétés pour proposer de nouvelles approches de résolution optimale de la fusion, l'une des optimisations opéréeslors de l'allocation de registres dont l'impact est le plus fort sur la qualité du code compilé. Ces approches montrent que des critères de fusion tenant compte de paramètres globaux du graphe d'interférence-affinité, tels que sa largeur d'arbre, ouvrent la voie vers de nouvelles méthodes de résolution potentiellement plus performantes.
57

Le concept de soi : voie d’épanouissement ou d’emprisonnement du capital social?

Richer, Céline 03 May 2012 (has links)
La présente étude vise à mieux comprendre quelle dynamique corrélationnelle s’inscrit entre le concept de soi d’un individu et son capital social. La théorie de la vérification de soi (Swann, 1987) sous-tend que les individus ont tendance à s’entourer de gens qui confirment leur vision d’eux même, dans le but de pouvoir prédire et contrôler leur environnement. On peut alors se demander si la personne dont le soi est tapissé de représentations négatives a précisément la capacité de se construire un réseau social qui constituera véritablement un « capital » relationnel pour elle. Un design méthodologique corrélationnel a été utilisé afin d’évaluer les liens de concomitance entre les indicateurs des construits « concept de soi » et « capital social. » Les résultats d’analyses statistiques corrélationnelles entre les indicateurs confirment, en grande partie, l’hypothèse de départ, à savoir que plus une personne nourrit un concept de soi sain, plus elle génère un capital social riche. Les implications pratiques et théoriques sont discutées.
58

Exploration randomisée de larges espaces d'états pour la vérification

Abed, Nazha 16 June 2009 (has links) (PDF)
De nos jours, les systèmes automatisés sont omniprésent : processus industriels, avionique, énergie atomique... La présence de tels systèmes dans des applications critiques, couplée à leur complexité rend indispensable leur vérification de façon automatique afin de garantir la sûreté de leur fonctionnement. En plus, les contraintes économiques imposent un temps de développement court, ce qui rend accru le besoin de méthodes de vérification efficaces et à coût réduit. Les algorithmes de Model-Checking sont conçus pour la vérification totale des systèmes en parcourant leurs graphes d'états. Cependant, les graphes d'états des systèmes logiciels réels ont de très grandes tailles (explosion combinatoire de la taille de l'espace d'états). Ce phénomène constitue l'obstacle principal de la vérification automatique par model checking. Alternativement, on a recours à l'exploration partiel via des algorithmes randomises. Au lieu d'abandonner l'exploration par manque de ressources et ne retourner aucune réponse quant à la validité du système, le résultat de la vérification est donné approximativement avec une probabilité d'erreur que l'on peut contrôler. La majorité des méthodes randomisées de vérification utilisent la marche aléatoire comme schéma d'exploration. Les méthodes que nous proposons opèrent sur le schéma de l'exploration même ainsi que sur le remplacement en mémoire pour apporter des performances importantes. Ces algorithmes présentent un jeu assez complet de stratégies d'exploration: en profondeur, en largeur, ou alternativement selon un paramètre de mixage prédéfini. Le choix de ce paramètre est guidé par un facteur de densité DF caractéristique du graphe considéré.
59

Formal Specification and Verification of Interactive Systems with Plasticity : Applications to Nuclear-Plant Supervision / Spécification formelle et vérification de systèmes interactifs avec plasticité : applications à la supervision nucléaire

Oliveira, Raquel Araùjo de 03 December 2015 (has links)
L'informatique ubiquitaire et la variété croissante des plates-formes et dispositifs changent les attentes des utilisateurs en termes d'interfaces utilisateur. Les systèmes devraient être en mesure de s'adapter à leur contexte d'utilisation, à savoir, la plate-forme (par exemple un PC ou une tablette), les utilisateurs qui interagissent avec le système (par exemple, les administrateurs ou les utilisateurs réguliers), et l'environnement dans lequel le système s'exécute (par exemple une pièce sombre ou en extérieur). La capacité d'une interface utilisateur à s'adapter aux variations de son contexte d'utilisation tout en préservant son utilisabilité est appelée plasticité.La plasticité fournit aux utilisateurs différentes versions d'une interface utilisateur. Bien qu'elle enrichisse les interfaces utilisateur, la plasticité complexifie leur développement: la cohérence entre plusieurs versions d'une interface donnée (une pour chaque contexte d'utilisation) devrait être assurée. Étant donné le grand nombre de versions possibles d'une interface utilisateur, il est coûteux de vérifier ces exigences à la main. Des automatisations doivent être alors fournies afin de vérifier la plasticité.Cette complexité est accentuée quand il s'agit de systèmes critiques. Les systèmes critiques sont des systèmes dans lesquels une défaillance a des conséquences graves (par exemple, décès ou blessures de personnes, dommages à l'environnement, perte ou endommagement de l'équipement, etc.). La complexité de ces systèmes se reflète dans les interfaces utilisateur, qui doivent maintenant non seulement fournir des moyens corrects, intuitifs, non ambiguës et adaptables pour les utilisateurs pour atteindre un but, mais qui doivent aussi faire face aux exigences de sécurité visant à assurer que les systèmes sont raisonnablement sûrs avant d'être mis sur le marché.Plusieurs techniques existent afin d'assurer la qualité des systèmes en général, qui peuvent être également appliquées pour les systèmes critiques. La vérification formelle fournit un moyen d'effectuer une vérification rigoureuse, qui est adaptée pour les systèmes critiques. Notre contribution est une approche de vérification des systèmes interactifs critiques et plastiques à l'aide de méthodes formelles. Avec l'utilisation d'un outil performant, notre approche permet :- La vérification d'ensembles de propriétés sur un modèle du système. Reposant sur la technique de "model checking", notre approche permet la vérification de propriétés sur la spécification formelle du système. Les propriétés d'utilisabilité permettent de vérifier si le système suit de bonnes propriétés ergonomiques. Les propriétés de validité permettent de vérifier si le système suit les exigences qui spécifient son comportement attendu.- La comparaison des différentes versions du système. Reposant sur la technique "d'équivalence checking", notre approche vérifie dans quelle mesure deux interfaces utilisateur offrent les mêmes capacités d'interaction et la même apparence. Nous pouvons ainsi montrer si deux modèles d'une interface utilisateur sont équivalents ou non. Dans le cas où ils ne sont pas équivalents, les divergences de l'interface utilisateur sont listées, offrant ainsi la possibilité de les sortir de l'analyse. De plus, l'approche permet également de montrer qu'une interface utilisateur peut contenir au moins toutes les capacités d'interaction d'une autre interface utilisateur.Nous présentons également dans cette thèse trois études de cas industriels dans le domaine des centrales nucléaires dans lesquelles l'approche a été appliquée. Ces études de cas montrent ainsi de nouvelles applications des méthodes formelles dans un contexte industriel. / The advent of ubiquitous computing and the increasing variety of platforms and devices change user expectations in terms of user interfaces. Systems should be able to adapt themselves to their context of use, i.e., the platform (e.g. a PC or a tablet), the users who interact with the system (e.g. administrators or regular users), and the environment in which the system executes (e.g. a dark room or outdoor). The capacity of a UI to withstand variations in its context of use while preserving usability is called plasticity.Plasticity provides users with different versions of a UI. Although it enhances UI capabilities, plasticity adds complexity to the development of user interfaces: the consistency between multiple versions of a given UI should be ensured. Given the large number of possible versions of a UI, it is time-consuming and error prone to check these requirements by hand. Some automation must be provided to verify plasticity.This complexity is further increased when it comes to UIs of safety-critical systems. Safety-critical systems are systems in which a failure has severe consequences. The complexity of such systems is reflected in the UIs, which are now expected not only to provide correct, intuitive, non-ambiguous and adaptable means for users to accomplish a goal, but also to cope with safety requirements aiming to make sure that systems are reasonably safe before they enter the market.Several techniques to ensure quality of systems in general exist, which can also be used to safety-critical systems. Formal verification provides a rigorous way to perform verification, which is suitable for safety-critical systems. Our contribution is an approach to verify safety-critical interactive systems provided with plastic UIs using formal methods. Using a powerful tool-support, our approach permits:-The verification of sets of properties over a model of the system. Using model checking, our approach permits the verification of properties over the system formal specification. Usability properties verify whether the system follows ergonomic properties to ensure a good usability. Validity properties verify whether the system follows the requirements that specify its expected behavior.-The comparison of different versions of UIs. Using equivalence checking, our approach verifies to which extent UIs present the same interaction capabilities and appearance. We can show whether two UI models are equivalent or not. When they are not equivalent, the UI divergences are listed, thus providing the possibility of leaving them out of the analysis. Furthermore, the approach shows that one UI can contain at least all interaction capabilities of another.We also present in this thesis three industrial case studies in the nuclear power plant domain which the approach was applied to, providing additional examples of successful use of formal methods in industrial systems.
60

Le concept de soi : voie d’épanouissement ou d’emprisonnement du capital social?

Richer, Céline January 2012 (has links)
La présente étude vise à mieux comprendre quelle dynamique corrélationnelle s’inscrit entre le concept de soi d’un individu et son capital social. La théorie de la vérification de soi (Swann, 1987) sous-tend que les individus ont tendance à s’entourer de gens qui confirment leur vision d’eux même, dans le but de pouvoir prédire et contrôler leur environnement. On peut alors se demander si la personne dont le soi est tapissé de représentations négatives a précisément la capacité de se construire un réseau social qui constituera véritablement un « capital » relationnel pour elle. Un design méthodologique corrélationnel a été utilisé afin d’évaluer les liens de concomitance entre les indicateurs des construits « concept de soi » et « capital social. » Les résultats d’analyses statistiques corrélationnelles entre les indicateurs confirment, en grande partie, l’hypothèse de départ, à savoir que plus une personne nourrit un concept de soi sain, plus elle génère un capital social riche. Les implications pratiques et théoriques sont discutées.

Page generated in 0.1134 seconds