1 |
Stratégies de recherche et de traitement de l'information dans des environnements informatiques et sentiment d'efficacité personnelle des futurs enseignants à l'égard de ces stratégiesFournier, Hélène January 2007 (has links) (PDF)
Le but de la présente étude est de tracer un portrait des stratégies de recherche et de traitement de l'information (RTl) et du sentiment d'efficacité personnelle des futurs enseignants à l'égard de ces stratégies dans les environnements informatiques. Pour ce faire, nous avons décrit les stratégies de RTl selon les étapes inspirées des modèles de Hill (1999) et de Kuhlthau (1993). Par la suite, nous avons analysé le sentiment d'efficacité personnelle des futurs enseignants à utiliser un environnement informatique tel qu'Internet. Finalement, nous avons vérifié l'efficacité réelle des stratégies de RTl dans les environnements informatiques pendant la réalisation de neuf activités de RTl. Une méthode mixte jumelant l'enquête et une étude de dix cas est choisie afin d'obtenir des perspectives différentes en lien avec les trois objectifs de recherche de la présente étude. Dans cette visée, des outils tels que le questionnaire, l'observation et l'entrevue sont retenus. Premièrement, dans le cadre de l'enquête, nous utilisons le questionnaire, Research Process Survey (RPS) de Kracker (2002) afin de décrire la perception des stratégies affectives et cognitives associées à un processus de recherche selon les différentes étapes d'une recherche d'information. Afin de mesurer le sentiment d'efficacité personnelle à utiliser un environnement informatique tel qu'Internet, une section du questionnaire Online Technologies Self-efficacy Scale (OTSES) de Miltiadou et Chong Ho (2000) a été retenue. L'enquête a été effectuée auprès de 134 futurs enseignants de l'Université du Québec à Trois-Rivières (UQTR). Dans un deuxième temps, les données proviennent de l'observation de neuf activités de RTl dans les environnements informatiques. Ces activités de RTl ont été effectuées par les sujets de l'enquête ayant manifesté leur intérêt (10 participantes). Ces activités ont amené une analyse qualitative des stratégies de RTl utilisées et de l'efficacité réelle de ces dernières. Le moyen privilégié consiste à réaliser des activités de RTl à trois niveaux de complexité (simple, modérée et complexe). L'ensemble de ces activités fait appel à des stratégies de recherche et de traitement et l'intégration de l'information. Finalement, les données provenant du protocole de la pensée à voix haute et de l'entrevue individuelle semi dirigée ont l'avantage d'être révélatrices et riches sur le plan descriptif afin de mieux comprendre le processus de recherche et du traitement de l'information dans un environnement informatique. En fait, puisque l'entrevue individuelle a lieu immédiatement après les activités de RTl, chacune des participantes valide et complète les observations recueillies. Pour répondre à la première question de recherche portant sur la description des stratégies de RTl dans les environnements informatiques, les résultats de l'enquête montrent qu'il n'y a pas une grande dispersion des réponses obtenues des futurs enseignants participant à l'étude entre les différentes étapes du processus de recherche ni pour les stratégies cognitives, ni pour les stratégies affectives. Les données provenant de l'étude de cas montrent, quant à elles, une grande variété de stratégies cognitives et de stratégies affectives selon les étapes du processus de recherche dans les environnements informatiques.
Ainsi, la description détaillée des stratégies cognitives met en lumière ce que font des futurs enseignants lors de la réalisation d'activités de RTl dans les environnements informatiques. À l'étape 1 « Initiation de la recherche », la majorité des participantes ne tiennent pas compte de l'étape de planification. L'étape 2 « Recherche de l'information » amène des stratégies cognitives très variées. On remarque la tendance des participantes à utiliser les moteurs de recherche Internet plutôt que le catalogue de la bibliothèque de l'UQTR ou les banques de données. On remarque aussi, chez la plupart des participantes, la non utilisation des liens booléens et la prédominance d'une stratégie d'« essais et erreurs ». À l'étape 3 « Exécution de la recherche » qui fait référence à l'exploration, la localisation et l'accès à l'information, les résultats montrent que plusieurs participantes aux activités de RTl n'explorent pas en profondeur les sites que les différents moteurs de recherche mettent à leur disposition. En ce qui concerne les stratégies cognitives à l'étape 4 « Collecte de l'information », il est intéressant de remarquer que les étudiants universitaires conservent leurs habitudes acquises antérieurement, comme consulter les premiers sites ou les premières références proposés par les moteurs de recherche. Par ailleurs, il semble que les stratégies à cette étape ressemblent aux habitudes de lecture dans les environnements documentaires traditionnels, par exemple, choisir les titres et les sous-titres ou les tables de matières. On constate qu'à l'étape 5 « Évaluation de l'information » que les participantes aux activités de RTl rapportent une grande variété de stratégies liées à l'évaluation de l'information. Nous pouvons penser que le phénomène de la désirabilité sociale peut avoir joué un rôle. Par ailleurs, il est à noter que certaines stratégies liées à l'évaluation de l'information montrent une efficacité douteuse telles que se fier à sa première impression pour évaluer de l'information ou vérifier la présentation globale (tour d'horizon). Pour conserver l'information, apprendre par coeur les adresses des sites sur Internet ne semble pas non plus un choix judicieux. Nous constatons que les stratégies pour transformer et intégrer l'information semblent identiques pour toutes les participantes: utiliser la fonction « copier/coller » et reformuler en ses mots l'information trouvée sont deux stratégies souvent mentionnées par les participantes. Parmi les autres stratégies liées à cette étape, on retrouve: travailler à partir de la documentation sur papier (impriment les informations), contrairement à d'autres qui travaillent directement à l'ordinateur. Pour les critères d'éthique, les participantes mentionnent la stratégie suivante: citer les sources selon les règles de présentation d'un guide. Cependant, il faut souligner qu'aucune participante aux activités de RTl n'a vérifié les droits de reproduction des informations durant les activités proposées. La description détaillée des stratégies affectives, tout en n'étant pas facile à réaliser, offre une première ouverture sur les stratégies de la motivation et d'adaptation qui accompagnent un processus de RTl dans les environnements informatiques. Cet aspect affectif, souvent absent dans des recherches précédentes, met en évidence le rôle actif des futurs enseignants lors d'une activité de RTl. En ce qui concerne les stratégies affectives, les résultats de l'enquête et de l'étude de cas montrent que la majorité des futurs enseignants participant à notre étude sont confiants à commencer une activité de recherche et cette confiance se perçoit à toutes les étapes du processus de recherche. Dans l'ensemble, ils semblent aussi satisfaits du processus que du produit. Les participantes aux activités de RTl quant à elles relèvent certaines stratégies spécifiques telles que fournir les efforts pour réussir ou être tenace, être curieuse et éviter les sites qui désorientent. De plus, les résultats recueillis à propos du sentiment d'efficacité personnelle des futurs enseignants à l'égard des stratégies de RTl dans les environnements informatiques montrent une perception positive pour des étudiants universitaires finissant leur scolarité. La majorité des futurs enseignants ayant participé à l'enquête se sentent efficaces à utiliser les fonctions des environnements informatiques liées directement à la RTl de même que celles étant connexes sauf pour la fonction, créer une page Web. L'analyse de l'efficacité réelle des stratégies de RTl dans les environnements informatiques montre que la majorité des participantes ont réussi à rencontrer les critères de réussite des activités de RTl dans les environnements informatiques. Cependant, certaines lacunes ont été observées, par exemple, pour choisir des outils de recherche ou des descripteurs adaptés, pour limiter les résultats de recherche ou pour évaluer et conserver l'information.
Bien que présentant certaines limites, cette recherche a le mérite, entre autres, de documenter le processus de RTl dans les environnements informatiques en précisant des dimensions présentes dans la recension des écrits, par exemple, la difficulté de planification et d'en identifier d'autres telle que la barrière linguistique. De plus, cette recherche offre un potentiel de retombées pour la formation initiale. Elle permet d'apporter des connaissances susceptibles d'alimenter la formation des futurs enseignants à l'égard du processus de RTl dans les environnements informatiques. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Éducation, Formation des enseignants, Recherche et traitement de l'information, Auto-efficacité, Environnement informatique.
|
2 |
Structured and collaborative search: an integrated approach to share documents among usersFrancq, Pascal 02 June 2003 (has links)
<p align="justify">Aujourd'hui, la gestion des documents est l'un des problèmes les plus importants en informatique. L'objectif de cette thèse est de proposer un système de gestion documentaire basé sur une approche appelée recherche structurée et collaborative. Les caractéristiques essentielles sont :</p>
<ul><li><p align="justify">Dès lors que les utilisateurs ont plusieurs centres d'intérêts, ils sont décrits par des profils, un profil correspondant à un centre d'intérêt particulier. C'est la partie structurée du système.</li>
</p>
<li><p align="justify">Pour construire une description des profils, les utilisateurs jugent des documents en fonction de leur intérêt</li>
</p>
<li><p align="justify">Le système regroupe les profils similaires pour former un certain nombre de communautés virtuelles</li></p>
<li><p align="justify">Une fois les communautés virtuelles définies, des documents jugés comme intéressants par certains utilisateurs d'une communauté peuvent être partagés dans toute la communauté. C'est la partie collaborative du système.</p>
</li></ul>
<p align="justify">Le système a été validé sur plusieurs corpora de documents en utilisant une méthodologie précise et offre des résultats prometteurs.</p>
|
3 |
Reusability and hierarchical simulation modeling of communication systems for performance evaluationMrabet, Radouane 12 June 1995 (has links)
<p align="justify">The main contribution of this thesis is the emphasis made on the reusability concept, on one side, for designing a simulation environment, and on the other side, for defining two different levels of granularity for reusable network component libraries.</p>
<p align="justify">The design of our simulation environment, called AMS for Atelier for Modeling and Simulation, was based on existing pieces of software, which proved their usefulness in their respective fields. In order to carry out this integration efficiently, a modular structure of the atelier was proposed. The structure has been divided into four phases. Each phase is responsible of a part of the performance evaluation cycle. The main novelty of this structure is the usage of a dedicated language as a means to define a clear border between the editing and simulation phases and to allow the portability of the atelier upon different platforms. A prototype of the atelier has been developed on a SUN machine running the SunOs operating system. It is developed in C language.</p>
<p align="justify">The kernel of the AMS is its library of Detailed Basic Models (DBMs). Each DBM was designed in order to comply with the most important criterion which is reusability. Indeed, each DBM can be used in aeveral network architectures and can be a component of generic and composite models. Before the effective usage of a DBM, it is verified and validated in order to increase the model credibility. The most important contribution of this research is the definition of a methodology for modeling protocol entities as DBMs. We then tried to partly bridge the gap between specification and modeling. This methodology is based on the concept of function. Simple functions are modeled as reusable modules and stored into a library. The Function Based Methodology was designed to help the modeler to build efficiently and rapidly new protocols designed for the new generation of networks where several services can be provided. These new protocols can be dynamically tailored to the user' s requirements.</p>
|
4 |
Conception d'un environnement de simulation intelligent. Application à la thermique du bâtimentEl Hassar, Sidi Mohamed Karim 15 December 1992 (has links) (PDF)
Ce travail de thèse s'insère dans le cadre plus général du développement par le Centre Scientifique et Technique du Bâtiment d'un Environnement de Simulation Intelligent destiné à faciliter l'accès aux logiciels de calculs scientifiques dans le secteur Bâtiment. Il s'agit d'un programme pluriannuel de recherches dont les objectifs sont de mettre à la disposition des professionnels de nouveaux outils d'aide à la conception et d'aide à l'analyse des systèmes "Bâtiments", basés sur la simulation numérique suivant divers points de vue (thermique, acoustique, structure, etc.). Le présent travail de recherche s'articule donc avec d'autres travaux menés en parallèle sur le même thème. Dans ce contexte, les objectifs fixés sont de trois ordres : - contribuer à la définition des spécifications de l'environnement de simulation générique notamment en analysant le processus de modélisation/simulation et en proposant des solutions pour la réalisation du dialogue Homme/machine ; - réaliser une application concrète que l'on peut considérer comme une phase expérimentale de mise en oeuvre des concepts développés ; cette application est réalisée autour du logiciel de calculs thermiques TRNSYS ; - définir, pour de tels environnements, les possibilités d'utilisation des systèmes à bases de connaissances (buts et moyens, évaluation de la pertinence des solutions). Après une première partie consacrée aux réflexions conceptuelles générales menées sur la base d'une analyse bibliographique et aux analyses nécessaires à la réalisation de l'application, la seconde partie du travail est consacrée à l'application proprement dite ; un environnement dénommé IISIBât (Interface Intelligente pour la Simulation dans le Bâtiment) est développé suivant les concepts précédemment définis ; dans une première phase, la stratégie de développement d'une telle interface est précisée ; le processus de conception est fondé sur la mise en oeuvre séquentielle de quatre modèles : les modèles cognitif, conceptuel, structurel et perceptif. Le modèle cognitif met en évidence les tâches que l'utilisateur est amené à réaliser dans le cadre d'un outil de simulation ; le processus de modélisation/simulation est décortiqué en ses diverses étapes ; ce travail permet de définir une interface homme/machine possible (et en particulier les outils nécessaires) spécialisée pour ce type de process. Le modèle conceptuel identifie les objets génériques sur lesquels se fonde l'interface, les fonctions rattachées à ces objets, et la représentation graphique de ces objets. Le modèle structurel s'intéresse à l'implémentation proprement dite. Le modèle perceptif représente la façon dont l'utilisateur perçoit le système final ; ce modèle conduit à une analyse critique des choix effectués et à la proposition d'améliorations. Au final, l'application réalisée (IISIBât- TRNSYS) permet de juger de la pertinence des concepts développés tant du point de vue du fond que des méthodes utilisées ; ainsi, l'intérêt de l'application développée pour des utilisateurs "développeurs de modèles" ou "créateurs de projets" a pu être démontré ; par ailleurs, il s'est avéré que cette application ne possédait pas toutes les fonctionnalités nécessaires à une utilisation efficace par des utilisateurs terminaux (analystes de systèmes) ; pour combler ces manques, il faut rajouter à l'interface des mécanismes de raisonnement. La dernière partie de ce travail s'intéresse à l'introduction au sein de l'application interactive de mécanismes de raisonnement faisant appel à des bases de connaissances.
|
5 |
Ordonnancement efficace de systèmes embarqués temps réel strict sur plates-formes hétérogènesPoczekajlo, Xavier 30 October 2020 (has links) (PDF)
Les systèmes embarqués sont de plus en plus présents dans notre quotidien, à l’instar des téléphones ou des équipements des voitures modernes. Les systèmes embarqués modernes utilisent des plates-formes de plus en plus complexes. Après avoir longtemps utilisé un seul processeur, les plates-formes modernes peuvent désormais contenir plusieurs processeurs. Depuis quelques années, afin de continuer à améliorer la performance de ces systèmes à moindre coût, certaines de ces plates-formes embarquent désormais plusieurs processeurs différents, parfois même capables de modifier rapidement leurs caractéristiques pendant l’exécution du système. C’est ce qu’on appelle des plates-formes hétérogènes.Cette thèse traite de l’ordonnancement d’applications temps réel strict pour des plates-formes hétérogènes reconfigurables. Établir une polituqe d’ordonnancement consiste à garantir l’exécution d’ensembles de tâches récurrentes, avec le respect des contraintes temporelles de chaque tâche. Dans un contexte de temps réel strict, une tâche doit nécessairement être pleinement exécutée avant son échéance. Tout retard pourrait compromettre la sécurité du système ou des utilisateurs.Produire un ordonnancement temps réel strict efficace pour de telles plates-formes hétérogènes est particulièrement difficile. En effet, la vitesse d’exécution d’un processeur d’une telle plates-forme dépend à la fois du type du processeur et de la tâche exécutée. Cela rend les tâches difficilement interchangeables et augmente ainsi considérablement la complexité des polituqes d’ordonnancement. De plus, le coût d’une migration – le déplacement d’une tâche en cours d’exécution – d’un processeur à un autre est élevé, ce qui peut rendre les polituqes d’ordonnancement peu efficaces en pratique.Dans cette thèse, deux voies sont explorées pour tirer parti des possibilités offertes par ces plates-formes hétérogènes. Tout d’abord, en proposant un ordonnanceur dit global, qui permet une utilisation théorique de l’entièreté de la plates-forme. Pour atteindre cet objectif, nous isolons différents sous-problèmes, en suivant un schéma établi par la littérature existante. Pour chaque sous-problème, nous proposons une amélioration significative par rapport à l’état de l’art. L’ensemble constitue un nouvel ordonnanceur. Une évaluation empirique montre que ses performances sont bien supérieures à celles des ordonnanceurs existants. De plus, la polituqe d’ordonnancement proposée a une meilleure applicabilité, car elle réduit le nombre de migrations d’un processeur à un autre.Une deuxième voie explorée est le paradigme d’application dite multimode. Nous proposons ici le premier modèle où le matériel comme le logiciel peuvent être modifiés pendant l’exécution de l’application, afin de s’adapter au contexte dans lequel elle se trouve. Enfin, deux nouveaux protocoles utilisant ce modèle sont proposés et évalués. Il est montré théoriquement et empiriquement que ces protocoles présentent une faible complexité et de bonnes performances, et correspondent donc au besoin d’applications réelles. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
|
6 |
Automated modeling and implementation of power converters on a real-time FPGA-based emulatorDe Cuyper, Kevin 07 December 2015 (has links) (PDF)
Designing a new power electronic conversion system is a multi-step process that requires the R\&D team(s) to go through an extended prototyping phase whose goal is to validate the design in its nominal state, as well as to test its behavior when it is subjected to abnormal conditions. To properly and safely validate all devices that are external to the power stage itself, such as the controllers and the protection systems, one of the best-suited device is a real-time emulator of the converter circuit, a platform that obeys the same mathematical laws and produces the same signals as the original device withoutactually realizing the power conversion. Unfortunately, these models are often based on analog solvers which are difficult to build, must be redesigned for each modification and are subject to drift and aging. While multiple digital real-time emulators have appeared on the market in the last decades, they typically require powerful and expensive computing platforms to perform their calculations or are not generic enough to emulate the more complex power circuits. In this work, we present a new framework that allows the rapid prototyping of a wide range of power converters by translating a power converter schematic drawn on a computer to a real-time equivalent set of equations which is processed by an FPGA with an emulation time-step of less than one microsecond. Contrary to the previously published works, our tools enable the use of entry-level FPGAs even for the emulation circuits composed of twenty switches or more. This framework takes the form of a tool-chain that starts by extracting the necessary information and a standard description from the initial circuit. However, due to the intricate ways in which the switches and diodes can change their state, this raw information is too complex to be processed and emulated directly.Our first major contribution to the state of the art is a way to automatically analyze these changes in order to reduce the complexity of the problem as much as possible while keeping all the necessary information intact. In this thesis, we develop two tools that are able to find all possible changes in the state of the switches that may appear in the immediate future, thereby reducing the quantity of information required to emulate the circuit. Thanks to the global optimization provided by our tools, simulating a typical AC-to-DC converter composed of 12 switches could require 80\% less resources when compared to existing emulators.To enable the emulation or large power converters, we have created a partitioning method which divides the circuit in multiple sub-circuits which are analyzed and optimized separately. The performances of this partitioning are demonstrated by the emulation of a three-phase three-level converter with a relative error of a less that 5% on the signals.To handle our new framework, a dedicated digital platform has been developed. In order to provide the best results even on small FPGAs, particular attention is given to the low resources usage and the low latency of our design. Through multiple examples, we show that this inexpensive real-time emulation platform is able to accurately emulate many circuits in open- or closed-loop operation with a sampling rate higher than 1 MHz / Doctorat en Sciences de l'ingénieur et technologie / info:eu-repo/semantics/nonPublished
|
7 |
Optimisation of Performance Metrics of Embedded Hard Real-Time Systems using Software/Hardware ParallelismPaolillo, Antonio 17 October 2018 (has links)
Optimisation of Performance Metrics of Embedded Hard Real-Time Systems using Software/Hardware Parallelism. Nowadays, embedded systems are part of our daily lives.Some of these systems are called safetycritical and have strong requirements in terms of safety and reliability.Additionally, these systems must have a long autonomy, good performance and minimal costs.Finally, these systems must exhibit predictable behaviour and provide their results within firm deadlines.When these different constraints are combined in the requirement specifications of a modern product, classic design techniques making use of single core platforms are not sufficient.Academic research in the field of real-time embedded systems has produced numerous techniques to exploit the capabilities of modern hardware platforms.These techniques are often based on using parallelism inherently present in modern hardware to improve the system performance while reducing the platform power dissipation.However, very few systems existing on the market are using these state-of-the-art techniques.Moreover, few of these techniques have been validated in the context of practical experiments.In this thesis, we realise the study of operating system level techniques allowing to exploit hardware parallelism through the implementation of parallel software in order to boost the performance of target applications and to reduce the overall system energy consumption while satisfying strict application timing requirements.We detail the theoretical foundations of the ideas applied in the dissertation and validate these ideas through experimental work.To this aim, we use a new Real-Time Operating System kernel written in the context of the creation of a spin-off of the Université libre de Bruxelles.Our experiments are based on the execution of applications on the operating system which run on a real-world platform for embedded systems.Our results show that, compared to traditional design techniques, using parallel and power-aware scheduling techniques in order to exploit hardware and software parallelism allows to execute embedded applications with substantial savings in terms of energy consumption.We present future and ongoing research work that exploit the capabilities of recent embedded platforms.These platforms combine multi-core processors and reconfigurable hardware logic, allowing further improvements in performance and energy consumption. / Optimisation de Métriques de Performances de Systèmes Embarqués Temps Réel Durs par utilisation du Parallélisme Logiciel et Matériel. De nos jours, les systèmes embarqués font partie intégrante de notre quotidien.Certains de ces systèmes, appelés systèmes critiques, sont soumis à de fortes contraintes de fiabilité et de robustesse.De plus, des contraintes de coûts, d’autonomie et de performances s’additionnent à la fiabilité.Enfin, ces systèmes doivent très souvent respecter des délais très stricts de façon prédictible.Lorsque ces différentes contraintes sont combinées dans le cahier de charge d’un produit, les techniques classiques de conception consistant à utiliser un seul cœur d’un processeur ne suffisent plus.La recherche académique dans le domaine des systèmes embarqués temps réel a produit de nombreuses techniques pour exploiter les plate-formes modernes.Ces techniques sont souvent basées sur l’exploitation du parallélisme inhérent au matériel pour améliorer les performances du système et la puissance dissipée par la plate-forme.Cependant, peu de systèmes existant sur le marché exploitent ces techniques de la littérature et peu de ces techniques ont été validées dans le cadre d’expériences pratiques.Dans cette thèse, nous réalisons l’étude des techniques, au niveau du système d’exploitation, permettant l’exploitation du parallélisme matériel par l’implémentation de logiciels parallèles afin de maximiser les performances et réduire l’impact sur l’énergie consommée tout en satisfaisant les contraintes temporelles strictes du cahier de charge applicatif. Nous détaillons les fondements théoriques des idées qui sont appliquées dans la dissertation et nous les validons par des travaux expérimentaux.A ces fins, nous utilisons le nouveau noyau d’un système d’exploitation écrit dans le cadre de la création d’une spin-off de l’Université libre de Bruxelles.Nos expériences, basées sur l’exécution d’applications sur le système d’exploitation qui s’exécute lui-même sur une plate-forme embarquée réelle, montre que l’utilisation de techniques d’ordonnancement exploitant le parallélisme matériel et logiciel permet de larges économies d’énergie consommée lors de l’exécution d’applications embarquées.De futurs travaux en cours de réalisation sont présentés.Ceux-ci exploitent des plate-formes innovantes qui combinent processeurs multi-cœurs et matériel reconfigurable, permettant d’aller encore plus loin dans l’amélioration des performances et les gains énergétiques. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
|
8 |
Reusability and hierarchical simulation modeling of communication systems for performance evaluation: Simulation environment, basic and generic models, transfer protocolsMrabet, Radouane 12 June 1995 (has links)
<p align="justify">The main contribution of this thesis is the emphasis made on the reusability concept, on one side, for designing a simulation environment, and on the other side, for defining two different levels of granularity for reusable network component libraries.</p><p><p align="justify">The design of our simulation environment, called AMS for Atelier for Modeling and Simulation, was based on existing pieces of software, which proved their usefulness in their respective fields. In order to carry out this integration efficiently, a modular structure of the atelier was proposed. The structure has been divided into four phases. Each phase is responsible of a part of the performance evaluation cycle. The main novelty of this structure is the usage of a dedicated language as a means to define a clear border between the editing and simulation phases and to allow the portability of the atelier upon different platforms. A prototype of the atelier has been developed on a SUN machine running the SunOs operating system. It is developed in C language.</p><p><p align="justify">The kernel of the AMS is its library of Detailed Basic Models (DBMs). Each DBM was designed in order to comply with the most important criterion which is reusability. Indeed, each DBM can be used in aeveral network architectures and can be a component of generic and composite models. Before the effective usage of a DBM, it is verified and validated in order to increase the model credibility. The most important contribution of this research is the definition of a methodology for modeling protocol entities as DBMs. We then tried to partly bridge the gap between specification and modeling. This methodology is based on the concept of function. Simple functions are modeled as reusable modules and stored into a library. The Function Based Methodology was designed to help the modeler to build efficiently and rapidly new protocols designed for the new generation of networks where several services can be provided. These new protocols can be dynamically tailored to the user' s requirements.</p><p> / Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished
|
9 |
Use of simulators for side-channel analysis: Leakage detection and analysis of cryptographic systems in early stages of developmentVeshchikov, Nikita 23 August 2017 (has links) (PDF)
Cryptography is the foundation of modern IT security,it provides algorithms and protocols that can be usedfor secure communications. Cryptographic algorithmsensure properties such as confidentiality and data integrity.Confidentiality can be ensured using encryption algorithms.Encryption algorithms require a secret information called a key.These algorithms are implemented in cryptographic devices.There exist many types of attacks against such cryptosystems,the main goal of these attacks is the extraction of the secret key.Side-channel attacks are among the strongest types of attacksagainst cryptosystems. Side-channel attacks focus on the attacked device, they measure its physicalproperties in order to extract the secret key. Thus, these attacks targetweaknesses in an implementation of an algorithm rather than the abstract algorithm itself.Power analysis is a type of side-channel attacks that can be used to extract a secretkey from a cryptosystem through the analysis of its power consumption whilethe target device executes an encryption algorithm. We can say that the secret information is leaking from the device through itspower consumption. One of the biggest challenges in the domain of side-channel analysisis the evaluation of a device from the perspective of side-channel attacksor in other words the detection of information leakage.A device can be subject to several sources of information leakageand it is actually relatively easy to find just one side-channel attack that works(by exploiting just one source of leakage),however it is very difficult to find all sources of information leakage or to show that there is no information leakage in the givenimplementation of an encryption algorithm. Evaluators use various statistical tests during the analysis of a cryptographic device to checkthat it does not leak the secret key. However, in order to performsuch tests the evaluation lab needs the device to acquire the measurementsand analyse them. Unfortunately, the development process of cryptographicsystems is rather long and has to go through several stages. Thus, an information leakagethat can lead to a side-channel attackcan be discovered by an evaluation lab at the very last stage using the finalproduct. In such case, the whole process has to be restarted in order to fix the issue,this can lead to significant time and budget overheads. The rationale is that developers of cryptographic systems would like to be able to detect issues related to side-channel analysis during the development of the system,preferably on the early stages of its development. However, it is far from beinga trivial task because the end product is not yet available andthe nature of side-channel attacks is such that it exploits the properties ofthe final version of the cryptographic device that is actually available to the end user. The goal of this work is to show how simulators can be used for the detection of issues related to side-channel analysis during the development of cryptosystems.This work lists the advantages of simulators compared to physical experimentsand suggests a classification of simulators for side-channel analysis.This work presents existing simulators that were created for side-channel analysis,more specifically we show that there is a lack of available simulation toolsand that therefore simulators are rarely used in the domain. We present threenew open-source simulators called Silk, Ascold and Savrasca.These simulators are working at different levels of abstraction,they can be used by developers to perform side-channel analysisof the device during different stages of development of a cryptosystem.We show how Silk can be used during the preliminary analysisand development of cryptographic algorithms using simulations based on high level of abstraction source code. We used it to compare S-boxesas well as to compare shuffling countermeasures against side-channel analysis.Then, we present the tool called Ascold that can be used to find side-channel leakagein implementations with masking countermeasure using the analysis of assembly code of the encryption.Finally, we demonstrate how our simulator called Savrasca can be used to find side-channelleakage using simulations based on compiled executable binaries. We use Savrascato analyse masked implementation of a well-known contest on side-channel analysis (the 4th edition of DPA Contest),as a result we demonstrate that the analysed implementation contains a previouslyundiscovered information leakage. Through this work we alsocompared results of our simulated experiments with real experiments comingfrom implementations on microcontrollers and showed that issues found using our simulatorsare also present in the final product. Overall, this work emphasises that simulatorsare very useful for the detection of side-channel leakages in early stages of developmentof cryptographic systems. / Option Informatique du Doctorat en Sciences / info:eu-repo/semantics/nonPublished
|
10 |
Un environnement d'aide aux ingénieurs basé sur une architecture en tâches et sur un module de visualisation de courbes. Application à la conception de procédés de raffinageWahl, François 05 December 1994 (has links) (PDF)
Dans le domaine du génie chimique, les ingénieurs tracent des courbes pour analyser les données recueillies. Une fois validée, cette connaissance est exploitée, en combinaison avec d'autres savoirs, sous forme de tâches. Cette thèse présente une architecture capable d'enchaîner n'importe quel type de tâches et de visualiser des courbes, appliquée à un problème d'aide à la conception de procédé de raffinage. L'architecture proposée repose sur une analyse objets des raisonnements, où figurent les notions de relations (inversibles ou non) et de flux du point de vue statique, de problèmes et de tâches du point de vue dynamique. Le module de visualisation exploite toutes les sortes de relations entre les variables et s'appuie sur des méthodes élaborées de tracé, dont deux sont nouvelles : la première s'inspire d'exemples a priori comme dans le raisonnement à base de cas, la seconde utilise les notions de monotonie et de concavité pour déduire des lignes dans un ensemble de points. L'application est exposée dans le détail et conduit à une analyse des problèmes de conception, et nous avons développé notamment une nouvelle classification de ces systèmes.
|
Page generated in 0.0771 seconds