• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 422
  • 171
  • 72
  • 2
  • 1
  • 1
  • Tagged with
  • 721
  • 336
  • 296
  • 278
  • 254
  • 246
  • 243
  • 144
  • 133
  • 92
  • 90
  • 82
  • 79
  • 69
  • 68
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
521

Un meta-modèle de composants pour la réalisation d'applications temps-réel flexibles et modulaires / A component metamodel for the development of modular and flexible real-time applications

Rodrigues Americo, Joao Claudio 04 November 2013 (has links)
La croissante complexité du logiciel a mené les chercheurs en génie logiciel à chercher des approcher pour concevoir et projéter des nouveaux systèmes. Par exemple, l'approche des architectures orientées services (SOA) est considérée actuellement comme le moyen le plus avancé pour réaliser et intégrer rapidement des applications modulaires et flexibles. Une des principales préocuppations des solutions en génie logiciel et la réutilisation, et par conséquent, la généralité de la solution, ce qui peut empêcher son application dans des systèmes où des optimisation sont souvent utilisées, tels que les systèmes temps réels. Ainsi, créer un système temps réel est devenu très couteux. De plus, la plupart des systèmes temps réel ne beneficient pas des facilités apportées par le genie logiciel, tels que la modularité et la flexibilité. Le but de cette thèse c'est de prendre en compte ces aspects temps réel dans des solutions populaires et standards SOA pour faciliter la conception et le développement d'applications temps réel flexibles et modulaires. Cela sera fait à l'aide d'un modèle d'applications temps réel orienté composant autorisant des modifications dynamiques dans l'architecture de l'application. Le modèle de composant sera une extension au standard SCA qui intègre des attributs de qualité de service sur le consomateur et le fournisseur de services pour l'établissement d'un accord de niveau de service spécifique au temps réel. Ce modèle sera executé sur une plateforme de services OSGi, le standard de facto pour le developpement d'applications modulaires en Java. / The increase of software complexity along the years has led researchers in the software engineering field to look for approaches for conceiving and designing new systems. For instance, the service-oriented architectures approach is considered nowadays as the most advanced way to develop and integrate fastly modular and flexible applications. One of the software engineering solutions principles is re-usability, and consequently generality, which complicates its appilication in systems where optimizations are often used, like real-time systems. Thus, create real-time systems is expensive, because they must be conceived from scratch. In addition, most real-time systems do not beneficiate of the advantages which comes with software engineering approches, such as modularity and flexibility. This thesis aim to take real time aspects into account on popular and standard SOA solutions, in order to ease the design and development of modular and flexible applications. This will be done by means of a component-based real-time application model, which allows the dynamic reconfiguration of the application architecture. The component model will be an extension to the SCA standard, which integrates quality of service attributs onto the service consumer and provider in order to stablish a real-time specific service level agreement. This model will be executed on the top of a OSGi service platform, the standard de facto for development of modular applications in Java.
522

Cube : a decentralised architecture-based framework for software self-management / Cube : un framework décentralisé dirigé par l'architecture pour l'auto-gestion des logiciels

Debbabi, Bassem 28 January 2014 (has links)
Durant ces dernières années, nous avons assisté à une forte émergence de nouvelles technologies et environnements informatiques tels que le cloud computing, l'informatique ubiquitaire ou les réseaux de capteurs. Ces environnements ont permis d'élaborer de nouveaux types d'applications avec une forte valeur ajoutée pour les usagés. Néanmoins, ils ont aussi soulevés de nombreux défis liés notamment à la conception, au déploiement et à la gestion de cycle de vie des applications. Ceci est dû à la nature même de ces environnements distribués, caractérisés par une grande flexibilité, un dynamisme accru et une forte hétérogénéité des ressources. L'objectif principal de cette thèse est de fournir une solution générique, réutilisable et extensible pour l'auto-gestion de ces applications. Nous nous sommes concentrés sur la fourniture d'un support logiciel permettant de gérer à l'exécution les architectures et leur cycle de vie, notamment pour les applications à base de composants s'exécutant dans des environnements dynamiques, distributes et à grande échelle. De façon à atteindre cet objectif, nous proposons une solution synergique – le framework Cube – combinant des techniques issues de domaines de recherche adjacents tels que l'auto-organisation, la satisfaction de contraintes, l'auto-adaptation et la reflexion fondée sur les modèles architecturaux. Dans notre solution, un ensemble de gestionnaires autonomiques décentralisés s'auto-organise de façon à construire et gérer une application cible en s'appuyant sur une description partagée des buts de l'application. Cette description formelle, appelé Archetype, prend la forme d'un graphe orienté exprimant les différents éléments de l'architecture et un ensemble de contraintes. Un prototype du framework Cube a été implanté dans le domaine particulier de la médiation. Des expériences ont été conduites dans le cadre de deux projets de recherché nationaux: Self-XL et Medical. Les résultats obtenus démontrent la validité de notre approche pour créer, réparer et adapter des applications à base de composants s'exécutant dans des environnements distribués, dynamiques et hétérogènes. / In recent years, the world has witnessed the rapid emergence of several novel technologies and computing environments, including cloud computing, ubiquitous computing and sensor networks. These environments have been rapidly capitalised upon for building new types of applications, and bringing added-value to users. At the same time, the resulting applications have been raising a number of new significant challenges, mainly related to system design, deployment and life-cycle management during runtime. Such challenges stem from the very nature of these novel environments, characterized by large scales, high distribution, resource heterogeneity and increased dynamism. The main objective of this thesis is to provide a generic, reusable and extensible self-management solution for these types of applications, in order to help alleviate this stringent problem. We are particularly interested in providing support for the runtime management of system architecture and life-cycle, focusing on applications that are component-based and that run in highly dynamic, distributed and large-scale environments. In order to achieve this goal, we propose a synergistic solution – the Cube framework – that combines techniques from several adjacent research domains, including self-organization, constraint satisfaction, self-adaptation and self-reflection based on architectural models. In this solution, a set of decentralised Autonomic Managers self-organize dynamically, in order to build and administer a target application, by following a shared description of administrative goals. This formal description, called Archetype, contains a graph-oriented specification of the application elements to manage and of various constraints associated with these elements. A prototype of the Cube framework has been implemented for the particular application domain of data-mediation. Experiments have been carried-out in the context of two national research projects: Self-XL and Medical. Obtained results indicate the viability of the proposed solution for creating, repairing and adapting component-based applications running in distributed volatile and evolving environments.
523

Création automatisée de Scénarios de Formation pour l'enseignement d'activités métier dans un environnement informatique modulaire / Automated Creation of Learning Scenarios for Professional Activities Training in a Modular Computing Environment

Duval, Yohan 07 April 2017 (has links)
Les travaux effectués durant cette thèse s'inscrivent dans une problématique assez commune de nos jours : proposer de nouvelles méthodes de formation afin de s'adapter à l'évolution des besoins de la société et aux nouvelles technologies disponibles. En particulier, notre étude se focalise sur le besoin de formation à des activités métier de divers domaines (médical, automobile, aéronautique, etc.) de plus en plus complexes. Alors qu'il existe à l'heure actuelle des outils adaptés pour l'enseignement d'activités impliquant des actions avec des objets du monde réel (jeux sérieux), et d'autres outils adaptés pour l'enseignement d'activités se déroulant intégralement dans une application informatique (tutoriels de logiciel), il n'existe pas d'outil permettant d'enseigner des activités mêlant ces deux types d'opération. Dans ce mémoire, nous décrivons donc tout d'abord les différents travaux menés afin de répondre à cette première problématique. Après avoir étudié les caractéristiques respectives des Jeux Sérieux et des tutoriels de logiciel, nous formalisons l'outil de formation que nous avons conçu afin d'homogénéiser l'utilisation de ces deux catégories d'application dans un seul et même environnement. Nous introduisons alors les notions d'Environnement de Formation et de Scénario de Formation, qui font respectivement la distinction entre l'environnement dans lequel évoluent les apprenants au fur et à mesure des leçons, et la description formelle des activités à réaliser ainsi que des éléments pédagogiques et ludiques qui leurs sont liés.Cependant, le développement d'un tel outil représente une tâche particulièrement ardue pour les formateurs qui ne possèdent souvent pas l'expertise informatique requise. Cette observation vient en contradiction avec le fait que ces mêmes formateurs doivent être impliqués dans le processus de développement, du fait qu'ils possèdent à la fois l'expertise métier et l'expertise pédagogique liées aux activités métier à enseigner. Ainsi, l'étude de méthodes et d'environnements permettant de faciliter la création de tels outils constitue un deuxième axe de recherche de notre thèse. Suite à l’analyse un ensemble de langages textuels et graphiques, nous proposons dans un premier temps un langage dédié permettant de décrire nos Scénarios de Formation. Nous introduisons dans un second temps la représentation associée qui, à l'aide de plusieurs entités graphiques aux formes et à l'utilité bien définies, permet aux formateurs de décrire des scénarios en adéquation avec leurs compétences. Enfin, nous présentons l'environnement auteur permettant de faciliter la tâche aux formateurs grâce à diverses fonctionnalités d'automatisation et de capitalisation. L'ensemble de ces concepts forme la méthodologie globale que nous proposons dans cette thèse afin de rendre accessible la création de scénarios de formation aux formateurs.Finalement, ces différents travaux sont illustrés au travers de plusieurs applications ayant été implémentées afin de mettre en application nos contributions dans le contexte industriel du diagnostic automobile. Nous présentons et évaluons alors l'outil de formation et l'environnement auteur correspondants qui, ensemble, garantissent un processus industriel complet et plausible, depuis la création d'un scénario de formation jusqu'à son exécution. / The work carried out during this PhD thesis is related to a common issue these days: offering new training methods to adapt to the evolution of our society and to the new available technologies. Our study focuses on the necessity of training professional activities which take place in various domains (health, automotive, aeronautics, etc.), and which are becoming more and more complex. Nowadays, there are tools that are adapted to the training of activities involving interactions with objects from the real word (serious games), and there are other tools that are suitable for training activities which only involve the use of one or several business software applications (software tutorials). However, there are no fitting tools for training activities which involve both types of operation. In this manuscript, we first describe the work we performed to bring an answer to this problematic. After having studied the respective features of serious games and software tutorials, we formalize the training tool that we have designed to homogenize the use of these two application categories in a unique computer environment. We then introduce two notions. The first one is the notion of Training Environment, which stands for the environment in which trainees will progress to accomplish the different lessons being available through the tool. In a complementary manner, we define the notion of Training Scenario, which precisely is the formal description of one lesson in the Training Environment, with all its components: activities to be performed, pedagogical elements, and playful elements.However, the implementation of such a tool is a very complex task for trainers which often do not have the required computing expertise. This observation comes in contradiction with the fact that these very trainers must be involved in the development process, because they are the ones who own the professional expertise and the pedagogical expertise associated with the activities to be trained. Thus, the study of methods and environments easing the creation of such tools represent a second research axis for this thesis. After having analyzed a set of textual and graphical languages, we first propose a Domain Specific Modeling Language allowing the description of our Training Scenarios. Second, we introduce the associated representation which, thanks to several graphical entities well-defined, allows trainers to describe their own scenarios in line with their skills and expertise. Last, we present the authoring tool that allows to ease the scenario description task for trainers, thanks to various features which aim at automating the process and promoting reutilization. These concepts shape the global methodology that we propose in this manuscript to make training scenarios creation in trainers reach.Finally, these works are illustrated through the implementation of various applications which aims at putting into practice our contributions in the industrial context of automotive diagnostic. We then present and evaluate the corresponding training tool and authoring tool which together assure a complete and plausible industrial process, from the training scenario description to its execution.
524

Qualité de la conception de tests logiciels : plate-forme de conception et processus de test / Quality of the design of test cases for automotive software : design platform and testing process

Awedikian, Roy 06 February 2009 (has links)
L’électronique dans les voitures devient de plus en plus complexe et représente plus de 30% du coût global d’une voiture. Par exemple, dans une BMW série 5 modèle 2008, on peut trouver jusqu’à 80 calculateurs électroniques communiquant ensemble et représentant aux alentours de 10 millions de lignes de code logiciel. Face à cette montée en complexité, les constructeurs et équipementiers électroniques de l’automobile s’intéressent de plus en plus à des méthodes efficaces de développement, vérification et validation de modules électroniques. Plus précisément, ils focalisent leurs efforts sur la partie logicielle de ces modules puisqu’elle est à l’origine de plus de 80% des problèmes détectés sur ces produits. Dans ce contexte, nous avons mené un travail de recherche dont l’objectif est de proposer une approche globale d’amélioration de la qualité des logiciels embarqués dans les véhicules. Notre recherche part d’un audit des processus et outils actuellement utilisés dans l’industrie électronique automobile. Cet audit a permis d’identifier des leviers potentiels d’amélioration de la qualité logicielle. En se basant sur les résultats de l’audit et en tenant compte de la littérature dans le domaine de la qualité logicielle, nous avons proposé une approche globale de conception de cas de test pour les produits logiciels. En effet, nous avons développé une plateforme de génération automatique de tests pour un produit logiciel. Cette plateforme consiste à modéliser les spécifications du produit logiciel pour le simuler lors de tests, à se focaliser sur les tests critiques (ayant une forte probabilité de détecter des défauts) et à piloter la génération automatique des tests par des critères de qualité ; telles que la couverture du code et de la spécification mais aussi le coût des tests. La génération de tests critiques est rendue possible par la définition de profils d’utilisation réelle par produit logiciel, ainsi que par la réutilisation des défauts et des tests capitalisés sur des anciens projets. En plus des aspects algorithmiques du test logiciel, notre approche prend en compte des aspects organisationnels tels que la gestion des connaissances et des compétences et la gestion de projet logiciel. Notre approche a été mise en œuvre sur deux cas d’étude réels d’un équipementier électronique automobile, disposant de données de tests historiques. Les résultats de nos expérimentations révèlent des gains de qualité significatifs : plus de défauts sont trouvés plus tôt et en moins de temps. / Nowadays, car electronics become more and more complex and represents more than 30% of the total cost of a car. For instance, in a 2008 BMW 5 series model, one can find up to 80 electronic modules communicating together and representing 10 million lines of software code. Facing this growing complexity, carmakers and automotive electronic suppliers are looking for efficient methods to develop, verify and validate electronic modules. In fact, they focus on the software part of these modules since it accounts for more than 80% of the total number of problems detected on these modules. In this context, we achieved our research project with the aim of proposing a global approach able to improve the quality of automotive embedded software. We started with an audit of the software practices currently used in automotive industry and we pinpointed potential levers to improve the global software quality. Based on the results of the audit and the literature review related to software quality, we developed a global approach to improve the design of test cases for software products. In fact, we developed a test generation platform to automatically generate test cases for a software product. It is mainly based on modeling the software functional requirements in order to be simulated when testing the software, focusing on critical tests to be done (because of their higher probability to detect a bug) and monitoring the automatic generation of tests by quality indicators such as the structural and functional coverage but also the tests cost. The generation of critical tests is based on the definition of real use profiles by software product and on the reuse of bugs and test cases capitalized on previous projects. Besides the computational aspects of software testing, our approach takes into account organizational matters such as knowledge management, competency management and project management. Our approach have been implemented in a computer platform and experimented on two typical case studies of an automotive electronic supplier, with historical test data. The results of our experiments reveal significant improvement in software quality: more bugs are detected earlier and in less time.
525

Méthodes formelles pour le respect de la vie privée par construction / Formal methods for privacy by design

Antignac, Thibaud 25 February 2015 (has links)
Le respect de la vie privée par construction est de plus en plus mentionné comme une étape essentielle vers une meilleure protection de la vie privée. Les nouvelles technologies de l'information et de la communication donnent naissance à de nouveaux modèles d'affaires et de services. Ces services reposent souvent sur l'exploitation de données personnelles à des fins de personnalisation. Alors que les exigences de respect de la vie privée sont de plus en plus sous tension, il apparaît que les technologies elles-mêmes devraient être utilisées pour proposer des solutions davantage satisfaisantes. Les technologies améliorant le respect de la vie privée ont fait l'objet de recherches approfondies et diverses techniques ont été développées telles que des anonymiseurs ou des mécanismes de chiffrement évolués. Cependant, le respect de la vie privée par construction va plus loin que les technologies améliorant simplement son respect. En effet, les exigences en terme de protection des données à caractère personnel doivent être prises en compte au plus tôt lors du développement d’un système car elles peuvent avoir un impact important sur l'ensemble de l'architecture de la solution. Cette approche peut donc être résumée comme « prévenir plutôt que guérir ». Des principes généraux ont été proposés pour définir des critères réglementaires de respect de la vie privée. Ils impliquent des notions telles que la minimisation des données, le contrôle par le sujet des données personnelles, la transparence des traitements ou encore la redevabilité. Ces principes ne sont cependant pas suffisamment précis pour être directement traduits en fonctionnalités techniques. De plus, aucune méthode n’a été proposée jusqu’ici pour aider à la conception et à la vérification de systèmes respectueux de la vie privée. Cette thèse propose une démarche de spécification, de conception et de vérification au niveau architectural. Cette démarche aide les concepteurs à explorer l'espace de conception d'un système de manière systématique. Elle est complétée par un cadre formel prenant en compte les exigences de confidentialité et d’intégrité des données. Enfin, un outil d’aide à la conception permet aux concepteurs non-experts de vérifier formellement les architectures. Une étude de cas illustre l’ensemble de la démarche et montre comment ces différentes contributions se complètent pour être utilisées en pratique. / Privacy by Design (PbD) is increasingly praised as a key approach to improving privacy protection. New information and communication technologies give rise to new business models and services. These services often rely on the exploitation of personal data for the purpose of customization. While privacy is more and more at risk, the growing view is that technologies themselves should be used to propose more privacy-friendly solutions. Privacy Enhancing Technologies (PETs) have been extensively studied, and many techniques have been proposed such as anonymizers or encryption mechanisms. However, PbD goes beyond the use of PETs. Indeed, the privacy requirements of a system should be taken into account from the early stages of the design because they can have a large impact on the overall architecture of the solution. The PbD approach can be summed up as ``prevent rather than cure''. A number of principles related to the protection of personal data and privacy have been enshrined in law and soft regulations. They involve notions such as data minimization, control of personal data by the subject, transparency of the data processing, or accountability. However, it is not clear how to translate these principles into technical features, and no method exists so far to support the design and verification of privacy compliant systems. This thesis proposes a systematic process to specify, design, and verify system architectures. This process helps designers to explore the design space in a systematic way. It is complemented by a formal framework in which confidentiality and integrity requirements can be expressed. Finally, a computer-aided engineering tool enables non-expert designers to perform formal verifications of the architectures. A case study illustrates the whole approach showing how these contributions complement each other and can be used in practice.
526

Fréquence et contenu du rapport de rêve : approches comportementales et neurophysiologiques / Content and frequency of dream reports : psychological and neurophysiological correlates

Vallat, Raphaël 08 December 2017 (has links)
Objet de nombreuses spéculations religieuses ou philosophiques, le rêve reste encore l'une des grandes terra incognita de la cognition humaine.Une des questions récurrentes sur le rêve porte sur la grande variabilité de fréquence de rappel de rêve. En effet, alors que certaines personnes se souviennent de leurs rêves quotidiennement (« Rêveurs »), d'autres ne s'en souviennent que très rarement (« Non-rêveurs »). Le principal objectif de notre travail de thèse a été de caractériser les corrélats cérébraux et comportementaux de cette variabilité interindividuelle, en comparant entre ces deux groupes la structure du sommeil (Étude 1), mais aussi l'activité cérébrale pendant les minutes qui suivent le réveil (Étude 2). Nous avons entre autres montré que les « Rêveurs » faisaient preuve d'une plus grande connectivité fonctionnelle au sein du réseau par défaut et de régions impliquées dans des processus mnésiques dans les minutes suivant l'éveil, ce qui pourrait faciliter chez ces personnes le rappel et/ou la consolidation du rêve. Cette étude nous a également permis, grâce à l'analyse des nombreuses réponses obtenues au questionnaire de recrutement, de mesurer les habitudes de sommeil et de rêve chez un échantillon large d'étudiants de l'Université de Lyon 1 (Étude 3).Dans une quatrième étude comportementale, nous nous sommes intéressés au lien existant entre la vie éveillée et le contenu du rêve. Nos résultats ont permis de mieux caractériser les facteurs influençant la probabilité d'incorporation des évènements de la vie éveillée dans le rêve, et ont mis en évidence l'importance du rêve dans des processus de régulation émotionnelle.Finalement, en parallèle de ces travaux, nous nous sommes attachés au développement d'un logiciel gratuit de visualisation et d'analyse de tracés de polysomnographie, dont l'objectif est de fournir une interface intuitive et portable aux étudiants et chercheurs travaillant sur le sommeil / Since the dawn of time, humans have sought to understand the nature and meaning of their dreams. However, despite millennia of philosophical speculation and more than a century of scientific exploration, several questions regarding dreams remain pending.One question that constitutes the core problematic of this thesis relates to why there are such individual differences in the frequency of dream recall, or in other words, why some people remember up to several dreams per morning (High-recallers, HR) while some hardly ever recall one (Low-recallers, LR). To characterize the cerebral and behavioral correlates of this variability, we compared the sleep microstructure (Study 1), as well as the brain functional connectivity in the minutes following awakeningfrom sleep, a period marked by sleep inertia (Study 2). Among other results, we have shown that just after awakening, HR demonstrated a greater functional connectivity within regions involved in memory processes (default mode network). We proposed that this reflect a differential neurophysiological profile, which could facilitate in HRthe retrieval of dream content upon awakening. Second, the numerous answers to the recruitment questionnaire of this study allowed us to conduct an epidemiological survey to characterize the sleep and dream habits of a large sample of French college students from Lyon 1 University (Study 3). In another study, we focused on the relationships between waking-life and dream content (Study 4). Our results enhanced and refined our comprehension of the factors influencing the likelihood of incorporation of waking-life elements into dreams, and provided support for the hypothesis of an active role of dreaming in emotional regulation.Lastly, we designed a free and open-source software dedicated to the visualization and analysis of polysomnographic recordings (Study 5), which aims at providing an intuitive and portable graphical interface to students and researchers working on sleep
527

Processus et outils qualifiables pour le développement de systèmes critiques certifiés en avionique basés sur la génération automatique de code / Processes and qualifiable tools for the development of safety-critical certified systems in avionics based on automated code generation

Bedin França, Ricardo 10 April 2012 (has links)
Le développement des logiciels avioniques les plus critiques, comme les commandes de vol électriques, présentent plusieurs contraintes qui peuvent être quasiment contradictoires – par exemple, performance et sûreté – et toutes ces contraintes doivent être respectées simultanément. L'objective de cette thèse est d'étudier et de proposer des évolutions dans le cycle de développement des logiciels de commande de vol chez Airbus afin d'améliorer leur performance, tout en respectant les contraintes industrielles existantes et en conservant des processus de vérification au moins aussi sûrs que ceux utilisés actuellement. Le critère principal d'évaluation de performance est le temps d'exécution au pire cas (WCET), vu qu'il est utilisé lors des analyses temporelles des logiciels de vol réels. Dans un premier temps, le DO-178, qui contient des considérations pour l'approbation des logiciels avioniques, est présenté. Le DO-178B et le DO-178C sont étudiés. Le DO-178B est la référence pour plusieurs logiciels de commande de vol développés chez Airbus et le DO-178C est la référence pour le développement des nouveaux logiciels à partir de 2012. Ensuite, l'étude de cas est présentée. Afin d'améliorer sa compréhension, le contexte historique est fourni à travers l'étude des autres logiciels de commande de vol, car plusieurs activités de son cycle de vie réutilisent des techniques qui ont été utilisées avec succès dans des projets précédents. Quelques activités qui présentent des causes potentielles de pertes de performance logicielle sont exposées et l'axe principal d'étude choisi pour le reste de la thèse est la phase de compilation. Ce choix se justifie dans le contexte des logiciels de commande de vol car la compilation est réalisée avec peu ou pas d'optimisations, son impact sur la performance des logiciels est donc important et des travaux de recherche récents permettent d'envisager un changement dans les paradigmes actuels de compilation sûre. / The development of safety-critical avionics software, such as aircraft flight control programs, presents many different constraints that are nearly contradictory, such as performance and safety requirements, and all must be met simultaneously. The objective of this Thesis is to propose modifications in the development cycle of Airbus flight control programs in order to improve their performance without weakening their verification processes or violating other industrial constraints. The main criterion for performance evaluation is the Worst-Case Execution Time (WCET), as it is used in the timing analysis that is performed in actual avionics software verification processes. In a first moment, the DO-178, which contains guidance for avionics software development approval, is presented. Both the DO-178B and the DO-178C are discussed, since the former was the reference for the development of many Airbus flight control programs and the latter shall be the reference for the development of new programs, starting from 2012. Then, the case study is presented. In order to better understand it, some historical context is provided by the study of other flight control programs - many of its life cycle activities reuse techniques that were successful in previous software projects. Each activity is evaluated in order to underline what are the performance bottlenecks in the flight control software development. Some potential underperforming activities are depicted and the main axis of study developed subsequently is the compilation phase: not only it is a well-known unoptimized activity that has important impacts over software performance, but it is also an activity that might undergo a paradigm change due to innovating compilers that are being developed by researchers. The CompCert compiler is presented and its use in the scope of this Thesis is justified - at the time of this Thesis, it was the compiler that was best prepared to perform meaningful experiments, such as compiling a large subset of the chosen case study. Its architecture is studied, together with its semantic preservation theorem, which is the backbone of its formally-verified part. Additional features that were developed in CompCert during this Thesis in order to meet Airbus's requirements - such as its annotation mechanism and its reference interpreter - are discussed in order to underline their usefulness in the development of flight control software. The evaluation of CompCert consists in a performance comparison with the current compilation strategy and an assessment of the impacts that its utilization might have over the verification strategy commonly employed in flight control software. The results of the performance comparison are promising, since CompCert-generated code has a WCET more than 10% lower than if it were compiled with a good quality non-optimizing compiler. As expected, the use of CompCert has impacts over some important verification activities but its formal development and increased verifiability helps in the development of new compiler verification activities that can keep the whole development process at least as safe as the current one. Some development strategy propositions are then presented, according to the certification credit that might be required by using CompCert.
528

Analyse et modélisation de rayonnement électromagnétique des réseaux CPL / Analysis and modeling of the electromagnetic radiation of PLC networks

Liakouti, Achraf 11 May 2017 (has links)
L'usage des câbles électriques comme support de transmission de données numériques en vue d'applications comme l'accès à Internet ou la domotique, est certes très attractif. Cependant, les rayonnements électromagnétiques (EM) non intentionnels, engendrés par les systèmes filaires lors d’une transmission CPL, peuvent être une source de pollution EM et constituent un problème gênant de compatibilité électromagnétique (CEM). L'évaluation de ces rayonnements en champ proche revêt donc un intérêt certain.Dans ce manuscrit, le travail de recherche effectué, consiste à modéliser le rayonnement électromagnétique engendré par les conducteurs filaires utilisés par la technologie des courants porteur en ligne (CPL). En effet, l’estimation du rayonnement d’un réseau CPL de point de vue de la CEM, s’avère très importante pour la prédiction des niveaux d’émissions rayonnées. Les valeurs des champs rayonnés par le réseau CPL sont parfaitement définies si la distribution du courant est déterminée, en pratique, l'accès à la mesure de ces courants est très difficile voire impossible.On propose, donc dans ce mémoire une approche simplifiée des équations intégrales des champs électromagnétiques afin de quantifier convenablement le rayonnement EM émis par les systèmes filaires avec un minimum d’informations mesurées. Ce modèle est capable de traiter des cas pour lesquels l’identification du courant le long des conducteurs est compliquée et numériquement fastidieuse à obtenir avec les codes de simulation existants (FEKO, NEC,… etc.). Notre modèle a été largement validé, soit par simulation, en utilisant le logiciel Feko, ou bien expérimentalement à travers une étude comparative effectuée sur différents cas tests. / The use of electric cables as a support for transmitting digital data for applications such as Internet access or home automation is certainly very attractive. However, unintentional electromagnetic radiation (EM) from such wire systems for PLC transmission may be a source of EM pollution and a problem of electromagnetic compatibility (EMC). Therefore, the evaluation of the corresponding radiations in the near-field zone is of a certain interest. In this manuscript, a mathematical model for estimation of the electromagnetic radiation from wire conductors used by the PLC technology is presented. From the EMC standpoint, the radiation of a PLC network is observed from the aspect of the emission levels. The corresponding radiated values of the fields may be appropriately determined if the current distribution in the PLC network is known. However, in practice the approach to measuring these currents is very difficult or even impossible. Therefore, a simplified approach based on the integral equations of the electromagnetic fields is proposed in order to adequately quantify EM radiation from PLC wire conductors in cases of least measured data. Also, this model may be applied in cases where estimation of current distribution is numerically difficult even by using existing numerical software (FEKO, NEC, etc.). The proposed model is validated either by simulations compared to FEKO software, or experimentally through a comparative test case studies.
529

Utilisation des TIC par des élèves handicapés, notamment autistes, dans un cadre éducatif. Mise en place d’indicateurs et observation suivie instrumentée avec stylo numérique. / Use of ICT by students with disabilities, including autism,in an educational setting. Establishment of indicators and observation followed instrumented with digital pen

Etche Ogeli, Ramia 02 February 2015 (has links)
L’objectif de ce travail de thèse est d’observer et d’analyser l’interaction entre un élève autiste, un logiciel éducatif et un enseignant dans des situations d’apprentissage de la lecture et de l’écriture. Étudier la manière dont les élèves autistes peuvent interagir avec des logiciels éducatifs en présence d’enseignants est très important, notamment pour comprendre comment mieux focaliser l’attention de ces enfants. Il faut alors étudier l’évolution des comportements des élèves et connaître les modes d’intervention des enseignants, favorisant ou non l’évolution de ces comportements. Pour analyser les modes d’interaction qui se mettent en place entre trois agents (un enseignant, un élève autiste et un logiciel éducatif), nous avons défini des observables, pouvant être recueillis durant les phases d’étude chez chacun des agents, et choisi des outils permettant de collecter les informations en temps réel (stylo numérique et logiciel Camtasia). Nous avons également synchronisé plusieurs sources de données. Les informations recueillies et synchronisées, les traces d’activités, ont ensuite été traitées afin de fournir des formes visuelles résumées de l’activité et de calculer différents indicateurs. Ces analyses ont été confrontées aux experts de l’autisme, pour interprétation et aux enseignants pour une meilleure prise en compte de leur propre comportement. Pour mener ce travail, nous avons, d’un premier temps, participé au projet ANR RobAutisTIC, autour d’une interaction ludique entre des enfants autistes, des thérapeutes suivant un protocole expérimental et un robot. Au cours de ce projet, nous avons élaboré les premières listes de gestes à observer, enregistrer et coder et effectué les premières analyses à l’aide du logiciel Elan. Ce travail a été repris avec des élèves autistes, des enseignants et des logiciels éducatifs, dans des situations d’apprentissage. Nous avons adapté pour cela les grilles utilisées dans le projet RobAutisTIC, à la situation d’apprentissage avec un logiciel éducatif. Nous avons conduit des observations préalables dans les classes ainsi qu’une analyse détaillée des logiciels éducatifs pour identifier les interactions possibles et classer les exercices selon un indicateur de complexité. Nous avons pu suivre quinze séances avec au total onze élèves.L’analyse des données nous a permis de repérer les gestes les plus fréquents, les séquences, etc. L’association entre le codage des gestes, l’enregistrement de la succession des écrans des logiciels et des dialogues entre l’enseignante et l’élève a permis de faire une analyse didactique des interactions dans le cadre de la théorie d’action didactique. Nous avons pu constater des modes fins d’interaction entre l’élève autiste et son enseignante, également des caractéristiques particulières de l’interaction élève-logiciel compte tenu du niveau de complexité de chaque exercice et du niveau de développement socio-communicatif de l’élève autiste. Enfin, les enseignants interviennent souvent dans le but de donner la bonne réponse à l’élève à travers le pointage de l’écran et l’interaction verbale. Ce travail ouvre des pistes d’une part dans l’observation et l’analyse de l’interaction avec des élèves autistes et d’autre part dans l’analyse de l’utilisation de logiciels éducatifs. / The objective of this thesis is to observe and analyze the interaction between students with autism, educational software and teachers in learning situations of reading and writing. Explore how students with autism can interact with educational software in the presence of teachers is very important, especially to understand how to better focus their attention. Then, we must study the evolution of student behaviour and know the teachers intervention methods, promoting or not the changes in these behaviours.To analyze the modes of interaction that are set up between three agents (a teacher, a student with autism and educational software), we defined “observable” that may be collected during the study phases in each of the agents and selected tools to collect real-time information (Digital Pen and Camtasia software). We also synchronized multiple data sources. The information collected and synchronized and traces of activities were then treated to provide visual forms summarized activities and calculate various indicators. These analyses were confronted with experts in autism, for interpretation and teachers to better take into account their own behaviour.To conduct this work, first, we participated in the project ANR RobAutiSTIC around a playful interaction between children with autism, therapist following an experimental protocol and a robot. In this project, we developed the first gestures lists to observe, record, encode and performed the first analysis with the Elan software.This work was implemented in the classroom where were present autistic students, teachers and educational software, in learning situations. We have adapted it for the grids used in RobAutiSTIC project, the situation of learning with educational software. We conducted preliminary observations in classrooms as well as a detailed analysis of educational software to identify potential interactions and classify the exercises in a complex indicator. We followed five sessions with a total of eleven students. Data analysis allowed us to identify the most frequent gestures, sequences, etc. The association between the coding of gestures, recording the sequence of screens software and dialogues between the teacher and the student has to do a didactic analysis of interactions in the context of the educational theory of action. We have seen the purpose modes of interaction between student and teacher autistic, also the special characteristics of the interaction student-software given the level of complexity of each year and the level of socio-communicative development of students with autism. Finally, teachers often intervene in order to give the right answer to the student through the pointing screen and verbal interaction.On the one hand, this work paves the way for the observation and analysis of the interaction with autism students (between themselves) and on the other hand, for the analysis of the uses of educational softwares.
530

Metamodels and feature models : complementary approaches to formalize product comparison matrices / Méta-modèles et modèles de caractéristiques : deux approches complémentaires pour formaliser les matrices de comparaison de produits

Bécan, Guillaume 23 September 2016 (has links)
Les Matrices de Comparaison de Produits (MCP) sont largement répandues sur le web. Elles fournissent une représentation simple des caractéristiques d'un ensemble de produits. Cependant, le manque de formalisation et la grande diversité des MCP rendent difficile le développement de logiciels pour traiter ces matrices. Dans cette thèse, nous développons deux approches complémentaires pour la formalisation de MCP. La première consiste en une description précise de la structure et la sémantique d'une MCP sous la forme d'un meta-modèle. Nous proposons aussi une transformation automatique d'une MCP vers un modèle de MCP conforme au meta-modèle. La seconde approche consiste à synthétiser des modèles de caractéristiques attribués à partir d'une classe de MCP. Grâce nos contributions, nous proposons une approche générique et extensible pour la formalisation et l'exploitation de MCP. / Product Comparison Matrices (PCMs) abound on the Web. They provide a simple representation of the characteristics of a set of products. However, the lack of formalization and the large diversity of PCMs challenges the development of software for processing these matrices. In this thesis, we develop two complementary approaches for the formalisation of PCMs. The first one consists in a precise description of the structure and semantics of PCMs in the form of a metamodel. We also propose an automated transformation from PCMs to PCM models conformant to the metamodel. The second one consists in synthesizing attributed feature models from a class of PCMs. With our contributions, we propose a generic and extensible approach for the formalization and exploitation of PCMs.

Page generated in 0.0396 seconds