• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 422
  • 171
  • 72
  • 2
  • 1
  • 1
  • Tagged with
  • 721
  • 336
  • 296
  • 278
  • 254
  • 246
  • 243
  • 144
  • 133
  • 92
  • 90
  • 82
  • 79
  • 69
  • 68
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
641

Améliorer les compétences communicatives dans l’autisme en ralentissant les informations auditives et visuelles : une étude longitudinale et comportementale avec l’oculométrie

Charrier, Aurore 12 December 2014 (has links)
Des anomalies du traitement des informations sensorielles sont observées dans l'autisme, notamment, les signaux dynamiques semblent trop rapides et/ou complexes pour être convenablement traités par les personnes avec TSA. Aussi, ralentir ces signaux (Gepner, 2001, 2005) pourrait les aider à les percevoir et faciliterait leur compréhension aux interactions sociales. Nous avons proposé des enfants avec TSA, âgés de 3 à 8 ans, pendant un an des séances hebdomadaires d'orthophonie impliquant l'utilisation d'un logiciel ralentissant le son et les images des vidéos (Logiral(TM)). Un groupe contrôle d'enfants avec TSA, bénéficiant de séances d'orthophonie mais sans l'utilisation de Logiral(TM), a également été constitué. Nous avons comparé l'évolution des compétences socio-communicatives des deux groupes ainsi que les comportements d'exploration visuelle lors de la présentation du visage d'une narratrice racontant une histoire. Nos résultats montrent une amélioration significative de la capacité à imiter et diminution des comportements inadaptés uniquement pour les enfants du groupe expérimental. Après un an d'utilisation de Logiral(TM), ces enfants regardent davantage le visage et ses caractéristiques internes (yeux et bouche). / Sensory processing abnormalities are observed in autism, in particular dynamic signals involved in interactions seem too fast and/or too complex to be adequately treated by people with ASD. Also, slow down the speed of these signals (Gepner, 2001, 2005; Gepner et al, 2001, 2002, 2005) could help them to perceive informations and could facilitate their understanding in social interactions. We proposed to children with ASD, aged from 3 to 8 years, speech therapy weekly for a year with the use of a software (Logiral(TM)) to slow down sound and pictures. A control group of children with ASD, receiving speech therapy without the use of Logiral (TM) was also set up. We compared the evolution of the social communication skills of the two groups and their visual exploration behavior during the presentation of the face of a narrator telling a story. Our results show a significant improvement in the ability to imitate and a decrease in inappropriate behaviors, and this, only for the children in the experimental group. After a year of using Logiral(TM), these children watch more facial and internal features (eyes and mouth) which is no observed for children in the control group.
642

Utilisation de la géométrie dynamique avec de futurs enseignants de mathématiques au secondaire pour repenser le développement du raisonnement

Damboise, Caroline 10 1900 (has links)
Les outils technologiques sont omniprésents dans la société et leur utilisation est de plus en plus grande dans les salles de classe. Du côté de l'enseignement et de l'apprentissage des mathématiques, ces outils se sont vu attribuer des rôles qui ont évolué avec les années. Les rôles de soutien, de visualisation et d'enrichissement des contenus en sont des exemples. Une utilisation des outils technologiques dans l'enseignement s'accompagne d'apports pragmatiques et épistémiques potentiels, mais comporte également des limites et des risques. Il s’avère important d’examiner le rôle accordé à l’outil technologique dans les activités qui le mobilisent. Puisque le raisonnement mathématique fait partie d'une des compétences visées à l’école (MELS, 2006) et que les futurs enseignants semblent accorder moins d'importance à la validation et la preuve comme composantes de ce raisonnement (Mary, 1999), nous émettons l'hypothèse qu'une séquence d'activités montrant la complémentarité de la preuve et des explorations tirant parti de la technologie pourrait aider les futurs enseignants à mieux saisir ces enjeux. La présente recherche s’appuie sur l'ingénierie didactique pour développer et valider une séquence d'activités intégrant le logiciel GeoGebra. Cette séquence d'activités a été conçue dans les buts suivants : initier les futurs enseignants en mathématiques au secondaire à un logiciel de géométrie dynamique et leur donner l'occasion de voir des activités mathématiques utilisant la technologie et visant le développement du raisonnement, par l’articulation de l’exploration et de la preuve. Le cadre théorique sur lequel repose cette recherche intègre des éléments de l'approche anthropologique (Chevallard, 1992, 1998, 2003) et de l'approche instrumentale (Vérillon et Rabardel, 1995; Trouche, 2000, 2003, 2007; Guin et Trouche, 2002). Certaines idées sur les constructions robustes et molles (Soury-Lavergne, 2011), la distinction figure/dessin (Laborde et Capponi, 1994) et le réseau déductif (Tanguay, 2006) ont servi de repères dans la construction de la séquence d'activités. Cette recherche s'est déroulée au cours de l'hiver 2016 dans une université québécoise, dans le cadre d’un cours de didactique de la géométrie auprès de futurs enseignants au secondaire en mathématiques. Un questionnaire pré-expérimentation a été rempli par les participants afin de voir leurs connaissances préalables sur les programmes, les outils technologiques ainsi que leurs conceptions au sujet de l'enseignement et de l'apprentissage des mathématiques. Par la suite, les étudiants ont expérimenté la séquence d'activités et ont eu à se prononcer sur les connaissances mises en jeu dans chacune des activités, l’opportunité de son utilisation avec des élèves du secondaire, et les adaptations perçues nécessaires pour sa réalisation (s'il y a lieu). Des traces écrites de leur travail ont été conservées ainsi qu'un journal de bord au fur et à mesure du déroulement de la séquence. En triangulant les diverses données recueillies, il a été constaté que la séquence, tout en contribuant à l’instrumentation des participants au regard du logiciel utilisé, a eu chez certains d’entre eux un impact sur leur vision du développement du raisonnement mathématique dans l’enseignement des mathématiques au secondaire. L’analyse des données a mis en lumière la place accordée au raisonnement par les futurs enseignants, les raisonnements mobilisés par les étudiants dans les diverses activités ainsi que des indices sur les genèses instrumentales accompagnant ces raisonnements ou les induisant. Suite à l’analyse de ces données et aux constats qui en découlent, des modifications sont proposées pour améliorer la séquence d’activités. / Technological tools are ubiquitous in society and their use is growing in the classroom. In mathematics education, these tools have been assigned roles that have evolved over the years: support, visualization, content enrichment. The use of technological tools in education comes with potential pragmatic and epistemic contributions, but also has limitations and risks. We must therefore examine at the activity level the role technology should play. Mathematical reasoning is one of the competencies aimed by school (MELS, 2006) and future teachers seem to place less emphasis on validation and proving processes as components of this reasoning (Mary, 1999). We hypothesize that a sequence of activities showing the complementarity of the proving processes with explorations leveraging technology could help future teachers better understand these issues. This research is based on didactical engineering to develop and validate a sequence of activities with GeoGebra software. The sequence of activities has been designed to: introduce pre-service secondary mathematics teachers to dynamic geometry software and give them the opportunity to see mathematical activities using technology that aim at developing mathematical reasoning and proof. The theoretical framework on which this research is based integrates elements of the anthropological theory of the didactic (Chevallard, 1992, 1998, 2003) and of the instrumental approach (Vérillon and Rabardel, 1995; Trouche, 2000, 2003, 2007; Guin and Trouche, 2002). Some ideas on robust and soft constructions (Soury-Lavergne, 2011), the distinction between figure and drawing (Laborde and Capponi, 1994) and the deductive network (Tanguay, 2006) served as benchmarks in the construction of the sequence of activities. This research took place at a Quebec university during the winter of 2016, in a geometry didactics course for pre-service secondary mathematics teachers. A preliminary questionnaire was given to the participants to capture their prior knowledge of programs, technological tools and conceptions about mathematics teaching and learning. Subsequently, the students experienced the sequence of activities and had to decide on the knowledge involved in each activity, the relevance of its use with high school students, and the perceived adaptations necessary for its realization (if considered). Written traces of their work have been kept as well as a diary as the sequence unfolds. By triangulating the various data collected, it was found that the sequence, while contributing to the instrumentation of the participants with regard to the software used, had, for some of them, an impact on their vision of the development of mathematical reasoning in mathematics education at secondary level. The analysis of the data highlighted the place given to the reasoning by the future teachers, the reasonings mobilized by the students in the various activities and also signs of the instrumental geneses inducing these reasonings and accompanying them. Following the analysis of these data and the findings that follow, modifications are proposed to improve the sequence of activities.
643

Système de Mesure Mobile Adaptif Qualifié / Mobile System for Adaptive Qualified Measurement

Bourgeois, Florent 21 March 2018 (has links)
Les dispositifs matériels mobiles proposent des capacités de mesure à l'aide de capteurs soit embarqués, soit connectés. Ils ont vocation à être de plus en plus utilisés dans des processus de prises de mesures. Ils présentent un caractère critique dans le sens où ces informations doivent être fiables, car potentiellement utilisées dans un contexte exigeant. Malgré une grande demande, peu d'applications proposent d'assister les utilisateurs lors de relevés exploitant ces capacités. Idéalement, ces applications devraient proposer des méthodes de visualisation, de calcul, des procédures de mesure et des fonctions de communications permettant la prise en charge de capteurs connectés ou encore la génération de rapports. La rareté de ces applications se justifie par les connaissances nécessaires pour permettre la définition de procédures de mesure correctes. Ces éléments sont apportés par la métrologie et la théorie de la mesure et sont rarement présents dans les équipes de développement logiciel. De plus, chaque utilisateur effectue des activités de mesure spécifiques au domaine de son champ d'activités, ce qui implique le développement d'applications spécifiques de qualité pouvant être certifiées par des experts. Ce postulat apporte la question de recherche à laquelle les travaux présentés répondent: Comment proposer une approche pour la conception d’applications adaptées à des procédures de mesures spécifiques. Les procédures de mesure pouvant être configurées par un utilisateur final La réponse développée est une "plateforme" de conception d'applications d'assistance à la mesure. Elle permet d'assurer la conformité des procédures de mesures sans l'intervention d'expert de la métrologie. Pour cela elle est construite en utilisant des concepts issus de la métrologie, de l'Ingénierie Dirigée par les Modèles et de la logique du premier ordre. Une étude du domaine de la métrologie permet de mettre en évidence la nécessité d'une expertise des procédures de mesure impliquées dans les applications. Cette expertise comprend des termes et des règles assurant l'intégrité et la cohérence d'une procédure de mesure. Un modèle conceptuel du domaine de la métrologie est proposé. Ce modèle conceptuel est ensuite intégré au processus de développement d'une application. Cette intégration se fait par un encodage de ce modèle conceptuel sous la forme d'un schéma des connaissances de la métrologie en logique du premier ordre. Il permet, la vérification du respect des contraintes inhérentes à la métrologie dans une procédure de mesure. Cette vérification est réalisée en confrontant les procédures de mesures au schéma sous forme de requêtes. Ces requêtes sont décrites à l'aide d'un langage proposé par le schéma. Les applications d'assistance à la mesure nécessitent d'exposer à l'utilisateur un processus de mesure impliquant relevés et affichages de mesures étape par étape. Cela implique de pouvoir décrire un processus de mesure et d'en définir les interfaces et le schéma d'évolution. Pour cela, un éditeur d'application est proposé. Cet éditeur propose un langage spécifique dédié à la description d'applications d'assistance à la mesure. Ce langage est construit à partir des concepts, formalismes et outils proposés par l'environnement de métamodélisation Diagrammatic Predicate Framework (DPF). Le langage comporte des contraintes syntaxiques prévenant les erreurs de construction au niveau logiciel tout en réduisant l'écart sémantique entre l'architecte logiciel l'utilisant et un potentiel expert de la métrologie. [...] / Mobile devices offer measuring capabilities using embedded or connected sensors. They are more and more used in measuring processes. They are critical because the performed measurements must be reliable because possibly used in rigorous context. Despite a real demand, there are relatively few applications assisting users with their measuring processes that use those sensors. Such assistant should propose methods to visualise and to compute measuring procedures while using communication functions to handle connected sensors or to generate reports. Such rarity of applications arises because of the knowledges required to define correct measuring procedures. Those knowledges are brought by metrology and measurement theory and are rarely found in software development teams. Moreover, every user has specific measuring activities depending on his field of work. That implies many quality applications developments which could request expert certification. These premises bring the research question the presented works answer : What approach enables the conception of applications suitable to specific measurement procedures considering that the measurement procedures could be configured by the final user. The presented works propose a platform for the development of measuring assistant applications. The platform ensure the conformity of measuring processes without involving metrology experts. It is built upon metrology, model driven engineering and first order logic concepts. A study of metrology enables to show the need of applications measuring process expert evaluation. This evaluation encompasses terms and rules that ensure the process integrity and coherence. A conceptual model of the metrology domain is proposed. That model is then employed in the development process of applications. It is encoded into a first order logic knowledge scheme of the metrology concepts. That scheme enables to verify that metrology constraints holds in a given measuring process. The verification is performed by confronting measuring processes to the knowledge scheme in the form of requests. Those requests are described with a request language proposed by the scheme. Measuring assistant applications require to propose to the user a measuring process that sequences measuring activities. This implies to describe a measuring process, and also to define interactive interfaces and sequencing mechanism. An application editor is proposed. That editor uses a domain specific language dedicated to the description of measuring assistant applications. The language is built upon concepts, formalisms and tools proposed by the metamodeling environment : Diagrammatic Predicat Framework (DPF). The language encompasses syntactical constraints that prevent construction errors on the software level while reducing the semantical gap between the software architect using it and a potential metrology expert. Then, mobile platforms need to execute a behaviour conforming to the editor described one. An implementation modelling language is proposed. This language enables to describe measuring procedures as sequences of activities. Activities imply to measure, compute and present values. Quantities are all abstracted by numerical values. This eases their computation and the use of sensors. The implementation model is made up of software agents. A mobile application is also proposed. The application is built upon a framework of agents, an agent network composer and a runtime system. The application is able to consider an implementation model and to build the corresponding agent network in order to propose a behaviour matching the end users needs. This enables to answer to any user needs, considering he can access to the implementation model, without requiring to download several applications.
644

ReLiS: un outil flexible pour réaliser des revues systématiques itératives et collaboratives

Bigendako, Brice Michel 02 1900 (has links)
Les Revues Systématiques (RS) offrent une méthode rigoureuse pour identifier et analyser les résultats dans la littérature relatifs à un sujet d'intérêt particulier. La réalisation d'une RS est connue pour être une tâche demandant beaucoup de temps et de travail qui nécessite un protocole bien documenté avec plusieurs itérations. Il suit un processus systématique pour atteindre des résultats reproductibles, objectifs et complets. Les outils qui permettent d'automatiser certaines tâches du processus sont d'une grande valeur pour les chercheurs. Cependant, d'importantes fonctionnalités liées à la réalisation de RS de manière collaborative et itérative font encore défaut dans les outils existants. Dans ce mémoire, nous présentons ReLiS, un outil pour installer et configurer automatiquement des projets RS à réaliser de manière collaborative et itérative en ligne. Le développement de ReLiS suit une approche de développement basée sur les modèles. Il dispose d'un éditeur de modèle spécifique au domaine adapté aux chercheurs qui réalisent des RS et d'une architecture qui permet l'installation progressive et la (re)configuration de plusieurs projets SR en cours de réalisation. / Systematic Reviews (SR) provide a rigorous method to find and analyze the literature evidence relating to a particular topic of interest. Conducting SR is known to be an effort intensive and time-consuming endeavor that requires a properly documented protocol and several iterations to setup right. It follows a systematic process to achieve repeatable, unbiased and complete outcomes. Tools that help automate some tasks of the process are of tremendous value for researchers. However, important features related the conduction of SR in a collaborative and iterative way are still lacking in existing tools. In this thesis we present ReLiS, a tool to automatically install and configure SR projects to conduct them collaboratively and iteratively on the cloud. ReLiS is engineered following a model-driven development approach. It features a domain-specific modeling editor tailored for researchers who perform SR and an architecture that enables on-the-fly installation and (re)configuration of multiple concurrently running SR projects.
645

Framework for Real-time collaboration on extensive Data Types using Strong Eventual Consistency

Masson, Constantin 12 1900 (has links)
La collaboration en temps réel est un cas spécial de collaboration où les utilisateurs travaillent sur le même élément simultanément et sont au courant des modifications des autres utilisateurs en temps réel. Les données distribuées doivent rester disponibles et consistant tout en étant répartis sur plusieurs systèmes physiques. "Strong Consistency" est une approche qui crée un ordre total des opérations en utilisant des mécanismes tel que le "locking". Cependant, cela introduit un "bottleneck". Ces dix dernières années, les algorithmes de concurrence ont été étudiés dans le but de garder la convergence de tous les replicas sans utiliser de "locking" ni de synchronisation. "Operational Trans- formation" et "Conflict-free Replicated Data Types (CRDT)" sont utilisés dans ce but. Cependant, la complexité de ces stratégies les rend compliquées à intégrer dans des logicielles conséquents, comme les éditeurs de modèles, spécialement pour des data structures complexes comme les graphes. Les implémentations actuelles intègrent seulement des data linéaires tel que le texte. Dans ce mémoire, nous présentons CollabServer, un framework pour construire des environnements de collaboration. Il a une implémentation de CRDTs pour des data structures complexes tel que les graphes et donne la possibilité de construire ses propres data structures. / Real-time collaboration is a special case of collaboration where users work on the same artefact simultaneously and are aware of each other’s changes in real-time. Shared data should remain available and consistent while dealing with its physically distributed aspect. Strong Consistency is one approach that enforces a total order of operations using mechanisms, such as locking. This however introduces a bottleneck. In the last decade, algorithms for concurrency control have been studied to keep convergence of all replicas without locking or synchronization. Operational Transformation and Conflict free Replicated Data Types (CRDT) are widely used to achieve this purpose. However, the complexity of these strategies makes it hard to integrate in large software, such as modeling editors, especially for complex data types like graphs. Current implementations only integrate linear data, such as text. In this thesis, we present CollabServer, a framework to build collaborative environments. It features a CRDTs implementation for complex data types such as graphs and gives possibility to build other data structures.
646

Gestion de la variabilité au niveau du code : modélisation, traçabilité et vérification de cohérence / Handling variability at the code level : modeling, tracing and checking consistency

Tërnava, Xhevahire 01 December 2017 (has links)
Durant le développement de grandes lignes de produits logiciels, un ensemble de techniques d’implémentation traditionnelles, comme l’héritage ou les patrons de conception, est utilisé pour implémenter la variabilité. La notion de feature, en tant qu’unité réutilisable, n’a alors pas de représentation de première classe dans le code, et un choix inapproprié de techniques entraîne des incohérences entre variabilités du domaine et de l’implémentation. Dans cette thèse, nous étudions la diversité de la majorité des techniques d’implémentation de la variabilité, que nous organisons dans un catalogue étendu. Nous proposons un framework pour capturer et modéliser, de façon fragmentée, dans des modèles techniques de variabilité, la variabilité implémentée par plusieurs techniques combinées. Ces modèles utilisent les points de variation et les variantes, avec leur relation logique et leur moment de résolution, pour abstraire les techniques d’implémentation. Nous montrons comment étendre le framework pour obtenir la traçabilité de feature avec leurs implémentations respectives. De plus, nous fournissons une approche outillée pour vérifier la cohérence de la variabilité implémentée. Notre méthode utilise du slicing pour vérifier partiellement les formules de logique propositionnelles correspondantes aux deux niveaux dans le cas de correspondence 1–m entre ces niveaux. Ceci permet d’obtenir une détection automatique et anticipée des incohérences. Concernant la validation, le framework et la méthode de vérification ont été implémentés en Scala. Ces implémentations ont été appliquées à un vrai système hautement variable et à trois études de cas de lignes de produits. / When large software product lines are engineered, a combined set of traditional techniques, such as inheritance, or design patterns, is likely to be used for implementing variability. In these techniques, the concept of feature, as a reusable unit, does not have a first-class representation at the implementation level. Further, an inappropriate choice of techniques becomes the source of variability inconsistencies between the domain and the implemented variabilities. In this thesis, we study the diversity of the majority of variability implementation techniques and provide a catalog that covers an enriched set of them. Then, we propose a framework to explicitly capture and model, in a fragmented way, the variability implemented by several combined techniques into technical variability models. These models use variation points and variants, with their logical relation and binding time, to abstract the implementation techniques. We show how to extend the framework to trace features with their respective implementation. In addition, we use this framework and provide a tooled approach to check the consistency of the implemented variability. Our method uses slicing to partially check the corresponding propositional formulas at the domain and implementation levels in case of 1–to–m mapping. It offers an early and automatic detection of inconsistencies. As validation, we report on the implementation in Scala of the framework as an internal domain specific language, and of the consistency checking method. These implementations have been applied on a real feature-rich system and on three product line case studies, showing the feasibility of the proposed contributions.
647

Prédiction des efforts de test : une approche basée sur les seuils des métriques logicielles et les algorithmes d'apprentissage automatique

Tshibala Tshitoko, Emmanuel January 2019 (has links) (PDF)
No description available.
648

Towards using intelligent techniques to assist software specialists in their tasks

Ben Sghaier, Oussama 11 1900 (has links)
L’automatisation et l’intelligence constituent des préoccupations majeures dans le domaine de l’Informatique. Avec l’évolution accrue de l’Intelligence Artificielle, les chercheurs et l’industrie se sont orientés vers l’utilisation des modèles d’apprentissage automatique et d’apprentissage profond pour optimiser les tâches, automatiser les pipelines et construire des systèmes intelligents. Les grandes capacités de l’Intelligence Artificielle ont rendu possible d’imiter et même surpasser l’intelligence humaine dans certains cas aussi bien que d’automatiser les tâches manuelles tout en augmentant la précision, la qualité et l’efficacité. En fait, l’accomplissement de tâches informatiques nécessite des connaissances, une expertise et des compétences bien spécifiques au domaine. Grâce aux puissantes capacités de l’intelligence artificielle, nous pouvons déduire ces connaissances en utilisant des techniques d’apprentissage automatique et profond appliquées à des données historiques représentant des expériences antérieures. Ceci permettra, éventuellement, d’alléger le fardeau des spécialistes logiciel et de débrider toute la puissance de l’intelligence humaine. Par conséquent, libérer les spécialistes de la corvée et des tâches ordinaires leurs permettra, certainement, de consacrer plus du temps à des activités plus précieuses. En particulier, l’Ingénierie dirigée par les modèles est un sous-domaine de l’informatique qui vise à élever le niveau d’abstraction des langages, d’automatiser la production des applications et de se concentrer davantage sur les spécificités du domaine. Ceci permet de déplacer l’effort mis sur l’implémentation vers un niveau plus élevé axé sur la conception, la prise de décision. Ainsi, ceci permet d’augmenter la qualité, l’efficacité et productivité de la création des applications. La conception des métamodèles est une tâche primordiale dans l’ingénierie dirigée par les modèles. Par conséquent, il est important de maintenir une bonne qualité des métamodèles étant donné qu’ils constituent un artéfact primaire et fondamental. Les mauvais choix de conception, ainsi que les changements conceptuels répétitifs dus à l’évolution permanente des exigences, pourraient dégrader la qualité du métamodèle. En effet, l’accumulation de mauvais choix de conception et la dégradation de la qualité pourraient entraîner des résultats négatifs sur le long terme. Ainsi, la restructuration des métamodèles est une tâche importante qui vise à améliorer et à maintenir une bonne qualité des métamodèles en termes de maintenabilité, réutilisabilité et extensibilité, etc. De plus, la tâche de restructuration des métamodèles est délicate et compliquée, notamment, lorsqu’il s’agit de grands modèles. De là, automatiser ou encore assister les architectes dans cette tâche est très bénéfique et avantageux. Par conséquent, les architectes de métamodèles pourraient se concentrer sur des tâches plus précieuses qui nécessitent de la créativité, de l’intuition et de l’intelligence humaine. Dans ce mémoire, nous proposons une cartographie des tâches qui pourraient être automatisées ou bien améliorées moyennant des techniques d’intelligence artificielle. Ensuite, nous sélectionnons la tâche de métamodélisation et nous essayons d’automatiser le processus de refactoring des métamodèles. A cet égard, nous proposons deux approches différentes: une première approche qui consiste à utiliser un algorithme génétique pour optimiser des critères de qualité et recommander des solutions de refactoring, et une seconde approche qui consiste à définir une spécification d’un métamodèle en entrée, encoder les attributs de qualité et l’absence des design smells comme un ensemble de contraintes et les satisfaire en utilisant Alloy. / Automation and intelligence constitute a major preoccupation in the field of software engineering. With the great evolution of Artificial Intelligence, researchers and industry were steered to the use of Machine Learning and Deep Learning models to optimize tasks, automate pipelines, and build intelligent systems. The big capabilities of Artificial Intelligence make it possible to imitate and even outperform human intelligence in some cases as well as to automate manual tasks while rising accuracy, quality, and efficiency. In fact, accomplishing software-related tasks requires specific knowledge and skills. Thanks to the powerful capabilities of Artificial Intelligence, we could infer that expertise from historical experience using machine learning techniques. This would alleviate the burden on software specialists and allow them to focus on valuable tasks. In particular, Model-Driven Engineering is an evolving field that aims to raise the abstraction level of languages and to focus more on domain specificities. This allows shifting the effort put on the implementation and low-level programming to a higher point of view focused on design, architecture, and decision making. Thereby, this will increase the efficiency and productivity of creating applications. For its part, the design of metamodels is a substantial task in Model-Driven Engineering. Accordingly, it is important to maintain a high-level quality of metamodels because they constitute a primary and fundamental artifact. However, the bad design choices as well as the repetitive design modifications, due to the evolution of requirements, could deteriorate the quality of the metamodel. The accumulation of bad design choices and quality degradation could imply negative outcomes in the long term. Thus, refactoring metamodels is a very important task. It aims to improve and maintain good quality characteristics of metamodels such as maintainability, reusability, extendibility, etc. Moreover, the refactoring task of metamodels is complex, especially, when dealing with large designs. Therefore, automating and assisting architects in this task is advantageous since they could focus on more valuable tasks that require human intuition. In this thesis, we propose a cartography of the potential tasks that we could either automate or improve using Artificial Intelligence techniques. Then, we select the metamodeling task and we tackle the problem of metamodel refactoring. We suggest two different approaches: A first approach that consists of using a genetic algorithm to optimize set quality attributes and recommend candidate metamodel refactoring solutions. A second approach based on mathematical logic that consists of defining the specification of an input metamodel, encoding the quality attributes and the absence of smells as a set of constraints and finally satisfying these constraints using Alloy.
649

Use of simulators for side-channel analysis: Leakage detection and analysis of cryptographic systems in early stages of development

Veshchikov, Nikita 23 August 2017 (has links) (PDF)
Cryptography is the foundation of modern IT security,it provides algorithms and protocols that can be usedfor secure communications. Cryptographic algorithmsensure properties such as confidentiality and data integrity.Confidentiality can be ensured using encryption algorithms.Encryption algorithms require a secret information called a key.These algorithms are implemented in cryptographic devices.There exist many types of attacks against such cryptosystems,the main goal of these attacks is the extraction of the secret key.Side-channel attacks are among the strongest types of attacksagainst cryptosystems. Side-channel attacks focus on the attacked device, they measure its physicalproperties in order to extract the secret key. Thus, these attacks targetweaknesses in an implementation of an algorithm rather than the abstract algorithm itself.Power analysis is a type of side-channel attacks that can be used to extract a secretkey from a cryptosystem through the analysis of its power consumption whilethe target device executes an encryption algorithm. We can say that the secret information is leaking from the device through itspower consumption. One of the biggest challenges in the domain of side-channel analysisis the evaluation of a device from the perspective of side-channel attacksor in other words the detection of information leakage.A device can be subject to several sources of information leakageand it is actually relatively easy to find just one side-channel attack that works(by exploiting just one source of leakage),however it is very difficult to find all sources of information leakage or to show that there is no information leakage in the givenimplementation of an encryption algorithm. Evaluators use various statistical tests during the analysis of a cryptographic device to checkthat it does not leak the secret key. However, in order to performsuch tests the evaluation lab needs the device to acquire the measurementsand analyse them. Unfortunately, the development process of cryptographicsystems is rather long and has to go through several stages. Thus, an information leakagethat can lead to a side-channel attackcan be discovered by an evaluation lab at the very last stage using the finalproduct. In such case, the whole process has to be restarted in order to fix the issue,this can lead to significant time and budget overheads. The rationale is that developers of cryptographic systems would like to be able to detect issues related to side-channel analysis during the development of the system,preferably on the early stages of its development. However, it is far from beinga trivial task because the end product is not yet available andthe nature of side-channel attacks is such that it exploits the properties ofthe final version of the cryptographic device that is actually available to the end user. The goal of this work is to show how simulators can be used for the detection of issues related to side-channel analysis during the development of cryptosystems.This work lists the advantages of simulators compared to physical experimentsand suggests a classification of simulators for side-channel analysis.This work presents existing simulators that were created for side-channel analysis,more specifically we show that there is a lack of available simulation toolsand that therefore simulators are rarely used in the domain. We present threenew open-source simulators called Silk, Ascold and Savrasca.These simulators are working at different levels of abstraction,they can be used by developers to perform side-channel analysisof the device during different stages of development of a cryptosystem.We show how Silk can be used during the preliminary analysisand development of cryptographic algorithms using simulations based on high level of abstraction source code. We used it to compare S-boxesas well as to compare shuffling countermeasures against side-channel analysis.Then, we present the tool called Ascold that can be used to find side-channel leakagein implementations with masking countermeasure using the analysis of assembly code of the encryption.Finally, we demonstrate how our simulator called Savrasca can be used to find side-channelleakage using simulations based on compiled executable binaries. We use Savrascato analyse masked implementation of a well-known contest on side-channel analysis (the 4th edition of DPA Contest),as a result we demonstrate that the analysed implementation contains a previouslyundiscovered information leakage. Through this work we alsocompared results of our simulated experiments with real experiments comingfrom implementations on microcontrollers and showed that issues found using our simulatorsare also present in the final product. Overall, this work emphasises that simulatorsare very useful for the detection of side-channel leakages in early stages of developmentof cryptographic systems. / Option Informatique du Doctorat en Sciences / info:eu-repo/semantics/nonPublished
650

Développement d'indicateurs biomécaniques en manutention et leur application dans l'étude des différences entre les sexes lors de levers de charges en hauteur

Martinez, Romain 09 1900 (has links)
Les blessures musculo-squelettiques du membre supérieur représentent un problème de santé publique dans le secteur de la manutention. En plus d’affecter la qualité de vie du travailleur, ces lésions entraînent une perte de temps de travail et une augmentation des coûts de production. Alors que nous avons des évidences épidémiologiques que les femmes manutentionnaires sont plus nombreuses que les hommes à souffrir de douleurs à l’épaule, la littérature fait défaut d’indices biomécaniques qui expliquent l'origine de cette différence. L'objectif général de cette thèse était d'améliorer l'évaluation des techniques de manutention du membre supérieur, avec trois objectifs spécifiques : (1) développer des indices cinématiques, électromyographiques et musculo-squelettiques synthétiques pour évaluer et différencier des techniques de manutention du membre supérieur ; (2) développer un logiciel libre d'analyse biomécanique ; et (3) utiliser les indices et le logiciel développés pour décrire les différences biomécaniques entre des femmes et des hommes manutentionnaires. Nous avons récolté des données de cinématique, d'électromyographie et de force sur 30 femmes et 30 hommes réalisant une tâche de manutention qui consistait à déplacer une boîte de 6 et 12 kg entre la hauteur des hanches et la hauteur des yeux. À partir de ces données, nous avons développé des indicateurs synthétiques : un indicateur cinématique utile pour identifier des techniques de manutention problématiques et plus généralement les fonctions articulaires ; des indicateurs électromyographiques qui permettent d'estimer la quantité d'activation musculaire et la co-contraction musculaire ; et des indicateurs musculo-squelettiques qui permettent d'estimer les contraintes musculaires totales et les contraintes appliquées à l'articulation glénohumérale. Nous avons implémenté ces indicateurs avec pyomeca, notre logiciel libre d'analyse biomécanique. Mis à disposition de la communauté biomécanique, pyomeca supporte des tâches utiles dans le quotidien d'un chercheur biomécanique, mais également des routines biomécaniques plus avancées, axées sur la mécanique du corps rigide et le traitement de signal. Ce dernier se démarque des logiciels biomécaniques existants parce que c'est une solution libre, conviviale, spécialisée et sûre. Nous avons ensuite appliqué les indices synthétiques pour décrire les différences biomécaniques entre les femmes et les hommes participant à notre expérimentation. L'indicateur cinématique a montré que les femmes employaient une technique de manutention moins sécuritaire, avec une plus grande contribution glénohumérale, une faible contribution des membres inférieurs et une boite plus éloignée du tronc. Ces différences de technique se sont répercutées sur les indicateurs électromyographiques et musculo-squelettiques, avec des activations musculaires deux fois plus importantes comparativement aux hommes et une moindre stabilité de l'articulation glénohumérale. Ces différences pourraient contribuer à expliquer la prévalence de blessure du membre supérieur plus élevée chez les femmes manutentionnaires. Cette thèse a donc permis de développer des indicateurs synthétiques et un logiciel libre d'analyse biomécanique qui pourraient permettre aux ergonomes d'évaluer l'exposition aux risques de blessures du membre supérieur pendant une tâche de travail dynamique. Appliqués à une population spécifique, ces indicateurs suggèrent qu'il est crucial d'accorder une attention particulière au sexe pendant l'évaluation d'une tâche de travail au-dessus des épaules. / Work-related upper limb musculoskeletal disorders represent a public health challenge in the material handling industry. In addition to affecting the worker's quality of life, these injuries result in lost work time and increased production costs. While we have epidemiological evidence that more female material handlers suffer from shoulder pain than men, the literature is lacking biomechanical indicators that explain the origin of this difference. The general objective of this thesis was to improve the evaluation of upper limb handling techniques, with three specific objectives~: (1) to develop synthetic kinematic, electromyographic and musculoskeletal indicators to evaluate and differentiate upper limb handling techniques~; (2) to develop an open source biomechanical analysis software~; and (3) to use the developed indicators and software to describe the biomechanical differences between female and male workers. We collected kinematics, electromyography and force data on 30 women and 30 men performing a handling task that consisted in lifting a 6 and 12~kg box from hip to eye level. From these data, we developed synthetic indicators~: a kinematic indicator useful to identify poor handling techniques and more generally joint functions~; two electromyographic indicators to quantify the amount of muscle activation and muscle co-contraction~; and two musculoskeletal indicators to estimate total muscle stress and stress applied to the glenohumeral joint. We have implemented these indicators with pyomeca, our open-source biomechanical analysis software. Available to the biomechanical community, pyomeca provide basic operations useful in the daily workflow of a biomechanical researcher, but also more advanced biomechanical routines geared towards rigid body mechanics and signal processing. pyomeca stands from existing biomechanical software because it is an open-source, user-friendly, specialized and secure solution. We then applied our synthetic indicators to describe the biomechanical differences between the women and men participating in our experiment. The kinematic indicator showed that women used a poor handling technique, with a higher glenohumeral contribution, a low contribution from the lower limbs and a box further away from the trunk. These differences in technique affected the electromyographic and musculoskeletal indicators, with twice as much muscle activation compared to men and less glenohumeral stability. These results may contribute to the sex difference in the prevalence of upper limb musculoskeletal disorders. This thesis has enabled the development of biomechanical indicators and an open-source software that could allow ergonomists to assess the upper limb exposure during a dynamic lifting task. Applied to a specific population, these indicators argue for a careful consideration of sex during ergonomics intervention, particularly during overhead work.

Page generated in 0.0829 seconds