• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 28
  • 15
  • 1
  • Tagged with
  • 42
  • 42
  • 29
  • 27
  • 11
  • 11
  • 9
  • 8
  • 8
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Modélisation d'un réseau électrique de tramway : du composant au système

Morin, Eric 25 January 2005 (has links) (PDF)
L'étude et la modélisation des réseaux d'alimentation électrique de tramway demandent d'adopter une démarche globale de type système. En effet, la présence de nombreuses structures d'électronique de puissance au sein de ces réseaux modifie fortement leur topologie et leur fonctionnement. Les méthodes de modélisation retenues sont ainsi en rupture par rapport aux approches traditionnelles, puisqu'une analyse complète d'un réseau ne peut être dissociée de l'étude de ses éléments constitutifs.Afin de répondre aux enjeux du monde des tramways, le mémoire apporte tout d'abord des méthodes adaptées pour modéliser les lignes de transmission et les transformateurs de sous-station. Deux niveaux d'analyse sont ensuite abordés : un premier dans le domaine temporel (analyse d'un réseau expérimental de tramway), puis un second dans le domaine fréquentiel (développement d'un outil d'estimation spectrale, permettant de calculer les spectres du système de manière exacte).
12

Analyse de code et processus d'évaluation des composants sécurisés contre l'injection de faute / Code analysis and evaluation process for vulnerability detection against fault injection on secure hardware

Dureuil, Louis 12 October 2016 (has links)
Dans le domaine des cartes à puce, les analyses de vulnérabilité demandent d’être à la pointe de l’art en termes d’attaques et de techniques de protection. Une attaque classique est l’injection de fautes, réalisée au niveau matériel notamment par des techniques laser. Pour anticiper les impacts possibles de ce type d'attaque, certaines analyses sont menées au niveau logiciel. Il est donc fortement d’actualité de pouvoir définir des critères et proposer des outils automatiques permettant d’évaluer la robustesse d’une application à ce type d’attaque, d’autant plus que les techniques d’attaques matérielles permettent maintenant d’enchaîner plusieurs attaques (spatiales ou temporelles) au cours d’une exécution. En effet, des travaux de recherche récents évaluent l'impact des contre-mesures face à ce type d'attaque[1], ou tentent de modéliser les injections de faute au niveau C[2]. Le sujet de thèse proposé s'inscrit dans cette problématique, avec néanmoins la particularité novatrice de s'intéresser au couplage des analyses statique et dynamique dans le cas des injections de fautes effectuées au niveau binaire. Un des objectifs de la thèse est d'offrir un cadre paramétrable permettant de simuler des attaques par faute telles qu'elles peuvent être réalisées par le laboratoire CESTI-LETI au niveau matériel. Il faudra donc proposer un modèle intermédiaire générique permettant de spécifier des contraintes réelles comme par exemple les différents types de mémoires (RAM, EEPROM, ROM), qui peuvent induire des fautes permanentes ou volatiles. Concilier les analyses statiques du code et l'injection de fautes dynamiques devra permettre de maîtriser la combinatoire des exécutions et de guider l'analyse à l'aide de patterns d'attaques. À ce titre, on sera amené à proposer une taxonomie des attaques et de nouvelles modélisations d'attaques. Il faudra également adapter les outils d'analyse statique aux conséquences de l'injection dynamique de fautes, qui peut modifier profondément le code en changeant l'interprétation des instructions, ce qui a un effet similaire à la génération de code à l'exécution. Ce sujet de thèse s'inscrit dans la stratégie d'innovation du CESTI-LETI et pourra aboutir à un vérificateur automatique de code utilisable par les évaluateurs du CESTI-LETI. [1] A. Séré, J-L. Lanet et J. Iguchi-Cartigny. « Evaluation of Countermeasures Against Fault Attacks on Smart Cards ». en. In : International Journal of Security and Its Applications 5.2 (2011). [2] Xavier Kauffmann-Tourkestansky. « Analyses sécuritaires de code de carte à puce sous attaques physiques simulées ». Français. THESE. Université d’Orléans, nov. 2012. url : http://tel.archives-ouvertes.fr/tel-00771273. / Vulnerability detections for smart cards require state of the art methods both to attack and to protect the secure device. A typical type of attack is fault injection, most notably performed by means of laser techniques. To prevent some of the consequences of this kind of attacks, several analyses are conducted at the software level. Being able to define criteria and to propose automated tools that can survey the robustness of an application to fault injection is thus nowadays a hot topic, even more so since the hardware attack techniques allow today an attacker to perform several attacks in a single software execution. Indeed, recent research works evaluate the effectiveness of counter-measures against fault injection[1], or attempt to develop models of fault injection at the C level[2]. This thesis project addresses the issue of multiple faults injection, albeit by adding the distinctive aspect of static and dynamic analysis interaction in a context of binary-level fault injection. An objective of the thesis is to achieve a configurable framework to simulate fault injections in the way they are currently performed by the CESTI-LETI laboratory on the actual hardware. To do so we will develop a generic intermediate model that will allow us to specify hardware constraints, such as the various kinds of memories (RAM, EEPROM, ROM), whose different properties can induce either permanent or volatile faults. Combining the static code analysis with dynamic fault injections should prevent the combinatory explosion of the executiions while attack patterns will guide the analysis. A taxonomy of attacks and new attack modelisations could emerge from this work. An adaption of the tools for static analysis is also required, because dynamic fault injection can deeply change the code by modifying the interpretation of the instructions, in a similar manner to dynamic compilation. This thesis project falls within the CESTI-LETI's innovation strategy, et could lead to an automated code verifier that could be used by the CESTI-LETI evaluation specialists. [1] A. Séré, J-L. Lanet et J. Iguchi-Cartigny. « Evaluation of Countermeasures Against Fault Attacks on Smart Cards ». en. In : International Journal of Security and Its Applications 5.2 (2011). [2] Xavier Kauffmann-Tourkestansky. « Analyses sécuritaires de code de carte à puce sous attaques physiques simulées ». Français. THESE. Université d’Orléans, nov. 2012. url : http://tel.archives-ouvertes.fr/tel-00771273.
13

Vérification de propriétés temporelles sur des logiciels avioniques par analyse dynamique formelle / Verification of temporal properties on avionics software using formal dynamic analysis

Ferlin, Antoine 03 September 2013 (has links)
La vérification de logiciels est une activité dont l'importance est cruciale pour les logiciels embarqués critiques. Les différentes approches envisageables peuvent être classées en quatre catégories : les méthodes d'analyse statique non formelles, les méthodes d'analyse statique formelles, les méthodes d'analyse dynamique non formelles et les méthodes d'analyse dynamique formelles. L'objectif de cette thèse est de vérifier des propriétés temporelles dans un cadre industriel, par analyse dynamique formelle.La contribution comporte trois parties. Un langage adapté à l'expression des propriétés à vérifier, tirées du contexte industriel d'Airbus, a été dé ni. Il repose notamment sur la logique temporelle linéaire mais également sur un langage d'expressions régulières.La vérification d'une propriété temporelle s'effectue sur une trace d'exécution d'un logiciel, générée à partir d'un cas de test pré-existant. L'analyse statique est utilisée pour générer la trace en fonction des informations nécessaires à la vérification de la propriété temporelle formalisée.Cette approche de vérification propose une solution pragmatique au problème posé par le caractère ni des traces considérées. Des adaptations et des optimisations ont également été mises en œuvre pour améliorer l'efficacité de l'approche et faciliter son utilisation dans un contexte industriel. Deux prototypes ont été implémentés,des expérimentations ont été menées sur différents logiciels d'Airbus. / Software Verification is decisive for embedded software. The different verification approaches can be classified in four categories : non formal static analysis,formal static analysis, non formal dynamic analysis and formal dynamic analysis.The main goal of this thesis is to verify temporal properties on real industrial applications,with the help of formal dynamic analysis.There are three parts for this contribution. A language, which is well adapted to the properties we want to verify in the Airbus context was defined. This language is grounded on linear temporal logic and also on a regular expression language.Verification of a temporal property is done on an execution trace, generated from an existing test case. Generation also depends on required information to verify the formalized property. Static analysis is used to generate the trace depending on the formalized property.The thesis also proposes a pragmatic solution to the end of trace problem. In addition,specific adaptations and optimisations were defined to improve efficiency and user-friendliness and thus allow an industrial use of this approach. Two applications were implemented. Some experiments were led on different Airbus software.
14

Contribution à la vérification de programmes C par combinaison de tests et de preuves. / Contribution to software verification combining tests and proofs

Petiot, Guillaume 04 November 2015 (has links)
La vérification de logiciels repose le plus souvent sur une spécification formelle encodant les propriétés du programme à vérifier. La tâche de spécification et de vérification déductive des programmes est longue et difficile et nécessite une connaissance des outils de preuve de programmes. En effet, un échec de preuve de programme peut être dû à une non-conformité du code par rapport à sa spécification, à un contrat de boucle ou de fonction appelée trop faible pour prouver une autre propriété, ou à une incapacité du prouveur. Il est souvent difficile pour l’utilisateur de décider laquelle de ces trois raisons est la cause de l’échec de la preuve car cette information n’est pas (ou rarement) donnée par le prouveur et requiert donc une revue approfondie du code et de la spécification. L’objectif de cette thèse est de fournir une méthode de diagnostic automatique des échecs de preuve afin d’améliorer le processus de spécification et de preuve des programmes C. Nous nous plaçons dans le cadre de la plate-forme d’analyse des programmes C FRAMA-C, qui fournit un langage de spécification unique ACSL, un greffon de vérification déductive WP et un générateur de tests structurels PATHCRAWLER. La méthode que nous proposons consiste à diagnostiquer les échecs de preuve en utilisant la génération de tests structurels sur une version instrumentée du programme d’origine / Software verification often relies on a formal specification encoding the program properties to check. Formally specifying and deductively verifying programs is difficult and time consuming and requires some knowledge about theorem provers. Indeed, a proof failure for a program can be due to a noncompliance between the code and its specification, a loop or callee contrat being insufficient to prove another property, or a prover incapacity. It is often difficult for the user to decide which one of these three reasons causes a given proof failure. Indeed, this feedback is not (or rarely) provided by the theorem prover thus requires a thorough review of the code and the specification. This thesis develops a method to automatically diagnose proof failures and facilitate the specification and verification task. This work takes place within the analysis framework for C programs FRAMAC, that provides the specification language ACSL, the deductive verification plugin WP, and the structural test generator PATHCRAWLER. The proposed method consists in diagnosing proof failures using structural test generation on an instrumented version of the program under verification.
15

Demande dynamique de santé physique chez les aînés : un modèle décisionnel unifiant mathématiques et théories du vieillissement réussi

Doyon, Michaël January 2017 (has links)
Moteur de développement scientifique, le concept de vieillissement réussi a su mobiliser les chercheurs dans la construction d'un savoir cumulatif et riche en diversité méthodologique. Cinq décennies de recherche multidisciplinaire ont porté la réflexion gérontologique au-delà de la simple notion de survie, où l'approche quantitative longitudinale, la modélisation par équations structurelles (SEM) et l'argumentation mathématique assument un rôle contemporain grandissant. Traditionnellement absent de la littérature gérontologique, la construction d'un lien analytique formel entre le processus de théorisation et l'analyse quantitative motive le but de cette étude doctorale: Formuler et valider un modèle dynamique de demande de santé physique chez les aînés, dans l'optique plus large de l'élaboration d'un système multidimensionnel d'équations structurelles définissant le vieillissement réussi. Trois objectifs complémentaires sont poursuivis à cette fin: 1) l'élaboration d'un cadre théorique décisionnel, intégrant les principales théories du vieillissement réussi et l'approche microéconomique néo-classique; 2) la dérivation formelle de la demande dynamique de santé physique chez les aînés, fondée sur l'extension mathématique du modèle de Grossman; et 3) l'estimation convergente et non-biaisée des déterminants contemporains de la performance physique des aînés. Ce dernier objectif aborde formellement les phénomènes d'attrition sélective, d'endogénéité statistique et d'hétérogénéité interindividuelle qui accompagnent la recherche quantitative longitudinale sur le vieillissement, où un modèle autorégressif multivarié à erreurs composées est appliqué aux données de l’Étude longitudinale québécoise sur la nutrition comme déterminant d'un vieillissement réussi (NuAge). L'étude secondaire NuAge propose le suivi pluriméthodologique (sociologique, nutritionnel, médical, fonctionnel, anthropométrique) et longitudinal (quatre vagues annuelles successives d'entretiens en face-à-face) de 1793 participants (853 hommes, 940 femmes), âgés entre 67 et 84 ans au moment du recrutement, en bonne santé générale et vivant à domicile dans les régions de Montréal, Laval et de l'Estrie, dans la province de Québec au Canada. Les résultats empiriques les plus saillants exposent la nature dynamique, multidimensionnelle et hautement hétérogène de la composante physiologique du vieillissement réussi. Un haut degré de résilience physique est observé pour l'ensemble des variables dépendantes de force (préhension, biceps, quadriceps) et de mobilité (levers de chaise, vitesse de marche, Timed Up & Go [TUG]) étudiées, où le contrôle de l'hétérogénéité inobservée fixe (hérédité, personnalité, aptitudes...) réduit significativement l'amplitude de réserve physiologique. Le contrôle des effets fixes tend également à amplifier l'impact négatif de l'âge sur la performance physique des aînés, suggérant à son tour une hétérogénéité interindividuelle favorable au vieillissement réussi. Globalement, les modèles à erreurs composées exposent l'effet positif et contemporain d'une bonne santé mentale sur la performance physique des individus âgés. Les capacités cognitives affectent également la santé physique des aînés, où chaque point additionnel au score 3MS neutralise près de 0,90 année d'effet d'âge sur la force de préhension et sur le temps d'exécution du test TUG. L'analyse empirique permet de plus de dégager certains résultats au niveau des habitudes de vie et de l'autonomie fonctionnelle, exposant l'impact négatif du risque nutritionnel sur la force de préhension, l'impact positif et immédiat de la marche extérieure sur la performance au test TUG, l'impact positif des tâches domestiques lourdes sur la force quadriceps et la performance au test TUG, de même que la causalité positive entre la dépendance fonctionnelle (AVQ) et le temps d'exécution du test TUG.
16

Génération efficace de graphes d’appels dynamiques complets

Ikhlef, Hajar 11 1900 (has links)
Analyser le code permet de vérifier ses fonctionnalités, détecter des bogues ou améliorer sa performance. L’analyse du code peut être statique ou dynamique. Des approches combinants les deux analyses sont plus appropriées pour les applications de taille industrielle où l’utilisation individuelle de chaque approche ne peut fournir les résultats souhaités. Les approches combinées appliquent l’analyse dynamique pour déterminer les portions à problèmes dans le code et effectuent par la suite une analyse statique concentrée sur les parties identifiées. Toutefois les outils d’analyse dynamique existants génèrent des données imprécises ou incomplètes, ou aboutissent en un ralentissement inacceptable du temps d’exécution. Lors de ce travail, nous nous intéressons à la génération de graphes d’appels dynamiques complets ainsi que d’autres informations nécessaires à la détection des portions à problèmes dans le code. Pour ceci, nous faisons usage de la technique d’instrumentation dynamique du bytecode Java pour extraire l’information sur les sites d’appels, les sites de création d’objets et construire le graphe d’appel dynamique du programme. Nous démontrons qu’il est possible de profiler dynamiquement une exécution complète d’une application à temps d’exécution non triviale, et d’extraire la totalité de l’information à un coup raisonnable. Des mesures de performance de notre profileur sur trois séries de benchmarks à charges de travail diverses nous ont permis de constater que la moyenne du coût de profilage se situe entre 2.01 et 6.42. Notre outil de génération de graphes dynamiques complets, nommé dyko, constitue également une plateforme extensible pour l’ajout de nouvelles approches d’instrumentation. Nous avons testé une nouvelle technique d’instrumentation des sites de création d’objets qui consiste à adapter les modifications apportées par l’instrumentation au bytecode de chaque méthode. Nous avons aussi testé l’impact de la résolution des sites d’appels sur la performance générale du profileur. / Code analysis is used to verify code functionality, detect bugs or improve its performance. Analyzing the code can be done either statically or dynamically. Approaches combining both analysis techniques are most appropriate for industrial-scale applications where each one individually cannot provide the desired results. Blended analysis, for example, first applies dynamic analysis to identify problematic code regions and then performs a focused static analysis on these regions. However, the existing dynamic analysis tools generate inaccurate or incomplete data, or result in an unacceptably slow execution times. In this work, we focus on the generation of complete dynamic call graphs with additional information required for blended analysis. We make use of dynamic instrumentation techniques of Java bytecode to extract information about call sites and object creation sites, and to build the dynamic call graph of the program. We demonstrate that it is possible to profile real-world applications to efficiently extract complete and accurate information. Performance measurement of our profiler on three sets of benchmarks with various workloads places the overhead of our profiler between 2.01 and 6.42. Our profiling tool generating complete dynamic graphs, named dyko, is also an extensible platform for evaluating new instrumentation approaches. We tested a new adaptive instrumentation technique for object creation sites which accommodates instrumentation to the bytecode of each method. We also tested the impact of call sites resolution on the overall performance of the profiler.
17

Technique de visualisation pour l’identification de l’usage excessif d’objets temporaires dans les traces d’exécution

Duseau, Fleur 12 1900 (has links)
De nos jours, les applications de grande taille sont développées à l’aide de nom- breux cadres d’applications (frameworks) et intergiciels (middleware). L’utilisation ex- cessive d’objets temporaires est un problème de performance commun à ces applications. Ce problème est appelé “object churn”. Identifier et comprendre des sources d’“object churn” est une tâche difficile et laborieuse, en dépit des récentes avancées dans les tech- niques d’analyse automatiques. Nous présentons une approche visuelle interactive conçue pour aider les développeurs à explorer rapidement et intuitivement le comportement de leurs applications afin de trouver les sources d’“object churn”. Nous avons implémenté cette technique dans Vasco, une nouvelle plate-forme flexible. Vasco se concentre sur trois principaux axes de con- ception. Premièrement, les données à visualiser sont récupérées dans les traces d’exécu- tion et analysées afin de calculer et de garder seulement celles nécessaires à la recherche des sources d’“object churn”. Ainsi, des programmes de grande taille peuvent être vi- sualisés tout en gardant une représentation claire et compréhensible. Deuxièmement, l’utilisation d’une représentation intuitive permet de minimiser l’effort cognitif requis par la tâche de visualisation. Finalement, la fluidité des transitions et interactions permet aux utilisateurs de garder des informations sur les actions accomplies. Nous démontrons l’efficacité de l’approche par l’identification de sources d’“object churn” dans trois ap- plications utilisant intensivement des cadres d’applications framework-intensive, inclu- ant un système commercial. / Nowadays, large framework-intensive programs are developed using many layers of frameworks and middleware. Bloat, and particularly object churn, is a common per- formance problem in framework-intensive applications. Object churn consists of an ex- cessive use of temporary objects. Identifying and understanding sources of churn is a difficult and labor-intensive task, despite recent advances in automated analysis tech- niques. We present an interactive visualization approach designed to help developers quickly and intuitively explore the behavior of their application with respect to object churn. We have implemented this technique in Vasco, a new flexible and scalable visualization platform. Vasco follows three main design goals. Firstly, data is collected from execu- tion traces. It is analyzed in order to calculate and keep only the data that is necessary to locate sources of object churn. Therefore, large programs can be visualized while keeping a clear and understandable view. Secondly, the use of an intuitive view allows minimizing the cognitive effort required for the visualization task. Finally, the fluidity of transitions and interactions allows users to mentally preserve the context throughout their interactions. We demonstrate the effectiveness of the approach by identifying churn in three framework-intensive applications, including a commercial system.
18

Rétro ingénierie des modèles d’objets dynamiques pour JavaScript

Boudraa, Dalil 05 1900 (has links)
La compréhension des objets dans les programmes orientés objet est une tâche impor- tante à la compréhension du code. JavaScript (JS) est un langage orienté-objet dyna- mique, et son dynamisme rend la compréhension du code source très difficile. Dans ce mémoire, nous nous intéressons à l’analyse des objets pour les programmes JS. Notre approche construit de façon automatique un graphe d’objets inspiré du diagramme de classes d’UML à partir d’une exécution concrète d’un programme JS. Le graphe résul- tant montre la structure des objets ainsi que les interactions entre eux. Notre approche utilise une transformation du code source afin de produire cette in- formation au cours de l’exécution. Cette transformation permet de recueillir de l’infor- mation complète au sujet des objets crées ainsi que d’intercepter toutes les modifications de ces objets. À partir de cette information, nous appliquons plusieurs abstractions qui visent à produire une représentation des objets plus compacte et intuitive. Cette approche est implémentée dans l’outil JSTI. Afin d’évaluer l’utilité de l’approche, nous avons mesuré sa performance ainsi que le degré de réduction dû aux abstractions. Nous avons utilisé les dix programmes de réfé- rence de V8 pour cette comparaison. Les résultats montrent que JSTI est assez efficace pour être utilisé en pratique, avec un ralentissement moyen de 14x. De plus, pour 9 des 10 programmes, les graphes sont suffisamment compacts pour être visualisés. Nous avons aussi validé l’approche de façon qualitative en inspectant manuellement les graphes gé- nérés. Ces graphes correspondent généralement très bien au résultat attendu. Mots clés: Analyse de programmes, analyse dynamique, JavaScript, profilage. / Understanding of objects in object-oriented programs is an important task for understanding the code. JavaScript (JS) is a dynamic object-oriented language, Its dynamic nature makes understanding its source code very difficult. In this thesis, we focus on object analysis in JS programs to automatically produce a graph of objects inspired by UML class diagrams from an execution trace. The resulting graph shows the structure of the objects as well as their interconnections. Our approach uses a source-to-source transformation of the original code in order to collect information at runtime. This transformation makes it possible to collect complete information with respect to object creations and property updates. From this information, we perform multiple abstractions that aim to generate a more compact and intuitive representation of objects. This approach has been implemented in the JSTI prototype. To evaluate our approach, we measured its performance and the graph compression achieved by our abstractions. We used the ten V8 benchmarks for this purpose. Results show that JSTI is efficient enough to be used in practice, with an average slowdown of around 14x. Moreover, for 9 out of the 10 studied programs, the generated object graphs are sufficiently small to be visualized directly by developers. We have also performed a qualitative validation of the approach by manually inspecting the generated graphs. We have found that the graphs generated by JSTI generally correspond very closely to the expected results. Keywords: Program analysis, dynamic analysis, JavaScript, profiling.
19

A formal framework for run-time verification of Web applications : an approach supported by ccope-extended linear temporal logic

Haydar, May January 2007 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
20

Analyse d'impacts du lancement de procédés innovants : application des théories multicritères pour une évaluation robuste / Impact analysis of innovative product launched on the market : application of multicriteria and multiagent approaches

Toledo Rojas, Francisco 04 April 2014 (has links)
Cette recherche se place dans le domaine de l’ingénierie industrielle, plus exactement aux premières étapes du processus d´innovation (Fuzzy Front-End). Aujourd´hui dans un monde globalisé, où la technologie est à la portée de tous, les entreprises cherchent de nouvelles techniques permettant de se distinguer de la concurrence, et offrent de nouveaux et meilleurs produits ou services ; une manière de conserver leurs avantages comparatifs ou d’en acquérir de nouveaux, pour des clients toujours plus exigeants, et dont les besoins changent constamment. Partant de ce constat, l’innovation se définit comme un processus long et continu, au sein duquel s’utilisent différents modèles. Du fait de la complexité du processus, il n’existe pas de modèle unique réunissant tous les besoins des clients. C’est pourquoi le processus d’innovation, implique différents acteurs de l’entreprise et de son environnement. Ces acteurs, dont l’importance varie, sont souvent d’origines diverses et possèdent des compétences variées. Ils ont des besoins différents, et sont soumis à des contraintes de travail différentes (ressources technologiques et financières, réglementations, etc...). Il paraît ainsi essentiel pour l’entreprise de créer un modèle unique, capable d’identifier les besoins de toutes les parties prenantes, avant d’entamer le processus de développement de nouveaux produits. C’est pour l’entreprise une manière de renforcer le processus d’innovation, et de réduire le taux d´échec lors du lancement de nouveaux produits. Ainsi l’objectif de cette étude est de proposer une nouvelle méthode d’analyse des impacts de l’innovation (A.I), afin de permettre aux entreprises d’identifier les besoins dynamiques des acteurs. Celles-ci pourront ainsi mieux définir leurs nouveaux produits et s’adapter plus facilement aux évolutions du marché. Cet outil fait partie d´une méthodologie de gestion des projets innovants, et doit être utilisé avant la définition des caractéristiques fonctionnelles du nouveau produit. Ceci nous ramène aux premières phases du développement, avant la conception du produit, qui comprennent toutes les étapes depuis la définition des besoins et opportunités pour l´innovation, jusqu’à la prise de décision pour le développement du nouveau produit, appelée Fuzzy Front-End. L’apport théorique de notre travail : Il n´existe pas de définition des impacts de l’innovation (I_n), nous avons donc fait un travail bibliographique sur le concept d’impact. Celui-ci a permis d’explorer les différentes définitions d´impact au sein de différentes disciplines (ingénierie, écologie, psychologie, etc.). Nous avons proposé de cette manière, notre propre définition de l’impact adaptée au contexte de l´innovation. Cette recherche bibliographique, nous a aussi permis d’identifier les différents types d´impacts et de justifier l´utilisation de différentes méthodologies. La contribution méthodologique : l’approche proposée pour l´analyse des impacts de l´innovation (A.I) se décompose en deux étapes. La première vise à modéliser l’« écosystème d´innovation », sur la base des relations, de l´importance et des besoins individuels de chacun des acteurs face au nouveau produit. Ceci grâce à une Analyse des Besoins Dynamiques (A.B.D), qui permettra d´obtenir les besoins agrégés permettant de représenter le système complet, sans considérer les possibles perturbations du milieu extérieur ou les impacts de la même innovation. Pour bien identifier et décrire les besoins des acteurs, nous avons basé la méthodologie sur l´observation de leurs activités. Ainsi, nous avons pu identifier les différents besoins des acteurs de l´innovation sur la base de l’analyse RAR (Ressources, Activités, Résultat), ensuite nous avons classifié les besoins grâce au modèle de KANO et ses améliorations réalisées par Tontini. Une méthode originale d’agrégation des besoins de tous les acteurs est proposée.[...] / This research belongs to the industrial engineering field, focusing on the first stages of the innovation process (Fuzzy Front-End). In a globalized world, where the technology is near to everyone, enterprises are looking for new technologies to be different from their competitors, offering new and better products / services as a strategy to keep or acquire new competitive advantages. Moreover, innovation is a large and continuous process, where different management models are used. But, because of the complexity of the process, no general model is suitable for situations and projects. Thus, the innovation process involves different stakeholders from the company and its environment. These individuals come from different origins (field of knowledge), have different needs, abilities, importance and work under different restrictions (technological or financial resources, work rules, etc.). Consequently, it is essential for the enterprise to identify all the needs of the parts involved in the products. And, a model is required in order to identify the stakeholder’s needs before starting design tasks. This model aims at more robustness in the new product development process and at the reduction of the failure rate when launching new products. Thus, the objective of this PhD thesis is to propose a new method to analyze the impact of the innovation, allowing companies to identify the dynamic actors' needs, to improve the definition of their new products and to adapt to the possible changes of the market. This tool is part of an innovative projects management methodology, used before the elaboration of the functional specifications of a new product. This locates the research in the first stages of development called Fuzzy Front-End: before the genesis of the product. Fuzzy front ends integrate among others the opportunity / needs identification for innovation to the development of the new product decision taking. The proposed approach for the innovation impact analysis (A.I) consists of two stages: the first one intends to model an innovation ecosystem, integrating the relations, the importance of each stakeholder and their individual necessities in regard to the new product. Through a Dynamic Needs Analysis (A.B.D) it will be possible to get the global needs, which represent the whole system, without considering the disturbances of the environment or the impact of the same innovation. Thus, the second stage of the model, through the generation of innovation impact scenarios (S.I.I), evaluates the impact of the innovation the new product may face at its market launching. Due to a new product emergence changes emerge: actors’ performance, their interrelations, the importance and their own needs about the product [...]

Page generated in 0.0749 seconds