• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 57
  • 13
  • 4
  • Tagged with
  • 72
  • 38
  • 17
  • 14
  • 11
  • 10
  • 10
  • 10
  • 9
  • 9
  • 8
  • 8
  • 7
  • 7
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Développement de méthodes de référence pour les biomarqueurs du bilan lipidique : application au contrôle qualité en biologie clinique / Development of reference methods for lipid profile biomarqueurs : application to quality controle in clinical chemistry

Heuillet, Maud 13 December 2013 (has links)
En biologie clinique, il est indispensable de disposer de mesures fiables et comparables dans le temps et entre les laboratoires afin de permettre un dépistage et un suivi appropriés des patients. Pour cela, il est indispensable d’établir leur traçabilité métrologique aux unités du système international notamment par des méthodes de référence primaires ou des matériaux de référence certifiés (MRC) d’ordre supérieur. Ces travaux de thèse ont consisté à développer et valider des méthodes de référence pour le cholestérol total, les triglycérides, le HDL-cholestérol et le LDL-cholestérol. Leur valeur ajoutée par rapport à une valeur consensuelle a été démontrée lors d’évaluations externes de la qualité. Elles ont également permis de certifier un MRC qui pourra être utilisé pour le contrôle qualité et/ou l’étalonnage des méthodes de routine. Nous avons montré que le MRC était commutable pour la plupart des méthodes de routine pour les différents biomarqueurs, ce qui a permis de l’utiliser pour évaluer leur justesse. Les méthodes de routine avaient généralement tendance à sous-estimer la concentration en triglycérides (en particulier aux valeurs basses) et à surestimer nettement la concentration de cholestérol total et de LDL-cholestérol (en particulier aux concentrations proches du seuil de décision clinique), ce qui se traduit par une augmentation du nombre de faux-positifs (patients traités à tort). Une approche de correction de non commutabilité a également été proposée afin de permettre l’utilisation de matériaux non commutables pour évaluer la justesse. Pour conclure, ces travaux ont démontré l’importance de disposer de méthodes de référence ainsi que de MRC commutables / Reliable measurements in medical biology are essential for early screening and appropriate follow-up of patients. Ensuring metrological traceability of clinical measurements to higher order reference methods or certified reference materials enables to obtain comparable results over time and between different laboratories that could use different methods to quantify the same biomarker.In this study, reference methods were developed and validated for lipid profile biomarkers (total cholesterol, triglycerides, HDL-C, and LDL-C). Their value added in proficiency testing schemes was demonstrated against consensus mean. They were also used to characterize a certified reference material (CRM) that may be used both as quality control and/or calibrator of field methods. The CRM was shown to be commutable for most field methods and lipid profile biomarkers, which proved it was suitable to assess trueness. Results of our multicenter study showed that field methods tend to underestimate triglycerides (particularly at low concentrations) and overestimate total cholesterol and LDL-C (especially around the clinical threshold), resulting in false positives and significant patient misclassifications. An approach of non-commutanility correction was also presented to allow trueness assessment with non-commutable samples. In conclusion, this work highlights the importance of using reference methods and also commutable CRM to rigorously assess accuracy of field methods used in clinical laboratories
62

Paramètres minéralogiques et microtexturaux utilisables dans les études de traçabilité des minerais métalliques / Mineralogical and microtextural parameters used in metal ores traceability studies

Machault, Julie 07 November 2012 (has links)
Que ce soit à des fins spéculatives ou pour financer des conflits armés, une grande opacité entoure les filières des concentrés de matières premières minérales dont la demande ne cesse d'augmenter. Compte-tenu de l'éloignement entre les sites primaires d'extraction et les sites de production de produits finis, il est difficile d'identifier l'origine de ces produits. Dans un souci de traçabilité des concentrés, l'établissement d'une carte d'identité du minerai permettrait le contrôle des échanges dans l'industrie minérale. Le problème peut être posé en termes d'inversion: remonter au minerai d'origine en étudiant le produit vendu. Deux stades doivent être distingués: 1) la caractérisation du minerai brut et 2) la « perte de mémoire » des caractéristiques du tout-venant au cours du traitement minéralurgique. Les paramètres retenus sont la composition minéralogique, l'identification de microfaciès caractéristiques des minéraux cibles, la pseudo-succession paragénétique, le contenu et la distribution en éléments mineurs de minéraux cibles. Les minéraux cibles retenus sont la pyrite pour son ubiquité, la sphalérite car elle est susceptible d'incorporer une grande variété d'éléments mineurs, éventuellement valorisants ainsi que la chalcopyrite car elle est souvent liée aux deux autres minéraux. La comparaison de la composition chimique des phases minérales est effectuée en calculant la distance de Kolmogorov-Smirnov et de Colin-White. Des tests ont été réalisés sur les gîtes de type amas sulfuré volcanogène. Ils ont montré que les caractéristiques retenues permettaient de distinguer les pyrites, les sphalérites et les chalcopyrites de deux gisements de la province Sud-Ibérique (IPB), de sept gisements de la province d’Oural et du fumeur noir actuel de Rainbow. Les cartes d’identité obtenues permettent de discriminer les différents sites (IPB, Oural et Rainbow) et les gisements d’une même province. Les paramètres minéralogiques et microtexturaux ont également été suivis au cours du traitement minéralurgique de la mine de Neves Corvo. Pour une chaîne de traitement donnée, le paramètre « perte de mémoire » est une estimation de l'erreur commise lors de l'inversion, mais aussi une façon de caractériser une succession d'opérations minéralurgiques. / The demand in mineral resources is increasing rapidly, but there is a lack of transparency in the trade of concentrated raw mineral materials because of speculation and involvement in the financing of armed conflicts. Because of the distance between the primary extraction and the final production sites it is difficult to check the origin of such products. An identity card is required for minerals which would permit trading in the mineral industry to be verified and ensure traceability of concentrates. This problem may be considered as an inversion process: studying the products sold to identify the original ore. Two steps may be distinguished: 1) the characterization of the raw ore and 2) the “memory loss” of the crude ore characteristics during its mineral processing. The discriminant parameters are mineralogical composition, identification of textural microfacies of the target minerals, pseudo-paragenetic sequence, and the contents and distribution of minor elements of target minerals. The selected target minerals are pyrite, for its ubiquity, sphalerite for its ability to host numerous discriminant and potentially valuable minor elements in its lattice and chalcopyrite for its proximity with the two others minerals. The Kolmogorov-Smirnov distance and the Colin-White test are used to compare the chemical composition of the three target minerals. The application to Volcanic Massive Sulfide ore deposit showed that the selected characteristics permit to distinguish pyrite, sphalerite and chalcopyrite between two ore deposits in the Iberian Pyrite Belt province, seven ore deposits from the Urals province and a currently active Rainbow blacksmoker. From the established identity cards ore deposits from different provinces may be discriminated. Identity cards can also distinguish different deposits in the same province. Evolution of mineralogical and microtextural parameters was studied during the mineral processing of the Neves Corvo mine. For a given processing chain, the “memory loss” parameter is an estimate of the errors introduced in the inversion from concentrate to the original ore and can be used to characterize a given processing flow.
63

Facebook et les dispositifs de traçabilité vus sous l’angle du droit canadien

Abdelkamel, Abdelmadjid 04 1900 (has links)
Aujourd’hui, on parle du Web social. Facebook par exemple, porte bien la marque de son époque ; il est devenu le réseau social le plus convoité dans le monde. Toutefois, l’entreprise a été souvent critiquée en raison de sa politique qui porte atteinte à la vie privée des personnes. Par le truchement de ses modules sociaux, Facebook a le potentiel de collecter et d’utiliser des informations considérables sur les internautes à leur insu et sans leur consentement. Ce fait est malheureusement méconnu de la majorité d’entre eux. Certes, l’entreprise doit vivre économiquement et l’exploitation des renseignements personnels constitue pour elle une source de revenu. Toutefois, cette quête de subsistance ne doit pas se faire au détriment de la vie privée des gens. En dépit des outils juridiques dont le Canada dispose en matière de protection de la vie privée, des entreprises du Web à l’image de Facebook réussissent à les contourner. / Today we talk about the social Web. Facebook for example bears the mark of its time, as it becomes the most coveted social networking Web site in the world. However, the company has been criticized due to its policy that violates people's privacy. Through its social plugins, Facebook has the potential to collect considerable amounts of information about users without their knowledge and without their consent, a fact which is unknown to most of them. Certainly, the company must ensure its economic stability through these activities. However, this quest for subsistence should not be to the detriment of people's privacy. Canada has legal tools for the protection of privacy that allow users to deal with this kind of threat. However, Web companies such Facebook succeed to circumvent the law.
64

INCREMENT une approche hybride pour modéliser et analyser dans le large les exigences réglementaires de sûreté

Sannier, Nicolas 13 December 2013 (has links) (PDF)
Les systèmes de contrôle-commande importants pour la sûreté de fonctionnement doivent répondre à un certain nombre d'exigences, au premier rang desquelles se trouvent les exigences réglementaires, édictées par les autorités nationales et complétées par un ensemble de recommandations pratiques et de textes normatifs. Les exigences de ce domaine sont peu formalisées, les relations de traçabilité, et par conséquent l'organisation des exigences de ce vaste domaine est souvent implicite. Enfin, les passerelles entre contextes nationaux différents sont très peu développées. Les travaux de cette thèse se situent dans ce contexte industriel en partenariat avec EDF R&D et au sein du projet CONNEXION regroupant les acteurs majeurs du contrôle-commande nucléaire français. Les contributions de la thèse s'articulent autour de l'approche INCREMENT (Intrumentation aNd Control regulatory REquirement Modeling Environment) qui adresse les deux premiers challenges présentés, et en particulier : (1) la formalisation du domaine où nous proposons à la fois une description du domaine et un métamodèle permettant une capitalisation et une vue globale d'un référentiel d'exigences, (2) une base outillée pour l'acquisition automatique de documents, un environnement graphique pour la manipulation de modèles et l'apport de techniques de recherche d'information pour la traçabilité des exigences, (3) une approche originale avec une hybridation entre modélisation et recherche d'information pour une amélioration de la traçabilité des exigences. Le métamodèle proposé et ses outils sont utilisés dans l'industrie dans le projet CONNEXION. Notre approche hybride a permis dans nos expérimentations de réduire, en moyenne, la taille de ces espaces de 65% comparé aux approches standard de recherche d'information, sans en dégrader le contenu.
65

Paramètres minéralogiques et microtexturaux utilisables dans les études de traçabilité des minerais métalliques

Machault, Julie 07 November 2012 (has links) (PDF)
Que ce soit à des fins spéculatives ou pour financer des conflits armés, une grande opacité entoure les filières des concentrés de matières premières minérales dont la demande ne cesse d'augmenter. Compte-tenu de l'éloignement entre les sites primaires d'extraction et les sites de production de produits finis, il est difficile d'identifier l'origine de ces produits. Dans un souci de traçabilité des concentrés, l'établissement d'une carte d'identité du minerai permettrait le contrôle des échanges dans l'industrie minérale. Le problème peut être posé en termes d'inversion: remonter au minerai d'origine en étudiant le produit vendu. Deux stades doivent être distingués: 1) la caractérisation du minerai brut et 2) la " perte de mémoire " des caractéristiques du tout-venant au cours du traitement minéralurgique. Les paramètres retenus sont la composition minéralogique, l'identification de microfaciès caractéristiques des minéraux cibles, la pseudo-succession paragénétique, le contenu et la distribution en éléments mineurs de minéraux cibles. Les minéraux cibles retenus sont la pyrite pour son ubiquité, la sphalérite car elle est susceptible d'incorporer une grande variété d'éléments mineurs, éventuellement valorisants ainsi que la chalcopyrite car elle est souvent liée aux deux autres minéraux. La comparaison de la composition chimique des phases minérales est effectuée en calculant la distance de Kolmogorov-Smirnov et de Colin-White. Des tests ont été réalisés sur les gîtes de type amas sulfuré volcanogène. Ils ont montré que les caractéristiques retenues permettaient de distinguer les pyrites, les sphalérites et les chalcopyrites de deux gisements de la province Sud-Ibérique (IPB), de sept gisements de la province d'Oural et du fumeur noir actuel de Rainbow. Les cartes d'identité obtenues permettent de discriminer les différents sites (IPB, Oural et Rainbow) et les gisements d'une même province. Les paramètres minéralogiques et microtexturaux ont également été suivis au cours du traitement minéralurgique de la mine de Neves Corvo. Pour une chaîne de traitement donnée, le paramètre " perte de mémoire " est une estimation de l'erreur commise lors de l'inversion, mais aussi une façon de caractériser une succession d'opérations minéralurgiques.
66

Gestion des connaissances et communication médiatisée : traçabilité et structuration des messages professionnels / Knowledge manageemnt and mediated communication : traceability and structure of professional emais

Rauscher, François 13 October 2016 (has links)
Même si le capital immatériel représente une part de plus en plus importante de la valeur de nos organisations, il n’est pas toujours possible de stocker, tracer ou capturer les connaissances et les expertises, par exemple dans des projets de taille moyenne. Le courrier électronique est encore largement utilisé dans les projets d’entreprise en particulier entre les équipes géographiquement dispersées. Dans cette étude, nous présentons une nouvelle approche pour détecter les zones à l'intérieur de courriels professionnels où des éléments de connaissances sont susceptibles de se trouver. Nous définissons un contexte étendu en tenant compte non seulement du contenu du courrier électronique et de ses métadonnées, mais également des compétences et des rôles des utilisateurs. Également l’analyse pragmatique linguistique est mêlée aux techniques usuelles du traitement de langage naturel. Après avoir décrit notre méthode KTR et notre modèle, nous l'appliquons à un corpus réel d’entreprise et évaluons les résultats en fonction des algorithmes d’apprentissage, de filtrage et de recherche / Even if intangible capital represents an increasingly important part of the value of our enterprises, it’s not always possible to store, trace or capture knowledge and expertise, for instance in middle sized projects. Email it still widely used in professional projects especially among geographically distributed teams. In this study we present a novel approach to detect zones inside business emails where elements of knowledge are likely to be found. We define an enhanced context taking into account not only the email content and metadata but also the competencies of the users and their roles. Also linguistic pragmatic analysis is added to usual natural language processing techniques. After describing our model and method KTR, we apply it to a real life corpus and evaluate the results based on machine learning, filtering and information retrieval algorithms
67

Gestion de la variabilité au niveau du code : modélisation, traçabilité et vérification de cohérence / Handling variability at the code level : modeling, tracing and checking consistency

Tërnava, Xhevahire 01 December 2017 (has links)
Durant le développement de grandes lignes de produits logiciels, un ensemble de techniques d’implémentation traditionnelles, comme l’héritage ou les patrons de conception, est utilisé pour implémenter la variabilité. La notion de feature, en tant qu’unité réutilisable, n’a alors pas de représentation de première classe dans le code, et un choix inapproprié de techniques entraîne des incohérences entre variabilités du domaine et de l’implémentation. Dans cette thèse, nous étudions la diversité de la majorité des techniques d’implémentation de la variabilité, que nous organisons dans un catalogue étendu. Nous proposons un framework pour capturer et modéliser, de façon fragmentée, dans des modèles techniques de variabilité, la variabilité implémentée par plusieurs techniques combinées. Ces modèles utilisent les points de variation et les variantes, avec leur relation logique et leur moment de résolution, pour abstraire les techniques d’implémentation. Nous montrons comment étendre le framework pour obtenir la traçabilité de feature avec leurs implémentations respectives. De plus, nous fournissons une approche outillée pour vérifier la cohérence de la variabilité implémentée. Notre méthode utilise du slicing pour vérifier partiellement les formules de logique propositionnelles correspondantes aux deux niveaux dans le cas de correspondence 1–m entre ces niveaux. Ceci permet d’obtenir une détection automatique et anticipée des incohérences. Concernant la validation, le framework et la méthode de vérification ont été implémentés en Scala. Ces implémentations ont été appliquées à un vrai système hautement variable et à trois études de cas de lignes de produits. / When large software product lines are engineered, a combined set of traditional techniques, such as inheritance, or design patterns, is likely to be used for implementing variability. In these techniques, the concept of feature, as a reusable unit, does not have a first-class representation at the implementation level. Further, an inappropriate choice of techniques becomes the source of variability inconsistencies between the domain and the implemented variabilities. In this thesis, we study the diversity of the majority of variability implementation techniques and provide a catalog that covers an enriched set of them. Then, we propose a framework to explicitly capture and model, in a fragmented way, the variability implemented by several combined techniques into technical variability models. These models use variation points and variants, with their logical relation and binding time, to abstract the implementation techniques. We show how to extend the framework to trace features with their respective implementation. In addition, we use this framework and provide a tooled approach to check the consistency of the implemented variability. Our method uses slicing to partially check the corresponding propositional formulas at the domain and implementation levels in case of 1–to–m mapping. It offers an early and automatic detection of inconsistencies. As validation, we report on the implementation in Scala of the framework as an internal domain specific language, and of the consistency checking method. These implementations have been applied on a real feature-rich system and on three product line case studies, showing the feasibility of the proposed contributions.
68

Vers un paradigme transformationnel dans le développement orienté objet

Khriss, Ismail 05 1900 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal. / Plusieurs modèles de maintenance exigent que les changements soient faits et documentés dans les spécifications des besoins et soient par la suite propagés vers le code source à travers les modè­les d'analyse et de conception. Ces modèles supposent donc un haut niveau de traçabilité comme facteur clé de maintenabilité. Cette traçabilité ne peut être obtenue sans une approche transforma­tionnelle au développement des logiciels. Cette thèse a pour objectif de fournir une approche transformationnelle pour supporter l' ingénie­rie des besoins à l'aide des scénarios et pour appliquer les patrons de conception au moyen d'algorithmes et de processus. Le langage unifié de modélisation (Unified Modeling Language, UML) a été adopté comme notation de modélisation. Dans le support de l'ingénierie des besoins, nous proposons, premièrement, un algorithme incrémental pour la synthèse des spécifications dynamiques à partir des scénarios. Cet algorithme prend comme entrée un ensemble de diagrammes de collaboration d'UML et produit en sortie les diagrammes d'états-transitions d'UML de tous les objets collaborant dans les scénarios d'entrée. En outre cet algorithme permet la vérification de la cohérence et de la complétude des scénarios. Deuxièmement, un autre algorithme est conçu pour la génération d'un prototype de l'interface usager (IU) à partir de la spécification des scénarios. Les scénarios sont acquis sous forme de dia­grammes de collaboration enrichis par des informations de l'IU. Ce prototype de l'IU peut être exécuté par un constructeur d'IU ce qui permet non seulement la validation des scénarios avec les utilisateurs mais aussi sa personnalisation et son raffinement éventuel. L'application automatique des patrons de conception est réalisée par une nouvelle approche pour le raffinement successif des modèles (en format UML) statiques et dynamiques de conception. Ces raffinements successifs sont basés sur des schémas de raffinement. Un schéma de raffinement est composé de deux compartiments. Le premier compartiment décrit le modèle abstrait de con­ception, et le deuxième compartiment montre le modèle détaillé correspondant après l'application d'un patron de conception. Nous proposons aussi un catalogue de schémas de micro-raffinement qui permettent non seulement de décrire un schéma de raffinement mais aussi de prouver sa vali­dité. / Several maintenance models suggest that changes be done and docurnented in the requirernents specification and subsequently propagated through the analysis and design models to the source code. These models require all a high level of traceability. Such traceability can only be obtained by a transformational approach to software development. The objective of this thesis is to provide a transformational approach for supporting requirernents engineering based on scenarios and for applying design patterns by rneans of algorithms and pro­cesses. The Unified Modeling Language (UML) was adopted as the notational framework. For supporting requirements engineering, we propose first an incrernental algorithm for synthesiz­ing behavioral specifications frorn scenarios. This algorithrn generates from a given set of UML collaboration diagrams the UML statechart diagrams of all the abjects involved. Moreover, this algorithm allows for the verification of consistency and cornpleteness of the input scenarios. Secondly, another algorithm is designed to generate a user interface (UI) prototype from scenar­ios. Scenarios are acquired in the form of UML collaboration diagrams, which are enriched with UI information. This UI prototype can be executed in a UI builder environment for the validation of the scenarios by the users, for customization, and for further refinernent. The automatic application of design patterns is achieved by a new approach to the stepwise refine­ment of static and dynamic design models represented as UML diagrams. Refinement is based on refinement schemas which are cornposed of two compartments. The first compartrnent describes the abstract design model, whereas the second compartment shows the corresponding detailed rnodel after application of one design pattern. We also propose a catalogue of smaller transforma­tions called micro-refinement schernas. These micro-refinernent schernas are proven to be correct and can be used to compose correct refinernent schemas.
69

Requirements Engineering Process according to Automotive Standards in a Model-driven Framework / Processus d’ingénierie des exigences dans un environnment à base de modèles selon les normes automobiles

Adedjouma, Morayo 12 July 2012 (has links)
L'industrie automobile des systèmes embarqués critiques est confrontée de nos jours à une complexité croissante, tandis que les coûts, les performances en termes d'intelligence, les caractéristiques, les capacités et les délais de commercialisation de leurs produits sont constamment remises en question. Face à cela, l'objectif principal pour les constructeurs et fournisseurs automobiles devient désormais de contrôler la qualité et la fiabilité des systèmes mécatroniques et embarqués. L'existence de normes internationales comme le HIS Automotive SPICE et l’ISO26262 est une contrainte supplémentaire qu'ils doivent prendre en compte s’ils veulent atteindre cet objectif. De plus, assurer la bonne gestion de la sécurité et la qualité du produit ne suffit pas: il est essentiel de veiller à ce que nous produisons un système qui n'est pas seulement sécuritaire et bien, mais aussi que nous produisons le bon système. Cela induit donc une plus grande prise en compte des exigences.Dans cette thèse, nous traitons le challenge du développement des systèmes embarqués automobiles suivant l’Ingénierie Dirigée par les Modèles (IDM) qui répondent aux exigences des utilisateurs et des standards du domaine et qui permettent de maîtriser davantage la qualité des produits développés. Le problème à résoudre a été abordé sur plusieurs phases qui sont ensuite utilisés conjointement. En premier, nous définissons un métamodèle fusionnant les approches orienté qualité produit et qualité processus selon respectivement les normes ISO26262 et SPICE. Puis, dans un but de certification, nous proposons une méthodologie générique basée sur ce métamodèle commun où une évaluation du processus de développement induite par l’HIS standard ainsi qu’une évaluation de la sécurité fonctionnelle induite par l’ISO2626 sont simultanément effectuées. Ce résultat est traduit au travers de la définition d'un framework outillé où nous appliquons la méthode d'évaluation propre au standard SPICE. En deuxième phase, nous définissons un métamodèle pour gérer les actifs de sécurité concernant ces normes automobiles au niveau produit. Ce métamodèle définit comment capturer les exigences et l’architecture d’un système de telle manière qu'ils puissent être traçables entre eux et également traçables depuis des documents de spécifications d’origine. Enfin, une approche à base de modèle où l'interaction des modèles de processus et le produit est géré afin de répondre aux besoins identifiés dans la première phase est développé pour soutenir la gestion de projet. L'approche utilise la modélisation des processus et leur mesure pour améliorer le contrôle et le suivi de projet et de réduire par la même les coûts et les fréquences de replanification.Les avantages de la contribution sont démontrés sur une application pilote automobile, validant ainsi le travail de recherche au vue des faiblesses identifiées préalablement dans le contexte. / The embedded safety-critical systems industry is facing an exponential increase in the complexity and variety of systems and devices while costs, performance in terms of intelligence, features, capacities and time to market are constantly challenged. The main objective for automotive manufacturers and suppliers is now becoming the control of quality and the dependability of embedded and mechatronic systems. The existence of internationally recognized standards such as the Automotive SPICE and ISO26262 is a further constraint that must be managed to meet this objective. Nevertheless, ensuring sound management of safety and viewpoints is insufficient. It is also essential to ensure that we produce a system that is not only compliant and well-defined, but also that we produce the “right” system. Therefore, this leads to greater consideration of the requirements.In this thesis, we address the challenge of development of automotive embedded systems following the model-driven engineering paradigm that meet the user needs and the regulatory constraints of the domain and that further mastered the quality of developed product. We resolve the problem in many steps which are subsequently used jointly. In the first phase, we define a merging approach which embodies a product quality and process quality approaches regarding the ISO26262 and SPICE standards following the model-driven engineering paradigm. Then, in a certification assessment purpose, we propose a generic methodology where an HIS assessment and a functional safety audit is simultaneously performed without altering their original meanings. This commitment results into the definition of a tooled framework where we apply the SPICE assessment method to the common metamodel defined from the merging work. In a second phase, we define a metamodel for manage safety assets regarding these automotive standards at product level. This metamodel defines how the requirements and architecture of a system can be captured in such a way that they can be traceable from each other and from origin specifications documents. Finally, a model-based approach where the interaction of process and product models is managed to address requirements identified in the precedent phases is developed to support project management. The approach uses process modeling and measurement to improve the control and the monitoring of project and to reduce the cost and frequency of re-planning.The benefits of the contribution are demonstrated on an ongoing automotive pilot application, thereby validating the research work against the weaknesses identified prealably in the context.
70

Gouvernance et étude de l'impact du changement des processus métiers sur les architectures orientées services : une approche dirigée par les modèles

Dahman, Karim 30 October 2012 (has links) (PDF)
La plupart des entreprises évoluent dans des marchés concurrentiels en adaptant rapidement leurs processus métiers. Leur performance dépend de leur capacité à utiliser des techniques d'amélioration continue de leur organisation par la mise au point de Systèmes Informatiques (SI) durables pour l'automatisation des processus. En ce sens, les architectures orientées services (Service Oriented Architectures) ont permis le développement de SI flexibles avec un style d'architecture prédominant de composition de services. Cependant, l'alignement de ces architectures aux impératifs de l'évolution des processus reste une préoccupation centrale. Dans cette thèse, nous étudions la cartographie et l'évolution des processus métiers depuis leur conception jusqu'à leur automatisation dans une architecture orientée services ainsi que son adaptation. Nous proposons une approche d'ingénierie dirigée par les modèles intégrée à un outil de modélisation de processus et de développement d'architectures orientées services. Celle-ci débute par la spécification d'un modèle BPMN (Business Process Modeling Notation) décrivant les interactions des processus métiers. Grâce à une chaîne de transformation automatisée, nous produisons un modèle SCA (Service Component Architecture) décrivant une solution de composition de services. Ceci garantit la traçabilité architecturale entre le niveau métier du SI et son niveau technique puisque les services générés décrivent une {logique applicative} qui met en œuvre la logique métier du modèle BPMN. Ensuite, nous introduisons une méthode de propagation du changement de la logique métier vers la logique applicative qui est fondée sur la synchronisation incrémentale entre les modèles BPMN et SCA. Elle est intégrée à un outil d'analyse de l'impact du changement qui se base sur la réécriture de graphes pour éviter les inconsistances induites par les modifications. Enfin, elle permet de simuler l'impact des évolutions des processus, pour en estimer le coût selon les métriques que nous proposons, avant de procéder à la réingénierie de l'architecture orientée services pour assurer une meilleure gouvernance du changement.

Page generated in 0.0385 seconds