• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 3
  • 1
  • Tagged with
  • 17
  • 11
  • 6
  • 6
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Développement d'une méthode de quantification absolue et multiplexe par spectrométrie de masse, pour les enzymes du métabolisme central d'Escherichia coli : application à des problématiques d'ingénierie métabolique / Development of an absolute and multiplex MS-based quantification method for Escherichia coli central metabolism enzymes : application for metabolic engineering purposes

Trauchessec, Mathieu 28 November 2013 (has links)
L'ingénierie métabolique vise à développer des souches très performantes permettant de produire des composés d'intérêts. Pour cela, des modèles de prédiction des flux métaboliques sont développés (GEMs = GEnome-scale Models), intégrant un ensemble de données OMICS. En particulier, l'estimation des quantités exactes d'enzymes est cruciale afin de déterminer les paramètres cinétiques, mais reste difficile à obtenir de manière multiplexe et exacte. Ces travaux de doctorat ont permis de développer une méthode analytique afin de générer des données protéomique quantitative exactes et multiplexes, basée sur l'utilisation de protéines standards couplée à une technique de spectrométrie de masse appellée « Selected Reaction Monitoring ». Cette méthode analytique a été appliquée à une souche référence et deux souches modifiées d'E. coli, optimisées pour produire des quantités élevées de NADPH. Les résultats obtenus démontrent que ce type de données, couplées à des données de flux, permettent de distinguer différents niveaux de régulation, soit au niveau de la quantité d'enzyme, soit de l'activité enzymatique. De plus, la mesure exacte et multiplexe des quantités d'enzyme est une avancée technique majeure dans le développement de modèles prédictifs dynamiques en ingénierie métabolique. / Metabolic engineering aims at designing high performance strains to produce compounds of interest. For this purpose and to predict metabolic fluxes, GEnome-scale Models (GEMs) are developed, integrating multi-OMICS experimental data. Particularly, accurate enzymes amounts are crucial data to determine kinetic parameters but remain difficult to obtain in a multiplexed and accurate fashion. In this Ph.D work we developed a highly accurate and multiplexed workflow for generating quantitative proteomic data, using full length protein labelled standards coupled to a mass spectrometry-based technique called Selected Reaction Monitoring. This workflow was applied to E. coli strains: a wild-type strain and two other strains optimized for higher NADPH production. Results demonstrated that such data combined with measurements of metabolic fluxes, allow apprehending different levels of regulation, namely enzyme abundance and activity. In addition, accurate measurement of enzyme concentration is a key technology for the development of predictive kinetic models in the context of metabolic engineering.
12

A prescriptive approach to derive value-based requirements specification : application to the requirements engineering of commercial aircraft

Zhang, Xinwei 30 January 2012 (has links) (PDF)
Ces dernières années, la conception de produit vise de plus en plus à remettre le client aucentre du processus de développement. De nouvelles méthodes et outils ont permis de formaliser nonseulement l'identification des besoins et des attentes du client mais également leur transformation enexigences. Cependant, malgré les progrès récemment apparus dans ce domaine, la notion de valeurperçue par le client qui est associée au produit reste faiblement considérée durant le développement duproduit alors que la perception de cette valeur par le client va jouer un rôle clé au moment du choix duproduit.Dans cette thèse, nous proposons une approche normative visant l'intégration de la notion devaleur du produit dans le processus d'établissement des exigences. Un état de l'art présente lesconcepts et les pratiques impliqués dans le déploiement de la fonction de qualité, étroitement liée auprocessus de spécification des exigences basé sur la valeur. Ces concepts sont relatifs aux notionsd'objectifs, de modèles de la valeur, de fonctions d'utilité multi attributs et de hiérarchie et de réseauxd'objectifs.Notre approche se déroule en 4 étapes : (1) identifier et structurer les objectifs à partir del'expression des attentes du client, (2) spécifier les attributs de la valeur perçue par le client etconstruire un modèle de la valeur client, (3) transformer les objectifs en exigences pour construire unmodèle global de la valeur produit et (4) dériver ce modèle global en un modèle de la valeur pourchaque composant du produit. Cette approche permet ainsi de prendre en compte explicitement lavaleur produit perçue par le client en l'intégrant dans les phases de développement, ce qui favorise uneconception proactive dirigée par la valeur.Nous l'illustrons sur un exemple d'avion de ligne développé en Vanguard Studio. Cet exemplea été élaboré par l'ensemble des partenaires au cours du projet Européen IST CRESCENDO et sert decas-test pour ce projet
13

Modélisation et mise en œuvre de processus collaboratifs ad hoc / Modeling and enacting ad hoc collaborative processes

Kedji, Komlan Akpédjé 05 July 2013 (has links)
Le développement logiciel est une activité intensément collaborative. Les problématiques habituelles de collaboration (organisation des tâches, utilisation des ressources, communication, etc.) y sont exacerbées par le rythme rapide des changements, la complexité et la grande interdépendance des artéfacts, le volume toujours croissant d’informations de contexte à traiter, la distribution géographique des participants, etc. Par conséquent, la question du support outillé de la collaboration se pose plus fortement que jamais en ingénierie logicielle. Dans cette thèse, nous abordons la question de la collaboration sous l’angle de la modélisation et de l’exploitation des processus de développement. Ces derniers sont traditionnellement considérés comme une structure imposée sur le développement d’un produit logiciel. Cependant, une part importante de la collaboration en génie logiciel est de nature ad hoc, faite d’activités non planifiées. Afin de faire contribuer les processus logiciels au support de la collaboration, en particulier celle non planifiée, nous nous intéressons à leur fonction de banques d’information sur les éléments clés de cette collaboration et les interactions entre ces derniers. Notre contribution est, d’une part, un modèle conceptuel du support au développement collaboratif, capable de rendre compte de la structure d’outils classiques comme ceux de gestion de versions ou de gestion de défauts logiciels. Ce modèle conceptuel est ensuite appliqué aux modèles de processus logiciels. Nous définissons ainsi une approche globale d’exploitation des informations de processus pour le support de la collaboration, basée sur les notions centrales de langage de requête d’information et de mécanisme de réaction aux événements. D’autre part, nous proposons un métamodèle, CMSPEM (Collaborative Model-Based Software & System Process Engineering Metamodel), qui enrichit le standard SPEM (Software & System Process Engineering Metamodel) avec des concepts et relations nécessaires au support de la collaboration. Ce métamodèle est outillé avec des outils de création de modèle (éditeurs graphiques et textuels), et un serveur de processus offrant un langage de requêtes basé sur HTTP/REST et un framework de souscription et de réaction aux événements de processus. Enfin, notre approche conceptuelle a été illustrée et validée, en premier lieu, par une analyse des pratiques inférées à partir des données de développement de 219 projets open source. En second lieu, des utilitaires de support à la collaboration (mise à disposition d’informations conceptuelles, automatisation d’actions, extraction d’information sur les contributions individuelles) ont été implémentés à travers le serveur de processus CMSPEM. / Software development is an intensively collaborative activity, where common collaboration issues (task management, resource use, communication, etc.) are aggravated by the fast pace of change, artifact complexity and interdependency, an ever larger volume of context information, geographical distribution of participants, etc. Consequently, the issue of tool-based support for collaboration is a pressing one in software engineering. In this thesis, we address collaboration in the context of modeling and enacting development processes. Such processes are traditionally conceived as structures imposed upon the development of a software product. However, a sizable proportion of collaboration in software engineering is ad hoc, and composed of unplanned activities. So as to make software processes contribute to collaboration support, especially the unplanned kind, we focus on their function of information repositories on the main elements of collaboration and the interactions of such elements. Our contribution, on the one hand, is a conceptual model of collaborative development support, which is able to account for popular tools like version control systems and bug tracking systems. This conceptual model is then applied to software processes. We hence define a global approach for the exploitation of process information for collaboration support, based on the central notions of query language and event handling mechanism. On the other hand, we propose a metamodel, CMSPEM (Collaborative Model-Based Software & System Process Engineering Metamodel), which extends SPEM (Software & System Process Engineering Metamodel) with concepts and relationships necessary for collaboration support. This metamodel is then tooled with model creation tools (graphical and textual editors), and a process server which implements an HTTP/REST-based query language and an event subscription and handling framework. Our approach is illustrated and validated, first, by an analysis of development practices inferred from project data from 219 open source projects. Second, collaboration support utilities (making contextual information available, automating repetitive actions, generating reports on individual contributions) have been implemented using the CMSPEM process server.
14

Hydrogels multi-fonctionnels à base d'acide hyaluronique pour le contrôle de l'adhésion, la prolifération et la différentiation de cellules souches neuronales / Multi-functional hydrogels based on hyaluronic acid to control adhesion, growth and differentiation of neural stem cells

Tarus, Dominte 29 November 2016 (has links)
RésuméLes lésions du cerveau sont un problème médical majeur, celui-ci possédant des ressources limitées pour la guérison. Les patients souffrent souvent des déficiences graves et durables, dégradant leur qualité de vie et imposant des couts importants. Des thérapies qui visent l'implantation des cellules souches neurales supportées par un biomatériau qui imite la matrice extracellulaire du cerveau sont en développement. L’ECM du cerveau a une teneur élevée en acide hyaluronique (HA). Ce glycosaminoglycane possède la biocompatibilité et l'activité biologique requises par les applications avec des cellules souches neurales.Nous avons développé des hydrogels à base de HA, possédant des propriétés mécaniques et des densités en peptide d’adhésion cellulaire (GRGDS) contrôlées, pour l'étude in vitro de la différenciation de cellules souches neurales en neurones. L'analyse de neurites en 3-D par microscopie biphotonique a montré une excroissance accrue et une densité élevée des neurites dans les hydrogels les plus élastiques (G '= 400 Pa), combinées avec l'existence d'un optimum dans l'extension des neurites en fonction de la densité des ligands dans le cas des hydrogels contenant des GRGDS. La croissance des neurites relève vraisemblablement d’une combinaison d’interactions adhésives cellule-HA, cellule-GRGDS, et cellule-molécules extracellulaires secrétées.Par la suite la dégradabilité enzymatique des hydrogels de HA a été étudiée. Les hydrogels de HA se dégradent sous l'effet de l'enzyme hyaluronidase suivant un modèle mono-exponentiel, ce qui correspond à une population homogène de chaînes de HA clivables. Les hydrogels avec des modules d'élasticité plus élevés, montrent des vitesses de dégradation enzymatique plus faibles. Le remplacement de l'agent de réticulation PEG-bis(thiol) pour un polymère HA-(SH)3 clivable par voie enzymatique conduit à une réduction du temps nécessaire à la dégradation complète des hydrogels.Dans un troisième temps, nous avons développé des gels de héparosane sans activité biologique qui pourraient révéler une meilleure compréhension du rôle joué par le HA dans la différentiation des NSCs et dans l’extension des neurites. Nous avons montré que le CD44 joue un rôle mesurable dans le processus d'adhésion des cellules MEF. Il existe d'autres procédés par lesquels ces cellules peuvent adhérer sur les hydrogels d’héparosane, cependant la force de ces interactions est plus faible. / AbstractDamage caused to the central nervous system (CNS) is a major medical concern. As the CNS has limited ability to regenerate its damaged cells, patients can suffer from serious and long-term disabilities and impairments, which put strains on public healthcare systems. Therapies that aim to implant neural stem cells together scaffolds that mimic the extracellular matrix of the brain are being developed. Hyaluronic acid is an important component of the brain ECM. This glycosaminoglycan possesses the required biocompatibility and bioactivity for use in neural stem cells applications.We have developed HA-based hydrogels with controlled mechanical properties and cell adhesion peptide (GRGDS) densities for the in vitro study of neural precursor cells’ differentiation into neurons. The analysis of neurite outgrowth in 3-D by two-photon microscopy showed an increased outgrowth and density of neurites in the softest hydrogels (G’ = 400 Pa), combined with the existence of an optimum in neurite outgrowth as a function of ligand density in the case of hydrogels containing GRGDS. Neurite outgrowth in these hydrogels most likely involves a combination of adhesive interactions between cell-HA, cell-GRGDS moieties, and cell-secreted extracellular molecules.The enzymatic degradability of HA hydrogels was then investigated. The HA hydrogels degrade under the effect of the Hyaluronidase enzyme following a mono-exponential model, corresponding to a homogenous population of cleavable HA polymer chains. Hydrogels with higher elastic moduli have progressively lower enzymatic degradation rates. The substitution of the PEG-bis(thiol) crosslinker by an enzymatically cleavable HA-(SH)3 polymer led to a reduction in the time required for the complete degradation of the hydrogels.Finally we developed heparosan hydrogels that are devoid of biological functions and thus provide better insight into the role of HA in NSCs differentiation and neurite outgrowth. We showed that CD44 plays a measurable role in the adhesion process of MEF cells. There are alternative processes through which cells can attach to the heparosan hydrogels however the strength of these adhesions is weaker. Heparosan is a viable biomaterial for hydrogel synthesis that does not interact with the CD44 receptor, resulting in lower cellular adhesions.
15

Cost Effectiveness and Complexity Assessment in Ship Design within a Concurrent Engineering and "Design for X" Framework

Caprace, Jean-David 26 February 2010 (has links)
Decisions taken during the initial design stage determine 60% to 95% of the total cost of a product. So there is a significant need to concurrently consider performance, cost, production and design complexity issues at the early stages of the design process. The main obstacle to this approach is the lack of convenient and reliable cost and performance models that can be integrated into a complex design process as is used in the shipbuilding industry. Traditional models and analysis methods frequently do not provide the required sensitivity to consider all the important variables impacting performance, cost, production and ships life cycle. Our challenge is that achieving this sensitivity at the early design stage almost requires data available during the detail design analysis. The traditional design methods do not adequately include, early enough, production and life cycle engineering to have a positive impact on the design. Taking an integrated approach throughout the life cycle of the ship and using concurrent engineering analysis tools can improve these traditional design process weaknesses. Innovation is required in structural design and cost assessment. The use of design for X, and particular design for production and cost schemes, during the design is the solution: to reduce failure during a ships life caused by design misconception, to reduce the overall design time and to shorten the build cycle of ships, to enlarge the number of design alternatives during the design process. The author has developed some assessment methods for cost effectiveness and complexity measurements intended to be used by ship designers for the real time control of cost process. The outcome is that corrective actions can be taken by management in a rather short time to actually improve or overcome predicted unfavourable performance. Fundamentally, these methods will provide design engineers with objective and quantifiable cost and complexity measures making it possible to take rational design decisions throughout the design stages. The measures proposed in this PhD are based on several techniques like decision analysis, data mining, neural network, fuzzy logic. They are objective facts, which are not dependent on the engineers interpretation of information, but rather on a model generated to represent the ship design. The objectivity aspect is essential when using the complexity and cost measures in a design automation system. Finally, with these tools, the designers should obtain well-defined and unambiguous metrics for measurement of the different types of cost effectiveness and complexities in engineered artefacts. Such metrics help the designers and design automation tools to be objective and perform quantitative comparisons of alternative design solutions, cost estimation, as well as design optimization. In this PhD, these metrics have been applied and validated with success in real industrial conditions on the design of passenger ships. Les décisions prises au cours de la phase initiale de conception déterminent 60% à 95% du coût total dun produit. Il y a donc un besoin important denvisager simultanément des aspects de performance, de coût, de production, de complexité au stade précoce du processus de conception. Le principal obstacle à cette approche est le manque de commodité et de fiabilité des modèles de coûts et des modèles danalyse de performance qui peuvent être intégrés dans un processus de conception aussi complexe que celui utilisé dans lindustrie de la construction navale. Les modèles traditionnels et les méthodes danalyse les plus fréquemment utilisés ne fournissent pas la sensibilité nécessaire pour examiner toutes les variables de conception importantes qui ont une influence sur la performance, le coût, la production et le cycle de vie des navires. Notre défi est quatteindre cette sensibilité au niveau de la conception initiale demande presque toujours des données uniquement disponibles lors de la conception détaillée. Les méthodes de conception traditionnelles ne prennent pas suffisamment en compte, suffisamment tôt, la production et lingénierie du cycle de vie afin davoir un impact positif sur la conception. Adopter une approche intégrée sur lensemble du cycle de vie des navires et utiliser lingénierie simultanée peuvent améliorer les faiblesses des processus de conception traditionnels. Linnovation est nécessaire dans la conception structurelle et lévaluation des coûts. Lutilisation du concept de "design for X", et en particulier le design en pensant à la production et à la réduction des coûts lors de la conception est la solution : pour réduire les dysfonctionnements qui peuvent apparaître pendant la vie du navire causés par des erreurs de conception, de réduire le temps total de conception et de raccourcir le cycle de la construction de navires, délargir le nombre dalternatives de conception évaluées au cours du processus de conception. Lauteur a développé quelques méthodes dévaluation des coûts et des techniques de mesure de la complexité destinées à être utilisés par les concepteurs de navire pour le contrôle en temps réel de la conception. Le résultat est que les actions correctives peuvent être prises par la direction dans un temps assez court pour améliorer réellement ou surmonter les prévisions de performance défavorables. Fondamentalement, ces méthodes offrent aux ingénieurs de conception des mesures quantifiables des coûts et de la complexité qui rend possible la prise de décisions rationnelles tout au long des étapes de conception. Les mesures proposées dans cette thèse sont basées sur plusieurs techniques telles que lanalyse à la décision, lanalyse de données, les réseaux de neurones ou encore la logique floue. Ce sont des faits objectifs, qui ne dépendent pas de linterprétation de linformation par lingénieur, mais plutôt dun modèle généré pour représenter le design du navire. Laspect de lobjectivité est essentiel pour lutilisation de la complexité et la mesure des coûts dans un système dautomatisation de la conception. Finalement, avec ces outils, les concepteurs obtiennent des mesures bien définies et non ambigües des paramètres de mesure de coûts, defficacité et de complexité des artefacts dingénierie. De telles mesures aident les concepteurs et les outils dautomatisation de la conception, à être objectifs et à comparer de manière quantitative les différentes alternatives lors de la conception, de lestimation des coûts, ainsi que de loptimisation. Dans cette thèse, ces paramètres ont été appliqués et validés avec succès et dans des conditions industrielles réelles sur la conception de navires à passagers. Las decisiones tomadas en la etapa inicial de un diseño determinan el 60% al 95% del total del costo de un producto. Por esta razón, es necesario considerar al mismo tiempo rendimiento, costo, producción y la complejidad en el proceso de la fase inicial del diseño. El principal obstáculo de este enfoque es la falta de práctica y fiabilidad de costos y de modelos de análisis de rendimiento, que puedan ser integrados en un proceso complejo de concepción utilizado en la industria de la construcción naval. Los modelos tradicionales y los métodos de análisis frecuentemente no tienen la sensibilidad necesaria para examinar todas las variables importantes que influyen en el rendimiento, costo, producción y la vida útil del buque. Nuestro reto es el que logrando de que ésta sensibilidad en la fase inicial de diseño casi siempre requiera de datos únicamente disponibles durante un análisis de diseño require detallado. Los métodos tradicionales de diseño no incluyen temprana y adecuadamente, la producción y la ingeniería del ciclo de vida para tener un impacto positivo en el diseño. Adoptando un enfoque integrado a lo largo del ciclo de vida de la nave usando la ingeniería concurrente y herramientas de análisis se pueden mejorar estas debilidades del proceso tradicional de diseño. Se requiere innovación en el diseño estructural y la evaluación de los costos. La utilización del concepto diseño para X, y en particular el diseño pensando en la producción y en la reducción de costos durante la concepción es la solución: para reducir errores durante la vida útil de los buques causados en la concepción del mismo, para reducir el tiempo total de diseño y acortando el ciclo constructivo del buque, para ampliar el número de alternativas durante el proceso de diseño. El autor ha desarrollado algunos métodos de evaluación de costos y de técnicas de medida de la complejidad destinadas a ser utilizadas por los diseñadores de barcos para el control en tiempo real del proceso de costos. El resultado es que las acciones correctivas pueden ser adoptadas por la dirección en un tiempo suficientemente corto para realmente mejorar o superar el rendimiento desfavorable proyectado. Fundamentalmente, estos métodos ofrecerán a los ingenieros diseñadores con medidas objetivas y cuantificables de costos y complejidad haciendo posible tomar decisiones racionales a lo largo de todas las etapas de diseño. Las medidas propuestas en esta tesis doctoral se basan en varias técnicas tales como análisis de decisión, análisis de datos, redes neuronales y lógica difusa. Son objetivos hechos, que no dependen de la interpretación que el ingeniero realice sobre la información, sino más bien en un modelo generado para representar el diseño de los buques. El aspecto de la objetividad es esencial cuando se usa las medidas de complejidad y costos en un sistema de automatización del diseño. Finalmente con estas herramientas, los diseñadores podrían obtener medidas bien definidas y no parámetros de medición ambiguos de costos, de eficacidad y de complejidad en los artefactos de ingeniería. Estas medidas ayudan a los diseñadores y a las herramientas automatizadas de diseño, a ser objetivos y a comparar de manera cuantitativa las diferentes alternativas de solución del diseño, estimación de costos, así como también la optimización del diseño. En este doctorado, estos parámetros han sido aplicados y validados con éxito sobre el diseño de buques de pasajeros en condiciones industriales reales. In der Anfangsphase einer Produktentwicklung getroffene Entscheidungen definieren 60% bis 90% der Gesamtkosten eines Produktes. Daher ist es absolut notwendig Performance, Kosten, Produktion, Designkomplexität in der Entstehungsphase eines Produktes zu betrachten. Das Haupthindernis hierbei ist das Fehlen von praktikablen und zuverlässigen Kosten- und Performancemodellen, welche sich in den komplexen Designprozess wie in der Schiffbauindustrie integrieren lassen. Konventionelle Modelle und Analysemethoden berücksichtigen oft nicht all die wichtigen Performance-, kosten-, produktion-, und Lebenszyklus-relevanten Variablen. Unsere Herausforderung, dass das Erreichen dieser Sensibilität in der Anfangsphase der Produktentwicklung, benötigt fast immer Daten, die erst in der Phase der Detailkonstruktion zur Verfügung stehen. Die konventionelle Entwurfsmethoden berücksichtigen nicht angemessen und früh genug die Produktion und das Lebenszyklen-Engineering, welche eine positive Auswirkung auf das Design haben. Ein integrierter Ansatz entlang des Lebenszyklus eines Schiffes und das Praktizieren von Concurrent Engineering können die Schwäche des konventionellen Entwurfsprozesses beseitigen. Innovation ist notwendig im Strukturentwurf und in der Kostenanalyse. Die Anwendung von Design for X und besonders Design for Production and Cost Scheme während der Entwurfsphase ist die Lösung: Um die Fehlerquote verursacht durch Missverständnisse und die Entwurfs- und Produktionszeit zu reduzieren, sowie um eine höhere Anzahl von Entwurfsvarianten zu ermöglichen. Der Autor hat einige Analysemethoden für Kosteneffektivität und Komplexitätsmaßnahmen für die Anwendung durch Schiffsentwerfer für die Echtzeit-Steuerung von Kostenprozess entwickelt. Das Ergebnis ist, dass das Management korrigierende Maßnahmen in kurzer Zeit treffen kann, um eine ungünstige Performance zu verbessern bzw. zu vermeiden. Im Grunde beschaffen diese Methoden den Entwurfsingenieuren mit objektiven und quantifizierten Kosten- und Komplexitätsmaßnahmen. Dies vereinfacht das Treffen von vernünftigen Entwurfsentscheidungen über die gesamte Entstehungsphase eines Schiffes. Die in dieser Arbeit vorgestellten Maßnahmen basieren auf Techniken wie die Entscheidungsanalyse, das Data-Mining, neurale Netze und die Fuzzy-Logik. Es sind objektive Fakten, welche nicht von der Interpretation des Ingenieurs abhängen, sondern von einem generierten Model, um den Schiffsentwurf darzustellen. Der objektive Aspekt ist essenziell bei der Anwendung von Komplexitäts- und Kostenmaßnahmen in einem automatisierten Entwurfssystem. Mit diesen Werkzeugen sollte der Entwerfer gut-definierte und eindeutige Werte für Maßnahmen von unterschiedlicher Natur von Kosteneffektivität und -komplexität erhalten. Diese Werte helfen dem Entwerfer und automatisierten Entwurfssystemen, objektive zu sein. Ferner, ermöglichen diese Werte quantitative Vergleiche von Entwurfsvarianten, Kostenabschätzung und Entwurfsoptimierung. Diese Werte wurden im Rahmen eines Studienfalles mit realen Voraussetzungen (Entwurf von Passagierschiffen) erfolgreich angewendet und validiert.
16

Méthodologie, modèles et outils pour la conception de Learning Games / Methodology, Models and Tools for Designing Learning Games

Marfisi-Schottman, Iza 28 November 2012 (has links)
Les Serious Games sont des jeux vidéo qui n’ont pas pour objectif premier le divertissement et qui peuvent être utilisé pour l’enseignement. Pertinents dans de nombreux domaines d’éducation, ils posent pourtant des problèmes liés à leur création fastidieuse et coûteuse en moyens et en temps. Dans cette thèse, nous nous intéressons tout particulièrement aux Serious Games pour l’éducation, appelés Learning Games (LG) et plus particulièrement aux LG pour la formation continue pour les étudiants en école d’ingénieur. Tout d’abord, nous avons procédé à une étude des besoins concrets des créateurs de LG, ainsi qu’à un état de l’art des méthodologies et des outils existants. En premier lieu, ces recherches nous ont montré qu’il n’existait aucune solution adaptée pour faciliter la collaboration entre les différents concepteurs de LG, occupant des rôles complémentaires (expert du domaine, expert pédagogique, game designer…). Nos recherches mettent également en avant le besoin de modélisation et de représentation du scénario du LG pour aider les concepteurs à imaginer un LG qui soit à la fois ludique et attractif tout en gardant le fort potentiel éducatif indispensable à la formation. Pour répondre au premier besoin, nous proposons une méthodologie globale de création collaborative de LG, détaillant chaque tâche des acteurs ainsi que les outils mis à leur disposition. Pour répondre au deuxième besoin, nous proposons un modèle de scénarisation de LG qui représente d’un côté la structure pédagogique choisie par l’expert pédagogique et de l’autre côté la mise en scène ludique imaginée par le game designer. Pour réifier nos propositions, nous avons développé un environnement informatique d’aide à la conception, appelé LEGADEE (LEarning GAme DEsign Environment). LEGADEE guide chaque concepteur avec une « barre d’outils » adaptée à son rôle spécifique et qui propose également un système de validation qui analyse la création en cours. Enfin, nous avons imaginé un protocole d’évaluation pour valider notre environnement auteur ainsi que la méthodologie et le modèle proposés dans lequel nous comparons 24 scénarios de LG dont la moitié a été conçu avec LEGADEE et la moitié sans. Notre évaluation montre que l’utilisation de notre outil a tendance à améliorer certains critères qualité des LG. Elle montre aussi les limites de nos hypothèses et donne des pistes d’améliorations futures, tant sur LEGADEE que sur la méthode d’évaluation elle-même. / Serious Games are computer games that are designed for a primary purpose other than pure entertainment and that can be used for teaching. Although they are relevant to many fields of education, their development remains very expensive and time consuming. In this thesis, we focus mainly on Learning Games (LGs), that is on Serious Games designed for educational purposes, and more specifically on LGs used for training students in engineering schools. The first part of the thesis is devoted to an analysis of the needs of those who create LGs and a state of the art in terms of methodologies and tools available. Our study shows the need to facilitate collaboration between the various actors, with complementary roles, involved in the development of a LG (domain expert, pedagogical expert, game designer ...). Our research also highlights the need for models and visual representations of the LG scenario to facilitate the design of LGs that are fun and attractive while still maintaining their educational values. To address the first need, we propose a global collaborative methodology for creating LGs in which we indentify the tasks assigned to each actor who is involved in the creation process and the tools available. To meet the second need identified by our preliminary study, we propose a LG scenario model that represents the educational structure chosen by the pedagogical expert and also the way this structure is integrated into a game scenario imagined by the game designer. To reify our proposals, we have developed an authoring environment called LEGADEE (LEarning Game DEsign Environment) that guides each designer with a "toolbar" adapted to his or her role and also provides a validation system that analyzes the ongoing creation. Lastly, we have designed an evaluation protocol to validate our authoring environment as well as the methodology and the models proposed during which we compare 24 LGs of which half were created with LEGADEE and half without. Our evaluation indicates that our tool tends to improve the quality of LGs at several levels. It also brings to light the limits of our work and provides guidance for future improvements of LEGADEE and the evaluation process itself.
17

Méthodologie, modèles et outils pour la conception de Learning Games

Marfisi-Schottman, Iza 28 November 2012 (has links) (PDF)
Les Serious Games sont des jeux vidéo qui n'ont pas pour objectif premier le divertissement et qui peuvent être utilisé pour l'enseignement. Pertinents dans de nombreux domaines d'éducation, ils posent pourtant des problèmes liés à leur création fastidieuse et coûteuse en moyens et en temps. Dans cette thèse, nous nous intéressons tout particulièrement aux Serious Games pour l'éducation, appelés Learning Games (LG) et plus particulièrement aux LG pour la formation continue pour les étudiants en école d'ingénieur. Tout d'abord, nous avons procédé à une étude des besoins concrets des créateurs de LG, ainsi qu'à un état de l'art des méthodologies et des outils existants. En premier lieu, ces recherches nous ont montré qu'il n'existait aucune solution adaptée pour faciliter la collaboration entre les différents concepteurs de LG, occupant des rôles complémentaires (expert du domaine, expert pédagogique, game designer...). Nos recherches mettent également en avant le besoin de modélisation et de représentation du scénario du LG pour aider les concepteurs à imaginer un LG qui soit à la fois ludique et attractif tout en gardant le fort potentiel éducatif indispensable à la formation. Pour répondre au premier besoin, nous proposons une méthodologie globale de création collaborative de LG, détaillant chaque tâche des acteurs ainsi que les outils mis à leur disposition. Pour répondre au deuxième besoin, nous proposons un modèle de scénarisation de LG qui représente d'un côté la structure pédagogique choisie par l'expert pédagogique et de l'autre côté la mise en scène ludique imaginée par le game designer. Pour réifier nos propositions, nous avons développé un environnement informatique d'aide à la conception, appelé LEGADEE (LEarning GAme DEsign Environment). LEGADEE guide chaque concepteur avec une " barre d'outils " adaptée à son rôle spécifique et qui propose également un système de validation qui analyse la création en cours. Enfin, nous avons imaginé un protocole d'évaluation pour valider notre environnement auteur ainsi que la méthodologie et le modèle proposés dans lequel nous comparons 24 scénarios de LG dont la moitié a été conçu avec LEGADEE et la moitié sans. Notre évaluation montre que l'utilisation de notre outil a tendance à améliorer certains critères qualité des LG. Elle montre aussi les limites de nos hypothèses et donne des pistes d'améliorations futures, tant sur LEGADEE que sur la méthode d'évaluation elle-même.

Page generated in 0.0499 seconds