• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 93
  • 25
  • 11
  • Tagged with
  • 126
  • 63
  • 28
  • 27
  • 26
  • 19
  • 19
  • 18
  • 18
  • 16
  • 16
  • 15
  • 14
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Conduite complètement automatisée : acceptabilité, confiance et apprentissage de la reprise de contrôle manuel / Fully automated driving : acceptability, trust and learning of manual control recovery

Payre, William 03 December 2015 (has links)
Des voitures complètement automatisées pourraient circuler sur les routes dans les décennies à venir. Elles permettraient aux automobilistes d’être conduits dans leur véhicule par un système informatique. Une telle innovation pourrait engendrer une révolution qui affecterait le rôle du conducteur et ses activités pendant le trajet. Actuellement, ces véhicules ne sont pas encore accessibles au grand public, et il demeure difficile de prédire précisément quand cela se produira, et quelles seront leurs caractéristiques techniques finales. Dans ce contexte, un des objectifs de cette thèse a été d’étudier dans quelle mesure la conduite complètement automatisée sera acceptée. Bien que l’automobiliste soit conduit par son véhicule, il pourrait être amené à en reprendre le contrôle manuel dans différentes circonstances. En effet, cette manœuvre pourrait être effectuée en situation d’urgence ou de manière anticipée par le conducteur alors qu’il pourrait être engagé dans une autre activité que la conduite. La réalisation de cette reprise de contrôle manuel pourrait être plus ou moins difficile selon la situation et l’expérience d’interactions avec le système complètement automatisé. Nous avons examiné la manière dont cette manœuvre pourrait être apprise par des conducteurs, en testant l’effet de différentes formes d’entrainement sur la performance et la sécurité (temps de réponse et qualité de la reprise de contrôle). L’acceptabilité et la confiance, les attitudes des conducteurs, les intentions d’utilisation du système de conduite complètement automatisée et l’impact de ces variables sur les comportements dans le véhicule ont été mesurés. / Fully automated cars could possibly be on the road in the decades to come. They will allow drivers to be driven by an informatics system in their own vehicle. Such an innovation could lead to a revolution that would change the driver’s status and its activities during the trips, but also the infrastructure, freight, some professions, etc. Nowadays, these vehicles are not available for sale yet, and it is difficult to forecast accurately when they will be, and also what their features will be. Considering this, one of the aims of the present thesis is to examine to what extend fully automated driving will be accepted. Even though the driver is driven by its vehicle, he could have to resume manual control in different circumstances. Indeed, this maneuver could be performed in an emergency or in an anticipated situation while he could be engaged in a non driving-related activity. Performing a manual control recovery could be more or less difficult according to the situation and the experience with the fully automated system. The way this maneuver could be learned by drivers has been examined, testing the impact of different kinds of training on performance and safety (response time and control recovery quality). Acceptability, trust, drivers’ attitudes, intentions to use the fully automated driving system and the impact of these variables on behaviors inside the vehicle have been assessed.
102

Transformation Induite au cours d’un Procédé Industriel (TIPI) de compression directe : transition polymorphique de la caféine et propriétés physiques des comprimés / Processing-Induced-Transformations (PIT) in direct compression : polymorphic transition of caffeine and tablet physical properties

Juban, Audrey 31 August 2016 (has links)
Ce manuscrit est consacré à l'étude des transformations polymorphiques induites au cours du procédé de compression directe, et à son incidence sur les propriétés mécaniques des comprimés. L'objectif principal de ce travail est d'apporter des éléments de compréhension sur la transition polymorphique de la caféine (principe actif modèle) Forme I en Forme II survenant lors du procédé de compression directe, et de déterminer si celle-ci a un impact sur la contrainte à la rupture du comprimé. L'utilisation du simulateur de compression Styl'One Classique (Médel'Pharm) et d'une machine de fatigue (Instron®) pour la fabrication des comprimés, a permis d'étudier deux paramètres de procédé (pression et vitesse de fabrication) et deux paramètres de formulation (dilution du principe actif et nature du diluant) représentatifs de conditions industrielles. Les transitions de phase de la caféine ont été évaluées par analyse calorimétrique différentielle (ACD). De plus, des études cinétiques ont été conduites durant plusieurs mois afin d'observer l'influence de ces différents paramètres sur la transition polymorphique de la caféine anhydre Forme I en Forme II dans les comprimés au cours de leur stockage. Enfin, l'analyse du mécanisme de transition de ce principe actif a été réalisée au moyen d'une loi exponentielle étirée, issue du modèle de Johnson-Mehl-AvramiLa contrainte à la rupture des comprimés (caractéristique globale) a été mesurée par un test de rupture diamétrale, la dureté de surface des comprimés (caractéristique locale) par nano-indentation. Un premier modèle de prédiction de la contrainte à la rupture selon la teneur en caféine a été développé. Les principales caractéristiques du cycle de compression calculées à partir des données enregistrée par le simulateur de compression ont permis d'analyser le comportement des formules lors de la compression puis d'établir un second modèle de prédiction de la contrainte à la rupture.Les résultats de transition polymorphique et de propriétés physiques de comprimés seront alors confrontés / Direct compression process is widely used in the pharmaceutical industry for tablet manufacturing. This work is dedicated to the study of the polymorphic transformation induced by a direct compression process, and its impact on tablet mechanical properties. The main objective is to improve the understanding of the phase transition of caffeine Form I into Form II occurring during the direct compression process, and whether it has an impact on the tablet tensile strength. In this way, several studies have been conducted on the impact of operating conditions on the polymorphic transformation of a model active pharmaceutical ingredient (API) and on few physical properties of the tablets.The use of a compression simulator Styl’One Classique (Médel’Pharm) and a fatigue equipment (Instron®) for the manufacture of tablets, allowed studying two process parameters (compression load and compression speed) and two formulation parameters (dilution of the API and nature of the diluent). Caffeine phase transitions have been evaluated by differential scanning calorimetry (DSC). Moreover, during several months after tableting, kinetic studies were conducted in order to observe the influence of these parameters on the polymorphic transition of the anhydrous caffeine Form I into Form II in tablets during storage. Finally, the analysis of the transition mechanism of this API was performed thanks to a stretched exponential law, derived from the Johnson-Melh-Avrami model.The tensile strength of tablets (global property) was measured by a diametral compression test and their surface hardness (local property) by nanoindentation. A first predictive model for tablet tensile strength according to the caffeine content was developed. The compression cycle characteristics calculated from the data recording with the compression simulator allowed analyzing the behavior of different blends during the compression process. A second model for predicting the tensile strength was then established.Finally, results obtained for the polymorphic transition and physical properties of tablets will then be confronting
103

Développement de la spectrométrie gamma in situ pour la cartographie de site / Development of in situ gamma spectrometry for mapping site

Panza, Fabien 20 September 2012 (has links)
La spectrométrie gamma à haute résolution offre un outil d’analyse performant pour effectuer des mesurages environnementaux. Dans le cadre de la caractérisation radiologique d’un site (naturelle ou artificielle) ainsi que pour le démantèlement d’installations nucléaires, la cartographie des radionucléides est un atout important. Le principe consiste à déplacer un spectromètre HPGe sur le site à étudier et, à partir des données nucléaires et de positionnements, d’identifier, de localiser et de quantifier les radionucléides présents dans le sol. Le développement de cet outil fait suite à une intercomparaison où un exercice orienté intervention a montré les limites des outils actuels. Une partie de ce travail s’est portée sur la représentation cartographique des données nucléaires. La connaissance des paramètres d’un spectre in situ a permis la création d’un simulateur modélisant la réponse d’un spectromètre se déplaçant au-dessus d’un sol contaminé. Ce simulateur a lui-même permis de développer les algorithmes de cartographie et de les tester dans des situations extrêmes et non réalisables. Ainsi, ce travail ouvre sur la réalisation d’un prototype viable donnant en temps réel les informations nécessaires sur l’identité et la position possible des radionucléides. La recherche réalisée sur la déconvolution des données permet de rendre en post traitement une carte de l’activité du sol par radionucléide mais également une indication sur la profondeur de la source. Le prototype nommé OSCAR (Outil Spectrométrique de Cartographie de Radionucléides) a ainsi été testé sur des sites contaminés (Suisse et Japon) et les résultats obtenus sont en accord avec des mesures de référence. / The high-resolution gamma spectrometry currently provides a powerful analytical tool for performing environmental measurements. In the context of radiological characterization of a site (natural or artificial radioactivity) and for the dismantling of nuclear installations, mapping of radionuclides is an important asset. The idea is to move a HPGe spectrometer to study the site and from nuclear and position data, to identify, to locate and to quantify the radionuclides present in the soil. The development of this tool follows an intercomparaison (ISIS 2007) where an intervention / crisis exercise showed the limits of current tools. The main part of this research project has focused on mapping of nuclear data. Knowledge of the parameters of an in situ spectrum helped to create a simulator modeling the response of a spectrometer moving over contaminated soil. The simulator itself helped to develop algorithms for mapping and to test them in extreme situations and not realizable. A large part of this research leads to the creation of a viable prototype providing real-time information concerning the identity and locality as possible radionuclides. The work performed on the deconvolution of data can make in post processing a map of the activity of radionuclide soil but also an indication of the depth distribution of the source. The prototype named OSCAR was tested on contaminated sites (Switzerland and Japan) and the results are in agreement with reference measurements.
104

Déploiement auto-adaptatif d'intergiciel sur plate-forme élastique / Self-adaptive deployment for middleware on elastic platform

Faye, Maurice-Djibril 10 November 2015 (has links)
Nous avons étudié durant cette thèse les moyens de rendre le déploiement d'un intergiciel auto-adaptatif. Le type d'intergiciel que nous avons considéré ici est hiérarchique (structure de graphe) et distribué. Chaque sommet du graphe modélise un processus qui peut être déployé sur une machine physique ou virtuelle d'une infrastructure de type grille/cloud, les arêtes modélisent des liens de communications entre processus. Il offre aux clients des services de calcul haute performance. Les infrastructures de grilles/cloud étant élastiques (perte et ajout de nœuds), un déploiement statique n'est pas la solution idéale car en cas de panne on risque de tout reprendre à zéro, ce qui est coûteux. Nous avons donc proposé un algorithme auto-stabilisant pour que l'intergiciel puisse retrouver un état stable sans intervention extérieure, au bout d'un temps fini, lorsqu'il est confronté à certains types de pannes. Les types de pannes que nous avons considérés sont les pannes transitoires (simulé par la perte de nœuds, l'ajout de nouveaux nœuds, la perte de liens entre deux nœuds). Pour évaluer ces algorithmes, nous avons conçu un simulateur. Les résultats des simulations montrent qu'un déploiement, sujet à des pannes transitoires, s'auto-adapte. Avant d'en arriver à la phase de programmation du simulateur, nous avons d'abord proposé un modèle d'infrastructure distribuée (ce modèle permet de décrire des environnements de type grille/cloud), un modèle pour décrire certains types d'intergiciels hiérarchiques et enfin un modèle pouvant décrire un intergiciel en cours d'exécution (processus déployés sur les machines). / We have studied the means to make a middleware deployment self-adaptive. Our use case middleware is hierarchical and distributed and can be modeled by a graph. A vertex models a process and an edge models a communication link between two processes. The middleware provides high performance computing services to the users.Once the middleware is deployed on a computing infrastructure like a grid or cloud, how it adapt the changes in dynamic environment? If the deployment is static, it may be necessary to redo all the deployment process, which is a costly operation. A better solution would be to make the deployment self-adaptive. We have proposed a rules-based self-stabilizing algorithm to manage a faulty deployment. Thus, after the detection of an unstable deployment, caused by some transients faults (joining of new nodes or deletion of existing nodes which may modify the deployment topology), the system will eventually recover a stable state, without external help, but only by executing the algorithm.We have designed an ad hoc discrete events simulator to evaluate the proposed algorithm. The simulation results show that, a deployment, subjected to transients faults which make it unstable, adapts itself. Before the simulator design, we had proposed a model to describe a distributed infrastructure, a model to describe hierarchical middleware and a model to describe a deployment, that is the mapping between the middleware processes and the hardware on which they are running on.
105

Dental composite properties evaluation : from experimental approaches to the prerequisite of a chewing bench / Évaluation des propriétés des composites dentaires : prérequis pour l’élaboration d'un banc de mastication

Abouelleil Sayed, Hazem 03 April 2017 (has links)
La littérature scientifique révèle que les résultats in vitro sur les matériaux dentaires ont une faible corrélation avec le comportement clinique. Les tests standardisés aux normes fournissent des informations précieuses et pertinentes sur les propriétés des matériaux dentaires, et permettent aussi de comparer les résultats de différents instituts. Cependant, le développement de nouveaux matériaux à partir de nouvelles formulations chimiques nécessite une amélioration des méthodes d'évaluation. Ce travail de recherche est réalisé dans le but d'approfondir les connaissances sur les méthodes d'évaluation des matériaux dentaires avant insertion dans la cavité buccale. Une grande importance a été donnée au choix des matériaux à tester ; nous nous sommes basés sur les dernières tendances actuelles et les derniers développements de composition de matériaux dentaires. La même importance a été donnée à des méthodes et des techniques d'essai au laboratoire ; leur corrélation avec les résultats cliniques a été mise en évidence. Les modifications apportées à la méthodologie de ces tests ont exploré davantage les aspects cachés des différentes interactions de paramètres. La caractérisation et l'évaluation des matériaux dentaires nécessitaient une meilleure compréhension de l'interaction entre les différentes propriétés pour expliquer le vieillissement des matériaux. Notre travail a consisté à combiner de nombreuses études pour répondre à ce sujet. Les études ont porté sur les propriétés mécaniques et physiques, le composite fibré et Bulk, les matériaux CAM CAD, les adhésifs dentaires, le choc thermique et le cyclage thermique, le bisphénol A. L'objectif final était de développer un simulateur oral qui permettrait la reproduction de différents paramètres chimiques, physiques et mécaniques de l'environnement buccal, permettant ainsi de combler l'écart entre les tests in vitro et in vivo de matériaux dentaires / Scientific literature reveals that in vitro results are poorly correlated to materials clinical behavior. ISO standardized testing provides valuable information about the dental materials properties, and enables result comparison between different institutes. Conversely, new materials chemistry and formulations requires improved methodology and testing methods. Throughout our studies included in this work, the main objective was to reach a more global knowledge of the way dental materials are evaluated before being inserted into the oral cavity. A great deal of emphasis was given to the choice of materials to be tested, and that it would represent the current trends in dental practice and the latest developments in material composition. Equal highlight was given to the choice of testing methodology and laboratory testing techniques and their correlation to the clinical outcome. The modifications made to the methodology of these tests explored further the concealed aspects of different parameter interactions. Dental materials characterization and assessment required more understanding about the interaction between different properties to explain material aging; our work was to combine numerous studies to answer this topic. The studies included mechanical and physical properties, bulk and fiber composite, CAD CAM block materials, dental resin adhesive, thermal shock and thermal cycling, Bisphenol A. The final objective was to develop an oral simulator that would enable the reproduction of different chemical, physical and mechanical parameters of the oral environment, thus permitting to bridge the gap between in vitro and in vivo testing of dental materials
106

Contribution à l'étude de la formation de la couche d'inhibition de l'acier galvanisé en continu

Toussaint, Patrick 13 November 1997 (has links)
<p align="justify">Un simulateur de laboratoire de galvanisation continue a été conçu et utilisé pour l'étude des effets des paramètres de contrôle du procédé sur la prise d'aluminium interfacial avec un intérêt particulier porté té à la simulation de l'hydrodynamique de l'écoulement du liquide à la surface de la tôle ainsi qu'aux durées d'immersion extrêmement courtes inférieures à une seconde. Les effets de la concentration en aluminium et des températures de travail ont aussi été étudiés. Il a pu être montré que la prise d'aluminium est extrêmement rapide dans les premiers instants de la réaction et que la couverture complète de l'acier par la couche d'inhibition était assurée après le premier dixième de seconde. La réaction se poursuit avec une vitesse de croissance de la couche compatible avec la diffusion à l'état solide du fer à travers le produit formé. Un modèle mathématique décrivant les phénomènes est proposé. La microscopie de force atomique a été utilisée pour l'étude de la morphologie de la couche d'inhibition et la microanalyse X à sélection d'énergie pour la mesure de son épaisseur.</p><p><p> / Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished
107

Architecture de COntrôle/COmmande dédiée aux systèmes Distribués Autonomes (ACO²DA) : application à une plate-forme multi-véhicules / Control and management architecture for distributed autonomous systems : application to multi-vehicles based platform

Mouad, Mehdi 31 January 2014 (has links)
La complexité associée à la coordination d’un groupe de robots mobiles est traitée dans cette thèse en investiguant plus avant les potentialités des architectures de commande multi-contrôleurs dont le but est de briser la complexité des tâches à exécuter. En effet, les robots mobiles peuvent évoluer dans des environnements très complexes et nécessitent de surcroît une coopération précise et sécurisée pouvant rapidement devenir inextricable. Ainsi, pour maîtriser cette complexité, le contrôleur dédié à la réalisation d’une tâche est décomposé en un ensemble de comportements/contrôleurs élémentaires (évitement d’obstacles et de collision entre les robots, attraction vers une cible, planification, etc.) qui lient les informations capteurs (provenant des capteurs locaux du robot, etc.) aux actionneurs des différentes entités robotiques. La tâche considérée dans cette thèse correspond à la navigation d’un groupe de robots mobiles dans des environnements peu ou pas connus en présence d’obstacles (statiques et dynamiques). La spécificité de l’approche théorique consiste à allier les avantages des architectures multi-contrôleurs à ceux des systèmes multi-agents et spécialement les modèles organisationnels afin d’apporter un haut niveau de coordination entre les agents/robots mobiles. Le groupe de robots mobiles est alors coordonné suivant les différentes normes et spécifications du modèle organisationnel. Ainsi, l’activation d’un comportement élémentaire en faveur d’un autre se fait en respectant les contraintes structurelles des robots en vue d’assurer le maximum de précision et de sécurité des mouvements coordonnés entre les différentes entités mobiles. La coopération se fait à travers un agent superviseur (centralisé) de façon à atteindre plus rapidement la destination désirée, les événements inattendus sont gérés quant à eux individuellement par les agents/robots mobiles de façon distribuée. L’élaboration du simulateur ROBOTOPIA nous a permis d’illustrer chacune des contributions de la thèse par un nombre important de simulations. / The difficulty of coordinating a group of mobile robots is adressed in this thesis by investigating control architectures which aim to break task complexity. In fact, multi-robot navigation may become rapidly inextricable, specifically if it is made in hazardous and dynamical environment requiring precise and secure cooperation. The considered task is the navigation of a group of mobile robots in unknown environments in presence of (static and dynamic) obstacles. To overcome its complexity, it is proposed to divide the overall task into a set of basic behaviors/controllers (obstacle avoidance, attraction to a dynamical target, planning, etc.). Applied control is chosen among these controllers according to sensors information (camera, local sensors, etc.). The specificity of the theoretical approach is to combine the benefits of multi-controller control architectures to those of multi-agent organizational models to provide a high level of coordination between mobile agents-robots systems. The group of mobile robots is then coordinated according to different norms and specifications of the organizational model. Thus, activating a basic behavior in favor of another is done in accordance with the structural constraints of the robots in order to ensure maximum safety and precision of the coordinated movements between robots. Cooperation takes place through a supervisor agent (centralized) to reach the desired destination faster ; unexpected events are individually managed by the mobile agents/robots in a distributed way. To guarantee performance criteria of the control architecture, hybrid systems tolerating the control of continuous systems in presence of discrete events are explored. In fact, this control allows coordinating (by discrete part) the different behaviors (continuous part) of the architecture. The development of ROBOTOPIA simulator allowed us to illustrate each contribution by many results of simulations.
108

Importance ranking of parameter uncertainties in geo-hazard assessments / Analyse de sensibilité des incertitudes paramétriques dans les évaluations d’aléas géotechniques

Rohmer, Jérémy 16 November 2015 (has links)
Les incertitudes épistémiques peuvent être réduites via des études supplémentaires (mesures labo, in situ, ou modélisations numériques, etc.). Nous nous concentrons ici sur celle "paramétrique" liée aux difficultés à évaluer quantitativement les paramètres d’entrée du modèle utilisé pour l’analyse des aléas géotechniques. Une stratégie de gestion possible est l’analyse de sensibilité, qui consiste à identifier la contribution (i.e. l’importance) des paramètres dans l’incertitude de l’évaluation de l’aléa. Des approches avancées existent pour conduire une telle analyse. Toutefois, leur application au domaine des aléas géotechniques se confronte à plusieurs contraintes : 1. le coût calculatoire des modèles numériques (plusieurs heures voire jours) ; 2. les paramètres sont souvent des fonctions complexes du temps et de l’espace ; 3. les données sont souvent limitées, imprécises voire vagues. Dans cette thèse, nous avons testé et adapté des outils statistiques pour surmonter ces limites. Une attention toute particulière a été portée sur le test de faisabilité de ces procédures et sur la confrontation à des cas réels (aléas naturels liés aux séismes, cavités et glissements de terrain) / Importance ranking of parameter uncertainties in geo-hazard assessments Epistemic uncertainty can be reduced via additional lab or in site measurements or additional numerical simulations. We focused here on parameter uncertainty: this corresponds to the incomplete knowledge of the correct setting of the input parameters (like values of soil properties) of the model supporting the geo-hazard assessment. A possible option tomanage it is via sensitivity analysis, which aims at identifying the contribution (i.e. the importance) of the different input parameters in the uncertainty on the final hazard outcome. For this purpose, advanced techniques exist, namely variance-basedglobal sensitivity analysis. Yet, their practical implementation faces three major limitations related to the specificities of the geo-hazard domain: 1. the large computation time cost (several hours if not days) of numerical models; 2. the parameters are complex functions of time and space; 3. data are often scarce, limited if not vague. In the present PhD thesis, statistical approaches were developed, tested and adapted to overcome those limits. A special attention was paid to test the feasibility of those statistical tools by confronting them to real cases (natural hazards related to earthquakes, cavities and landslides)
109

Méthodologie d’aide à la décision pour une gestion durable des risques d’origine naturelle en contexte incertain / Decision-support methodology for a sustainable management of natural hazard risk under uncertainty

Edjossan-Sossou, Abla Mimi 14 December 2015 (has links)
La gestion des risques d’origine naturelle est un défi stratégique majeur pour les collectivités territoriales en raison de l’impact négatif potentiel de ces risques sur leur développement. Dans la perspective d’une gestion durable de ces risques, l’élaboration de méthodes et d’outils d’aide à la décision multicritère pour l’évaluation de la durabilité des stratégies de gestion représente une thématique de recherche intéressante et d’actualité. Les principaux verrous scientifiques sous-jacents à cette thématique portent sur la nécessité de définir un cadre théorique pour l’évaluation de cette durabilité et la prise en compte d’incertitudes provenant de différentes sources (données d’entrée, choix méthodologiques, dynamique du contexte, etc.) susceptibles d'influer sur la qualité des résultats de l’évaluation et donc sur la prise de décision. D’où la nécessité d’une méthodologie pour la prise en compte des incertitudes dans le processus décisionnel afin de fournir des résultats les plus pertinents possibles aux décideurs. Pour lever ces verrous, cette thèse propose une méthodologie globale d’évaluation qui repose sur le concept de développement durable et intègre un ensemble de critères et indicateurs permettant de rendre compte des conséquences techniques, économiques, sociétales, environnementales et institutionnelles des stratégies de gestion. Les incertitudes sont quantifiées selon une approche probabiliste (Simulations Monte Carlo) ou possibiliste (théorie des possibilités) et propagées le long du processus d’évaluation par l’arithmétique de la théorie des intervalles. Elle propose également un simulateur pour évaluer les dommages liés aux inondations et permettre une estimation aussi bien déterministe qu’aléatoire de différents types de ces dommages à l’échelle d’une commune. Ces contributions ont été appliquées à une étude de cas sur la commune de Dieulouard où trois stratégies de gestion des risques liés aux inondations sont comparées (respect des prescriptions du plan de prévention des risques d’inondations pour la construction de tout nouveau bâtiment, réduction du niveau de l’aléa par la construction d’une digue, réduction de la vulnérabilité de tous les bâtiments en zone inondable par des dispositifs de protection individuelle). Les résultats permettent d’illustrer l’opérationnalité de la méthodologie de dégager des perspectives de recherche / Natural hazard risk management is a major strategic challenge for territorial authorities because of the potential adverse effects on their development that arise from the occurrence of such a kind of risks. With a view to sustainably managing these risks, the development of multicriteria decision-support methods and tools to evaluate the sustainability of risk management strategies is an interesting and topical research subject. The main underlying challenges of sustainability assessment are to define a theoretical framework that will enable assessing the sustainability, and to take into account inherent uncertainties that could derive from various sources (input data, methodological choices, dynamics of the context, etc.), and that could potentially influence the relevance of assessment results. Hence, there is a need to develop a methodology for handling uncertainties in the decision-making process in order to provide decision-makers with the most relevant results. The present research introduces an overall decision-support methodology for assessing the sustainability of risk management strategies that relies on the concept of sustainable development and includes a set of criteria and indicators for reporting on the technical, economic, societal, environmental as well as institutional outcomes of the strategies. Data uncertainties are quantified using probabilistic (Monte Carlo simulations) or possibilistic (possibility theory) approach, and are propagated along the evaluation process through interval arithmetic operations. Beyond that, a computational tool was designed to simulate, in a deterministic or uncertain way, various types of flood damages at a municipality scale. These contributions were applied to a case study regarding flood risk management in Dieulouard, which consists of comparing three management strategies (respecting constructive constraints for new buildings in hazard prone areas fixed by the flood risks prevention plan, constructing a dyke as a collective defence infrastructure, implementing individual protective measures for all buildings in hazard prone areas). This application demonstrates the practicality of the methodology, and highlights prospects for future works
110

Effet du salage et du séchage sur la dynamique d’évolution de la protéolyse, de la structure et de la texture lors de la fabrication d’un jambon sec. Développement d’un modèle de « jambon numérique » couplant transferts d’eau, de sel et protéolyse / Effect of salting and drying on the time course of proteolysis, structure and texture during the dry-cured ham elaboration process. Building of a “numerical ham” model that couples water and salt transfers to proteolysis

Harkouss, Rami 17 March 2014 (has links)
Du fait de problèmes de santé publique, l’industrie agroalimentaire doit réduire la quantité de sel (chlorure de sodium) dans les aliments, et donc dans les charcuteries. Lors de la fabrication des jambons secs, une diminution du taux de sel pourrait se traduire par des problèmes de texture dus à une protéolyse excessive pouvant nuire à l’étape de tranchage industriel, et aussi par des problèmes de stabilité microbiologique. Dans ce contexte, les objectifs de cette thèse sont : (1) d’étudier le lien entre l’évolution de la protéolyse, de la texture et de la structure, tout au long des différentes étapes de fabrication de jambons secs et (2) de développer un modèle de « jambon numérique » afin de prédire spatialement les dynamiques d’évolution des teneurs en eau, en sel et celle de l’activité de l’eau (a w ), et de coupler ces évolutions à celle de la protéolyse. Ce travail combine études expérimentales et modélisation/simulation numérique. Tout d’abord, une méthode de quantification de la protéolyse utilisant la « Fluorescamine » a été développée et validée sur des échantillons de viande de porc et des échantillons extraits de jambons industriels ; un nouvel indice de protéolyse (IP) a été défini. Sur la base d’un plan d’expériences, l’évolution de la protéolyse au sein d’échantillons différemment salés et séchés et préparés à partir de 5 muscles différents d’un jambon de porc, a été quantifiée. Suite à l’application d’une régression linéaire multiple, des lois phénoménologiques ont été construites permettant de calculer la vitesse de protéolyse, pour un muscle donné, en fonction de la température et des teneurs en eau et en sel. Ensuite, au moyen du logiciel Comsol ® Multiphysics, ces lois ont été combinées avec des modèles de transferts de matière (eau, sel), de chaleur (température), et de calcul de l’a w , constituant ainsi un modèle de « jambon numérique ». Enfin, la dynamique d’évolution de l’IP, de 5 paramètres texturaux (dureté, fragilité, cohésion, élasticité et adhésion) et de 4 paramètres structuraux (nombre des fibres, espaces extracellulaires, taille des fibres et surface de tissu conjonctif) a été mesurée sur des échantillons prélevés dans deux muscles extraits de jambons industriels pris à cinq stades de fabrication différents. L’application d’une régression polynômiale multiple à ces données expérimentales a conduit à l’établissement de corrélations permettent de calculer certains paramètres texturaux et structuraux à partir de l’IP et des teneurs en eau et en sel. A court terme, ces lois seront incorporées dans le modèle numérique afin de constituer un vrai simulateur de procédé. A moyen terme, le modèle de « jambon numérique » devra être amélioré afin de tenir compte (1) de la diminution du volume du jambon, du fait du séchage et (2) de la diminution de la vitesse de protéolyse en fonction du temps, du fait de la réduction de la quantité de protéines hydrolysables dans le jambon. Une fois complété et amélioré, le simulateur de procédé pourra aider les professionnels à tester des scénarios visant à réduire la quantité de sodium dans les jambons secs, sans altérer leur qualité finale. / Because of public health problems, the food industry must lower sodium content in all food products, therefore in cured meat products. During the dry-cured ham elaboration process, decreasing salt content may induce microbial safety problems and texture defects due to an excessive proteolysis that could affect later the industrial stage of slicing. On account of that, this work of thesis aims at (1) studying the relationship between proteolysis, structure and texture during the various stages of dry-cured ham manufacture, and (2) building a “numerical ham” model to predict spatially the time course of water and salt content, and thus water activity (a w ), and to couple these variations with proteolysis. This work combines experimental studies and numerical modelling and simulation. Firstly, a new and powerful technique for quantifying proteolysis that uses “Fluorescamine” was developed and validated on pork meat samples and samples extracted from industrial dry-cured hams; a new proteolysis index (PI) was defined. Based on an experimental design, the time course of proteolysis was quantified in laboratory-salted and dried pork meat samples prepared from five different types of pork muscle. Applying multiple linear regression enabled us to build phenomenological models relating, for each pork muscle, PI velocity to temperature, and to water and salt content. Using Comsol ® Multiphysics software, these phenomenological models were then combined with heat and mass transfer models and associated with calculation of a w , thus constituting the “numerical ham” model. In addition, the time course of PI, five textural parameters (hardness, fragility, cohesiveness, springiness and adhesiveness), and four structural parameters (fiber number, extracellular spaces, cross section area, and connective tissue area) was quantified on samples extracted from two different muscles of industrial dry-cured hams removed from the process at five different processing times. Multiple polynomial regression was applied to build phenomenological models relating PI, salt and water content to some textural and structural parameters investigated. These last models could be rapidly incorporated in the “numerical ham” model to constitute a real process simulator. In the future, the “numerical ham” model should be improved in order to take into account (1) the strong decrease in ham volume due to drying and also (2) the decrease in proteolysis velocity with time as a result of the reduction in the amount of protein that can be hydrolysed in the ham. Once completed and improved, the process simulator will be available to professionals to test scenarios allowing sodium content to be reduced in dry-cured hams without altering their final quality.

Page generated in 0.0785 seconds