• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 4
  • Tagged with
  • 16
  • 7
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modeling and simulation of flows over and through fibrous porous media / Modélisation et simulation d'un écoulement autour d'une paroi poreuse et fibreuse

Luminari, Nicola 19 March 2018 (has links)
Toute surface naturelle est par essence non lisse, elle est constituée de rugosités plus ou moins régulières et / ou de structures mobiles d’échelles variées. D’un point de vue mécanique des fluides, ces surfaces naturelles proposent des meilleures performances aérodynamiques en terme de réduction de traînée, d’augmentation de la portance ou de contrôle du décollement lorsqu’elles couvrent des corps en mouvement. Cela a été notament prouvé pour des écoulements de couches limites ou de sillage, autour de corps épais. La simulation numérique d’écoulements aux échelles microscopiques autour des surfaces « naturelles » demeure de nos jours encore hors de portée. En conséquence, la thèse a pour objet d’étudier la modélisation du glissement apparent de l’écoulement sur ce genre de surface, modélisée comme un milieu poreux, appliquant la théorie de la moyenne-volumique de Whitaker. Ce modèle mathématique permet globalement de représenter en moyenne les détails de la micro-structure de ses surfaces, tout en conservant une description satisfaisante des phénomènes physiques induits par l’écoulement. Le premier chapitre de ce manuscrit dresse un panorama des efforts antérieurs portant sur la modélisation de ces surfaces en précisant les résultats les plus importants issus de la littérature. Le deuxième chapitre présente la dérivation mathématique des équations de Navier- Stokes en moyenne volumique (VANS en anglais) dans un milieu poreux. Dans le troisième chapitre est étudiée la stabilité de l’écoulement à l’interface entre un fluide libre et un milieu poreux, constitué d'une série de cylindres rigides. La présence de cette couche poreuse est traitée par un terme de traînée dans les équations du fluide. On montre que l'ajout de ce terme réduit les taux d’amplification de l’instabilité de Kelvin-Helmholtz sur toute la gamme des nombre d’onde et ainsi augmente la longueur d’onde du mode le plus amplifié. Dans ce même contexte a été calculée la différence entre un modèle isotrope et une approche tensorielle pour le terme de traînée, afin de déterminer l’approche la plus consistante pour une étude de stabilité de ce type d’écoulement. Cela a mené à la conclusion que le modèle le plus pertinent est celui utilisant le tenseur de perméabilité apparent. Dans le chapitre suivant le tenseur de perméabilité apparent est identifié sur la base d’une centaine de simulations numériques directes, pour un milieu poreux tridimensionnel constitué de cylindres rigides, où le problème de fermeture est abordé par la méthode VANS. Dans ces configurations ce tenseur varie en fonction de quatre paramètres : le nombre de Reynolds, la porosité et l’orientation du gradient moyen de pression définie par deux angles d’Euler. Cette paramétrisation permet de capturer les effets tridimensionnels locaux. Cette base de données ainsi constituée a permis de créer, une approche de type kriging, un métamodèle comportemental pour estimer toutes les composantes du tenseur de perméabilité apparente. Dans le cinquième chapitre sont menées des simulations des équations VANS à l’échelle macroscopique après implémentation du méta-modèle qui autorise des temps de calcul raisonnables. La validation de l’approche à l’échelle macroscopique est effectuée sur un écoulement dans une cavité fermé couverte d’une couche poreuse et une comparaison avec les résultats d’un DNS très précise, homogénéisés a posteriori montre un très bon accord et démontre la pertinence de la démarche. L’étape suivante a consisté en l’étude du contrôle du décollement pour un écoulement autour d’une bosse poreuse par cette même approche VANS macroscopique. Enfin des conclusions générales et des directions de recherche possibles sont présentées dans le dernier chapitre. / Any natural surface is in essence non-smooth, consisting of more or less regular roughness and/or mobile structures of different scales. From a fluid mechanics point of view, these natural surfaces offer better aerodynamic performances when they cover moving bodies, in terms of drag reduction, lift enhancement or control of boundary layer separation; this has been shown for boundary layer or wake flows around thick bodies. The numerical simulation of microscopic flows around "natural" surfaces is still out of reach today. Therefore, the goal of this thesis is to study the modeling of the apparent flow slip occurring on this kind of surfaces, modeled as a porous medium, applying Whitaker's volume averaging theory. This mathematical model makes it possible to capture details of the microstructure while preserving a satisfactory description of the physical phenomena which occur. The first chapter of this manuscript provides an overview of previous efforts to model these surfaces, detailing the most important results from the literature. The second chapter presents the mathematical derivation of the volume-averaged Navier-Stokes equations (VANS) in a porous medium. In the third chapter the flow stability at the interface between a free fluid and a porous medium, formed by a series of rigid cylinders, is studied. The presence of this porous layer is treated by including a drag term in the fluid equations. It is shown that the presence of this term reduces the rates of amplification of the Kelvin-Helmholtz instability over the whole range of wavenumbers, thus leading to an increase of the wavelength of the most amplified mode. In this same context, the difference between the isotropic model and a tensorial approach for the drag term has been evaluated, to determine the most consistent approach to study these flow instabilities. This has led to the conclusion that the model that uses the apparent permeability tensor is the most relevant one. In the following chapter, based on this last result, the apparent permeability tensor, based on over one hundred direct numerical simulations carried out over microscopic unit cells, has been identified for a three-dimensional porous medium consisting of rigid cylinders. In these configurations the tensor varies according to four parameters: the Reynolds number, the porosity and the direction of the average pressure gradient, defined by two Euler angles. This parameterization makes it possible to capture local three-dimensional effects. This database has been set up to create, based on a kriging-type approach, a behavioral metamodel for estimating all the components of the apparent permeability tensor. In the fifth chapter, simulations of the VANS equations are carried out on a macroscopic scale after the implementation of the metamodel, to get reasonable computing times. The validation of the macroscopic approach is performed on a closed cavity flow covered with a porous layer and a comparison with the results of a very accurate DNS, homogenized a posteriori, has shown a very good agreement and has demonstrated the relevance of the approach. The next step has been the study of the passive control of the separation of the flow past a hump which is placed on a porous wall, by the same macroscopic VANS approach. Finally, general conclusions and possible directions of research in the field are presented in the last chapter.
2

Conception Collective de scénarios pédagogiques dans un contexte de réingénierie : une approche par la métamodélisation située

El-Kechai, Hassina 22 October 2008 (has links) (PDF)
Mon sujet de thèse s'inscrit dans le contexte de l'ingénierie des Environnements Informatiques pour l'Apprentissage Humain (EIAH) et porte sur la mise en oeuvre d'un processus dédié à la conception collective de scénarios pédagogiques dans un contexte de réingénierie.<br />Ce processus doit pouvoir aider des équipes de conception dont le but est de décrire des situations d'apprentissage qui peuvent être opérationnalisées dans un Environnement Informatique pour l'Apprentissage Humain (EIAH).<br />Nous considérons le processus de conception des scénarios pédagogiques qui décrivent ces situations d'apprentissage comme une construction impliquant des résolutions de problèmes.<br />Ces résolutions de problèmes sont plus ou moins bien définies et donnent lieu à des processus plus ou moins planifiés ou opportunistes.<br />Une des conséquences de ce constat nous a amené à considérer les scénarios et les métamodèles utilisés pour les décrire comme des objets qui parcourent l'activité de conception.<br />C'est sur cette base que le processus que nous avons défini et instrumenté permet de caractériser un ensemble d'artefacts, qui contribuent à l'élaboration de métamodèles et de scénarios en inscrivant leur conception dans une démarche centrée utilisateurs. Cette démarche se caractérise par le fait qu'elle implique les utilisateurs de ces métamodèles et de ces scénarios dans le processus de conception.
3

Extension des systèmes de métamodélisation persistant avec la sémantique comportementale

Bazhar, Youness 13 December 2013 (has links) (PDF)
L'Ingénierie Dirigée par les Modèles (IDM) a suscité un grand intérêt grâce aux avantages qu'elle offre. Enparticulier, l'IDM vise à accélérer le processus de développement et à faciliter la maintenance des logiciels. Mais avecl'augmentation permanente de la taille des modèles et de leurs instances, l'exploitation des modèles et de leurs instances,en utilisant des outils classiques présente des insuffisances liées au passage à l'échelle. L'utilisation des bases de donnéesest une des solutions proposées pour répondre à ce problème. Dans ce contexte, deux approches ont été proposées. Lapremière consiste à équiper les outils de modélisation avec des bases de données dédiées au stockage de modèles,appelées model repositories (p. ex. EMFStore). Ces bases de données sont équipées de langages d'exploitation limitésseulement à l'interrogation des modèles et des instances. Par conséquent, ces langages n'offrent aucune capacité poureffectuer des opérations avancées sur les modèles telles que la transformation de modèles ou la génération de code. Ladeuxième approche, que nous suivons dans notre travail, consiste à définir des environnements persistants en base dedonnées dédiés à la méta-modélisation. Ces environnements sont appelés systèmes de méta-modélisation persistants(PMMS). Un PMMS consiste en (i) une base de données dédiée au stockage des méta-modèles, des modèles et de leursinstances, et (ii) un langage d'exploitation associé possédant des capacités de méta-modélisation et d'exploitation desmodèles. Plusieurs PMMS ont été proposés tels que ConceptBase ou OntoDB/OntoQL. Ces PMMS supportentprincipalement la définition de la sémantique structurelle et descriptive des méta-modèles et des modèles en terme de(méta-)classes, (méta-)attributs, etc. Par contre, ces PMMS fournissent des mécanismes limités pour définir la sémantiquecomportementale nécessaire à l'exploitation des modèles et des instances. En effet, la sémantique comportementalepourrait être utile pour calculer des concepts dérivés, effectuer des transformations de modèles, générer du code source,etc. Ainsi, nous proposons dans notre travail d'étendre les PMMS avec la possibilité d'introduire dynamiquement desopérations qui peuvent être implémentées en utilisant des mécanismes hétérogènes. Ces opérations peuvent ainsi utiliserdes mécanismes internes au système de gestion de base de données (p. ex. les procédures stockées) tout comme desmécanismes externes tels que les services web ou les programmes externes (p. ex. Java, C++). Cette extension permetd'améliorer les PMMS en leur donnant une plus large couverture de fonctionnalités et une plus grande flexibilité. Pourvalider notre proposition, elle a été implémentée sur le prototype OntoDB/OntoQ et a été mise en oeuvre dans troiscontextes différents : (1) pour calculer les concepts dérivés dans les bases de données à base ontologique, (2) pouraméliorer une méthodologie de conception de base de données à base ontologique et finalement (3) pour faire de latransformation et de l'analyse des modèles des systèmes embarqués temps réel.
4

Développement de méthodes fiabilistes dépendant du temps pour l'analyse de durabilité des structures : application au problème de conception fiabiliste dépendant du temps / Development of metamodeling methods for time-dependent structural reliability analysis

Hawchar, Lara 13 December 2017 (has links)
La caractérisation des incertitudes est un enjeu essentiel qui permet une conception fiable des structures. Par ailleurs, la surveillance du phénomène de vieillissement est primordiale pour l'inspection et la prévention des risques. Ces deux enjeux peuvent être étudiés simultanément dans une analyse de fiabilité dépendante du temps. Toutefois, une telle analyse est souvent complexe et très couteuse en temps de calcul parce qu'elle demande plusieurs évaluations du modèle physique décrivant la performance de la structure. Dans ce contexte, on propose l'utilisation de la métamodélisation pour l'analyse de fiabilité dépendante du temps, concept largement exploré dans le cas de problèmes indépendants du temps. Ceci consiste à remplacer le modèle physique par un métamodèle analytique facile à évaluer de sorte que la méthode de simulation de Monte-Carlo peut être utilisée à coût de calcul réduit. D'autres problèmes sont liés aussi à ce type d'analyse, notamment la grande dimensionnalité du problème, la non Gaussianité et non stationnarité des processus stochastiques mis en jeu et la non linéarité de la fonction d'état limite. La thèse vise alors à proposer des méthodes précises mais aussi efficaces pour l'analyse de fiabilité dépendant du temps qui permettent de surmonter ces difficultés. Elle propose également une extension de ces méthodes au problème de conception fiabiliste dépendant du temps. / Uncertainty quantification is essential for designing reliable structures. Moreover, monitoring the aging process is of vital importance for the inspection and prevention of risks. These two aspects may be considered simultaneously throughout a time-variant reliability analysis. However, such analysis is in general complex and very time consuming because it requires numerous evaluations of the mechanical model describing the structural behavior. To overcome this issue, we propose to use the metamodeling approach that has been widely explored in the context of the probabilistic analysis, for time-variant reliability problems. This consists in replacing the mechanical model with a simple analytical function that is easy to evaluate and on which Monte-Carlo simulation can be performed at a low computational cost. Other challenges also encounter this analysis and are basically related to the high dimensionality of the problem, the non Gaussianity and non stationarity of the input stochastic processes and the non linearity of the limit state function. The thesis aims then to develop accurate and efficient approaches for time-variant reliability analysis that overcome the aforementioned difficulties. It also proposes to extend these methods to the field of time-variant reliability-based design optimization.
5

Extension des systèmes de métamodélisation persistant avec la sémantique comportementale / Handling behavioral semantics in persistent metamodeling systems

Bazhar, Youness 13 December 2013 (has links)
L’Ingénierie Dirigée par les Modèles (IDM) a suscité un grand intérêt grâce aux avantages qu’elle offre. Enparticulier, l’IDM vise à accélérer le processus de développement et à faciliter la maintenance des logiciels. Mais avecl'augmentation permanente de la taille des modèles et de leurs instances, l’exploitation des modèles et de leurs instances,en utilisant des outils classiques présente des insuffisances liées au passage à l’échelle. L’utilisation des bases de donnéesest une des solutions proposées pour répondre à ce problème. Dans ce contexte, deux approches ont été proposées. Lapremière consiste à équiper les outils de modélisation avec des bases de données dédiées au stockage de modèles,appelées model repositories (p. ex. EMFStore). Ces bases de données sont équipées de langages d’exploitation limitésseulement à l’interrogation des modèles et des instances. Par conséquent, ces langages n’offrent aucune capacité poureffectuer des opérations avancées sur les modèles telles que la transformation de modèles ou la génération de code. Ladeuxième approche, que nous suivons dans notre travail, consiste à définir des environnements persistants en base dedonnées dédiés à la méta-modélisation. Ces environnements sont appelés systèmes de méta-modélisation persistants(PMMS). Un PMMS consiste en (i) une base de données dédiée au stockage des méta-modèles, des modèles et de leursinstances, et (ii) un langage d'exploitation associé possédant des capacités de méta-modélisation et d’exploitation desmodèles. Plusieurs PMMS ont été proposés tels que ConceptBase ou OntoDB/OntoQL. Ces PMMS supportentprincipalement la définition de la sémantique structurelle et descriptive des méta-modèles et des modèles en terme de(méta-)classes, (méta-)attributs, etc. Par contre, ces PMMS fournissent des mécanismes limités pour définir la sémantiquecomportementale nécessaire à l’exploitation des modèles et des instances. En effet, la sémantique comportementalepourrait être utile pour calculer des concepts dérivés, effectuer des transformations de modèles, générer du code source,etc. Ainsi, nous proposons dans notre travail d'étendre les PMMS avec la possibilité d'introduire dynamiquement desopérations qui peuvent être implémentées en utilisant des mécanismes hétérogènes. Ces opérations peuvent ainsi utiliserdes mécanismes internes au système de gestion de base de données (p. ex. les procédures stockées) tout comme desmécanismes externes tels que les services web ou les programmes externes (p. ex. Java, C++). Cette extension permetd’améliorer les PMMS en leur donnant une plus large couverture de fonctionnalités et une plus grande flexibilité. Pourvalider notre proposition, elle a été implémentée sur le prototype OntoDB/OntoQ et a été mise en oeuvre dans troiscontextes différents : (1) pour calculer les concepts dérivés dans les bases de données à base ontologique, (2) pouraméliorer une méthodologie de conception de base de données à base ontologique et finalement (3) pour faire de latransformation et de l’analyse des modèles des systèmes embarqués temps réel. / Modeling and model management have taken a great interest in software development since they accelerate thesoftware development process and facilitate their maintenance. But, with the increasing size of models and their instances,the management of models and their instances with tools evolving in main memory presents some insufficiencies relatedto scalability. Indeed, classical tools using the central memory have shown their limits when they face large scale modelsand instances. Thus, to overcome the problem of scalability, the management of models in databases becomes a necessity.Indeed, two solutions were proposed. The first one consists in equipping modeling and model management tools withspecific databases, called model repositories, (e.g., EMFStore) dedicated to store metamodels, models and instances.These model repositories are equipped with exploitation languages restricted only to querying capabilities such that modelrepositories serve only as model warehouses as processing model management tasks require loading the whole model tothe central memory. The second solution, on which we focus our approach, consists in defining database environments formetamodeling and model management. These systems, called Persistent MetaModeling Systems (PMMSs), aim atproviding a database environment for metamodeling and model management. Indeed, a PMMS consists in (i) a databasethat stores metamodels, models their instances, and (ii) an associated exploitation language possessing metamodeling andmodel management capabilities. Several PMMSs have been proposed (e.g., ConceptBase, OntoDB/OntoQL) and focusmainly on the structural definition of metamodels and models in terms of (meta-)classes, (meta-)attributes, etc. Yet,existing PMMSs provide limited capabilities to define behavioral semantics for model and data management. Indeed,behavioral semantics could be useful to compute derivations, perform model transformations, generate source code, etc.In our work, we propose to extend PMMSs with the capability to introduce dynamically user-defined model and datamanagement operations. These operations can be implemented using flexible and heterogeneous mechanisms. Indeed,they can use internal database mechanisms (e.g., stored procedures) as well as external mechanisms such as web servicesor external programs (e.g., Java, C++). As a consequence, this extension enhances PMMSs giving them more coverageand further flexibility. This extension has been implemented on the OntoDB/OntoQL prototype, and experimented tocheck the scaling of our approach. Moreover, our proposition has been used in three different contexts. In particular, (1)to compute derived concepts of ontologies, (2) to enhance an ontology-based database design methodology and (3) totransform and analyze models of real-time and embedded systems.
6

PATRONS DE CONCEPTION À BASE D'ASPECTS POUR L'INGÉNIERIE DES SYSTÈMES D'INFORMATION PAR RÉUTILISATION

Hachani, Ouafa 04 July 2006 (has links) (PDF)
Ce travail de recherche concerne l'apport de l'approche Aspect à l'ingénierie des systèmes d'information (SI) en général et aux patrons de conception en particulier. L'objectif principal de ce travail est de développer des patrons à base d'aspects afin de faciliter et de guider l'ingénierie de SI par réutilisation de patrons.<br />Les patrons de conception par objets améliorent et accélèrent le développement en favorisant l'évolution, l'adaptation et la réutilisation de SI. Leur utilisation dans une approche strictement Objet pose cependant plusieurs problèmes et limites qui sont principalement liés à la dispersion et à l'enchevêtrement du code de leurs imitations dans l'implémentation des applications. L'approche Aspect permet de nouvelles solutions pour ces patrons contribuant à garder visible et isolée l'imitation de chaque patron dans le code des applications, afin de pallier à leurs problèmes d'utilisation et d'améliorer leur traçabilité et leur réutilisation.<br />Toutefois, un manque de consensus sur les concepts et mécanismes fondamentaux de l'approche Aspect et la diversité des modèles et langages de programmation proposés dans ce courant de recherche rendent difficile l'expression de structures par aspects de patrons indépendamment d'une technique de programmation par aspects particulière. Pour aborder cette difficulté, nous avons adopté une approche par métamodélisation et transformation de modèles. Nous avons basé cette approche sur un métamodèle général intégrant les particularités de l'approche Aspect et deux métamodèles spécifiques à AspectJ et Hyper/J. Les trois métamodèles proposés sont définis comme étant des extensions du métamodèle d'UML. Des règles de transformation sont également proposées.<br />Nous avons utilisé le métamodèle général pour l'expression de nouvelles solutions par aspects des patrons de conception par objets que nous considérons. Cette étude nous a permis de définir un système de huit nouveaux patrons originaux capitalisant des expertises en matière de conception par aspects. Les patrons proposés sont coordonnés et hiérarchisés ce qui permet d'offrir un cadre pour une démarche pour réaliser une conception et une programmation par aspects de qualité.
7

Aide à la conception d'architectures de conduite des systèmes de production

Denis, Bruno 17 February 1994 (has links) (PDF)
Les travaux exposés dans ce mémoire portent sur la conception de l'architecture de conduite des systèmes automatisés de production. Ils ont été développés au sein du Laboratoire Universitaire de Recherche en Production Automatisée (LURPA - EA 1385). Il s'agit de travaux prospectifs dont l'objectif est de construire un cadre méthodologique formel de conception et d'évaluation d'architectures.<br /><br />La première partie est consacrée à l'exposé du cadre méthodologique retenu et comporte quatre chapitres dans lesquels sont successivement abordés :<br /><br /> * la problématique générale de la conception d'architectures de conduite, ainsi qu'une revue des \travaux scientifiques dans le domaine,<br /> * la présentation générale de la méthode proposée avec le point de vue des activités de conception, d'évaluation et de choix d'architecture,<br /> * la présentation détaillée de la construction d'architecture avec cette fois le point de vue des différents modèles produits,<br /> * la présentation détaillée d'évaluation et de choix de l'architecture retenue avec encore une fois le point de vue des modèles d'évaluation. <br /><br />La seconde partie du mémoire est destinée à préciser et à valider par l'exemple la méthode proposée. Pour ce faire, nous l'avons appliquée à la conception de l'architecture de conduite d'un poste de lance ment d'un transfert libre. Le plan de cette étude suit de manière ordonnée la démarche que nous avons présenté dans la première partie.
8

Systematic use of models of concurrency in executable domain-specific modelling languages / Utilisation systématique des modèles de concurrence dans les langages de modélisation dédiés exécutables

Latombe, Florent 13 July 2016 (has links)
La programmation orientée langage (Language-Oriented Programming – LOP) préconise l’utilisation de langages de modélisation dédiés exécutables (eXecutable Domain-Specific Modeling Languages – xDSMLs) pour la conception, le développement, la vérification et la validation de systèmes hautement concurrents. De tels systèmes placent l’expression de la concurrence dans les langages informatiques au coeur du processus d’ingénierie logicielle, par exemple à l’aide de formalismes dédiés appelés modèles de concurrence (Models of Concurrency – MoCs). Ceux-ci permettent une analyse poussée du comportement des systèmes durant les phases de vérification et de validation, mais demeurent complexes à comprendre, utiliser, et maîtriser. Dans cette thèse, nous développons et étendons une approche qui vise à faire collaborer l’approche LOP et les MoCs à travers le développement de xDSMLs dans lesquels la concurrence est spécifiée de façon explicite (Concurrency-aware xDSMLs). Dans de tels langages, on spécifie l’utilisation systématique d’un MoC au niveau de la sémantique d’exécution du langage, facilitant l’expérience pour l’utilisateur final qui n’a alors pas besoin d’appréhender et de maîtriser l’utilisation du MoC choisi.Un tel langage peut être raffiné lors de la phase de déploiement, pour s’adapter à la plateforme utilisée, et les systèmes décrits peuvent être analysés sur la base du MoC utilisé. / Language-Oriented Programming (LOP) advocates designing eXecutable Domain-Specific Modeling Languages (xDSMLs) to facilitate the design, development, verification and validation of modern softwareintensive and highly-concurrent systems. These systems place their needs of rich concurrency constructs at the heart of modern software engineering processes. To ease theirdevelopment, theoretical computer science has studied the use of dedicated paradigms for the specification of concurrent systems, called Models of Concurrency (MoCs). They enable the use of concurrencyaware analyses such as detecting deadlocks or starvation situations, but are complex to understand and master. In this thesis, we develop and extend an approach that aims at reconciling LOP and MoCs by designing so-called Concurrencyaware xDSMLs. In these languages, the systematic use of a MoC is specified at the language level, removing from the end-user the burden of understanding or using MoCs. It also allows the refinement of the language for specific execution platforms, and enables the use of concurrency-aware analyses on the systems.
9

Quantification de radionucléides par approche stochastique globale / Global stochastic approach for radionuclides quantification

Clément, Aloïs 19 December 2017 (has links)
Parmi les techniques de mesure nucléaire non destructives utilisées par les instrumentistes du noyau atomique, la spectrométrie gamma est aujourd’hui une méthode d’identification et de quantification de radionucléides largement employée dans le cadre de la gestion d’objets nucléaires complexes tels que des déchets radioactifs, des fûts de déchets ou des boîtes à gants. Les caractéristiques physico-nucléaires non-reproductibles et variées de ces objets, telles que leurs compositions, la répartition des matériaux, leurs densités et formes géométriques, ou le nombre et la forme de leurs termes sources émetteurs, induisent une inaptitude des méthodes d’étalonnage traditionnel à permettre l’obtention de l’activité d’un matériau nucléaire donné. Cette thèse propose une méthode de quantification de radionucléides multi-émetteurs, limitant, voire supprimant, l’utilisation d’informations dites a priori issues de l’avis d’expert ou du retour d’expériences. Cette méthode utilise entre autres la métamodélisation pour construire une efficacité de détection gamma équivalente de la scène de mesure, le formalisme de résolution de problème inverse par Chaines de Markov Monte-Carlo (MCMC), le tout placé dans un cadre de travail probabiliste bayésien afin d’estimer les densités de probabilités des variables d’intérêt telle qu’une masse de radionucléide. Un protocole de validation expérimentale permet de vérifier la robustesse de la méthode à estimer une masse de 239Pu au sein d’objets similaires à ceux traités en routine par le laboratoire. Les perspectives de la méthode concernent la réduction des temps de calcul, des coûts financiers et humains par limitation de l’approche type expert, et la réduction des incertitudes associées. / Gamma spectrometry is a commonly passive nondestructive assay used to identify and quantify radionuclides present in more or less complex objects such as waste packages, waste drums or glove boxes. Basic methods using empirical calibration with a standard in order to quantify the activity of nuclear materials by determining the absolute calibration efficiency are useless on non-reproducible, complex and single nuclear objects such as waste packages. Package specifications as composition or geometry change from one package to another and involve a high variability of objects. Current quantification process uses numerical modeling of the measured scene with few available data such as geometry or composition. These data are density, material, screen, geometrical shape, matrix composition and source distribution. Some of them are strongly dependent on package data knowledge. The method developed in this thesis suggests combining a global stochastic approach which uses, among others, surrogate models available to simulate the gamma attenuation behaviour, a Bayesian approach which considers conditional probability density functions of problem inputs, and Markov Chains Monte Carlo algorithms (MCMC) which solve inverse problems, with gamma ray emission radionuclide spectrum and outside dimensions of interest objects. The methodology is testing to standard in terms of actinide masses, locations and distributions. Activity uncertainties are taken into account by this adjustment methodology. An experimental protocol is built to validate the quantification method in terms of robustness with the quantification of 239Pu. The perspectives of the method are to save time by improving the nuclear measurement process, to cut back on costs by avoiding as far as possible expert approaches, and to reduce the actinide mass uncertainties by increasing the precision of quantification process.
10

Un métamodèle de calcul en temps continu pour les systèmes d'aide à la décision appliqués à la planification financière / A metamodel calculation continuous time for aid decision systems applied to financial planning

Hélard, Davy 01 December 2015 (has links)
Dans le cadre de l’informatique décisionnelle, la programmation physico-financière doit permettre à des acteurs d’une collectivité provenant de divers domaines de faire converger leurs problématiques vers un objectif commun. L’une des principales difficultés de la modélisation d’une programmation physico-financière est que chaque acteur exprime ses problématiques dans des échelles de temps différentes. Dans cette thèse CIFRE, un métamodèle de calcul en temps continu appliqué à la programmation physico-financière est proposé afin de permettre aux acteurs de regrouper leurs visions dans un modèle unique, tout en se plaçant sur des échelles de temps différentes. La modélisation continue développée est confrontée à la modélisation discrète (représentative de l’état de l’art) au travers d’un cas d’étude, montrant les avancées de la première vis-à-vis de la seconde. Ce métamodèle innovant a été implémenté au sein de la société MGDIS, dans le cadre d’une convention CIFRE, à l’aide d’une architecture orientée service. Cette architecture se base sur un style innovant conçu dans cette thèse afin de maximiser la capacité à paralléliser l’évaluation des modèles. La solution développée dans cette thèse a été conçue pour permettre la programmation physico-financière de gros volumes de données à l’échelle réelle. Elle a été validée sur un cas d’étude et répond aux exigences exprimées par les experts de la modélisation de programmation physico-financière de MGDIS qui ont émis un avis positif quant à l’applicabilité de la solution proposée. / In the scope of Business Intelligence, planning aims to support multiple actors in their process of converging different views and problematics from different domains to get a shared business planning model. A major difficulty in business planning is that each actor states her/his views and problematics with a different time scale. Integrating them into a unique model that represents a common state of reality becomes very costly and awkward to manage when basing the construction of these models on discrete modeling techniques used by current tools of business planning. This doctorate thesis proposes a novel solution, beyond the state-of-the-art, for addressing these issues: it conceives a novel metamodel based on a continuous time calculus. Through the developed approach, it allows multiple actors to integrate the different business logics of their planning domain in a shared model as well as to observe it from different time scales. The advantages of our solution based on continuous time against solutions based on discrete time are presented through a case study. The conceived metamodel was implemented within a real industrial set in MGDIS (a company specialized in business planning for local governments) following an innovative service oriented architecture: this architecture segregates the modeling from the evaluation to allow the parallelization of model evaluation for big volumes of data. The overall solution conceived and implemented in this thesis was designed to be a real scale prototype to be applied to real scale problems. Besides the case study, it was validated by MGDIS experts on business planning against real requirements.

Page generated in 0.1078 seconds