Spelling suggestions: "subject:"modélisation"" "subject:"odélisation""
271 |
Modélisation et Algorithmique de graphes pour la construction de structures moléculaires. / Modelling and graph algorithms for building molecular structures.Bricage, Marie 05 July 2018 (has links)
Dans cette thèse, nous présentons une approche algorithmique permettant la génération de guides de construction de cages moléculaires organiques. Il s'agit d'architectures semi-moléculaires possédant un espace interne défini capable de piéger une molécule cible appelée substrat. De nombreuses œuvres proposent de générer des cages organiques moléculaires obtenues à partir de structures symétriques, qui ont une bonne complexité, mais elles ne sont pas spécifiques car elles ne prennent pas en compte des cibles précises. L'approche proposée permet de générer des guides de construction de cages moléculaires organiques spécifiques à un substrat donné. Afin de garantir la spécificité de la cage moléculaire pour le substrat cible, une structure intermédiaire, qui est une expansion de l'enveloppe du substrat cible, est utilisée. Cette structure définie la forme de l'espace dans lequel est piégé le substrat. Des petits ensembles d'atomes, appelés motifs moléculaires liants, sont ensuite intégrés à cette structure intermédiaire. Ces motifs moléculaires sont les ensembles d'atomes nécessaires aux cages moléculaires pour leur permettre d’interagir avec le substrat afin de le capturer. / In this thesis, we present an algorithmic approach allowing the generation of construction guides of organic molecular cages. These semi-molecular architectures have a defined internal space capable of trapping a target molecule called substrate. Many works propose to generate molecular organic cages obtained from symmetrical structures, which have a good complexity, but they are not specific because they do not take into account precise targets. The proposed approach makes it possible to generate guides for the construction of organic molecular cages specific to a given substrate. In order to ensure the specificity of the molecular cage for the target substrate, an intermediate structure, which is an expansion of the envelope of the target substrate, is used. This structure defines the shape of the space in which the substrate is trapped. Small sets of atoms, called molecular binding patterns, are then integrated into this intermediate structure. These molecular patterns are the sets of atoms needed by molecular cages to allow them to interact with the substrate to capture it.
|
272 |
Modélisation par éléments finis de matériaux composites magnéto-électriques / Modeling of magnetoelectric effect in composite materials using finite element methodNguyen, Thu Trang 25 November 2011 (has links)
Cette thèse présente la modélisation de l’effet magnéto-électrique dans les matériaux composites par la méthode des éléments finis. Les matériaux composites magnéto-électriques sont la combinaison de matériaux piézoélectriques et magnétostrictifs. Les lois de comportement ont été établies en associant les lois de comportement piézoélectrique et magnétostrictive. Le modèle piézoélectrique a été supposée linéaire, contrairement au magnétostrictif qui est non-linéaire. Afin de modéliser des dispositifs dans lequel il y a coexistence d’un champ statique et d’un champ dynamique de faible amplitude, nous avons proposé une étape de linéarisation des lois de comportement. Cette étape consiste à déterminer le point de fonctionnement fixé par le champ statique pour ensuite calculer la variation autour de ce point associée au champ dynamique. Les deux lois de comportement ont ensuite été intégrées dans un code éléments finis 2D. Le code de calcul éléments finis a ensuite été exploité pour différents dispositifs déjà mis en ?uvre expérimentalement dans la littérature. La première application est une inductance variable contrôlée par un champ électrique. Malgré une méconnaissance de certaines valeurs des propriétés des matériaux, le calcul numérique et les résultats expérimentaux sont en bon accord d’un point de vue qualitatif. Les travaux nous ont permis de modéliser des capteurs de champ magnétique. Ces capteurs ont pour but de détecter précisément un champ magnétique statique dans le plan de travail. La comparaison des résultats numériques et expérimentaux a montré à nouveau une bonne concordance qualitative. Quelques améliorations de la structure du dispositif ont été proposées et évaluées à l’aide du modèle développé. / This thesis deals with the modelling of magnetoelectric effect in composite materials using finite element method. The magnetoelectric composite materials result from the combination of piezoelectric and magnetostrictive materials. The magnetoelectric constitutive laws were established by combining piezoelectric and magnetostrictive constitutive laws. The piezoelectric behaviour is assumed to be linear. Unlike the piezoelectric material, the magnetostrictive behaviour is nonlinear. In order to model the smart devices with the coexistence of static and low amplitude dynamic field, a linearization of constitutive laws is proposed. This step is to determine the polarisation point given by static field, then calculate the variation around this point associated with dynamic field. The static and linearized constitutive laws are then integrated in a 2D finite element code using Galerkin method.The finite element program is then used for modeling different devices in experimental. The first application is a tunable inductor controlled by a electric field. The numerical results are closed to experimental results despite unknown material properties. The model is then implemented in the case of magnetic sensor. This sensor is to detect accurately the static magnetic field in working plane. The comparison between numerical and experimental results shows again good qualitative agreement. Some improvements of sensor structure are purposed thanks to the developed model.
|
273 |
Formalisation et analyse algébrique et combinatoire de scénarios d'attaques généralisées / Formalisation and analysis, algebraic and combinatorial, of general attack scenariosGallais, Cécilia 18 December 2017 (has links)
Les définitions actuelles des infrastructures de sécurité (française, européenne, G-20) sont inadaptées à la réalité des attaques observées ou potentielles. Il en est de même des attaques elles-mêmes et en conséquence le terme « cyberattaque » réduit considérablement le champ conceptuel et opérationnel de celui qui est en charge de la protection et de la défense. La quasi-totalité des approches se réduit à identifier le champ strictement technique informatique (systèmes, réseaux) et à oublier d’autres dimensions propres au renseignement. Ainsi les principales méthodologies d’identification et de gestion du risque (EBIOS ou méthodologies similaires) considèrent une définition particulièrement restrictive, statique et locale de la notion d’infrastructure critique. La modélisation elle-même des attaquants et des attaques est extrêmement réduite. La principale erreur est de restreindre les approches techniques et les angles d’attaque d’un attaquant au seul champ informatique. Les angles « cyber » peuvent ne pas exister ou représenter un volet limitée dans un scenario global d’attaque. En outre, l’approche classique néglige le volet opérationnel gouvernant la préparation et la conduite de la manœuvre dans une attaque. Les modélisations par arbres d’attaques sont également très limitées du fait d’une restriction au seul champ cyber (systèmes et réseaux).Il est alors nécessaire de concevoir une définition très élargie, laquelle doit être dictée par la vision de l'attaquant et non celle du défenseur. Cette thèse vise à développer de nouveaux modèles d'infrastructure de sécurité basés sur la théorie des graphes et a modéliser de manière très élargie le concept d’attaque, incluant ou non un champ cyber. Cette représentation déjà utilisée pour décrire la topologie des infrastructures critiques sera enrichie pour appréhender de manière exhaustive l'environnement avec lesquelles elles interagissent. Les interdépendances avec d’autres entités (personnes, autres infrastructures critiques…) sont un élément clef dans la construction de scenarii d’attaques sophistiquées. Cette représentation enrichie doit aboutir à des nouveaux modèles d'attaquants, plus réalistes et mettant en œuvre des composants externes de l'infrastructure mais appartenant à son environnement proche. L'objectif majeur est la recherche de chemins optimaux dans un scénario d'attaque défini par l'objectif de l'adversaire. Cette approche globale, apporte une définition plus fine (et donc plus réaliste) de la sécurité comme étant le coût le plus faible du chemin d'attaque pris sur l'ensemble des adversaires réalistes (polynomiaux, i.e. agissant en temps fini).Le programme de recherche est structuré en cinq étapes. Les deux premières étapes visent à définir les modèles et les objets représentant les infrastructures de sécurité ainsi que les attaquants auxquelles elles sont confrontées. La troisième étape consiste en la définition d'une méthodologie générique pour évaluer la sécurité d'une infrastructure de sécurité. Cette étape doit aboutir à la conception d'heuristiques de recherche de vulnérabilités. Afin de valider les modèles et la méthodologie proposés, le programme de thèse prévoit le développement d'un démonstrateur recherche sous la forme d'une plate-forme d'évaluation. Enfin, la dernière étape consistera à l'évaluation d'un système existant à partir de la plate-forme en mettant en œuvre la méthodologie proposée. L'objectif de cette dernière étape est de valider les modèles et la méthodologie et d'en proposer une amélioration si nécessaire. / The current definitions of a critical infrastructure are not adapted to the actual attacks which are observed these days. The problem is the same for the definition of an attack and therefore, the term « cyber attack » tends to reduce the conceptual and operational field of the person in charge of the security. Most of the approaches are reduced to identify the technical and IT domain only, and they forget the others domains specific to the intelligence. Then, the main methodologies to identify and to manage risk (EBIOS or some similar methodologies) take into account a definition of a critical infrastructure which is restrictive, static and local. The model of attacker and attack is also extremely narrowed as the technical approaches and the angles of attack of an attacker tend to be restricted to the IT domain only, even if the « cyber » angles may not exist or may only be a small part of an attack scenario.Therefore, it is necessary to have a new definition of a critical infrastructure, more complete and made according to the attacker point of view. Indeed, critical infrastructures can be protected by assessing the threats and vulnerability. This thesis aims to develop new models of infrastructure and attack accurately, models which will based on graph theory, with or without the cyber part. This graph-based representation is already used a lot to describe infrastructure, it will be enriched in order to have a more exhaustive view of an infrastructure environment. The dependencies with other entities (people, others critical infrastructures, etc.) have to be taken into account in order to obtain pertinent attack scenarios. This enriched representation must lead to new models of attackers, more realistic and implementing external components of the infrastructure which belong to its immediate environment. The main objective is the research of optimal paths or other mathematical structures which can be translated into attack scenarios. This global approach provides a finer (and therefore more realistic) definition of security as the lowest cost of the attack path.The research program is structured in five stages. The first two steps are aimed at defining the models and objects representing the security infrastructures as well as the attackers they are confronted with. The major difficulty encountered in developing a relevant infrastructure model is its ability to describe. Indeed, the more the model is rich, the more it can describe the infrastructure and the adversaries that attack it. The counterpart of developing a relevant model is its exponential characteristic. In these security models, we therefore expect that the problem of finding the vulnerabilities of a security infrastructure is equivalent to difficult problems, i.e. NP-hard or even NP-complete. The locks to be lifted will therefore consist in the design of heuristics to answer these problems in finite time with an ``acceptable" response. The third step is to define a generic methodology for assessing the safety of a security infrastructure. In order to validate the proposed models and methodology, the thesis program provides for the development of a research demonstrator in the form of an evaluation platform. Finally, the last step will be to evaluate an existing system from the platform by implementing the proposed methodology. The objective of this last step is to validate the models and the methodology and to propose an improvement if necessary.
|
274 |
Étude des couplages thermomécaniques et microstructuraux d’un alliage de titane au cours du soudage FSW / Study of thermomechanical and microstructural couplings of a titanium alloys during Friction Stir WeldingTchein, Gnofam Jacques 11 December 2018 (has links)
Le soudage FSW (Friction Stir Welding) est un procédé de soudage à l’état solide appliqué aujourd’hui dans les secteurs des transports aérospatial, naval et ferroviaire. Il présente l’avantage de fournir des soudures aux propriétés mécaniques meilleures que celles des procédés de soudage par fusion de la matière. La plupart des études menées sur ce procédé concernent les alliages d’aluminium. Ce travail porte sur l’étude des phénomènes thermomécaniques et métallurgiques pendant le procédé de soudage FSW du TA6V. L’influence de la microstructure initiale sur les propriétés mécaniques et la microstructure finale est étudiée à travers une étude expérimentale. La ZAT et la ZATM des soudures ont une très faible épaisseur et les soudures ne présentent pas de zone de fragilité. La genèse de la microstructure pendant le soudage a été identifiée et s’articule en trois points: changement de phase α → β, recristallisation dynamique continue de la phase β, formation de grains α à l’intérieur des grains β recristallisés. Afin de mettre en place un modèle permettant de prédire la microstructure dans le noyau de la soudure, des essais de torsion à chaud ont été réalisés pour déterminer les propriétés rhéologiques du TA6V. Ces essais ont aussi permis de mettre en place une loi de comportement analytique du TA6V. Les champs de vitesse sont formulés analytiquement à partir des équations de la mécanique des fluides et les champs thermiques sont déterminés numériquement à partir d’une formulation eulérienne. / Friction Stir Welding (FSW) is a solid state welding process used today in the aerospace, naval and rail transport sectors. It has the advantage of providing welds with better mechanical properties than fusion welding processes. Most of studies carried out on this process concern aluminum alloys. This work focuses on the study of thermomechanical and metallurgical phenomena during FSW of the Ti-6Al-4V alloy. The influence of the initial microstructure on the mechanical properties and the final microstructure is studied through an experimental study. The HAZ and TMAZ of the welds are very thin and the welds didn’t present any weak zone. The genesis of the microstructure during the process has been identified and is made up with three main steps: α → β phase change, continuous dynamic recrystallization of the β phase and formation of α grains within the recrystallized β grains. In order to set up a model to predict the microstructure in the weld nugget, hot torsion tests were performed to determine the rheological properties of TA6V. These tests also made it possible to set up an analytical behavior law of Ti-6Al-4V. The velocity fields during FSW are formulated analytically from the equations of fluid mechanics and thermal fields are determined numerically from a eulerian formulation.
|
275 |
Effets de vitesse et de transcristallinité dans l'analyse de la cristallisation de polyamides 66 d'architectures différentes / Cooling rate and transcristallinity effects on crystallization analysis of polyamides 66 with different architecturesFreire, Elio Lionel 26 September 2016 (has links)
La cristallisation de trois grades de PA66 différant par leur masse molaire et leur caractère branché ou linéaire a été étudiée en termes de cinétique de cristallisation et de morphologie.Nous avons utilisé une platine chauffante pour étudier les cristallisations isothermes à haute température. Puis, grâce au calorimètre l’Hyper DSC, nous avons pu cristalliser nos échantillons à des vitesses de refroidissement constantes allant jusqu’à 700°C/min. Ces essais ont été complétés à l’aide d’une DSC Flash qui nous a permis d’atteindre des vitesses constantes de refroidissement allant jusqu’à 60000°C/min.Les cinétiques globales de cristallisation ont pu être recalculées grâce au modèle d’Avrami dans le cas des cristallisations isothermes et du modèle d’Ozawa dans le cas des cristallisations anisothermes à vitesse de refroidissement constante allant jusqu’à 700°C/min.Des coupes microtomiques réalisées à l’aide d’un microtome à lame de verre sur les échantillons issus des essais en platine chauffante et en Hyper DSC ont permis de mettre en évidence le caractère très transcristallin de l’une des nuances de PA66 étudiée, les deux autres nuances étant de nature plus sphérolitique.La présence de zone de croissance transcritalline modifie les exothermes de cristallisation. Les cinétiques globales de cristallisation sont une combinaison des apports de la cristallisation de surface et de la cristallisation de volume (intrinsèque au matériau). Nous avons donc utilisé la méthode proposée par Billon & al. pour déterminer la contribution de la cristallisation intrinsèque à la fraction transformée α en utilisant aux moins deux épaisseurs d’échantillons différentes en DSC.Par ailleurs, une analyse particulière de ces exothermes de cristallisation donne accès à des paramètres de cristallisation tels que la vitesse de croissance. Malgré un certain niveau d’incertitude, les résultats obtenus par cette méthode sont corroborés par des résultats issus de la littérature. Cette méthode est particulièrement intéressante lorsque l’observation directe est impossible.L’utilisation du formalisme d’Hoffman et Lauritzen nous a permis de déterminer un changement de régime de croissance entre le régime I et le régime II. D’autre part, il nous a permis de calculer les énergies de surface latérale et d’extrémité ainsi que de repliement de chaîne. Enfin, ce modèle nous permet de recalculer l’évolution de la vitesse de croissance sphérolitique sur tout le domaine de température étudié. / Crystallization of three PA66 grades of different molar mass, linear or branched, has been studied in terms of crystallization kinetics and morphology.A hot stage has been used to study isothermal crystallization at high temperatures. A Hyper DSC has been used to study crystallization at constant cooling rates up to 700°C/min. Further investigations have been carried out using a Flash DSC setup increasing the reachable constant cooling rate up to 60000°C/min.Overall kinetics of crystallization have been successfully calculated thanks to Avrami model for isothermal crystallization and thanks to Ozawa model for anisothermal crystallization at constant cooling rate up to 700°C/min.Microtomed sections made with a glass knife microtome out of hot stage and Hyper DSC samples have been observed with a polarized light microscope. For one grade of PA66 studied, morphologies are very transcrystalline whereas for the two other grades, morphologies are spherulitic.The presence of transcrytalline zones while performing DSC experiments modifies the exotherms of crystallization with a contribution of surface crystallization and bulk crystallization. This leads to a polluted determination of crystallization kinetics. Then, we used the method proposed by Billon & al in order to discriminate the part of the exotherm due to transcrystalline crystallization and to bulk crystallization.Moreover, crystallization parameters as growth rate is identified thanks to the analyses of DSC crystallization trancrystalline-perturbed exotherms using two different thicknesses of DSC samples. Despite of a certain degree of uncertainty, the results obtained by this new method compare well with already published data. This method is particularly of interest when direct observation of spherulites is impossible.The lateral and folding surface free energies as well as the work of chain folding have been determined from Hoffman & Lauritzen treatment. Indeed, it allows us to see the change of growth regime from regime I to regime II and to calculate accurately growth rate vs temperature for the whole temperature range studied.
|
276 |
Désagrégation spatiale des données de mobilité du recensement de la population appliquée à l'Ile-de-France / Disaggregation spatial of census mobility data apply to region Ile-de-FrancePivano, Cyril 20 October 2016 (has links)
En cours / En cours
|
277 |
Diagnostic comportemental et cognitif des erreurs dans la résolution de problèmes arithmétiques / Cognitive and behavioural diagnosis of errors in arithmetical word problem solvingMartin, Bruno 11 July 2016 (has links)
La recherche sur les Environnements Informatiques pour l’Apprentissage Humain (EIAH) et la psychologie convergent dans leur intérêt d’une meilleure compréhension du sujet et plus particulièrement dans sa modélisation, ouvrant des perspectives en éducation. La thèse, fondamentalement interdisciplinaire, vise à resserrer le lien entre la psychologie expérimentale et les EIAH dans le domaine des Problèmes Arithmétiques à Enoncés Verbaux (PAEV), tout en abordant la question plus générale d’intégration de modèles cognitifs dans les EIAH. Dans une première partie, un module de diagnostic comportemental est mis en place accompagnée d’une méthodologie de tests et d’autoévaluation pour pouvoir être employé en psychologie expérimentale. Mieux comprendre, et surtout modéliser les comportements est une étape nécessaire préalable à la mise en place du module de diagnostic épistémique. C’est l’objet de la deuxième partie, où un travail de modélisation cognitive a été effectué, qui montre par la construction de modèles exécutables que les productions des sujets peuvent être mises en lien avec des stratégies, conscientes ou non, de résolution de problèmes, telles que la réinterprétation de phrases et l’usage de mots-clefs. Dans la troisième partie, afin de répondre à la problématique du diagnostic individuel par la modélisation cognitive, une mesure adaptée à ces modèles a été mise place. Un logiciel a aussi été développé pour construire des versions simples de modèles cognitifs et les tester sur les données issues d’un EIAH. Ce logiciel et cette mesure ont ensuite été mis en application dans le cadre d’une nouvelle expérimentation sur les PAEV. / Research in psychology and in Intelligent Learning Environment (ILE) share the goal of a better understanding of the subject, more precisely in its modeling with strong educative perspectives. This Ph.D. Thesis, intrinsically interdisciplinary, aims to strengthen the link between experimental psychology and ILEs, especially in the domain of arithmetical word problem solving (WP) while addressing the more general issue of the integration of cognitive models in the ILEs. In the first part, a behavioral diagnostic module is presented, with a test-based methodology to assess its relevance in the context of experimental psychology studies. A better understanding of word problem solving behavior is a prerequisite of the development of any cognitive diagnostic module. This is the core of the second part, which presents the cognitive models put in place and compare their productions with human data. It has been shown that a large part of WP solving behavior can be explained via the light of keyword-based strategy and the alteration of the meaning of textual propositions. In the last part, in order to address the issue of individual cognitive diagnosis, a metric quantifying the fit of the diagnosis has been developed. A software has also been developed, allowing to build and test simple cognitive models over data coming from ILEs. This metric and this software have been used concretely within the context of an experimentation involving word problem solving.
|
278 |
Rheology of bronchial mucus : characterization and modeling for clearance helping by a medical device / Rhéologie du mucus bronchique : caractérisation et modélisation pour l'aide à la clairance par un dispositif médicalLafforgue, Olivier 05 June 2018 (has links)
Aujourd’hui, les pathologies respiratoires chroniques constituent un fardeau sanitaire mondial. Beaucoup sont associées à une modification rhéologique du mucus. Le rôle de clairance du mucus tapissant les voies respiratoires est de capturer des particules étrangères afin qu’enzymes et anticorps le nettoient, puis d’être transporté vers le pharynx pour être digéré ou expectoré. Dans des conditions pathologiques (e.g. mucoviscidose), les propriétés physiques assurant cette fonction vitale sont entravées par des modifications de la composition du mucus. L’objectif ici est de caractériser en profondeur les propriétés mécaniques du mucus vis-à-vis du développement d’appareils d’aide à la clairance. Ceci est réalisé par des moyens expérimentaux et de la modélisation depuis la base de données qui en découle. Le mucus réel implique de sérieuses problématiques de collecte, c’est pourquoi le choix a été fait de préparer des simulants à partir de glycoprotéines à différentes concentrations reproduisant la variété naturelle du mucus. Cela a permis de tester chacune des variétés vastement, palliant ainsi les problèmes de cohérence intrinsèque. La microscopie optique et la MEB ont donné un aperçu visuel du réseau 3D des simulants et confirmé sa similarité avec des mucus réels. La tension de surface, liée à la mouillabilité et l’adhésivité du mucus sur la surface épithéliale a été mesurée. Cela a montré une bonne concordance avec des mucus pathologiques, en particulier les concentrations élevées, en cohérence avec les observations cliniques. Le mucus est sujet aux changements de température in-vivo et peut varier de 20°C près de la bouche à 40°C en cas d... / Today, chronic respiratory pathologies constitute a worldwide health burden. Most of them are associated to a modification of the mucus rheology. The clearance role of mucus is first to trap foreign particles, so that enzymes and antibodies can start the cleaning and then to transport them towards the pharynx, to be digested or expectorated. Under disease conditions (e.g. Cystic Fibrosis), the physical properties ensuring this vital function are hindered by modifications of the mucus composition. The purpose of this thesis is then to characterize thoroughly the physical (essentially rheological) properties of mucus to improve the development of clearance helping devices using both experiments and modeling based on the subsequent database. Real mucus implies strong issues related to sample collection, hence the choice made in this work was to use mucus simulants prepared from glycoproteins at various concentrations to mimic the real mucus variety. It allowed to widely test each unique sample thus palliating the issue of intrinsic consistency. Optical microscopy and SEM were used to give a complementary insight into the 3D network of samples and confirmed the similarity with former observations made on real mucus. The surface tension (closely related to the wettability and adhesiveness of the bronchial mucus on the epithelium surface) was also measured for each concentration. It showed a good agreement with pathological mucus, especially for the high polymer concentrations. Mucus is prone to temperature variations in-vivo 20°C close to the mouth to 40°C under fever conditions. Hence thermal diffusivity, conductivity, and heat capacity were measured in this tem...
|
279 |
Améliorer l'efficacité cognitive des diagrammes UML : Application de la Sémiologie Graphique / Enhancing the cognitive effectiveness of UML diagrams : Application of the Semiology of GraphicsEl Ahmar, Yosser 06 December 2018 (has links)
Le standard UML est un langage visuel de modélisation pour spécifier, construire et documenter des systèmes logiciels. Une des faiblesses importantes d’UML identifiées par les études de la pratique réelle d’UML concerne la difficulté à spécifier le contexte pour un diagramme donnée ou à l’enrichir pour améliorer sa valeur communicationnelle. En effet, UML ne dispose pas de mécanismes efficaces pour exprimer ce genre de données (exp. les indicateurs de gestion de projets, les indicateurs de qualité). Pour les exprimer dans un langage visuel donné, le framework des dimensions cognitives propose d’utiliser sa notation secondaire : les variables visuelles que le langage n’emploie pas. Malheureusement pour UML, cette notation secondaire n’est pas régulée. La première contribution de la thèse a montré - à travers une étude empirique - que ceci résulte en une grande variété d’utilisation de ces variables et, dans de nombreux cas, de manière non efficace. Elle a aussi montré l’importance de la notation secondaire dans le quotidien des experts UML tout en confirmant leur manque de connaissance sur les bonnes pratiques associées. Dans cette thèse, nous nous basons sur la sémiologie graphique afin de viser une utilisation optimale de la notation secondaire d’UML. Le framework SoG-UML est le résultat de notre adaptation de la sémiologie à UML via 61 directives pour l’utilisation de variations visuelles dans ce langage. Nous avons réalisé une première expérimentation pour valider une partie de ces directives. Enfin, nous proposons Fliplayers et la légende interactive, deux plugins Papyrus proposant respectivement un mécanisme de calques et la construction de légendes "efficaces". / UML is a visual modeling language for specifying, constructing, and documenting software intensive systems. UML diagrams play a central role in the whole software engineering process, starting from early analysis, through implementation, to maintenance. One of the main weaknesses of UML, pointed out by surveys of UML use in industry, is the difficulty to express the context of a particular diagram or to enrich it to enhance its communication value. In fact, UML does not specify effective ways to express contextual information (e.g., project management indicators, quality indicators). To express this kind of information in a particular visual language, the Cognitive Dimensions framework proposes to use its secondary notation: the visual variables that are not used by the language. Unfortunately, in UML, this secondary notation is not controlled. The first contribution of this thesis showed - via an empirical study - that this results in a big variety of usages of these visual variables and mostly, in not effective ways. It also showed that UML practitioners acknowledge the importance of the secondary notation in their practice while confirming their lack of knowledge about the associated effective practices. In this thesis, we refer to the Semiology of Graphics (SoG) in order to target an optimal use of the UML secondary notation. The framework SoG-UML is the result of our adaptation of the SoG to UML via 61 guidelines about the use of the visual variables in this language. We have realized a first experiment to validate a part of these guidelines. Finally, we propose Fliplayers and an interactive keys, two Papyrus plug-ins that respectively implement the layers mechanism and the construction of "effective" keys.
|
280 |
Etude des effets sismo-induits et stabilité des pentes en zone urbanisée via modélisation numérique / Seismically induced effects and slope stability in urbanized zones by numerical modelingDomej, Gisela 29 October 2018 (has links)
Les phénomènes d’instabilité générés par les séismes dans les pentes représentent un risque naturel majeur à l’échelle mondiale. Ce risque a, de plus, tendance à croître du fait d’une urbanisation croissante dans des zones à fort aléa, comme en témoignent de nombreux évènements catastrophique à travers le passé. Pour garantir la sécurité des personnes et des biens face à ce type d’aléa, il faut améliorer les prédictions des déplacements générés par les séismes dans les pentes.Les premiers travaux scientifiques visant à corréler les caractéristiques des instabilités dans les pentes aux paramètres sismiques sont de nature empirique et remontent aux années 1980. Ces méthodes ne permettent pas d’expliquer tous les mouvements de terrain observés à travers le monde, notamment lorsque les effets de site modifient sensiblement la distribution des mouvements dans les pentes et génèrent des déplacements plus grands ou plus petits que ceux prédits par les lois empiriques qui négligent les effets de site.La première partie de cette thèse présente une nouvelle base de données mondiale de 277 glissements de terrain d’origine sismique ou non. L’analyse statistique conduite sur les données de cette base a montré que la forme géométrique moyenne des glissements de terrain reste stable lorsque le volume des instabilités augmente.La deuxième partie de la thèse est dédiée à l’analyse de la stabilité du glissement de terrain de Diezma (Espagne) au moyen de trois méthodes : la Méthode de NEWMARK (1965) basée sur le principe de l’équilibre limite en 2D qui suppose des conditions elasto-parfaitement-plastiques ; l’analyse par différences finies dans le domaine temporel avec le code FLAC en 2D et en 3D qui suppose des conditions visco-elasto-parfaitement-plastiques ; et l’analyse par recombinaison modale dans le domaine fréquentiel avec le code CESAR-LCPC en 2D et en 3D qui suppose des conditions visco-élastiques.Situé dans une région sismiquement active, le glissement de terrain de Diezma est susceptible d’être affecté par des séismes. Une analyse des déplacements induits dans ce versant par onze signaux sismiques différents a été menée dans l’objectif d’établir des corrélations entre les paramètres macro-sismiques des scenarios sismiques appliqués et les déformations calculées par les trois méthodes.Les résultats montrent des différences marquées à la fois qualitatives et quantitatives. Les conclusions principales sont : (a) Les déplacements obtenus par les trois méthodes ont des ordres de grandeur différents et peuvent donc conduire à une surestimation ou à une sous-estimation des déplacements ; (b) Les deux méthodes numériques montrent que les déplacements sont fortement conditionnés par la géométrie des modèles ; seule la méthode par différences finies fait apparaître une réponse en termes de déplacements qui dépend du scénario sismique considéré; (c) Les résultats des simulations2D et 3D ne sont pas comparables ; des analyses complémentaires doivent encore être menées pour guider l’utilisateur dans le choix de la méthode la plus appropriée; (d) La Méthode de NEWMARK (1965), dont l’utilisation reste très répandue de nos jours, est tout à fait appropriée à l’étude de cas simples mais elle peut se révéler inexacte lorsque la structure géologique / topographique du versant conduit à un fort effet de site car ce dernier n’est pas pris en compte par cette méthode / Seismically induced slope deformation is a worldwide common phenomenon that poses an increasing and considerable threat to fast expanding urbanization, and a great number of catastrophic events throughout the past attest thereof. For this reason, displacement predictions allowing for proper slope surveillance became a major concern.Early attempts to relate slope failures to seismic parameters are of empirical nature and date back to the 1980s. Although having proven stable, these relations are frequently disturbed by site effects causing outliers in terms of smaller or greater displacements than expected.The first part of this thesis presents a newly build chronological database of 277 globally distributed seismically and non-seismically induced landslides. A comprehensive statistical analysis was conducted on the data of this database with the main result that – statistically seen – the average geometrical shapes of landslides differ only proportionally.The second part of the thesis is dedicated to a comparative slope stability analysis of the Diezma Landslide (Spain) by means of three methods: the limit-equilibrium based NEWMARK-Method (1965) in 2D under elasto-perfectly-plastic conditions; finite-difference analysis in the time domain with the code FLAC in 2D and 3D under visco-elasto-perfectly-plastic conditions; and modal recombination analysis in the frequency domain with the finite-element code CESAR-LCPC in 2D and 3D under visco-elastic conditions.Located in a seismically active region, the Diezma Landslide is likely to be affected by earthquakes and was therefore considered as a suitable model case. A broad analysis of expected displacements was conducted using eleven strong-motion seismic scenarios. Moreover, the thesis searches for potential relations between macro-seismic parameters of the applied earthquake scenarios and the predicted deformations obtained from the three methods.It appeared that – due to the functionality of the methods – results differ quantitatively as well as qualitatively, and so does their suitability. Major findings are: (a) Results from the three methods are of different orders of magnitude and, thus, can easily lead to over- or under-estimations of displacements; (b) Both numerical methods reveal a strong influence of the model-geometry on the predicted displacements, whereas a scenario-dependent slope behavior manifested itself only within the finite difference analysis; (c) The switch from 2D to 3D does not necessarily result in a similar performance in each dimension and results must be critically judged before further use; (d) The NEWMARK-Method (1965) has proven itself once more to be appropriate for first slope assessments but not for sophisticated evaluations of ground response to seismic shaking
|
Page generated in 0.085 seconds