261 |
Modélisation et identification de facteurs environnementaux géographiques liés à des risques morbides : Application aux séquelles développées après le traitement d'une leucémie : Cohorte LEA / Modeling and identification of geographical environmental factors associated to morbid risks : Application to sequelae after the treatment of a leukemia : LEA cohortBourrelly, Stéphane 03 September 2014 (has links)
Cette thèse s'inscrit dans le cadre d'une approche interdisciplinaire mêlant la Géographie à l'épidémiologie et à la Statistique. Il s’agit d’une thèse d’ordre méthodologique appliquée à une problématique de santé publique. L'idée est de concevoir une dialectique adaptée à la géographie de la santé et de proposer ou transposer des méthodes probabilistes, géostatistiques et d’apprentissage statistique afin de modéliser, puis d’identifier des Facteurs Environnementaux (FE) géographiques liés à des risques morbides. Dans cette recherche l’environnement est considéré dans ses multiples dimensions. Il est décrit par des indicateurs spatiotemporels physicochimiques, sanitaires et socio-économiques. L’environnement géographique des Caractéristiques Individuelles et Médicales (CIM) des populations ciblées est aussi pris en compte. Les propositions heuristiques visent à identifier des Déterminants Environnementaux de Santé (DES) ou des facteurs de risques contributifs. La dialectique se veut opérationnelle et reproductible à toutes les maladies. Les propositions sont appliquées à des séquelles développées après le traitement d’une leucémie chez l’enfant - Cohorte LEA. Dans les pays développés, l’accès à des traitements performants engendre une augmentation de l’incidence des séquelles - qui ont des répercussions sur la qualité de vie. Par conséquent, l’après-cancer et la santé des enfants se sont positionnés au cœur des préoccupations sociales en Europe en général et en France, en particulier. Au-delà des objectifs scientifiques visés, des contributions en santé publique sont attendues. Il s’agit de proposer des indicateurs spatiaux opérationnels permettant aux hommes politiques de mettre en place des mesures sanitaires collectives, et aux praticiens de santé de proposer des solutions préventives individuelles - visant à réduire les risques environnementaux d’exposition auxquels sont assujetties les populations du simple fait de leur situation géographique. Et ainsi, d’améliorer l’accès à une bonne santé environnementale. / This thesis is an interdisciplinary approach combining Geography, Epidemiology and Statistics. It is a methodological thesis applying to a public health issue. The concept consist in developing a dialectical adapted to the geographic health and proposing or transposing probabilistic methods, geostatistical and datamining instruments, to model and to identify geographic environmental factors related to morbid risks. In this research the environment is considered in its integrity. It is described by spatiotemporal indicators: physicochemical, health and socioeconomic. The geographical environment of the individual and medical characteristics of targeted populations is also taken into account. Heuristic proposals aim to identify environmental health determinants, or contributing risk factors. The methods have been implemented or adapted to the issue. They are applicable and reproducible in all diseases studied in Geographic Health. In order, to illustrate these proposals, they are applied to squeals observed following the treatment of childhood leukemia - Cohort LEA. In developed countries, access to effective treatments leads to an increase of squeals incidence. Those have an impact on the quality of life. Therefore, post-cancer and children's health have positioned themselves at the core of social concerns in Europe and in France. Beyond the scientific goals, contributions in public health are expected. The idea is to provide operational space indicators to politicians in order to help them to take collective health measures. And for health professionals to be able to offer individual medical solutions, devoted to reduce the risk of exposure to environmental factors of the populations due to their geographical location. In consequence, to improve access to a good environmental health.
|
262 |
Ergonomie théorique de l’humain-machine : quels fondements épistémologiques pour une conception sûre ? / Summary Theoretical ergonomics of the human machine : which epistemological grounding for a safe design ?Nazin, Remi 15 January 2019 (has links)
La conception sûre et le développement maîtrisé des systèmes humain(s)-machines(s)s est un enjeu majeur pour l’ensemble de la société et, spécialement, dans les domaines critiques comme les domaines militaire, aérospatial et médical qui sont amenés à évoluer conjointement, grâce aux progrès réalisés par l’automatisation. Parallèlement, les techniques disponibles pour assurer la mise en place de solutions répondant à ces besoins sont également en constante progression concernant leurs dimensions de puissance, efficacité énergétique, miniaturisation, ce qui correspond à la notion de convergence Nanotechniques-Biotechniques-Informatique-Sciences Cognitives.Tout cela rend nécessaire d’avoir une ergonomie théorique, non pas au sens parfois entendu d’un détachement de la pratique mais au sens d’une ergonomie fondée sur un cadre conceptuel et formel permettant de rendre intelligibles les méthodologies et normes utilisées à travers des principes généraux.Ainsi, l’ergonomie théorique n’est pas une théorie de l’ergonomie mais une théorie de l’anthropotechnique, qui cherche à développer une méthodologie et une épistémologie pragmatique, propre à apporter les fondements conceptuels à ce qui existe aujourd’hui et à permettre le développement futur de l’ergonomie comme champ scientifique. Elle repose sur l’idée centrale qu’à la base de toute Interface Humain(s)- Machine(s) se produit une interaction particulière ; l’interaction sémiotique.Cette interaction particulière, propre aux être vivants, est à la base de l’intégration entre l’individu et son environnement. C’est elle qui lui permet d’agir dans le monde en produisant de la signification à partir de la perception sensible. En envisageant l’humain comme un système biologique intégré, au sens de Chauvet, c’est à dire comme un système dont le comportement est le produit des couplages implicites à différents niveaux de structure, il est possible de fonder un paradigme postcognitiviste en psychologie générale. Le propre de ce paradigme est qu’il permet d’envisager le comportement de l’individu à partir de sa biologie et de façon non réductionniste.À partir des travaux de Chauvet et de Fass, il est possible d’établir une modélisation mathématique de ces phénomènes biologiques qui permette de formaliser les spécifications d’un système technique, à partir des exigences liées aux facteurs humains. Grâce à ce cadre conceptuel, il est possible d’analyser et de réformer certains outils précieux pour l’ergonome comme la critériologie de Bastien et Scapin dont nous proposons une généralisation à tous les systèmes techniques. Cette critériologie a pour fonction originelle de permettre qu’un système interactif réponde à un ensemble fondamental d’exigences liées aux facteurs humains. En la généralisant et en la formalisant, il devient possible d’envisager une modélisation des paramètres fondamentaux de l’interaction sémiotique.Cette approche aboutit dans une ontologie de conception, qui a pour ambition d’être un cadre formel de modélisation de l’interaction humain(s)-machine(s). Nous en proposons une application à MIDAS, outil de modélisation de la performance humaine, développé par la NASA. Le propos de cette ontologie est de permettre la modélisation de l’interaction de façon simultanée à la modélisation du comportement de l’utilisateur ce qui permet de mettre en évidence quels sont les paramètres hamartogènes d’une hypothèse de conception.Ainsi, l’usage d’ontologies de conception ouvre la voie à la construction de modèles formels, corrects par construction, de l’interaction humain(s)-machine(s) et de ses conditions optimales de mise en place, permettant ainsi une conception plus assurée des systèmes à dimension critique. / The safe design and controlled development of human(s)-machine(s) systems is a major challenge for society as a whole and, especially, in critical areas such as the military, aerospace and medical fields that are brought to evolve, thanks to the progress made by automation. At the same time, the techniques available to ensure the implementation of solutions that meet these needs are also constantly increasing with regard to their power dimensions, energy efficiency and miniaturization, which corresponds to the notion of convergence between Nanotechniques-Biotechniques-Informatics-Cognitive Sciences.All this makes necessary to have theoretical ergonomics, not in the sense sometimes understood of a detachment of the practice but in the sense of ergonomics based on a conceptual and formal framework making possible to render the methodologies and norms used through general principles intelligible.Thus, theoretical ergonomics are not a theory of ergonomics but a theory of anthropotechnics, which seeks to develop a methodology and a pragmatic epistemology, capable of providing the conceptual foundations for what exists today and to allow the future development of ergonomics as a scientific field. It is based on the central idea that at the base of any Human(s)-Machine(s) Interface occurs a particular interaction ; semiotic interaction.This particular interaction, specific to living beings, is at the basis of the integration between the individual and his environment. It is what allows it to act in the world, by producing meaning from sensible perception. By considering the human as an integrated biological system, in the sense of Chauvet, as a system whose behavior is the product of implicit couplings at different levels of structure, it is possible to found a postcognitive paradigm in general psychology. The peculiarity of this paradigm is that it makes possible to envisage the behavior of the individual from his biology and in a non-reductionist way.From the work of Chauvet and Fass, it is possible to establish a mathematical modeling of these biological phenomena, allowing to formalize the specifications of a technical system, based on the requirements related to human factors. Thanks to this conceptual framework, it is possible to analyze and reform some valuable tools for the ergonomist like the criterium of Bastien and Scapin for which we propose a generalization to all technical systems. The primary function of this criterology is to allow an interactive system to meet a fundamental set of requirements related to human factors. By generalizing and formalizing it, it becomes possible to envisage a modeling of the fundamental parameters of the semiotic interaction.This approach results in a design ontology, which aims to be a formal framework for modeling human(s)-machine(s) interactions. We propose an application to MIDAS, a human performance modeling tool developed by NASA. The purpose of this ontology is to allow the modeling of the interaction simultaneously to the modeling of the behavior of the user which makes it possible to highlight what are the hamartogenic parameters of a given hypothesis of conception.Thus, the use of design ontologies opens the way to the construction of formal models, correct by construction, of the human(s)-machine(s) interaction and its optimal conditions of implementation, allowing a more assured design of critical systems.
|
263 |
Modélisation et Algorithmique de graphes pour la construction de structures moléculaires. / Modelling and graph algorithms for building molecular structures.Bricage, Marie 05 July 2018 (has links)
Dans cette thèse, nous présentons une approche algorithmique permettant la génération de guides de construction de cages moléculaires organiques. Il s'agit d'architectures semi-moléculaires possédant un espace interne défini capable de piéger une molécule cible appelée substrat. De nombreuses œuvres proposent de générer des cages organiques moléculaires obtenues à partir de structures symétriques, qui ont une bonne complexité, mais elles ne sont pas spécifiques car elles ne prennent pas en compte des cibles précises. L'approche proposée permet de générer des guides de construction de cages moléculaires organiques spécifiques à un substrat donné. Afin de garantir la spécificité de la cage moléculaire pour le substrat cible, une structure intermédiaire, qui est une expansion de l'enveloppe du substrat cible, est utilisée. Cette structure définie la forme de l'espace dans lequel est piégé le substrat. Des petits ensembles d'atomes, appelés motifs moléculaires liants, sont ensuite intégrés à cette structure intermédiaire. Ces motifs moléculaires sont les ensembles d'atomes nécessaires aux cages moléculaires pour leur permettre d’interagir avec le substrat afin de le capturer. / In this thesis, we present an algorithmic approach allowing the generation of construction guides of organic molecular cages. These semi-molecular architectures have a defined internal space capable of trapping a target molecule called substrate. Many works propose to generate molecular organic cages obtained from symmetrical structures, which have a good complexity, but they are not specific because they do not take into account precise targets. The proposed approach makes it possible to generate guides for the construction of organic molecular cages specific to a given substrate. In order to ensure the specificity of the molecular cage for the target substrate, an intermediate structure, which is an expansion of the envelope of the target substrate, is used. This structure defines the shape of the space in which the substrate is trapped. Small sets of atoms, called molecular binding patterns, are then integrated into this intermediate structure. These molecular patterns are the sets of atoms needed by molecular cages to allow them to interact with the substrate to capture it.
|
264 |
Modélisation par éléments finis de matériaux composites magnéto-électriques / Modeling of magnetoelectric effect in composite materials using finite element methodNguyen, Thu Trang 25 November 2011 (has links)
Cette thèse présente la modélisation de l’effet magnéto-électrique dans les matériaux composites par la méthode des éléments finis. Les matériaux composites magnéto-électriques sont la combinaison de matériaux piézoélectriques et magnétostrictifs. Les lois de comportement ont été établies en associant les lois de comportement piézoélectrique et magnétostrictive. Le modèle piézoélectrique a été supposée linéaire, contrairement au magnétostrictif qui est non-linéaire. Afin de modéliser des dispositifs dans lequel il y a coexistence d’un champ statique et d’un champ dynamique de faible amplitude, nous avons proposé une étape de linéarisation des lois de comportement. Cette étape consiste à déterminer le point de fonctionnement fixé par le champ statique pour ensuite calculer la variation autour de ce point associée au champ dynamique. Les deux lois de comportement ont ensuite été intégrées dans un code éléments finis 2D. Le code de calcul éléments finis a ensuite été exploité pour différents dispositifs déjà mis en ?uvre expérimentalement dans la littérature. La première application est une inductance variable contrôlée par un champ électrique. Malgré une méconnaissance de certaines valeurs des propriétés des matériaux, le calcul numérique et les résultats expérimentaux sont en bon accord d’un point de vue qualitatif. Les travaux nous ont permis de modéliser des capteurs de champ magnétique. Ces capteurs ont pour but de détecter précisément un champ magnétique statique dans le plan de travail. La comparaison des résultats numériques et expérimentaux a montré à nouveau une bonne concordance qualitative. Quelques améliorations de la structure du dispositif ont été proposées et évaluées à l’aide du modèle développé. / This thesis deals with the modelling of magnetoelectric effect in composite materials using finite element method. The magnetoelectric composite materials result from the combination of piezoelectric and magnetostrictive materials. The magnetoelectric constitutive laws were established by combining piezoelectric and magnetostrictive constitutive laws. The piezoelectric behaviour is assumed to be linear. Unlike the piezoelectric material, the magnetostrictive behaviour is nonlinear. In order to model the smart devices with the coexistence of static and low amplitude dynamic field, a linearization of constitutive laws is proposed. This step is to determine the polarisation point given by static field, then calculate the variation around this point associated with dynamic field. The static and linearized constitutive laws are then integrated in a 2D finite element code using Galerkin method.The finite element program is then used for modeling different devices in experimental. The first application is a tunable inductor controlled by a electric field. The numerical results are closed to experimental results despite unknown material properties. The model is then implemented in the case of magnetic sensor. This sensor is to detect accurately the static magnetic field in working plane. The comparison between numerical and experimental results shows again good qualitative agreement. Some improvements of sensor structure are purposed thanks to the developed model.
|
265 |
Formalisation et analyse algébrique et combinatoire de scénarios d'attaques généralisées / Formalisation and analysis, algebraic and combinatorial, of general attack scenariosGallais, Cécilia 18 December 2017 (has links)
Les définitions actuelles des infrastructures de sécurité (française, européenne, G-20) sont inadaptées à la réalité des attaques observées ou potentielles. Il en est de même des attaques elles-mêmes et en conséquence le terme « cyberattaque » réduit considérablement le champ conceptuel et opérationnel de celui qui est en charge de la protection et de la défense. La quasi-totalité des approches se réduit à identifier le champ strictement technique informatique (systèmes, réseaux) et à oublier d’autres dimensions propres au renseignement. Ainsi les principales méthodologies d’identification et de gestion du risque (EBIOS ou méthodologies similaires) considèrent une définition particulièrement restrictive, statique et locale de la notion d’infrastructure critique. La modélisation elle-même des attaquants et des attaques est extrêmement réduite. La principale erreur est de restreindre les approches techniques et les angles d’attaque d’un attaquant au seul champ informatique. Les angles « cyber » peuvent ne pas exister ou représenter un volet limitée dans un scenario global d’attaque. En outre, l’approche classique néglige le volet opérationnel gouvernant la préparation et la conduite de la manœuvre dans une attaque. Les modélisations par arbres d’attaques sont également très limitées du fait d’une restriction au seul champ cyber (systèmes et réseaux).Il est alors nécessaire de concevoir une définition très élargie, laquelle doit être dictée par la vision de l'attaquant et non celle du défenseur. Cette thèse vise à développer de nouveaux modèles d'infrastructure de sécurité basés sur la théorie des graphes et a modéliser de manière très élargie le concept d’attaque, incluant ou non un champ cyber. Cette représentation déjà utilisée pour décrire la topologie des infrastructures critiques sera enrichie pour appréhender de manière exhaustive l'environnement avec lesquelles elles interagissent. Les interdépendances avec d’autres entités (personnes, autres infrastructures critiques…) sont un élément clef dans la construction de scenarii d’attaques sophistiquées. Cette représentation enrichie doit aboutir à des nouveaux modèles d'attaquants, plus réalistes et mettant en œuvre des composants externes de l'infrastructure mais appartenant à son environnement proche. L'objectif majeur est la recherche de chemins optimaux dans un scénario d'attaque défini par l'objectif de l'adversaire. Cette approche globale, apporte une définition plus fine (et donc plus réaliste) de la sécurité comme étant le coût le plus faible du chemin d'attaque pris sur l'ensemble des adversaires réalistes (polynomiaux, i.e. agissant en temps fini).Le programme de recherche est structuré en cinq étapes. Les deux premières étapes visent à définir les modèles et les objets représentant les infrastructures de sécurité ainsi que les attaquants auxquelles elles sont confrontées. La troisième étape consiste en la définition d'une méthodologie générique pour évaluer la sécurité d'une infrastructure de sécurité. Cette étape doit aboutir à la conception d'heuristiques de recherche de vulnérabilités. Afin de valider les modèles et la méthodologie proposés, le programme de thèse prévoit le développement d'un démonstrateur recherche sous la forme d'une plate-forme d'évaluation. Enfin, la dernière étape consistera à l'évaluation d'un système existant à partir de la plate-forme en mettant en œuvre la méthodologie proposée. L'objectif de cette dernière étape est de valider les modèles et la méthodologie et d'en proposer une amélioration si nécessaire. / The current definitions of a critical infrastructure are not adapted to the actual attacks which are observed these days. The problem is the same for the definition of an attack and therefore, the term « cyber attack » tends to reduce the conceptual and operational field of the person in charge of the security. Most of the approaches are reduced to identify the technical and IT domain only, and they forget the others domains specific to the intelligence. Then, the main methodologies to identify and to manage risk (EBIOS or some similar methodologies) take into account a definition of a critical infrastructure which is restrictive, static and local. The model of attacker and attack is also extremely narrowed as the technical approaches and the angles of attack of an attacker tend to be restricted to the IT domain only, even if the « cyber » angles may not exist or may only be a small part of an attack scenario.Therefore, it is necessary to have a new definition of a critical infrastructure, more complete and made according to the attacker point of view. Indeed, critical infrastructures can be protected by assessing the threats and vulnerability. This thesis aims to develop new models of infrastructure and attack accurately, models which will based on graph theory, with or without the cyber part. This graph-based representation is already used a lot to describe infrastructure, it will be enriched in order to have a more exhaustive view of an infrastructure environment. The dependencies with other entities (people, others critical infrastructures, etc.) have to be taken into account in order to obtain pertinent attack scenarios. This enriched representation must lead to new models of attackers, more realistic and implementing external components of the infrastructure which belong to its immediate environment. The main objective is the research of optimal paths or other mathematical structures which can be translated into attack scenarios. This global approach provides a finer (and therefore more realistic) definition of security as the lowest cost of the attack path.The research program is structured in five stages. The first two steps are aimed at defining the models and objects representing the security infrastructures as well as the attackers they are confronted with. The major difficulty encountered in developing a relevant infrastructure model is its ability to describe. Indeed, the more the model is rich, the more it can describe the infrastructure and the adversaries that attack it. The counterpart of developing a relevant model is its exponential characteristic. In these security models, we therefore expect that the problem of finding the vulnerabilities of a security infrastructure is equivalent to difficult problems, i.e. NP-hard or even NP-complete. The locks to be lifted will therefore consist in the design of heuristics to answer these problems in finite time with an ``acceptable" response. The third step is to define a generic methodology for assessing the safety of a security infrastructure. In order to validate the proposed models and methodology, the thesis program provides for the development of a research demonstrator in the form of an evaluation platform. Finally, the last step will be to evaluate an existing system from the platform by implementing the proposed methodology. The objective of this last step is to validate the models and the methodology and to propose an improvement if necessary.
|
266 |
Étude des couplages thermomécaniques et microstructuraux d’un alliage de titane au cours du soudage FSW / Study of thermomechanical and microstructural couplings of a titanium alloys during Friction Stir WeldingTchein, Gnofam Jacques 11 December 2018 (has links)
Le soudage FSW (Friction Stir Welding) est un procédé de soudage à l’état solide appliqué aujourd’hui dans les secteurs des transports aérospatial, naval et ferroviaire. Il présente l’avantage de fournir des soudures aux propriétés mécaniques meilleures que celles des procédés de soudage par fusion de la matière. La plupart des études menées sur ce procédé concernent les alliages d’aluminium. Ce travail porte sur l’étude des phénomènes thermomécaniques et métallurgiques pendant le procédé de soudage FSW du TA6V. L’influence de la microstructure initiale sur les propriétés mécaniques et la microstructure finale est étudiée à travers une étude expérimentale. La ZAT et la ZATM des soudures ont une très faible épaisseur et les soudures ne présentent pas de zone de fragilité. La genèse de la microstructure pendant le soudage a été identifiée et s’articule en trois points: changement de phase α → β, recristallisation dynamique continue de la phase β, formation de grains α à l’intérieur des grains β recristallisés. Afin de mettre en place un modèle permettant de prédire la microstructure dans le noyau de la soudure, des essais de torsion à chaud ont été réalisés pour déterminer les propriétés rhéologiques du TA6V. Ces essais ont aussi permis de mettre en place une loi de comportement analytique du TA6V. Les champs de vitesse sont formulés analytiquement à partir des équations de la mécanique des fluides et les champs thermiques sont déterminés numériquement à partir d’une formulation eulérienne. / Friction Stir Welding (FSW) is a solid state welding process used today in the aerospace, naval and rail transport sectors. It has the advantage of providing welds with better mechanical properties than fusion welding processes. Most of studies carried out on this process concern aluminum alloys. This work focuses on the study of thermomechanical and metallurgical phenomena during FSW of the Ti-6Al-4V alloy. The influence of the initial microstructure on the mechanical properties and the final microstructure is studied through an experimental study. The HAZ and TMAZ of the welds are very thin and the welds didn’t present any weak zone. The genesis of the microstructure during the process has been identified and is made up with three main steps: α → β phase change, continuous dynamic recrystallization of the β phase and formation of α grains within the recrystallized β grains. In order to set up a model to predict the microstructure in the weld nugget, hot torsion tests were performed to determine the rheological properties of TA6V. These tests also made it possible to set up an analytical behavior law of Ti-6Al-4V. The velocity fields during FSW are formulated analytically from the equations of fluid mechanics and thermal fields are determined numerically from a eulerian formulation.
|
267 |
Effets de vitesse et de transcristallinité dans l'analyse de la cristallisation de polyamides 66 d'architectures différentes / Cooling rate and transcristallinity effects on crystallization analysis of polyamides 66 with different architecturesFreire, Elio Lionel 26 September 2016 (has links)
La cristallisation de trois grades de PA66 différant par leur masse molaire et leur caractère branché ou linéaire a été étudiée en termes de cinétique de cristallisation et de morphologie.Nous avons utilisé une platine chauffante pour étudier les cristallisations isothermes à haute température. Puis, grâce au calorimètre l’Hyper DSC, nous avons pu cristalliser nos échantillons à des vitesses de refroidissement constantes allant jusqu’à 700°C/min. Ces essais ont été complétés à l’aide d’une DSC Flash qui nous a permis d’atteindre des vitesses constantes de refroidissement allant jusqu’à 60000°C/min.Les cinétiques globales de cristallisation ont pu être recalculées grâce au modèle d’Avrami dans le cas des cristallisations isothermes et du modèle d’Ozawa dans le cas des cristallisations anisothermes à vitesse de refroidissement constante allant jusqu’à 700°C/min.Des coupes microtomiques réalisées à l’aide d’un microtome à lame de verre sur les échantillons issus des essais en platine chauffante et en Hyper DSC ont permis de mettre en évidence le caractère très transcristallin de l’une des nuances de PA66 étudiée, les deux autres nuances étant de nature plus sphérolitique.La présence de zone de croissance transcritalline modifie les exothermes de cristallisation. Les cinétiques globales de cristallisation sont une combinaison des apports de la cristallisation de surface et de la cristallisation de volume (intrinsèque au matériau). Nous avons donc utilisé la méthode proposée par Billon & al. pour déterminer la contribution de la cristallisation intrinsèque à la fraction transformée α en utilisant aux moins deux épaisseurs d’échantillons différentes en DSC.Par ailleurs, une analyse particulière de ces exothermes de cristallisation donne accès à des paramètres de cristallisation tels que la vitesse de croissance. Malgré un certain niveau d’incertitude, les résultats obtenus par cette méthode sont corroborés par des résultats issus de la littérature. Cette méthode est particulièrement intéressante lorsque l’observation directe est impossible.L’utilisation du formalisme d’Hoffman et Lauritzen nous a permis de déterminer un changement de régime de croissance entre le régime I et le régime II. D’autre part, il nous a permis de calculer les énergies de surface latérale et d’extrémité ainsi que de repliement de chaîne. Enfin, ce modèle nous permet de recalculer l’évolution de la vitesse de croissance sphérolitique sur tout le domaine de température étudié. / Crystallization of three PA66 grades of different molar mass, linear or branched, has been studied in terms of crystallization kinetics and morphology.A hot stage has been used to study isothermal crystallization at high temperatures. A Hyper DSC has been used to study crystallization at constant cooling rates up to 700°C/min. Further investigations have been carried out using a Flash DSC setup increasing the reachable constant cooling rate up to 60000°C/min.Overall kinetics of crystallization have been successfully calculated thanks to Avrami model for isothermal crystallization and thanks to Ozawa model for anisothermal crystallization at constant cooling rate up to 700°C/min.Microtomed sections made with a glass knife microtome out of hot stage and Hyper DSC samples have been observed with a polarized light microscope. For one grade of PA66 studied, morphologies are very transcrystalline whereas for the two other grades, morphologies are spherulitic.The presence of transcrytalline zones while performing DSC experiments modifies the exotherms of crystallization with a contribution of surface crystallization and bulk crystallization. This leads to a polluted determination of crystallization kinetics. Then, we used the method proposed by Billon & al in order to discriminate the part of the exotherm due to transcrystalline crystallization and to bulk crystallization.Moreover, crystallization parameters as growth rate is identified thanks to the analyses of DSC crystallization trancrystalline-perturbed exotherms using two different thicknesses of DSC samples. Despite of a certain degree of uncertainty, the results obtained by this new method compare well with already published data. This method is particularly of interest when direct observation of spherulites is impossible.The lateral and folding surface free energies as well as the work of chain folding have been determined from Hoffman & Lauritzen treatment. Indeed, it allows us to see the change of growth regime from regime I to regime II and to calculate accurately growth rate vs temperature for the whole temperature range studied.
|
268 |
Désagrégation spatiale des données de mobilité du recensement de la population appliquée à l'Ile-de-France / Disaggregation spatial of census mobility data apply to region Ile-de-FrancePivano, Cyril 20 October 2016 (has links)
En cours / En cours
|
269 |
Diagnostic comportemental et cognitif des erreurs dans la résolution de problèmes arithmétiques / Cognitive and behavioural diagnosis of errors in arithmetical word problem solvingMartin, Bruno 11 July 2016 (has links)
La recherche sur les Environnements Informatiques pour l’Apprentissage Humain (EIAH) et la psychologie convergent dans leur intérêt d’une meilleure compréhension du sujet et plus particulièrement dans sa modélisation, ouvrant des perspectives en éducation. La thèse, fondamentalement interdisciplinaire, vise à resserrer le lien entre la psychologie expérimentale et les EIAH dans le domaine des Problèmes Arithmétiques à Enoncés Verbaux (PAEV), tout en abordant la question plus générale d’intégration de modèles cognitifs dans les EIAH. Dans une première partie, un module de diagnostic comportemental est mis en place accompagnée d’une méthodologie de tests et d’autoévaluation pour pouvoir être employé en psychologie expérimentale. Mieux comprendre, et surtout modéliser les comportements est une étape nécessaire préalable à la mise en place du module de diagnostic épistémique. C’est l’objet de la deuxième partie, où un travail de modélisation cognitive a été effectué, qui montre par la construction de modèles exécutables que les productions des sujets peuvent être mises en lien avec des stratégies, conscientes ou non, de résolution de problèmes, telles que la réinterprétation de phrases et l’usage de mots-clefs. Dans la troisième partie, afin de répondre à la problématique du diagnostic individuel par la modélisation cognitive, une mesure adaptée à ces modèles a été mise place. Un logiciel a aussi été développé pour construire des versions simples de modèles cognitifs et les tester sur les données issues d’un EIAH. Ce logiciel et cette mesure ont ensuite été mis en application dans le cadre d’une nouvelle expérimentation sur les PAEV. / Research in psychology and in Intelligent Learning Environment (ILE) share the goal of a better understanding of the subject, more precisely in its modeling with strong educative perspectives. This Ph.D. Thesis, intrinsically interdisciplinary, aims to strengthen the link between experimental psychology and ILEs, especially in the domain of arithmetical word problem solving (WP) while addressing the more general issue of the integration of cognitive models in the ILEs. In the first part, a behavioral diagnostic module is presented, with a test-based methodology to assess its relevance in the context of experimental psychology studies. A better understanding of word problem solving behavior is a prerequisite of the development of any cognitive diagnostic module. This is the core of the second part, which presents the cognitive models put in place and compare their productions with human data. It has been shown that a large part of WP solving behavior can be explained via the light of keyword-based strategy and the alteration of the meaning of textual propositions. In the last part, in order to address the issue of individual cognitive diagnosis, a metric quantifying the fit of the diagnosis has been developed. A software has also been developed, allowing to build and test simple cognitive models over data coming from ILEs. This metric and this software have been used concretely within the context of an experimentation involving word problem solving.
|
270 |
Rheology of bronchial mucus : characterization and modeling for clearance helping by a medical device / Rhéologie du mucus bronchique : caractérisation et modélisation pour l'aide à la clairance par un dispositif médicalLafforgue, Olivier 05 June 2018 (has links)
Aujourd’hui, les pathologies respiratoires chroniques constituent un fardeau sanitaire mondial. Beaucoup sont associées à une modification rhéologique du mucus. Le rôle de clairance du mucus tapissant les voies respiratoires est de capturer des particules étrangères afin qu’enzymes et anticorps le nettoient, puis d’être transporté vers le pharynx pour être digéré ou expectoré. Dans des conditions pathologiques (e.g. mucoviscidose), les propriétés physiques assurant cette fonction vitale sont entravées par des modifications de la composition du mucus. L’objectif ici est de caractériser en profondeur les propriétés mécaniques du mucus vis-à-vis du développement d’appareils d’aide à la clairance. Ceci est réalisé par des moyens expérimentaux et de la modélisation depuis la base de données qui en découle. Le mucus réel implique de sérieuses problématiques de collecte, c’est pourquoi le choix a été fait de préparer des simulants à partir de glycoprotéines à différentes concentrations reproduisant la variété naturelle du mucus. Cela a permis de tester chacune des variétés vastement, palliant ainsi les problèmes de cohérence intrinsèque. La microscopie optique et la MEB ont donné un aperçu visuel du réseau 3D des simulants et confirmé sa similarité avec des mucus réels. La tension de surface, liée à la mouillabilité et l’adhésivité du mucus sur la surface épithéliale a été mesurée. Cela a montré une bonne concordance avec des mucus pathologiques, en particulier les concentrations élevées, en cohérence avec les observations cliniques. Le mucus est sujet aux changements de température in-vivo et peut varier de 20°C près de la bouche à 40°C en cas d... / Today, chronic respiratory pathologies constitute a worldwide health burden. Most of them are associated to a modification of the mucus rheology. The clearance role of mucus is first to trap foreign particles, so that enzymes and antibodies can start the cleaning and then to transport them towards the pharynx, to be digested or expectorated. Under disease conditions (e.g. Cystic Fibrosis), the physical properties ensuring this vital function are hindered by modifications of the mucus composition. The purpose of this thesis is then to characterize thoroughly the physical (essentially rheological) properties of mucus to improve the development of clearance helping devices using both experiments and modeling based on the subsequent database. Real mucus implies strong issues related to sample collection, hence the choice made in this work was to use mucus simulants prepared from glycoproteins at various concentrations to mimic the real mucus variety. It allowed to widely test each unique sample thus palliating the issue of intrinsic consistency. Optical microscopy and SEM were used to give a complementary insight into the 3D network of samples and confirmed the similarity with former observations made on real mucus. The surface tension (closely related to the wettability and adhesiveness of the bronchial mucus on the epithelium surface) was also measured for each concentration. It showed a good agreement with pathological mucus, especially for the high polymer concentrations. Mucus is prone to temperature variations in-vivo 20°C close to the mouth to 40°C under fever conditions. Hence thermal diffusivity, conductivity, and heat capacity were measured in this tem...
|
Page generated in 0.1046 seconds