Spelling suggestions: "subject:"modélisation"" "subject:"odélisation""
261 |
Simulation et prévision des étiages sur des bassins versants français : Approche fondée sur la modélisation hydrologique / Low-flow simulation and forecasting on French river basins : A hydrological modelling approachPushpalatha, Raji 18 January 2013 (has links)
La prévision d'étiage à long terme est l'une des questions émergentes en hydrologie en raison de la demande croissante en eau en période sèche. Des prévisions fiables de débits à longue échéance (quelques semaines à quelques mois à l'avance) peuvent améliorer la gestion des ressources en eau et de ce fait l'économie de la société et les conditions de vie aquatique. Les études limitées sur les étiages dans la littérature nous a conduit à traiter certaines des questions existantes sur l'hydrologie des étiages, principalement sur la simulation et la prévision des étiages. Notre objectif final de développer une approche d'ensemble pour la prévision à long terme des étiages se décline en plusieurs étapes préalables, telles que la caractérisation des étiages, l'évaluation de mesures existantes d'efficacité des simulations des modèles, le développement d'une version améliorée d'un modèle de simulation des étiages, et enfin l'intégration d'une approche de prévision d'ensemble. Un ensemble de bassins distribués partout en France avec une variété de conditions hydro-météorologiques a été utilisé pour l'évaluation des modèles. Cet échantillon de données a d'abord été analysé et les étiages ont été caractérisés en utilisant divers indices. Notre objectif de mieux évaluer les simulations des étiages par les modèles a conduit à proposer un critère basé sur le critère de Nash-Sutcliffe, calculé sur l'inverse des débits pour mettre davantage de poids sur les erreurs sur les très faibles débits. Les résultats montrent que ce critère est mieux adapté à l'évaluation des simulations des étiages que d'autres critères couramment utilisés..Une analyse de sensibilité structurelle a ensuite été menée pour développer une structure de modèle améliorée pour simuler les étiages. Des modèles couramment utilisés ont été choisis ici comme modèles de base pour commencer l'analyse de sensibilité. Le modèle développé, GR6J, atteint de meilleures performances à la fois sur les faibles et les hauts débits par rapport aux autres modèles existants testés. En raison de la complexité du processus pluie-débit et de l'incertitude liée aux conditions météorologiques futures, nous avons développé une approche d'ensemble pour émettre des prévisions et quantifier les incertitudes associées. Ainsi l'approche d'ensemble fournit une gamme de valeurs futures de débits sur la plage de prévision. Ici, la climatologie a été utilisée pour fournir les scénarios météorologiques en entrée du modèle pour réaliser les prévisions. Pour réduire le niveau d'incertitude lié au modèle hydrologique, des combinaisons variées de procédures de mise à jour et de corrections de sortie ont été testées. Une approche directe, similaire à ce qui peut être fait pour la prévision des crues, a été sélectionnée comme la plus efficace. Enfin, des essais ont été réalisés pour améliorer la qualité des prévisions sur les bassins influencés par les barrages, en tenant compte des variations de stockage dans les barrages amont. Testée sur les bassins de la Seine et de la Loire, l'approche a donné des résultats mitigés, indiquant le besoin d'analyses complémentaires. / Long-term stream low-flow forecasting is one of the emerging issues in hydrology due to the escalating demand of water in dry periods. Reliable long-lead (a few weeks to months in advance) streamflow forecasts can improve the management of water resources and thereby the economy of the society and the conditions for aquatic life. The limited studies on low flows in the literature guided us to address some of the existing issues in low-flow hydrology, mainly on low-flow simulation and forecasting. Our ultimate aim to develop an ensemble approach for long-term low-flow forecasting includes several prior steps such as characterisation of low flows, evaluation of some of the existing model's simulation efficiency measures, development of a better model version for low-flow simulation, and finally the integration of an ensemble forecasting approach. A set of catchments distributed over France with various hydrometeorological conditions are used for model evaluation. This data set was first analysed and low flows were characterized using various indices. Our objective to better evaluate the models' low-flow simulation models resulted in the proposition of a criterion based on the Nash-Sutcliffe criterion, but calculated on inverse flows to put more weight on the errors on extreme low flows. The results show that this criterion is better suited to evaluate low-flow simulations than other commonly used criteria. Then a structural sensitivity analysis was carried out to develop an improved model structure to simulate stream low flows. Some widely used models were selected here as base models to initiate the sensitivity analysis. The developed model, GR6J, reaches better performance in both low- as well as high-flow conditions compared to the other tested existing models. Due to the complexity of rainfall-runoff processes and the uncertainty linked to future meteorological conditions, we developed an ensemble modelling approach to issue forecasts and quantify their associated uncertainty. Thus the ensemble approach provides a range of future flow values over the forecasting window. Here observed (climatological) rainfall and temperature were used as meteorological scenarios fed the model to issue the forecasts. To reduce the level of uncertainty linked to the hydrological model, various combinations of simple updating procedures and output corrections were tested. A straightforward approach, similar to what can be done for flood forecasting, was selected as it proved the most efficient. Last, attempts were made to improve the forecast quality on catchments influenced by dams, by accounting for the storage variations in upstream dams. Tested on the Seine and Loire basins, the approach showed mixed results, indicating the need for further investigations.
|
262 |
Développement d'une modélisation hydrologique incluant la représentation des aquifères : évaluation sur la France et à l'échelle globale / Development of a hydrological model including groundwater : evaluation over France and at global scaleVergnes, Jean-Pierre 14 December 2012 (has links)
L'impact des eaux souterraines sur le bilan d'eau en surface et sur le climat a récemment fait l'objet de plusieurs études. Dans cette thèse, un schéma d'aquifère simplifiée à été développé dans le système hydrologique continental ISBA-TRIP utilisé au CNRM et évalué sur la France et à l'échelle globale. D'abord implémenté dans le modèle de routage TRIP, ce schéma a permis d'améliorer la comparaison entre les débits simulés et observés. La bonne comparaison des stocks d'eau simulées avec les estimations du satellite GRACE a en outre confirmé la cohérence des nappes d'eau simulées. Le principal effet des aquifères est d'introduire un temps de résidence qui décale et lisse les variables hydrologiques simulées. L'introduction des remontées capillaires de la nappe vers le sol d'ISBA a nécessité l'utilisation de la version explicite et multi-couche du schéma de sol d'ISBA. Son évaluation sur la France et à l'échelle globale a démontré l'intérêt d'une représentation plus physique des processus hydrologiques du sol en améliorant significativement les débits et stocks d'eau simulés. Le principal effet des remontées capillaires est d'augmenter l'évapotranspiration en période sèche. Cette évaluation révèle cependant un manque de dynamisme tendant à sous-estimer les débits moyens annuels et à augmenter la sensibilité d'ISBA à la résolution. Il reste en outre de nombreuses incertitudes. Certaines paramétrisations sont discutables et nécessiteraient sans doute d'être améliorées ou corrigées. L'objectif ultime de ces travaux sera l'introduction du système complet ISBA-TRIP dans le modèle de climat du CNRM afin d'évaluer l'impact des aquifères sur la simulation du climat récent et futur. / The impact of groundwater on surface water budget and climate has recently received increasing attention. In this thesis, a simple groundwater scheme is developed in the continental hydrological system ISBA-TRIP used at Météo France, and evaluated over France and at global scale. This scheme has been first introduced in the TRIP river routing model. It improves the comparison between observed and simulated river discharges. The good comparison between simulated terrestrial water storage and estimates of the GRACE satellite mission confirms the coherence of the simulated water table heads. The main effect of groundwater is to introduce a time lag which shifts and smooths the simulated hydrological variables. The introduction of the capillary rises from the water table to the soil requires the use of the explicit multi-layer scheme soil of ISBA. His evaluation over France demonstrates the relevance of a more physically-based representation of the soil hydrological processes by improving the simulated river discharges and terrestrial water storages. The main effect of capillary rises is to increase the evapotranspiration during dry periods. However, this evaluation point out a lack of dynamism which leads to underestimate the mean annual river discharges and to increase the sensitivity to the resolution. Moreover, numerous uncertainties still remain. Some parameterizations are questionable and would require to be improved. The ultimate objective will be to introduce the fully-coupled ISBA-TRIP system into the CNRM global climate model in order to assess the relevance of groundwater processes for the simulation of both recent and future climates.
|
263 |
Une modélisation de l'endommagement et du glissement avec frottement dans les matériaux quasi-fragiles / A model of damage and frictional sliding for quasi-brittle materialsLanoye, Emma 12 December 2012 (has links)
Sous chargement, les matériaux dits ‘quasi-fragiles’ tels que les bétons et de nombreuses roches présentent souvent une perte de rigidité progressive, ainsi qu’un comportement anisotrope, asymétrique et hystérétique. Il est maintenant largement admis que ce comportement, fortement non linéaire et complexe, est lié principalement à la création, au développement et au jeu d’ouverture et fermeture des réseaux de microfissures accompagnés de glissement et de frottement entre lèvres de microdéfauts en contact.Dans l’optique d’une utilisation industrielle sérieuse, la construction d’un modèle d’endommagement simple, fiable sur le plan mathématique et thermodynamique et offrant une réponse pertinente pour les matériaux quasi-fragiles jusqu’à l’apparition d’une localisation de l’endommagement, constitue à l’heure actuelle un enjeu important. Il représente en effet une étape indispensable avant de pouvoir espérer modéliser de manière satisfaisante le comportement jusqu’à la ruine de nombreux ouvrages du génie civil. L’objectif du travail de thèse est d’améliorer les capacités prédictives d’un modèle simple d’endommagement par microfissuration existant qui prend en compte les effets unilatéraux liés à l’ouverture-fermeture des microfissures. La nouvelle approche proposée est basée sur l’introduction d’un second phénomène dissipatif susceptible d’être induit lors de la fermeture des microdéfauts : le glissement avec frottement des lèvres en contact. La modélisation de ce nouveau mécanisme dissipatif s’effectue à l’échelle macroscopique en ne faisant référence à l’échelle inférieure ou aux résultats de la micromécanique des milieux microfissurés que pour interpréter ou justifier certaines hypothèses. Une attention particulière est accordée à la continue différentiabilité du potentiel thermodynamique proposé. L’étude et la simulation de différents essais permettent d’illustrer la pertinence des choix retenus. / Under loading, materials called 'quasi-brittle' as concrete and many rocks often exhibit progressive loss of stiffness, as well as anisotropic behavior, and asymmetric hysteretic. It is now widely accepted that this behavior highly nonlinear and complex, is mainly related to the creation, development and set of opening and closing of microcracks accompanied networks and sliding friction between the lips of microdefects in contact. In the context of a serious industrial use, the construction of a damage model simple, thermodynamically and mathematically reliable and providing an appropriate response for quasi-brittle materials until the onset of localization damage, is currently an important issue. It is indeed a necessary step before adequately modelling behavior to the ruin of many civil engineering works. The objective of this thesis is to improve the predictive capabilities of an existing simple model of damage by microcracking which takes into account unilateral effects related to the opening and closing of microcracks. The new approach is based on the introduction of a second dissipative phenomenon may be induced when closing microdefects: frictional sliding of the lips of microcracks. Modeling of this new dissipative mechanism occurs at the macroscopic scale by only referring to the lower scale or the results of the micro environments that microcracked to interpret or justify certain assumptions. Particular attention is paid to the continuous differentiability of the thermodynamic potential proposed. The study and simulation of various tests enable to illustrate the relevance of the choices made.
|
264 |
Évaluation et amélioration des modèles numériques pour l'analyse de la stabilité des pentes / Evaluation and improvement of some numerical models for the analysis of slope stability and rock burstLiu, Zaobao 22 April 2013 (has links)
La rupture des pentes et l’éclatement des roches, qui représentent deux types de risques naturels fréquents dans le monde, peuvent engendrer des conséquences économiques importantes et des pertes en vie humaine. Malgré que les phénomènes soient étudiés depuis de longues années, il reste encore des questions ouvertes et sans réponse et il est donc encore nécessaire poursuivre les recherches sur cette thématique. Le présent travail de thèse est consacré la modélisation numérique de la stabilité des grandes pentes et de l’éclatement des massifs rocheux en utilisant des méthodes basées sur l’intelligence artificielle en proposant des modifications et des améliorations de telles méthodes. En se basant sur des observations de déplacements de terrain, le glissement de terrain, qui est phénomène commun de la rupture de pentes, est étudié par le processus de Gauss afin de prédire son apparition temporelle. Ensuite, la question d’évaluation de la stabilité des pentes est abordée en utilisant la stratégie de machine à vecteurs de pertinence (RVM) avec des hyper-paramètres adaptatifs. Une approche itérative est proposée afin de déterminer les valeurs optimales des hyper-paramètres. Afin d’améliorer la prédiction, l’évaluation complète de la stabilité des pentes est réalisée en proposant un modèle basé sur la théorie de flou (CM) associé à un processus analytique d’hiérarchisation pondérée (WAHP). Ce modèle est utilisé à l’évaluation de la stabilité de la pente de rive gauche de la centrale hydroélectrique de Jinping 1, dans la région Sud-Ouest de Chine. Enfin, dans la dernière partie, la problématique de l’éclatement des massifs rocheux est abordée en utilisant des modèles basés sur la théorie du flou, en se basant sur une synthèse de 164 cas réels. Des comparaisons entre les résultats numériques et des données de terrain sont présentées pour de différents cas étudiés dans cette thèse. / Slope failures and rock burst, which are two typical types of geological hazards, create tremendous economic damages and cause massive losses to the health of domestic humans or animals every year throughout the world. The severe situation implies that they are still in need to be further studied despite the fact that they have been discussed for a long time. The present work is devoted to presenting the analysis of slope failures and rock burst using some computational intelligent models with modifications and improvements. Then landslide, a common type of slope failure, is analyzed for time occurrence prediction using the Gaussian Process by means of field-observed displacement series. After that, the problem of slope stability evaluation is discussed using the strategy of relevance vector machine (RVM) with adaptive hyper-parameter. An iteration approach is presented to find optimal hyper-parameter values in this chapter. Afterwards, the comprehensive evaluation of slope stability is carried out with the cloud model (CM) and weighted analytical hierarchy process (WAHP) closely related to the left abutment slope of Jinping 1 Hydropower Station, southwest of China. Finally, prediction of rock burst classification is engaged using the cloud models synthesized with the attribution weights on the basis of 164 rock burst cases. In each modeling of the associated problems, comparisons are given on the performance of each strategy as well as some evaluations.
|
265 |
Stratégie d'intensification des procédés / Strategy for process intensificationMathieu, Florent 05 December 2013 (has links)
Depuis quelques années, les réacteurs intensifiés et les réacteurs microstructurés sont une alternative aux réacteurs en cuve agitée. Grâce à leurs performances élevées en termes de transfert de matière et transfert de chaleur, il est possible de mieux maîtriser les conditions opératoires et donc d'atteindre des meilleures qualités de produit. Cependant, il est difficile de prédire quantitativement l'intérêt réel des réacteurs intensifiés ou du passage batch/continu, pour un système chimique donné, sans un effort expérimental important. Ainsi, réduire cette phase expérimentale coûteuse en temps et en moyen est une priorité. Pour cela, une stratégie itérative basée sur la planification d'expérience et la modélisation a été développée. elle permet de profiter pleinement de l'élargissement des fenêtres opératoires liées aux nouvelles technologies, tout en minimisant le nombre d'expériences. Cette stratégie utilise un modèle phénoménologique qui décrit les réactions et les transferts de masse et de chaleur dans chacun des réacteurs proposés. À chaque itération, la stratégie planifie l'expérience qui permet d'acquérir le plus d'information en s'aidant de critères statistique tel que le critère d-optimal. Puis, si la précision des paramètres est jugée suffisante, elle prédit quel réacteur atteint la meilleur performance et propose de valider expérimentalement la prédiction. L'estimation de la performance passe par une fonction de coût basée sur plusieurs critères qui peuvent être le rendement, le temps d'opération, la consommation énergétique,... Si la validation expérimentale échoue, la stratégie propose de continuer la phase d'acquisition après que l'utilisateur ait apporté des modifications au modèle. Le bienfondé de la stratégie et l'intérêt de prendre en compte plusieurs technologies pour les performances, mais aussi et surtout pour l'acquisition de données, a d'abord été démontré en utilisant des systèmes chimiques virtuels. Puis dans un second temps, une réaction classique de type parallèle/consécutive a été utilisée. Pour cela, un banc expérimental spécifique a été mise en oeuvre permettant l'utilisation de trois types de réacteurs : batch, semi-batch et piston. Enfin, Solvay, notre partenaire industriel, nous a fourni un cas d'étude réel portant sur la synthèse de surfactant ayant des applications cosmétiques. Ces travaux ont permis de mettre en évidence l'intérêt d'utiliser plusieurs réacteurs pour l'acquisition de données, de démontrer l'importance des phases d'acquisition de données pour l'optimisation du procédé et de souligner la supériorité des modèles phénoménologiques par rapport aux modèles de tendances, qui sont utilisés dans les plans d'expériences « classique » / Since a few years, intensified and microstructured reactors are an alternative to stirred tank reactors. Thanks to their high heat and mass-transfer rates, a better control of operating conditions is possible leading to a better product quality. However, it is difficult to predict quantitatively the real interest of intensified reactors and also to transpose a priori a batch process to a continuous process, without an extensive experimental work aiming at selecting the best reactor technology and optimal operating conditions. The acceleration of this exploratory step, costly in time and money, is therefore a challenging task. Hence, an iterative strategy based on the combination of experimental design and modeling has been developed to take advantage of new extended experimental windows offered by intensified reactors and minimize the number of experiments. This method considers a predictive phenomenological model which describes reactions, heat and mass-transfer processes in various reactors. The iterative method alternates experimental steps and prediction steps. During the prediction step, used for data acquisition, the model proposes, using the D-optimal criterion, the optimal experiments which give the maximal information on the model parameters. After each experiment, the strategy decides whether a new iteration is required. If the parameters accuracy is judged sufficient, then the strategy looks for optimal operating conditions in the available reactors, which maximize several process performance criteria (e.g. yield, cost, operation time, etc.), and proposes optimal operating conditions. If the new experimental results are not validated, a new global iterative step is performed to improve the accuracy of the model and propose better operating conditions. To demonstrate its performance, the strategy has been applied to a classical parallel-consecutive reaction scheme. A specific experimental set-up based on three different reactors (batch, semi-batch and plug-flow reactors) has been developed. This work highlights the interest of using several reactors for data acquisition, demonstrates the importance of data acquisition for process performance optimization and emphasizes the superiority of mechanistic models on black-box models for the choice of reactor technologies while minimizing experimentation step.Keywords: Intensification, Modelisation, Experimental strategy, Process performance
|
266 |
Nonlinear transient analysis of isotropic and composite shell structures under dynamic loading by SPH method / Modélisation du comportement non linéaire transitoire de structures coques isotropes et composites sous chargement dynamique par méthode SPHLin, Jun 02 April 2014 (has links)
L’objectif de cette thèse est le développement et l'extension de la méthode SPH pour l'analyse de structures de type coque, isotropes et composites multicouches soumises à des chargements dynamiques. Les différents verrouillages de la méthode SPH classique, tels que la non consistance, l'instabilité en traction, sont résolus par la méthode dite "Corrective Smoothed Particle Method", l'utilisation d'une Formulation Lagrangienne Totale et l'introduction de viscosité artificielle. Le modèle de coque basé sur la théorie de Reissner-Mindlin est adopté pour la modélisation des structures de coque épaisses en utilisant une seule couche de particules dans le plan moyen. La forme forte d’équations gouvernantes de coque sont discrétisées directement par la méthode SPH améliorée et résolues par un schéma explicite basé sur les différences finies centrées. Une extension de la méthode a été faite pour la modélisation d'impact de coques par des objets rigides à faible vitesse. La force de contact est calculée en utilisant la théorie de Hertz. Une dernière extension de la méthode concerne l'intégration du critère de rupture de Tsai-Wu pour la modélisation de la dégradation progressive pour les structures composites multicouches. / The objective of this thesis is the development and the extension of the SPH method for the analysis of isotropic and multilayered composite shell structures, undergoing dynamic loading. Major defects of the classical SPH method such as the lack of consistency, the tensile instability are solved by "Corrective Smoothed Particle Method", the use of the Total Lagrangian Formulation and artificial viscosity. Mindlin-Reissner Theory is employed for the modeling of thick shells, by using only one layer of particles in the mid-plane. The strong form of the governing equations for shell structures are discretized directly by the modified SPH method and solved using the central difference time integration scheme. An extension of the method has been introduced for the modeling of low-velocity impact of shells by rigid impactors. The contact force is calculated based on the Hertzian contact law. A last extension of the SPH method concerns the integration of Tsai-Wu failure criterion for the modeling of progressive degradation of multilayered structures.
|
267 |
Étude des interactions entre phénomènes d'incendie et systèmes d'extinction à eau. Développement d'un module d'extinction dans le logiciel FDS / Study of the interactions between fire and water mist systems. Development of a suppression model for FDS softwareJenft, Alexandre 10 December 2013 (has links)
Ce travail est consacré à l'étude des interactions entre combustible, flamme et gouttes d'eau générées par des systèmes de type brouillard d'eau. Il est complété par le développement d'un modèle d'extinction dans le logiciel FDS (Fire Dynamics Simulator), code CFD largement utilisé dans la communauté scientifique et dans l'ingénierie. L'acquisition de connaissances sur les phénomènes physiques induits par l'application d'un spray sur un feu résulte de l'analyse d'une campagne expérimentale à échelle réelle. 84 essais de feux confinés et ventilés ont ainsi été réalisés faisant intervenir un brouillard d'eau et une instrumentation qui permet d'étudier l'influence sur l'extinction: du combustible, du temps de combustion avant déclenchement du brouillard d'eau, du diamètre du bac pour les feux de liquide inflammable, du nombre de buses et du placement du foyer. L'ajout d'un post-traitement au logiciel FDS sous la forme de bilans de masse et d'énergie dans le code permet de compléter les observations expérimentales et de quantifier l'importance des différents transferts thermiques avant et pendant l'aspersion d'eau. Deux modèles complémentaires permettent de déterminer l'extinction par refroidissement du combustible et par refroidissement de la flamme / inertage. Ils sont étudiés pour des cas appropriés sur les versions 5 et 6 de FDS. La capacité du code complet modifié à prédire l'extinction est évaluée / This work is devoted to the study of interactions between fuel, flame and water droplets generated by water mist systems. It is completed by an extinction model development in FDS (Fire Dynamics Simulator) software, which is a CFD code widely used by the scientific and engineering communities. Knowledge on physical phenomena induced by water application on fire is acquired thanks to an experimental campaign at real scale. 84 confined and ventilated fire tests have been carried out involving water mist and metrology allowing to study the influence on extinction of: fuel, combustion time before water mist application, pool diameter for liquid fuel fires, number of nozzles and fuel location. A post-processing in the form of mass and energy balances has been added to FDS, allowing to complete experimental observations and to quantify the different heat transfer modes before and during water application. Two complementary models allow extinction determination by fuel cooling and flame cooling / inerting effects. Their capability is analyzed for appropriate cases on the versions 5 and 6 of FDS. The capability of the complete modified code to predict extinction is finally evaluated
|
268 |
Modélisation et identification de facteurs environnementaux géographiques liés à des risques morbides : Application aux séquelles développées après le traitement d'une leucémie : Cohorte LEA / Modeling and identification of geographical environmental factors associated to morbid risks : Application to sequelae after the treatment of a leukemia : LEA cohortBourrelly, Stéphane 03 September 2014 (has links)
Cette thèse s'inscrit dans le cadre d'une approche interdisciplinaire mêlant la Géographie à l'épidémiologie et à la Statistique. Il s’agit d’une thèse d’ordre méthodologique appliquée à une problématique de santé publique. L'idée est de concevoir une dialectique adaptée à la géographie de la santé et de proposer ou transposer des méthodes probabilistes, géostatistiques et d’apprentissage statistique afin de modéliser, puis d’identifier des Facteurs Environnementaux (FE) géographiques liés à des risques morbides. Dans cette recherche l’environnement est considéré dans ses multiples dimensions. Il est décrit par des indicateurs spatiotemporels physicochimiques, sanitaires et socio-économiques. L’environnement géographique des Caractéristiques Individuelles et Médicales (CIM) des populations ciblées est aussi pris en compte. Les propositions heuristiques visent à identifier des Déterminants Environnementaux de Santé (DES) ou des facteurs de risques contributifs. La dialectique se veut opérationnelle et reproductible à toutes les maladies. Les propositions sont appliquées à des séquelles développées après le traitement d’une leucémie chez l’enfant - Cohorte LEA. Dans les pays développés, l’accès à des traitements performants engendre une augmentation de l’incidence des séquelles - qui ont des répercussions sur la qualité de vie. Par conséquent, l’après-cancer et la santé des enfants se sont positionnés au cœur des préoccupations sociales en Europe en général et en France, en particulier. Au-delà des objectifs scientifiques visés, des contributions en santé publique sont attendues. Il s’agit de proposer des indicateurs spatiaux opérationnels permettant aux hommes politiques de mettre en place des mesures sanitaires collectives, et aux praticiens de santé de proposer des solutions préventives individuelles - visant à réduire les risques environnementaux d’exposition auxquels sont assujetties les populations du simple fait de leur situation géographique. Et ainsi, d’améliorer l’accès à une bonne santé environnementale. / This thesis is an interdisciplinary approach combining Geography, Epidemiology and Statistics. It is a methodological thesis applying to a public health issue. The concept consist in developing a dialectical adapted to the geographic health and proposing or transposing probabilistic methods, geostatistical and datamining instruments, to model and to identify geographic environmental factors related to morbid risks. In this research the environment is considered in its integrity. It is described by spatiotemporal indicators: physicochemical, health and socioeconomic. The geographical environment of the individual and medical characteristics of targeted populations is also taken into account. Heuristic proposals aim to identify environmental health determinants, or contributing risk factors. The methods have been implemented or adapted to the issue. They are applicable and reproducible in all diseases studied in Geographic Health. In order, to illustrate these proposals, they are applied to squeals observed following the treatment of childhood leukemia - Cohort LEA. In developed countries, access to effective treatments leads to an increase of squeals incidence. Those have an impact on the quality of life. Therefore, post-cancer and children's health have positioned themselves at the core of social concerns in Europe and in France. Beyond the scientific goals, contributions in public health are expected. The idea is to provide operational space indicators to politicians in order to help them to take collective health measures. And for health professionals to be able to offer individual medical solutions, devoted to reduce the risk of exposure to environmental factors of the populations due to their geographical location. In consequence, to improve access to a good environmental health.
|
269 |
Ergonomie théorique de l’humain-machine : quels fondements épistémologiques pour une conception sûre ? / Summary Theoretical ergonomics of the human machine : which epistemological grounding for a safe design ?Nazin, Remi 15 January 2019 (has links)
La conception sûre et le développement maîtrisé des systèmes humain(s)-machines(s)s est un enjeu majeur pour l’ensemble de la société et, spécialement, dans les domaines critiques comme les domaines militaire, aérospatial et médical qui sont amenés à évoluer conjointement, grâce aux progrès réalisés par l’automatisation. Parallèlement, les techniques disponibles pour assurer la mise en place de solutions répondant à ces besoins sont également en constante progression concernant leurs dimensions de puissance, efficacité énergétique, miniaturisation, ce qui correspond à la notion de convergence Nanotechniques-Biotechniques-Informatique-Sciences Cognitives.Tout cela rend nécessaire d’avoir une ergonomie théorique, non pas au sens parfois entendu d’un détachement de la pratique mais au sens d’une ergonomie fondée sur un cadre conceptuel et formel permettant de rendre intelligibles les méthodologies et normes utilisées à travers des principes généraux.Ainsi, l’ergonomie théorique n’est pas une théorie de l’ergonomie mais une théorie de l’anthropotechnique, qui cherche à développer une méthodologie et une épistémologie pragmatique, propre à apporter les fondements conceptuels à ce qui existe aujourd’hui et à permettre le développement futur de l’ergonomie comme champ scientifique. Elle repose sur l’idée centrale qu’à la base de toute Interface Humain(s)- Machine(s) se produit une interaction particulière ; l’interaction sémiotique.Cette interaction particulière, propre aux être vivants, est à la base de l’intégration entre l’individu et son environnement. C’est elle qui lui permet d’agir dans le monde en produisant de la signification à partir de la perception sensible. En envisageant l’humain comme un système biologique intégré, au sens de Chauvet, c’est à dire comme un système dont le comportement est le produit des couplages implicites à différents niveaux de structure, il est possible de fonder un paradigme postcognitiviste en psychologie générale. Le propre de ce paradigme est qu’il permet d’envisager le comportement de l’individu à partir de sa biologie et de façon non réductionniste.À partir des travaux de Chauvet et de Fass, il est possible d’établir une modélisation mathématique de ces phénomènes biologiques qui permette de formaliser les spécifications d’un système technique, à partir des exigences liées aux facteurs humains. Grâce à ce cadre conceptuel, il est possible d’analyser et de réformer certains outils précieux pour l’ergonome comme la critériologie de Bastien et Scapin dont nous proposons une généralisation à tous les systèmes techniques. Cette critériologie a pour fonction originelle de permettre qu’un système interactif réponde à un ensemble fondamental d’exigences liées aux facteurs humains. En la généralisant et en la formalisant, il devient possible d’envisager une modélisation des paramètres fondamentaux de l’interaction sémiotique.Cette approche aboutit dans une ontologie de conception, qui a pour ambition d’être un cadre formel de modélisation de l’interaction humain(s)-machine(s). Nous en proposons une application à MIDAS, outil de modélisation de la performance humaine, développé par la NASA. Le propos de cette ontologie est de permettre la modélisation de l’interaction de façon simultanée à la modélisation du comportement de l’utilisateur ce qui permet de mettre en évidence quels sont les paramètres hamartogènes d’une hypothèse de conception.Ainsi, l’usage d’ontologies de conception ouvre la voie à la construction de modèles formels, corrects par construction, de l’interaction humain(s)-machine(s) et de ses conditions optimales de mise en place, permettant ainsi une conception plus assurée des systèmes à dimension critique. / The safe design and controlled development of human(s)-machine(s) systems is a major challenge for society as a whole and, especially, in critical areas such as the military, aerospace and medical fields that are brought to evolve, thanks to the progress made by automation. At the same time, the techniques available to ensure the implementation of solutions that meet these needs are also constantly increasing with regard to their power dimensions, energy efficiency and miniaturization, which corresponds to the notion of convergence between Nanotechniques-Biotechniques-Informatics-Cognitive Sciences.All this makes necessary to have theoretical ergonomics, not in the sense sometimes understood of a detachment of the practice but in the sense of ergonomics based on a conceptual and formal framework making possible to render the methodologies and norms used through general principles intelligible.Thus, theoretical ergonomics are not a theory of ergonomics but a theory of anthropotechnics, which seeks to develop a methodology and a pragmatic epistemology, capable of providing the conceptual foundations for what exists today and to allow the future development of ergonomics as a scientific field. It is based on the central idea that at the base of any Human(s)-Machine(s) Interface occurs a particular interaction ; semiotic interaction.This particular interaction, specific to living beings, is at the basis of the integration between the individual and his environment. It is what allows it to act in the world, by producing meaning from sensible perception. By considering the human as an integrated biological system, in the sense of Chauvet, as a system whose behavior is the product of implicit couplings at different levels of structure, it is possible to found a postcognitive paradigm in general psychology. The peculiarity of this paradigm is that it makes possible to envisage the behavior of the individual from his biology and in a non-reductionist way.From the work of Chauvet and Fass, it is possible to establish a mathematical modeling of these biological phenomena, allowing to formalize the specifications of a technical system, based on the requirements related to human factors. Thanks to this conceptual framework, it is possible to analyze and reform some valuable tools for the ergonomist like the criterium of Bastien and Scapin for which we propose a generalization to all technical systems. The primary function of this criterology is to allow an interactive system to meet a fundamental set of requirements related to human factors. By generalizing and formalizing it, it becomes possible to envisage a modeling of the fundamental parameters of the semiotic interaction.This approach results in a design ontology, which aims to be a formal framework for modeling human(s)-machine(s) interactions. We propose an application to MIDAS, a human performance modeling tool developed by NASA. The purpose of this ontology is to allow the modeling of the interaction simultaneously to the modeling of the behavior of the user which makes it possible to highlight what are the hamartogenic parameters of a given hypothesis of conception.Thus, the use of design ontologies opens the way to the construction of formal models, correct by construction, of the human(s)-machine(s) interaction and its optimal conditions of implementation, allowing a more assured design of critical systems.
|
270 |
Modélisation et Algorithmique de graphes pour la construction de structures moléculaires. / Modelling and graph algorithms for building molecular structures.Bricage, Marie 05 July 2018 (has links)
Dans cette thèse, nous présentons une approche algorithmique permettant la génération de guides de construction de cages moléculaires organiques. Il s'agit d'architectures semi-moléculaires possédant un espace interne défini capable de piéger une molécule cible appelée substrat. De nombreuses œuvres proposent de générer des cages organiques moléculaires obtenues à partir de structures symétriques, qui ont une bonne complexité, mais elles ne sont pas spécifiques car elles ne prennent pas en compte des cibles précises. L'approche proposée permet de générer des guides de construction de cages moléculaires organiques spécifiques à un substrat donné. Afin de garantir la spécificité de la cage moléculaire pour le substrat cible, une structure intermédiaire, qui est une expansion de l'enveloppe du substrat cible, est utilisée. Cette structure définie la forme de l'espace dans lequel est piégé le substrat. Des petits ensembles d'atomes, appelés motifs moléculaires liants, sont ensuite intégrés à cette structure intermédiaire. Ces motifs moléculaires sont les ensembles d'atomes nécessaires aux cages moléculaires pour leur permettre d’interagir avec le substrat afin de le capturer. / In this thesis, we present an algorithmic approach allowing the generation of construction guides of organic molecular cages. These semi-molecular architectures have a defined internal space capable of trapping a target molecule called substrate. Many works propose to generate molecular organic cages obtained from symmetrical structures, which have a good complexity, but they are not specific because they do not take into account precise targets. The proposed approach makes it possible to generate guides for the construction of organic molecular cages specific to a given substrate. In order to ensure the specificity of the molecular cage for the target substrate, an intermediate structure, which is an expansion of the envelope of the target substrate, is used. This structure defines the shape of the space in which the substrate is trapped. Small sets of atoms, called molecular binding patterns, are then integrated into this intermediate structure. These molecular patterns are the sets of atoms needed by molecular cages to allow them to interact with the substrate to capture it.
|
Page generated in 0.117 seconds