151 |
Modélisation de la croissance postnatale des enfants pour l'étude de ses déterminants précoces / Modeling postnatal growth of children to study its early determinantsCarles, Sophie 22 March 2016 (has links)
Contexte:La croissance dans les premières années de vie est associée à la santé et au risque de maladies à court et long terme. Elle est influencée par de nombreux facteurs dont certains, tels que le tabagisme maternel pendant la grossesse, sont susceptibles de l’altérer à la fois durant les périodes pré- et post-natale précoce. L’étude de la croissance postnatale nécessite une modélisation précise. Aucun consensus sur la méthode optimale n’existe à ce jour.Objectifs:Etudier des approches de modélisation de la croissance du poids, de la taille et de l’indice de masse corporelle (IMC) de la naissance à 5 ans pour l’étude de ses déterminants précoces.Méthodes:Les données de la cohorte mère-enfant EDEN, qui a inclus 2002 femmes enceintes dans les maternités de Nancy et Poitiers entre 2003 et 2006, ont été utilisées. Au total, 39177 mesures de poids (nombre de mesures médian par enfant : 22) et 30026 mesures de taille (nombre de mesures médian par enfant : 17) ont été collectées lors d’examens cliniques (à 1, 2 et 3 ans) et dans le carnet de santé. Le statut pondéral à 5 ans a été défini selon les seuils IOTF à partir de l’ IMC. Les croissances du poids et de la taille ont été modélisées par des modèles non-linéaires à effets mixtes utilisant l'équation de Jenss-Bayley. Les associations entre exposition et croissance ont été étudiées par deux approches, en prenant l’exemple de l’exposition au tabagisme maternel pendant la grossesse. La première approche, fréquentiste, se décomposait en deux méthodes : i) méthode en 2 étapes : le poids et la taille ont été modélisés séparément sans covariables ; les associations entre les prédictions individuelles à différents âges issues de cette modélisation et le tabagisme maternel ont été analysées dans un second temps par régressions linéaires multiples ; ii) méthode en 1 étape : le tabagisme maternel et les covariables ont été inclus d’emblée dans la modélisation du poids et de la taille et les trajectoires d’IMC déduites. Une seconde approche, bayésienne, a permis de modéliser conjointement le poids et la taille, de prédire les différences de trajectoires d’IMC en fonction du statut tabagique maternel et d’obtenir le degré d’incertitude sur celles-ci. Afin d’étudier l’amélioration de la qualité des estimateurs, les précisions des prédictions obtenues ont été comparées à celles obtenues à partir de modélisations séparées. Une analyse bayésienne exploratoire a permis l’étude de différences de co-évolution du poids et de la taille selon le statut pondéral à 5 ans, en modélisant la matrice de variances-covariances des effets aléatoires.Résultats : Les approches fréquentiste et bayésienne donnaient des résultats concordants. Les enfants de femmes fumeuses tout au long de la grossesse tendaient à conserver, au cours des premières années, leur déficit de taille acquise à la naissance. Leur déficit de poids de naissance ne persistait pas au-delà des premiers mois. Ainsi, leur IMC surpassait, dès les premiers mois, l’IMC des enfants de femmes non-fumeuses. La méthode en 2 étapes était pertinente car la variance intra-sujet des prédictions était faible par rapport à la variance inter-sujets. En ce qui concerne la méthode bayesienne, l’incertitude sur les prédictions de poids et de taille était légèrement plus faible quand les profils de croissance étaient modélisés conjointement plutôt que séparément. L’analyse exploratoire montrait que, dans les tous premiers mois de vie, pour une même variation de la vitesse de croissance staturale, la variation de la vitesse de croissance pondérale était plus forte chez les enfants en surpoids ou obèses comparés à ceux de poids normal.Conclusion : Les outils utilisés ont permis de caractériser finement les trajectoires de croissance postnatale. En permettant d’identifier les facteurs associés à des modifications de ces trajectoires très tôt dans l’enfance et de façon longitudinale, ils sont un moyen d’étudier précisément les déterminants de la croissance. / Background: Growth in the first years of life is associated with both the short and long-term risk of diseases. Growth is influenced by many factors, among which some can affect both the early pre- and post-natal periods. This is the case of maternal smoking during pregnancy. The study of post-natal growth needs an accurate modeling. At present, there is no consensus on the optimal method.Objectives: Modeling postnatal growth of weight, height and body mass index (BMI), from birth to 5 years, using different approaches to study its early determinants.Methods: The work relies on data from the mother-child EDEN cohort, in which 2002 pregnant women were recruited between 2003 and 2006 in the maternities of Nancy and Poitiers. A total of 39,177 weight measurements (median by children: 22) and 30,026 height measurements (median by children: 17) has been collected during clinical visits (at 1, 2 and 3 years) and in the health booklet. The child’s overweight status at 5 years was defined according to the IOTF classification based on their BMI. Weight and height growths have been modeled with non-linear mixed effects models using the Jenss-Bayley equation. Associations between exposure and growth have been studied with two approaches, considering maternal smoking during pregnancy as an example. The first approach, frequentist, included two methods: i) a two-steps method: the weight and height were modeled separately without covariates; associations between individual predictions at different ages and maternal smoking were assessed in a second step with multiple linear regressions; ii) one-step method: maternal smoking and other covariates were directly included in the weight and height modeling and BMI trajectories deduced. This second Bayesian approach allowed to jointly model the weight and height, to predict the differences between BMI trajectories according to the maternal smoking status and to get uncertainty degrees. In order to study any improvement in the quality of the estimators, the precisions of predictions obtained were compared to those obtained with separate models of height and weight. An exploratory Bayesian analysis, allowed studying the differences in the co-evolution of weight and height according to the 5-years overweight status, by modeling the random effects variance-covariance matrix.Results: Both the frequentist and the Bayesian approaches showed consistent results. The children from smoking mothers during the whole pregnancy tended to maintain their birth length deficit along their first years of life. The birth weight deficit did not persist after the first months. Thus, their BMI overpassed the BMI of children from non-smoking mothers as soon as the first months of life. The two-steps method was relevant because the within-subject variance of predictions was low compared to the between-subject variance. For the Bayesian method, the uncertainty on the predictions of weight and height was slightly lower when growth patterns were modeled jointly rather than separately. The exploratory analysis showed than, in the first months, for a similar variation of the statural growth velocity, the variation of the weight growth velocity was stronger in overweight or obese children compared to children with a normal weight.Conclusion: We used tools that allowed the accurate characterization of the postnatal growth trajectories. They permit identification of factors associated with variations of these trajectories very early during childhood. Consequently, they proved helpful to study precisely the determinants of growth in early life.
|
152 |
L'acide nitreux atmosphérique : implications dans la chimie en milieu urbain / Implications of atmospheric nitrous acid in the chemistry of urban environmentsAfif, Charbel 18 January 2008 (has links)
L'acide nitreux (HONO) est un composé atmosphérique qui influe sur la variation temporelle et l'amplitude de la formation du smog photochimique. Il est la principale source de OH le matin. Les puits et sources de HONO sont encore mal connus. Son importance dans la chimie troposphérique conduit à mieux vouloir connaître les différents processus qui font varier le bilan de l'acide nitreux atmosphérique ainsi que son implication exacte dans la capacité oxydante de l'atmosphère. L'objectif de ce travail impose (i) le développement d'un instrument de mesure de HONO (système NitroMAC), (ii) la caractérisation de l'atmosphère du milieu urbain ciblé, (iii) des campagnes de mesure dédiées à la mesure de HONO dans ces milieux et (iv) la modélisation des différents processus de production/destruction de HONO pour en étudier l'impact sur l'atmosphère. NitroMAC a été développé et calibré et possède une limite de détection entre 1 et quelques pptv. Une campagne de mesure a été lancée afin de caractériser l'atmosphère beyrouthine. Elle présente des concentrations très faibles en HONO. Par contre, la campagne de mesure effectuée à Vitry-sur-Seine présente des concentrations très élevées de HONO allant à plus de 5 ppbv. Une approche par modélisation 0D a été entreprise à la suite des deux campagnes. Les sorties de modèle montrent une surestimation de la concentration mesurée à Beyrouth. La formation excessive par voie gazeuse a causé cet écart. Tandis que dans le cas de l'agglomération parisienne, le modèle sous-estime les concentrations observées. La combinaison de trois sources supplémentaires ajoutées au schéma chimique est nécessaire pour remonter aux concentrations mesurées. Sur cette base, l'impact de l'acide nitreux sur la capacité oxydante de l'atmosphère a été abordé. Notre étude montre qu'une amélioration de la prise en compte de la concentration de HONO en milieu urbain conduit à une augmentation de la concentration des radicaux OH et de l'ozone de 95% et 12% respectivement. / Nitrous acid (HONO) is an atmospheric pollutant which influences the temporal variation and magnitude of the photochemical smog. HONO is a major precursor of atmospheric hydroxyl radicals in the lowest layer of the troposphere in the morning. Despite its importance in atmospheric chemistry, the mechanisms leading to HONO formation are still not completely understood at present. Therefore, the implication of HONO in the OH budget and the different mechanisms that vary the HONO concentrations in the troposphere are studied. The objective of this work is (i) to develop an instrument for the measurement of HONO (NitroMAC), (ii) to characterize the urban atmosphere of the measurment sites, (iii) to conduct field campaigns to measure HONO and (iv) to study the impact of the different mechanisms responsible of HONO formation by a modelling approach. NitroMAC was developed and calibrated. Its detection limit vaires from 1 to several pptv. A field campaign was conduced to characterize the atmosphere of Beirut. Weak concentrations of HONO were observed. Unlike Beirut, Vitry-sur-Seine (surrounding of Paris) showed high concentrations of nitrous acid (up to 5 ppbv). A box model was used in an attempt to explain the observed HONO concentrations at both sites. The model overestimated the concentrations in Beirut by overestimating the gas phase source. In the Vitry-sur-Seine scenario, the concentrations were underestimated. Three ONO sources were added to the model to counterbalance the underestimation. The impact of HONO over the OH and ozone budget was studied. Results show that by adding these three sources to correctly simulate HONO concentrations, OH and ozone concentrations increased by 95 and 12% (over 24 hours) respectively
|
153 |
Toward knowledge-based automatic 3D spatial topological modeling from LiDAR point clouds for urban areasXing, Xufeng 13 December 2023 (has links)
Le traitement d'un très grand nombre de données LiDAR demeure très coûteux et nécessite des approches de modélisation 3D automatisée. De plus, les nuages de points incomplets causés par l'occlusion et la densité ainsi que les incertitudes liées au traitement des données LiDAR compliquent la création automatique de modèles 3D enrichis sémantiquement. Ce travail de recherche vise à développer de nouvelles solutions pour la création automatique de modèles géométriques 3D complets avec des étiquettes sémantiques à partir de nuages de points incomplets. Un cadre intégrant la connaissance des objets à la modélisation 3D est proposé pour améliorer la complétude des modèles géométriques 3D en utilisant un raisonnement qualitatif basé sur les informations sémantiques des objets et de leurs composants, leurs relations géométriques et spatiales. De plus, nous visons à tirer parti de la connaissance qualitative des objets en reconnaissance automatique des objets et à la création de modèles géométriques 3D complets à partir de nuages de points incomplets. Pour atteindre cet objectif, plusieurs solutions sont proposées pour la segmentation automatique, l'identification des relations topologiques entre les composants de l'objet, la reconnaissance des caractéristiques et la création de modèles géométriques 3D complets. (1) Des solutions d'apprentissage automatique ont été proposées pour la segmentation sémantique automatique et la segmentation de type CAO afin de segmenter des objets aux structures complexes. (2) Nous avons proposé un algorithme pour identifier efficacement les relations topologiques entre les composants d'objet extraits des nuages de points afin d'assembler un modèle de Représentation Frontière. (3) L'intégration des connaissances sur les objets et la reconnaissance des caractéristiques a été développée pour inférer automatiquement les étiquettes sémantiques des objets et de leurs composants. Afin de traiter les informations incertitudes, une solution de raisonnement automatique incertain, basée sur des règles représentant la connaissance, a été développée pour reconnaître les composants du bâtiment à partir d'informations incertaines extraites des nuages de points. (4) Une méthode heuristique pour la création de modèles géométriques 3D complets a été conçue en utilisant les connaissances relatives aux bâtiments, les informations géométriques et topologiques des composants du bâtiment et les informations sémantiques obtenues à partir de la reconnaissance des caractéristiques. Enfin, le cadre proposé pour améliorer la modélisation 3D automatique à partir de nuages de points de zones urbaines a été validé par une étude de cas visant à créer un modèle de bâtiment 3D complet. L'expérimentation démontre que l'intégration des connaissances dans les étapes de la modélisation 3D est efficace pour créer un modèle de construction complet à partir de nuages de points incomplets. / The processing of a very large set of LiDAR data is very costly and necessitates automatic 3D modeling approaches. In addition, incomplete point clouds caused by occlusion and uneven density and the uncertainties in the processing of LiDAR data make it difficult to automatic creation of semantically enriched 3D models. This research work aims at developing new solutions for the automatic creation of complete 3D geometric models with semantic labels from incomplete point clouds. A framework integrating knowledge about objects in urban scenes into 3D modeling is proposed for improving the completeness of 3D geometric models using qualitative reasoning based on semantic information of objects and their components, their geometric and spatial relations. Moreover, we aim at taking advantage of the qualitative knowledge of objects in automatic feature recognition and further in the creation of complete 3D geometric models from incomplete point clouds. To achieve this goal, several algorithms are proposed for automatic segmentation, the identification of the topological relations between object components, feature recognition and the creation of complete 3D geometric models. (1) Machine learning solutions have been proposed for automatic semantic segmentation and CAD-like segmentation to segment objects with complex structures. (2) We proposed an algorithm to efficiently identify topological relationships between object components extracted from point clouds to assemble a Boundary Representation model. (3) The integration of object knowledge and feature recognition has been developed to automatically obtain semantic labels of objects and their components. In order to deal with uncertain information, a rule-based automatic uncertain reasoning solution was developed to recognize building components from uncertain information extracted from point clouds. (4) A heuristic method for creating complete 3D geometric models was designed using building knowledge, geometric and topological relations of building components, and semantic information obtained from feature recognition. Finally, the proposed framework for improving automatic 3D modeling from point clouds of urban areas has been validated by a case study aimed at creating a complete 3D building model. Experiments demonstrate that the integration of knowledge into the steps of 3D modeling is effective in creating a complete building model from incomplete point clouds.
|
154 |
Étude du comportement dynamique en 3D des barrages en enrochement situés dans l'Est du CanadaVerret, Daniel 13 December 2023 (has links)
La présente thèse vise à améliorer l'état des connaissances à l'égard des paramètres influençant les effets de site des barrages en enrochement. Une revue exhaustive des publications liées au comportement et à la modélisation dynamique de ce type de barrage a mis en évidence que le nombre de cas de référence est très limité dans la littérature spécifiquement orientée vers l'étude des effets de site avec des analyses en 3D de barrages en enrochement pour lesquels des données instrumentales sont disponibles. Les travaux réalisés sont très orientés vers les praticiens, car ils établissent des lignes directrices pouvant les aider à évaluer les formulations et algorithmes les mieux adaptés à la réalisation d'analyses en 1D, 2D ou 3D. Ils portent sur l'étude des effets de site du barrage Denis-Perron, un grand barrage en enrochement construit dans une vallée escarpée. L'emplacement exceptionnel de cet ouvrage et le fait qu'il a été muni d'accéléromètres pendant sa construction en font un sujet d'étude particulièrement intéressant. Le premier volet des travaux a consisté à analyser les signaux détectés par les accéléromètres pendant trois petits séismes. Les résultats de cette analyse mettent en évidence qu'il est possible de déduire les caractéristiques dynamiques d'un grand barrage, et ce, même avec des signaux faibles. Les fonctions de transfert et les rapports spectraux obtenus à partir de ces séismes fournissent en fait de nouvelles connaissances sur la directionnalité des fréquences de résonance, les modes de vibration et les effets de site. Puisqu'à travers le monde, il existe très peu de barrages instrumentés dont les données sont disponibles et que les séismes de moyenne et de forte amplitude se produisant dans des zones de faible sismicité sont rares, ces données sismologiques se sont avérées très précieuses pour valider les résultats obtenus au cours des travaux subséquents. Le deuxième volet des travaux a servi à évaluer le potentiel de la technique du bruit ambiant pour déterminer les caractéristiques dynamiques du barrage Denis-Perron. Des mesures de bruit ambiant ont été prises à l'aide de vélocimètres à trois composantes adaptées aux conditions d'un grand barrage. Ces données expérimentales ont permis d'établir la fréquence des modes de vibration de ce grand barrage. Les résultats obtenus d'analyses simples effectuées pour traiter les signaux individuels sont aussi concluants que ceux provenant d'une analyse modale réalisée à partir d'un ensemble de signaux synchronisés entre eux tout en étant cohérents avec les résultats issus de l'analyse des données sismologiques. À partir de la fréquence des modes de vibration fondamentaux calculée avec les données sismologiques et expérimentales, une analyse modale numérique effectuée avec un modèle tridimensionnel a permis d'ajuster le profil de rigidité moyen par rétro-calculs représentatifs du milieu 3D. Dans le cadre du troisième volet, des analyses paramétriques ont été réalisées avec des modèles simplifiés, conçus pour étudier des aspects spécifiques en lien avec les effets de site du barrage Denis-Perron. Les résultats obtenus de ces analyses indiquent que la forme de la vallée, le contraste d'impédance ainsi que le contenu fréquentiel et l'orientation de la sollicitation sont les paramètres qui influent le plus sur les effets de site. Bien que ces résultats illustrent l'importance des effets de site du système vallée barrage étudié, ils font également ressortir certaines limitations entourant la réalisation d'analyses dynamiques en 2D et 3D pour un tel système. De plus, conformément à la littérature, ils indiquent que la forme de la vallée et le rapport entre la hauteur maximale d'un barrage et sa longueur en crête agissent fortement sur sa réponse dynamique. Après que les modèles aient été améliorés pour mieux refléter les conditions du barrage, ils ont été validés à l'aide des données sismologiques disponibles. Les signaux du séisme le plus fort de 1999 ont permis de vérifier et valider ces modèles avancés à l'aide des résultats de simulations obtenus tant dans le domaine temporel que fréquentiel, de même que de conclure qu'il n'est pas requis de recourir à une dé convolution pour ajuster des signaux à la base des modèles. Des analyses dynamiques faites à partir d'un séisme de plus forte intensité (0,3 g), représentatif de la sismicité de l'Est du Canada, a aussi permis d'extrapoler ainsi que de prévoir les phénomènes dynamiques et leurs impacts sur la stabilité et les déplacements permanents du barrage Denis-Perron. / This thesis aims at improving the state of knowledge regarding the parameters that influence the site effects of rockfill dams. A comprehensive literature review related to the behavior and dynamic modeling of this type of dam has highlighted that the number of reference cases specifically oriented towards the study of site effects with 3D analyses of rockfill dams for which seismological data are available is very limited in the literature. The research effort is very practitioner-oriented, as it establishes guidelines that can help engineers evaluate the most appropriate formulations and algorithms when performing 1D, 2D or 3D analyses. It focuses on the study of the site effects of the Denis Perron Dam, a large rockfill dam built in a steep valley. The exceptional location of this structure and the fact that it was equipped with accelerometers during its construction make it a particularly interesting case study. The first phase of the project consisted in analyzing the signals detected by the accelerometers during three small earthquakes. The results of this analysis show that it is possible to deduce the dynamic characteristics of a large dam, even with weak signals. The transfer functions and spectral ratios obtained from these earthquakes provide new insights into resonant frequency directionality, vibration modes, and site effects. Since there are very few instrumented dams worldwide for which seismological data are available and as medium and large magnitude earthquakes occurring in areas of low seismicity are rare, the available seismological data have proven to be very valuable invalidating the results obtained in the subsequent work. The second phase of the project was meant to evaluate the potential of the ambient noise technique to determine the dynamic characteristics of the Denis Perron Dam. Ambient noise measurements were recorded using three-component velocimeters adapted to the conditions of a large dam. These experimental data were used to establish the frequency of the vibration modes of this large dam. The results obtained from simple analyses conducted to process individual signals are as conclusive as those from a modal analysis based on a set of signals synchronized with each other while being consistent with the results from the analysis of the seismological data. From the frequency of the fundamental vibration modes calculated with the seismological and experimental data, a numerical modal analysis was conducted using a three-dimensional model to fit the average stiffness profile by retrofit calculations representative of the 3D medium. In the third and last phase, parametric analyses were conducted using simplified models designed to study specific aspects related to the site effects of the Denis-Perron dam. The results obtained indicate that the valley shape, impedance contrast, frequency content, and solicitation orientation are the parameters that have the most influence on the site effects. These results illustrate the importance of site effects for the studied valley-dam system, but they also emphasise some limitations surrounding the performance of 2D and 3D dynamic analyses for such a system. Further, in accordance with literature, they show that the ratio of the maximum height of a dam to its crest length and the valley shape strongly affect its dynamic response. After the models were refined to better reflect dam conditions, they were validated based on seismological data. Signals from the strongest 1999 earthquake were used to verify and validate these advanced models from simulation results in both time and frequency domains and conclude that deconvolution is not required to fit the signals at the base of the models. Dynamic analyses based on an earthquake of higher intensity (0.3 g), representative of the seismicity of eastern Canada, were conducted, from which the dynamic phenomena and their impacts on the stability and permanent displacements of the Denis Perron dam were extrapolated and predicted.
|
155 |
Méthodologie d'analyse thermique multi niveaux de systèmes électroniques par des modèles compactsMartins, Olivier 09 December 2010 (has links) (PDF)
Au cours de ces dernières années, la taille des transistors a diminué considérablement permettant ainsi de réduire la taille des composants et de multiplier le nombre de composants dans un système. Cette condensation des transistors avec la montée en fréquence des circuits est à l'origine d'une augmentation drastique de la densité de puissance et d'une élévation importante de la température du composant, dommageable pour les performances de celui-ci. Le but de ces travaux de thèse est de proposer une méthodologie de génération de modèles thermiques, légers (rapidement simulables) et indépendants des conditions aux limites, de systèmes électroniques complexes. Cette méthodologie permet de décomposer un système complexe en sous-éléments, de construire un modèle léger de chaque élément et de les reconnecter afin de recomposer le comportement thermique du système global. La méthodologie permet d'effectuer une analyse thermique du système tôt dans le processus de conception d'un système et offre de nombreux avantages par rapport aux modèles existants.
|
156 |
Une tentative d'unification et de résolution des problèmes de modélisation et d'optimisation dans les systèmes hospitaliers . Application au nouvel hôpital EstaingRodier, Sophie 15 July 2010 (has links) (PDF)
L'objectif de cette thèse est d'étudier les problèmes de simulation et d'aide à la décision pour la gestion et le pilotage des systèmes hospitaliers (plateaux médico-techniques, unité de soins, services d' urgence ...). Cette problématique est très importante et fait l'objet depuis quelques années de travaux de recherche dans des laboratoires. A l'heure actuelle, les approches proposées sont des approches prédictives et s'inspirent des méthodes mises en oeuvre dans les systèmes industriels. Il apparaît indispensable de proposer des approches réactives permettant un suivi quasiment en temps réel des systèmes. Le sujet proposé concerne la modélisation des différents types de flux (patients, personnels, matériels, ...) et de leurs interactions et l'évaluation d'indicateurs de performance à définir. Il s'agit donc d'étudier la classe (le domaine) des systèmes et de proposer une méthodologie de simulation et d'aide à la décision pour la gestion et le pilotage. Cette problématique est étudiée dans le cadre du projet NHE (Nouvel hôpital Estaing) à Clermont-Ferrand et s'intéresse plus particulièrement à la conception de modèles génériques des différentes classes de systèmes, à la définition d'indicateurs de performance et à la conception et mise en oeuvre d'outils d'aide à la décision pour les managers hospitaliers (directeur, chef de servive, médecin, cadre de santé ...)
|
157 |
Modélisation pour la gestion de modèlesDinh, Thi Lan Anh January 2007 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
|
158 |
Approche multi-agent pour la multi-modélisation et le couplage de simulations : application à l'étude des influences entre le fonctionnement des réseaux ambiants et le comportement de leurs utilisateurs / A multiagent approach for multimodeling and simulation coupling : Application to ubiquitous networksSiebert, Julien 09 September 2011 (has links)
Ce travail de thèse, mené sur deux thématiques : les réseaux ambiants et la simulation multi-agent, a pour contexte l'étude des interactions entre le fonctionnement des réseaux ambiants (réseaux pair-à-pair et réseaux mobiles ad hoc networks) et les comportements de leurs usagers (mobilité, partage d'un service, etc.). Pour étudier ces phénomènes, nous avons mis en lumière le besoin de réutiliser, de coupler et de faire interagir des outils de modélisation et de simulation provenant de domaines scientifiques différents (réseaux informatiques, simulations sociales) afin d'intégrer simultanément plusieurs niveaux d'abstraction dans l'étude menée. Cette problématique de réutilisation et de couplage de modèles (la multi-modélisation) et de simulation (interopérabilité de simulateurs) n'est pas propre aux seuls réseaux ambiants et celle-ci s'inscrit dans le domaine plus vaste de l'étude des systèmes complexes.Cette thèse se propose d'aborder les questions de réutilisation et de couplage des outils de modélisation et de simulation sous l'angle des systèmes multi-agents et d'inscrire les solutions à la fois d'ingénierie logicielle, de simulation distribuée, de multi-modélisation dans un cadre multi-agent générique et homogène : le méta-modèle AA4MM. L'idée fondatrice est de créer une société de modèles, de simulateurs et de logiciels de simulation (que l'on nommera blocs MSL) afin d'intégrer plusieurs niveaux d'abstraction dans une même modélisation et simulation. AA4MM propose une approche multi-agent homogène qui permet de facilement réutiliser des blocs MSL, de les rendre interopérable et de les coupler de manière modulaire. AA4MM permet également au modélisateur de clairement spécifier les changements d'échelles. AA4MM propose une méthode de simulation totalement décentralisée. Au niveau des aspects théoriques du méta-modèle AA4MM, nous avons proposé une preuve formelle de l'algorithme de simulation décentralisée. Nous avons également appliqué AA4MM à un cas d'étude pédagogique en couplant ensemble plusieurs instances de NetLogo (un outil de simulation répandu). Nous avons également appliqué AA4MM aux réseaux ambiants et à notre question initiale sur les influences mutuelles entre performances du réseau et comportements des usagers. Dans ce contexte, nous avons pu réutiliser des simulateurs existants qui n'étaient pas prévus pour interagir afin d'aborder les phénomènes d'influences mutuelles entre performances des réseaux et comportements de leurs usagers. / This work has been done between the fields of ubiquitous networks and multi-agent based simulation. The main context is to study mutual influences existing between ubiquitous network performances and their users behaviours. We have highlighted the need for reusing and coupling modelling and simulation softwares together in order to simultaneously integrate several abstraction levels in the study. We target those needs by a multiagent approach and we propose a metamodel : AA4MM. The core idea in AA4MM is to build a society of models, simulators and simulation softwares that solves the core challenges of multimodelling and simulation coupling in an homogeneous perspective. AA4MM major contributions are the possibility to easily reuse, to make interoperable and modular existing heterogeneous models and softwares, to manage scale changes and a simulation algorithm fully decentralized. We apply this metamodel to the field of ubiquitous networks in order to target the question of mutual influences between networks performances and users behaviours.
|
159 |
Interprétation structurale et équilibre mécanique : La calcul à la rupture appliqué aux chaînes d'avant-pays. Cas du Jura. / Structural interpretation and mechanical equilibrium : the Limit Analysis applied to fold-and-thrust belts. The Jura case.Caër, Typhaine 13 September 2016 (has links)
Les chaînes plissées d'avant-pays sont des objets géologiques qui se forment dans un contexte compressif et représentent la partie externe des orogènes.Elles sont composées de nombreuses structures plissées associées à des chevauchements généralement enracinés au sein d'un niveau de décollement peu profond situé dans la partie basale de la couverture sédimentaire. Ces objets géologiques ont été beaucoup étudiés au XXème siècle.Ils ont été modélisés cinématiquement, analogiquement et mécaniquement.S’il est indispensable de tenir compte de l’aspect mécanique en géologie structurale, les modèles mécaniques restent cependant trop peu utilisés par le géologue structuraliste.L'objectif de cette thèse est de montrer comment apporter des contraintes mécaniques à l'étude des structures géologiques, grâce à une théorie mécanique facilement utilisable en géologie structurale.Cette théorie, le calcul à la rupture (Limit Analysis), représente en effet un bon intermédiaire entre les modèles cinématiques et les modèles mécaniques en éléments finis, très complets mais relativement complexes d'utilisation.Nous étudions ici des exemples appartenant à la chaîne plissée d’avant-pays du Jura et utilisons les logiciels Optum G2 et SLAMTec.Nous procédons alors selon deux approches. La première approche, présentée en première partie de ce manuscrit consiste à étudier la déformation passée.Nous nous focalisons sur la région de Saint-Ursanne dans le Nord-Est du Jura, en Suisse et réalisons dans un premier temps une coupe géologique d'une structure que nous étendons ensuite en 3D via une série de coupes balayant l'ensemble de la zone d'étude.Pour réaliser ces coupes nous utilisons à la fois des principes d’équilibrage cinématique, des modélisations mécaniques par calcul à la rupture et des modélisations analogiques en boîte à sable.Nous montrons ainsi l’importance de l’héritage tectonique sur la mise en place des structures de cette région et modélisons mécaniquement l’influence d’un décalage du niveau de décollement par une faille normale héritée, lors d’un épisode compressif ultérieur.Nous montrons alors que ce décalage représente un générateur de failles ainsi qu’un point d’accroche qui ralenti la propagation du front de déformation, contrôlant par ailleurs la direction de la structure qui se développera.Nous montrons également que la topographie joue un rôle majeur dans la mise en place des structures géologiques.Dans la deuxième partie du manuscrit nous abordons une seconde approche qui consiste à étudier la déformation actuelle.Nous changeons cette fois-ci d’échelle pour nous intéresser à la tectonique actuelle de l’ensemble du Jura.Nos modélisations prédisent que cette chaîne plissée, formée par une tectonique de couverture, est aujourd’hui partiellement affectée par une tectonique de socle.Alors que la partie ouest du Jura serait toujours affectée par une tectonique de couverture, le socle devrait aujourd’hui être impliqué dans la déformation au niveau de la partie nord-est.Nous montrons cependant qu’une tectonique de socle n’empêche pas l’activation simultanée des niveaux de décollements situés dans la couverture (les évaporites triasiques, dans le cas du Jura).L’intérêt pratique de ces méthodes est illustré par des questions industrielles : le dernier chapitre présente une étude des coupes géologiques d’un terrain d’étude de la Nagra, situé dans l’est du Jura.Nous regardons la réponse mécanique actuelle en compression de l’interprétation structurale proposée.Les outils numériques utilisés dans l’ensemble de ce travail ont, par ailleurs, fait l’objet d’un tutoriel réalisé dans le cadre d’une mission au sein de l’entreprise Total. / Fold-and-thrust-belts form in a compressive geological context and represent the external part of orogens.They are composed of numerous folds and thrusts generally rooted in a shallow décollement level located in the basal part of the sedimentary cover.These belts have been studied extensively during the XX century. They have been modeled kinematically, analogically and mechanically.The mechanical aspect of deformation must be taken into account in structural geology, but yet, mechanical models remain underused by the structural geologist.The objective of this thesis is to show how to bring mechanical constraints to the study of geological structures with a mechanical theory easily usable in structural geology, the Limit Analysis.This theory represents a good compromise between the kinematic models and the finite element mechanical models, very complete but relatively complicated to use.We study here examples from the Jura fold-and-thrust belt and use the softwares Optum G2 and SLAMTec.We proceed with two different approaches.The first one is presented in the first part of this manuscript and consists in studying the past deformation.We focus on Saint-Ursanne area, in the North-East Switzerland Jura.We construct first a 2D geological cross section of the Mont Terri structure and then we extend this work in 3D by a series of cross sections that scan the whole Saint Ursanne area.These cross-sections are drawn using kinematical rules, mechanical modeling with Limit Analysis and analog sandbox modeling.We show the importance of the tectonic inheritance on the onset of structures in the studied region and we mechanically model the influence of a décollement offset due to an inherited normal fault during a subsequent compressive episode.We show that this offset represents a “fault generator” and a catching point that slows the propagation of the deformation front and furthermore controls the orientation of the structure that develops.We also show that the topography plays a major role in the establishment of geological structures.In the second part of the manuscript we follow a second approach that consists in studying the current deformation.We change of scale and study the current tectonics of the entire Jura.Our models predict that this belt, formed in thin-skin tectonics, is currently partially affected by thick-skin tectonics.The western Jura would be still affected by a thin-skin tectonics, but the basement should be involved in the deformation in the north-east Jura.However, we show that a thick-skin tectonics does not preclude the simultaneous activation of the shallower décollements contained by the sedimentary cover (Triassic evaporites, in the Jura).Practical interest of these methods is illustrated by industrial questions: the last chapter presents a study of geological cross-sections from a studied area of Nagra in the eastern Jura.We look at the current mechanical answer under compression of the proposed structural interpretations.The numerical tools used in this work have been the subject of a tutorial made during a mission at Total company.
|
160 |
Understanding complex systems through computational modeling and simulation / Comprendre les systèmes complexes par la modélisation et la simulation computationnellesLe, Xuan Tuan 18 January 2017 (has links)
Les approches de simulation classiques ne sont en général pas adaptées pour traiter les aspects de complexité que présentent les systèmes complexes tels que l'émergence ou l'adaptation. Dans cette thèse, l'auteur s'appuie sur ses travaux menés dans le cadre d'un projet de simulation sur l’épidémie de grippe en France associée à des interventions sur une population en considérant le phénomène étudié comme un processus diffusif sur un réseau complexe d'individus, l'originalité réside dans le fait que la population y est considérée comme un système réactif. La modélisation de tels systèmes nécessite de spécifier explicitement le comportement des individus et les réactions de ceux-cis tout en produisant un modèle informatique qui doit être à la fois flexible et réutilisable. Les diagrammes d'états sont proposés comme une approche de programmation reposant sur une modélisation validée par l'expertise. Ils correspondent également à une spécification du code informatique désormais disponibles dans les outils logiciels de programmation agent. L'approche agent de type bottom-up permet d'obtenir des simulations de scénario "what-if" où le déroulement des actions peut nécessiter que les agents s'adaptent aux changements de contexte. Cette thèse propose également l'apprentissage pour un agent par l'emploi d'arbre de décision afin d'apporter flexibilité et lisibilité pour la définition du modèle de comportement des agents et une prise de décision adaptée au cours de la simulation. Notre approche de modélisation computationnelle est complémentaire aux approches traditionnelles et peut se révéler indispensable pour garantir une approche pluridisciplinaire validable par l'expertise. / Traditional approaches are not sufficient, and sometimes impossible in dealing with complexity issues such as emergence, self-organization, evolution and adaptation of complex systems. As illustrated in this thesis by the practical work of the author in a real-life project, the spreading of infectious disease as well as interventions could be considered as difusion processes on complex networks of heterogeneous individuals in a society which is considered as a reactive system. Modeling of this system requires explicitly specifying of each individual’s behaviors and (re)actions, and transforming them into computational model which has to be flexible, reusable, and ease of coding. Statechart, typical for model-based programming, is a good solution that the thesis proposes. Bottom-up agent based simulation finds emergence episodes in what-if scenarios that change rules governing agent’s behaviors that requires agents to learn to adapt with these changes. Decision tree learning is proposed to bring more flexibility and legibility in modeling of agent’s autonomous decision making during simulation runtime. Our proposition for computational models such as agent based models are complementary to traditional ones, and in some case they are unique solutions due to legal, ethical issues.
|
Page generated in 0.0921 seconds