• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 56
  • 15
  • 9
  • Tagged with
  • 80
  • 30
  • 20
  • 17
  • 16
  • 16
  • 15
  • 15
  • 15
  • 13
  • 12
  • 12
  • 11
  • 11
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Méthodologies et Outils pour l'évaluation des Protocoles de Transport dans le contexte des réseaux très haut débit

Guillier, Romaric 29 October 2009 (has links) (PDF)
Au cours des vingt dernières années, c'est une évolution très rapide non seulement en termes de nombre d'éléments inter-connectés mais surtout en termes de capacités des liens qui a pu être constatée au sein des réseaux de communications. A la création du réseau ARPANET en 1969, il y a plus de quarante ans, quatre ordinateurs, tous situés aux États-Unis étaient connectés avec des liens avec un débit de 50 kilobits par seconde. En 1986, à la création du réseau des universités américaines, le NSFNET, le nombre de machines dépassait déjà plusieurs milliers mais le débit des liens de coeur était encore de 56 kilobits par seconde. A partir de ce moment, la croissance à la fois en termes de nombre d'éléments inter-connectés et de capacités des liens a été exponentielle, grâce au succès de nouvelles applications populaires comme le WWW ou les avancées technologiques comme SDH, SONET ou DWDM dans le domaine des réseaux de fibres optiques et ATM et les protocoles DSL qui en dérivent. L'Internet actuel interconnecte des milliards d'utilisateurs (un demi-milliard de machines fin 2006) répartis partout dans le monde, pouvant utiliser des liens de coeur dont les débits cumulés sont supérieurs à plusieurs Térabits par seconde et dont les liens d'accès peuvent atteindre jusqu'à 10 Gigabits par seconde. Une autre évolution technologique fondamentale est que, aujourd'hui, certains liens d'accès ont des débits du même ordre de grandeur que les débits des liens de coeur auxquels ils sont connectés. Il est aujourd'hui courant de trouver des fermes de serveurs où les noeuds sont interconnectés avec des liens à 1 Gbps ou 10 Gbps et qui ont une connexion vers l'extérieur avec un débit similaire. Cette modification est importante car désormais quelques connexions suffisent à provoquer une saturation des liens de coeur. Cette situation risque d'empirer au fur et à mesure du remplacement des technologies DSL par la Fibre-Jusqu'à-La-Maison (FTTH). Des connexions à 5 Mbps agrégées sur des liens OC48 (2.5 Gbps) vont alors être remplacées par des connexions à 100 Mbps, voire 1 Gbps, agrégées sur des liens à 10 Gbps, voire moins suivant la technologie optique utilisée sur le réseau d'accès. Il est fort probable que dans de tels environnements des niveaux de congestion élevés ne soient pas rares, engendrant des perturbations pour de nombreuses applications. Un grand nombre d'applications prometteuses ont émergé et pourraient bénéficier de capacités de communication accrues, comme par exemple la Vidéo-à-la-Demande (VoD) qui permet aux utilisateurs de regarder des films en haute définition chez eux quand ils le désirent ou les expériences scientifiques générant des quantités massives de données (comme le LHC) qui doivent être acheminées dans des centres de calcul répartis tout autour du globe. L'interaction d'utilisateurs avec des objets distants via un réseau de communication ou Téléprésence commence également à prendre un rôle prépondérant dans de nombreux domaines allant du médical au militaire en passant par l'exploration spatiale. Mais ces applications sont encore construites au dessus de logiciels ou de protocoles à succès comme TCP et IP, conçus il y a longtemps pour un contexte de réseaux bas-débit. Le conception était dirigé par un but principal: fournir une interconnexion robuste entre des réseaux existants. Plongés maintenant dans un contexte de réseaux très haut-débit, ces protocoles extrêmement robustes et capables de passer à l'échelle sont toujours en activité mais commencent à montrer leurs limites en termes de performance, sécurité, fonctionnalités et flexibilité. L'exemple le plus typique est TCP au niveau de la couche de transport. TCP a été conçu comme un protocole ``à tout faire'' mais à mesure que la capacité des liens augmente dans les réseaux fixes, que les caractéristiques intrinsèques changent pour les réseaux sans fils et que les besoins des applications divergent, TCP n'est plus capable de permettre une utilisation performante pour tous des capacités nominales des liens du réseau. De nombreuses solutions ont été proposées, mais les concepteurs de protocoles d'aujourd'hui ont un large désavantage par rapport à ceux d'il y a quarante ans. Faire fonctionner ensemble quatre machines identiques n'est pas exactement pareil que concevoir un logiciel de communication ou protocole susceptible d'être utilisé entre des milliards de machines hétérogènes. Apporter du changement dans un système d'une telle ampleur est problématique: il n'est pas possible d'envisager une migration massive du jour au lendemain surtout si des équipements physiques sont concernés. Le changement ne peut être que graduel et via des mises à jour logicielles dans les hôtes d'extrémité. La peur d'un effondrement de l'Internet dû à la congestion comme à la fin des années 80 resurgit. Causés par une surabondance de trafic réseau sur des liens saturés, ces troubles ont mis en avant la nécessité d'introduire un mécanisme de contrôle de congestion dans les protocoles de transport. Si les nouvelles solutions introduites se comportent de façon égoïste quand elles partagent une ressource commune (un lien), alors cette peur est fondée. Il est donc nécessaire de fournir des moyens de vérifier si une solution donnée possède les propriétés adéquates avant de l'introduire dans un système partagé à très large échelle.
42

Automates cellulaires : un modèle de complexités

Theyssier, Guillaume 14 December 2005 (has links) (PDF)
Nous étudions le modèle des automates cellulaires en adoptant successivement deux points de vue --celui des représentations syntaxiques locales puis celui des dynamiques globales-- et en cherchant à établir des liens entre eux par différentes approches ou outils --algébrique, combinatoire, et de la théorie de la calculabilité. Au cours de notre étude de la structure des règles de transition locales, nous introduisons une nouvelle classe d'automates (appelés automates cellulaires captifs) définie par une contrainte locale très simple. Nous établissons une loi 0-1 sur cette classe qui a pour corollaire que presque tous les automates cellulaires captifs sont intrinsèquement universels. En revanche, nous montrons qu'il est indécidable de savoir si un automate cellulaire captif est intrinsèquement universel ou pas. Dans une seconde partie, nous poursuivons l'étude des automates cellulaires en cherchant au contraire à nous affranchir le plus possible de leur représentation syntaxique pour insister sur leurs propriétés dynamiques globales. Notre problématique devient celle de la classification et de l'étude de notions de complexité selon ce point de vue global. L'outil fondamental est celui de simulation. Nous étendons les résultats de N. Ollinger sur les structures de pré-ordre (nouvelles relations de simulations et nouvelles propriétés induisant des structures d'idéal ou de filtre) et étudions également l'effet du produit cartésien sur ces structures. Nous établissons une construction qui peut s'interpréter comme un produit cartésien limite et nous permet d'exhiber des chaînes infinies croissantes de longueur omega+omega dans l'un des pré-ordres étudiés. Enfin, nous nous intéressons aux dynamiques séquentielles et aux automates cellulaires universels pour le calcul Turing. Nous construisons un treillis infini d'automates cellulaires Turing-universels qui sont tous à distance infinie de tout automate cellulaire intrinsèquement universel.
43

Modélisation et estimation des processus de dégradation avec application en fiabilité des structures

Chiquet, Julien 21 June 2007 (has links) (PDF)
Nous décrivons le niveau de dégradation caractéristique d'une structure à l'aide d'un processus stochastique appelé processus de dégradation. La dynamique de ce processus est modélisée par un système différentiel à environnement markovien.<br /><br />Nous étudions la fiabilité du système en considérant la défaillance de la structure lorsque le processus de dégradation dépasse un seuil fixe. Nous obtenons la fiabilité théorique à l'aide de la théorie du renouvellement markovien.<br /><br />Puis, nous proposons une procédure d'estimation des paramètres des processus aléatoires du système différentiel. Les méthodes d'estimation et les résultats théoriques de la fiabilité, ainsi que les algorithmes de calcul associés, sont validés sur des données simulés.<br /><br />Notre méthode est appliquée à la modélisation d'un mécanisme réel de dégradation, la propagation des fissures, pour lequel nous disposons d'un jeu de données expérimental.
44

Développement et validation expérimentale d'un outil de détermination de la dose hors-champ en radiothérapie

Bessières, Igor 15 February 2013 (has links) (PDF)
Depuis deux décennies, les nombreux développements des techniques de radiothérapie par modulation d'intensité (RCMI) ont permis de mieux conformer la dose au volume cible et ainsi, d'augmenter les taux de réussite des traitements des cancers. Ces techniques ont souvent l'avantage de réduire la dose aux organes à risque proches de la zone traitée, mais elles ont l'inconvénient d'apporter un niveau de dose périphérique plus important que les techniques basiques sans modulation d'intensité. Dans ce contexte, l'augmentation du taux de survie des patients qui en résulte, accroît également la probabilité de manifestation d'effets iatrogènes dus aux doses périphériques (tels que les cancers secondaires). Aujourd'hui, la dose périphérique n'est pas considérée lors de la planification du traitement et il n'existe aucun outil numérique fiable pour sa prédiction. Il devient cependant indispensable de prendre en compte le dépôt de dose périphérique lors de la planification du traitement, notamment dans les cas pédiatriques. Cette étude doctorale a permis la réalisation de plusieurs étapes du développement d'un outil numérique, précis et rapide, de prédiction de la dose hors-champ fondé sur le code Monte Carlo PENELOPE. Dans cet objectif, nous avons démontré la capacité du code PENELOPE à estimer la dose périphérique en comparant ses résultats avec des mesures de référence réalisées à partir de deux configurations expérimentales (métrologique et pré-clinique). Ces travaux expérimentaux ont notamment permis la mise en place d'un protocole d'utilisation des dosimètres OSL pour la mesure des faibles doses. En parallèle, nous avons pu mettre en évidence la convergence lente et rédhibitoire du calcul en vue d'une utilisation clinique. Par conséquent nous avons réalisé un travail d'accélération du code en implémentant une nouvelle technique de réduction de variance appelée transport pseudo-déterministe spécifiquement dédiée à l'amélioration de la convergence dans des zones lointaines du faisceau principal. Ces travaux ont permis d'améliorer l'efficacité des estimations dans les deux configurations de validation définies (gain d'un facteur 20) pour atteindre des temps de calcul raisonnables pour une application clinique. Des travaux d'optimisation du code restent à entreprendre de façon à améliorer encore la convergence de l'outil pour ensuite en envisager une utilisation clinique.
45

Optimisation de gammes : application à la conception des machines synchrones à concentration de flux

Sesanga, N'tshuika 25 March 2011 (has links) (PDF)
Les travaux de cette thèse portent sur l'optimisation de gammes dans laconception des machines synchrones à concentration de flux. Dans un premier temps, unmodèle de dimensionnement multi physique dédié à l'optimisation a été développé pourchaque machine retenue pour cette étude. Un modèle analytique pour la structure à bobinagereparti et un modèle semi-analytique à base de réseaux de réluctances pour la machineà bobinage sur dents. Dans un second temps, nous avons validé nos modèles par comparaisonavec des essais expérimentaux. L'aspect gamme de notre étude nous a contraints à fairecette validation sur différentes machines et pour différents points de fonctionnement. Unepremière phase d'optimisation classique, réalisée grâce au couplage de nos modèles avec uneméthode déterministe à base de gradient a montré la possibilité d'optimiser nos machines.Une démarche originale d'optimisation de gammes basée sur le partage des composants aété mise au point. Son application sur une série de machines a montré que la discrétisationoptimale de tôles dans un diamètre donné est fonction de la vitesse des machines.
46

Analyse et optimisation de la fiabilité d'un équipement opto-électrique équipé de HUMS

Baysse, Camille 07 November 2013 (has links) (PDF)
Dans le cadre de l'optimisation de la fiabilité, Thales Optronique intègre désormais dans ses équipements, des systèmes d'observation de leur état de fonctionnement. Cette fonction est réalisée par des HUMS (Health & Usage Monitoring System). L'objectif de cette thèse est de mettre en place dans le HUMS, un programme capable d'évaluer l'état du système, de détecter les dérives de fonctionnement, d'optimiser les opérations de maintenance et d'évaluer les risques d'échec d'une mission, en combinant les procédés de traitement des données opérationnelles (collectées sur chaque appareil grâce au HUMS) et prévisionnelles (issues des analyses de fiabilité et des coûts de maintenance, de réparation et d'immobilisation). Trois algorithmes ont été développés. Le premier, basé sur un modèle de chaînes de Markov cachées, permet à partir de données opérationnelles, d'estimer à chaque instant l'état du système, et ainsi, de détecter un mode de fonctionnement dégradé de l'équipement (diagnostic). Le deuxième algorithme permet de proposer une stratégie de maintenance optimale et dynamique. Il consiste à rechercher le meilleur instant pour réaliser une maintenance, en fonction de l'état estimé de l'équipement. Cet algorithme s'appuie sur une modélisation du système, par un processus Markovien déterministe par morceaux (noté PDMP) et sur l'utilisation du principe d'arrêt optimal. La date de maintenance est déterminée à partir des données opérationnelles, prévisionnelles et de l'état estimé du système (pronostic). Quant au troisième algorithme, il consiste à déterminer un risque d'échec de mission et permet de comparer les risques encourus suivant la politique de maintenance choisie.Ce travail de recherche, développé à partir d'outils sophistiqués de probabilités théoriques et numériques, a permis de définir un protocole de maintenance conditionnelle à l'état estimé du système, afin d'améliorer la stratégie de maintenance, la disponibilité des équipements au meilleur coût, la satisfaction des clients et de réduire les coûts d'exploitation.
47

Développement d'une nouvelle modélisation de la loi de choc dans les codes de transport neutronique multigroupes / A new modelling of the multigroup scattering cross section in deterministic codes for neutron transport.

Calloo, Ansar 10 October 2012 (has links)
Dans le cadre de la conception des réacteurs, les schémas de calculs utilisant des codes de cal- culs neutroniques déterministes sont validés par rapport à un calcul stochastique de référence. Les biais résiduels sont dus aux approximations et modélisations (modèle d'autoprotection, développement en polynômes de Legendre des lois de choc) qui sont mises en oeuvre pour représenter les phénomènes physiques (absorption résonnante, anisotropie de diffusion respec- tivement). Ce document se penche sur la question de la pertinence de la modélisation de la loi de choc sur une base polynômiale tronquée. Les polynômes de Legendre sont utilisés pour représenter la section de transfert multigroupe dans les codes déterministes or ces polynômes modélisent mal la forme très piquée de ces sections, surtout dans le cadre des maillages énergétiques fins et pour les noyaux légers. Par ailleurs, cette représentation introduit aussi des valeurs négatives qui n'ont pas de sens physique. Dans ce travail, après une brève description des lois de chocs, les limites des méthodes actuelles sont démontrées. Une modélisation de la loi de choc par une fonction constante par morceaux qui pallie à ces insuffisances, a été retenue. Cette dernière nécessite une autre mod- élisation de la source de transfert, donc une modification de la méthode actuelle des ordonnées discrètes pour résoudre l'équation du transport. La méthode de volumes finis en angle a donc été développée et implantée dans l'environ- nement du solveur Sn Snatch, la plateforme Paris. Il a été vérifié que ses performances étaient similaires à la méthode collocative habituelle pour des sections représentées par des polynômes de Legendre. Par rapport à cette dernière, elle offre l'avantage de traiter les deux représenta- tions des sections de transferts multigroupes : polynômes de Legendre et fonctions constantes par morceaux. Dans le cadre des calculs des réacteurs, cette méthode mixte a été validée sur différents motifs : des cellules en réseau infini, des motifs hétérogènes et un calcul de réflecteur. Les principaux résultats sont : - un développement polynômial à l'ordre P 3 est suffisant par rapport aux biais résiduels dus aux autres modélisations (autoprotection, méthode de résolution spatiale). Cette modéli- sation est convergée au sens de l'anisotropie du choc sur les cas représentatifs des réacteurs à eau légère. - la correction de transport P 0c n'est pas adaptée, notamment sur les calculs d'absorbant B4 C. / In reactor physics, calculation schemes with deterministic codes are validated with respect to a reference Monte Carlo code. The remaining biases are attributed to the approximations and models induced by the multigroup theory (self-shielding models and expansion of the scattering law using Legendre polynomials) to represent physical phenomena (resonant absorption and scattering anisotropy respectively). This work focuses on the relevance of a polynomial expansion to model the scattering law. Since the outset of reactor physics, the latter has been expanded on a truncated Legendre polynomial basis. However, the transfer cross sections are highly anisotropic, with non-zero values for a very small range of the cosine of the scattering angle. Besides, the finer the energy mesh and the lighter the scattering nucleus, the more exacerbated is the peaked shape of this cross section. As such, the Legendre expansion is less suited to represent the scattering law. Furthermore, this model induces negative values which are non-physical. In this work, various scattering laws are briefly described and the limitations of the existing model are pointed out. Hence, piecewise-constant functions have been used to represent the multigroup scattering cross section. This representation requires a different model for the dif- fusion source. The discrete ordinates method which is widely employed to solve the transport equation has been adapted. Thus, the finite volume method for angular discretisation has been developed and imple- mented in Paris environment which hosts the Sn solver, Snatch. The angular finite volume method has been compared to the collocation method with Legendre moments to ensure its proper performance. Moreover, unlike the latter, this method is adapted for both the Legendre moments and the piecewise-constant functions representations of the scattering cross section. This hybrid-source method has been validated for different cases: fuel cell in infinite lattice, heterogeneous clusters and 1D core-reflector calculations. The main results are given below : - a P 3 expansion is sufficient to model the scattering law with respect to the biases due to the other approximations used for calculations (self-shielding, spatial resolution method). This order of expansion is converged for anisotropy representation in the modelling of light water reactors. - the transport correction, P 0c is not suited for calculations, especially for B4 C absorbant.
48

Méthodes d'accès basées sur le codage réseau couche physique / Access methods based on physical layer network coding

BUI, Huyen Chi 28 November 2012 (has links)
Dans le domaine des réseaux satellitaires, l'apparition de terminaux interactifs à bas-prix nécessite le développement et la mise en œuvre de protocoles d'accès multiple capables de supporter différents profils d'utilisateurs. En particulier, l'Agence Spatiale Européenne (ESA) et le centre d'étude spatial allemand (DLR) ont récemment proposé des protocoles d'accès aléatoires basés sur le codage réseau couche physique et l'élimination itérative des interférences pour résoudre en partie le problème de collisions sur une voie de retour du type Slotted ALOHA. C'est dans ce contexte que s'inscrit cette thèse qui vise à fournir une amélioration dans des méthodes d'accès aléatoires existantes. Nous introduisons Multi-Slot Coded Aloha (MuSCA) comme une nouvelle généralisation of CRDSA. Au lieu de transmettre des copies du même paquet, l'émetteur envoie plusieurs parties d'un mot de code d'un code correcteur d'erreurs ; chaque partie étant précédée d'un entête permettant de localiser les autres parties du mot de code. Au niveau du récepteur, toutes les parties envoyées par le même utilisateur, y compris celles qui sont interférées par d'autres signaux, participent au décodage. Le signal décodé est ensuite soustrait du signal total. Ainsi, l'interférence globale est réduite et les signaux restant ont plus de chances d'être décodés. Plusieurs méthodes d'analyse de performance basées sur des concepts théoriques (calcul de capacité, évolution des densités) et sur des simulations sont proposées. Les résultats obtenus montrent un gain très significatif de débit global comparé aux méthodes d'accès existantes. Ce gain peut encore être augmenté en variant le taux de découpe des mots de code. En modifiant certains de ces concepts, nous proposons également une application du codage réseau couche physique basée sur la superposition de modulations pour l'accès déterministe à la voie retour des communications par satellite. Une amélioration du débit est aussi obtenue par rapport à des stratégies plus classiques de multiplexage temporal. / In the domain of satellite networks, the emergence of low-cost interactive terminals motivates the need to develop and implement multiple access protocols able to support different user profiles. In particular, the European Space Agency (ESA) and the German Aerospace Center (DLR) have recently proposed random access protocols such as Contention Resolution Diversity Coded ALOHA (CRDSA) and Irregular Repetition Slotted ALOHA (IRSA). These methods are based on physical-layer network coding and successive interference cancellation in order to attempt to solve the collisions problem on a return channel of type Slotted ALOHA.This thesis aims to provide improvements of existing random access methods. We introduce Multi-Slot Coded Aloha (MuSCA) as a new generalization of CRDSA. Instead of transmitting copies of the same packet, the transmitter sends several parts of a codeword of an error-correcting code ; each part is preceded by a header allowing to locate the other parts of the codeword. At the receiver side, all parts transmitted by the same user, including those are interfered by other signals, are involved in the decoding. The decoded signal is then subtracted from the total signal. Thus, the overall interference is reduced and the remaining signals are more likely to be decoded. Several methods of performance analysis based on theoretical concepts (capacity computation, density evolution) and simulations are proposed. The results obtained show a significant gain in terms of throughput compared to existing access methods. This gain can be even more increased by varying the codewords stamping rate. Following these concepts, we also propose an application of physical-layer network coding based on the superposition modulation for a deterministic access on a return channel of satellite communications. We observe a gain in terms of throughput compared to more conventional strategies such as the time division multiplexing.
49

Modélisation hydrologique déterministe pour les systèmes d'aide à la décision en temps réel : application au bassin versant Var, France / Deterministic hydrological modelling for real time decision support systems : application to the Var catchment, France

Ma, Qiang 14 March 2018 (has links)
Les ressources en eau sont généralement considérées comme l'une des ressources naturelles les plus importantes du développement social, en particulier pour soutenir les usages domestiques, agricoles et industriels. Au cours de la dernière décennie, en raison de l'augmentation des activités humaines, telles que l'urbanisation et l'industrialisation, les impacts sociaux sur l'environnement naturel deviennent de plus en plus intenses. Par conséquent, de nos jours, les problèmes d'eau par rapport à avant deviennent plus compliqués. Pour faire face au problème complexe depuis les années 1970, les gens ont reconnu que le système d'aide à la décision (DSS) présente des avantages évidents. De plus, avec le développement de l'informatique et des techniques web, les DSS sont souvent utilisés pour appuyer la décision locale. Les décideurs pour gérer les ressources naturelles de la région en particulier les ressources en eau. La modélisation hydrologique en charge de la représentation des caractéristiques du bassin versant joue un rôle important dans le système d'aide à la décision environnementale (EDSS). Parmi les différents types de modèles, le modèle hydrologique distribué déterministe est capable de décrire l'état réel de la zone d'étude de manière plus détaillée et précise. Cependant, le seul obstacle à la limitation des applications de ce type de modèle est pointé vers le grand besoin de données demandé par sa configuration de modélisation. Dans cette étude d'évaluation de la modélisation hydrologique dans le projet AquaVar, un modèle distribué déterministe (MIKE SHE) est construit pour l'ensemble du bassin versant du Var avec moins d'informations de terrain disponibles dans la zone. Grâce à une stratégie de modélisation raisonnable, plusieurs hypothèses sont conçues pour résoudre les problèmes de données manquantes dans les intervalles de temps quotidiens et horaires. La simulation est étalonnée sur une échelle de temps quotidienne et horaire de 2008 à 2011, qui contient un événement de crue extrême en 2011. En raison des impacts des données manquantes sur les entrées et les observations du modèle, l'évaluation de l'étalonnage de la modélisation n'est pas seulement basée sur des coefficients statistiques tels que le coefficient de Nash, mais aussi des facteurs physiques (p. ex. valeurs maximales et débit total). Le modèle calibré est capable de décrire les conditions habituelles du système hydrologique varois, et représente également le phénomène inhabituel dans le bassin versant tel que les inondations et les sécheresses. Le processus de validation mis en œuvre de 2011 à 2014 dans l'intervalle de temps journalier et horaire confirme la bonne performance de la simulation dans le Var. La simulation MIKE SHE dans Var est l'une des parties principales du système de modélisation distribuée déterministe de l'EDSS d'AquaVar. Après l'étalonnage et la validation, le modèle pourrait être utilisé pour prévoir les impacts des événements météorologiques à venir (par exemple, des crues extrêmes) dans cette région et produire les conditions aux limites pour d'autres modèles distribués déterministes dans le système. La conception de l'architecture EDSS, la stratégie de modélisation et le processus d'évaluation de modélisation présentés dans cette recherche pourraient être appliqués comme un processus de travail standard pour résoudre les problèmes similaires dans d'autres régions. / Water resource is commonly considered as one of the most important natural resources in social development especially for supporting domestic, agricultural and industrial uses. During the last decade, due to the increase of human activities, such as urbanization and industrialization, the social impacts on the natural environment become more and more intensive. Therefore, recently, water problems compared to before become more complicated. To deal with the complex problem, since 1970s, started from the companies, people recognized that the Decision Support System (DSS) has obvious advantages Moreover, with the development of computer science and web techniques, the DSS are commonly applied for supporting the local decision makers to manage the region natural resources especially the water resources. The hydrological modelling in charge of representing the catchment characteristics plays significant role in the Environment Decision Support System (EDSS). Among different kinds of models, the deterministic distributed hydrological model is able to describe the real condition of the study area in more detail and accurate way. However, the only obstacle to limit the applications of this kind of model is pointed to the large data requirement requested by its modelling set up. In this study of hydrological modelling assessment in AquaVar project, one deterministic distributed model (MIKE SHE) is built for the whole Var catchment with less field information available in the area. Through one reasonable modelling strategy, several hypothesises are conceived to solve the missing data problems within daily and hourly time intervals. The simulation is calibrated in both daily and hourly time scale from 2008 to 2011, which contains one extreme flood event at 2011. Due to the impacts of missing data on both model inputs and observations, the evaluation of modelling calibration is not only based on the statistic coefficients such as Nash coefficient, but also effected by some physical factors (e.g. peak values and total discharge). The calibrated model is able to describe usual condition of Var hydrological system, and also represent the unusual phenomenon in the catchment such as flood and drought event. The validation process implemented from 2011 to 2014 within both daily and hourly time interval further proves the good performance of the simulation in Var. The MIKE SHE simulation in Var is one of the main parts of the deterministic distributed modelling system in the EDSS of AquaVar. After the calibration and validation, the model could be able to use for forecasting the impacts of coming meteorological events (e.g. extreme flood) in this region and producing the boundary conditions for other deterministic distributed models in the system. The design of the EDSS architecture, modelling strategy and modelling evaluation process presented in this research could be applied as one standard working process for solving the similar problems in other region.
50

Analyse de sensibilité déterministe pour la simulation numérique du transfert de contaminants

Marchand, Estelle 12 December 2007 (has links) (PDF)
Les questions de sûreté et d'incertitudes sont au centre des études de faisabilité pour un site de stockage souterrain de déchets nucléaires, en particulier l'évaluation des incertitudes sur les indicateurs de sûreté qui sont dues aux incertitudes sur les propriétés du sous-sol et des contaminants. L'approche globale par les méthodes probabilistes de type Monte Carlo fournit de bons résultats, mais elle demande un grand nombre de simulations. La méthode déterministe étudiée ici est complémentaire. Reposant sur la décomposition en valeurs singulières de la dérivée du modèle, elle ne donne qu'une information locale, mais elle est beaucoup moins coûteuse en temps de calcul. Le modèle d'écoulement suit la loi de Darcy et le transport des radionucléides autour du site de stockage est modélisé par une équation de diffusion-convection linéaire. Différentiation à la main et différentiation automatique sont comparées sur ces modèles en mode direct et en mode adjoint. Une étude comparée des deux approches probabiliste et déterministe pour l'analyse de la sensibilité des flux de contaminants aux exutoires par rapport aux variations des paramètres d'entrée est menée sur des données réalistes fournies par l'ANDRA. Des outils génériques d'analyse de sensibilité et de couplage de code sont développés en langage Caml. Ils permettent à l'utilisateur de ces plates-formes génériques de ne fournir que la partie spécifique de l'application dans le langage de son choix. Une étude sur les écoulements diphasiques eau/air partiellement saturés en hydrogéologie porte sur les limitations des approximations de Richards et de la formulation en pression globale issue du domaine pétrolier.

Page generated in 0.0613 seconds