• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5992
  • 1675
  • 727
  • 10
  • 5
  • 5
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 8347
  • 2697
  • 2693
  • 1642
  • 1361
  • 1225
  • 866
  • 847
  • 823
  • 646
  • 587
  • 528
  • 514
  • 498
  • 479
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
511

Modélisation de l'architecture des forêts pour améliorer la télédétection des attributs forestiers

Côté, Jean-François January 2010 (has links)
The quality of indirect measurements of canopy structure, from in situ and satellite remote sensing, is based on knowledge of vegetation canopy architecture. Technological advances in ground-based, airborne or satellite remote sensing can now significantly improve the effectiveness of measurement programs on forest resources.The structure of vegetation canopy describes the position, orientation, size and shape of elements of the canopy.The complexity of the canopy in forest environments greatly limits our ability to characterize forest structural attributes. Architectural models have been developed to help the interpretation of canopy structural measurements by remote sensing. Recently, the terrestrial LiDAR systems, or TLiDAR ( Terrestrial Light Detection and Ranging ), are used to gather information on the structure of individual trees or forest stands.The TLiDAR allows the extraction of 3D structural information under the canopy at the centimetre scale.The methodology proposed in my Ph.D. thesis is a strategy to overcome the weakness in the structural sampling of vegetation cover.The main objective of the Ph.D. is to develop an architectural model of vegetation canopy, called L-Architect (LiDAR data to vegetation Architecture ), and to focus on the ability to document forest sites and to get information on canopy structure from remote sensing tools. Specifically, L-Architect reconstructs the architecture of individual conifer trees from TLiDAR data. Quantitative evaluation of L-Architect consisted to investigate (i) the structural consistency of the reconstructed trees and (ii) the radiative coherence by the inclusion of reconstructed trees in a 3D radiative transfer model. Then, a methodology was developed to quasi-automatically reconstruct the structure of individual trees from an optimization algorithm using TLiDAR data and allometric relationships. L-Architect thus provides an explicit link between the range measurements of TLiDAR and structural attributes of individual trees. L-Architect has finally been applied to model the architecture of forest canopy for better characterization of vertical and horizontal structure with airborne LiDAR data. This project provides a mean to answer requests of detailed canopy architectural data, difficult to obtain, to reproduce a variety of forest covers. Because of the importance of architectural models, L-Architect provides a significant contribution for improving the capacity of parameters' inversion in vegetation cover for optical and lidar remote sensing.
512

Analyse vibro-acoustique d'un flasque de transmission continuellement variable de motoneige et conception d'un flasque moins bruyant

Méjane, Jason January 2015 (has links)
Avec des normes très strictes pour limiter les désagréments liés au bruit des véhicules en circulation proche des habitations et des lieux fréquentés, la réduction du bruit généré par les véhicules, et en particulier les véhicules récréatifs, est un élément de conception qui demandent beaucoup d'attention aux constructeurs. Si l'expérimentation est le moyen le plus fréquemment utilisé pour comparer des solutions, une approche par simulation sur modèle numérique se révèle devenir un atout de choix en terme de gains de temps et d'argent. Si la démarche est large-ment utilisée dans l'industrie automobile, elle l'est beaucoup moins dans le cas des motoneiges, étant donné la taille des équipes de développement. Grâce à cette approche, appliquée au cas de la poulie d'une transmission continument variable, les sources de bruits ainsi que les mécanismes de transmission/rayonnement liés pourront être mis en évidence et modifiés bien plus facilement, pour ensuite appliquer les solutions ainsi déterminées sur des prototypes réels puis les tester en laboratoire (banc d'essai) ou en conditions réelles (motoneige statique ou essai "pass-by").
513

Outils de dessin informatique pour les débutants, les passionnés et les professionnels / Computer drawing tools for assisting learners, hobbyists, and professionals

Iarussi, Emmanuel 29 September 2015 (has links)
Le but de cette thèse est de faciliter et d'accélérer le dessin pour les amateurs ainsi que pour les dessinateurs experts en utilisant des techniques de traitement d'image et d'interaction. Nous identifions trois problèmes spécifiques liés au dessin, et proposons des outils pour aider les utilisateurs à surmonter les principaux défis sur chaque domaine. Dans le chapitre 2, nous présentons un outil de dessin interactif pour aider des débutants à pratiquer les techniques traditionnelles de dessin par observation. Nous construisons cet outil autour de techniques traditionnelle. Nous extrayons automatiquement des guides visuels à partir d'une photographie. L'interface de l'outil affiche ces informations et offre un retour pour guider l'utilisateur dans la reproduction du dessin. Dans le chapitre 3, nous proposons un outil qui permet aux utilisateurs de créer des bijoux par pliage de fils de fer. Cette forme de bijoux faits à la main peut être considérée comme une forme de dessin à base de fil de fer. La méthode présentée aide l'utilisateur dans les principaux défis de la création de bijoux à partir d'un dessin: la décomposition de l'entrée dans un ensemble de fils, et le pliage des fils pour leur donner forme. Dans le chapitre 4, nous proposons une méthode pour aider les designers à enrichir leurs dessins avec de la couleur et de l'ombrage. Les designers tracent souvent des lignes de courbure pour représenter la forme des surfaces lisses dans des esquisses. Nous exploitons cette information et extrapolons les lignes de courbure dans le design. Cette extrapolation nous permet d'estimer la courbure 3D du dessin, pour créer des ombres et des textures sur l'esquisse. / The goal of this thesis is to facilitate and accelerate drawing for amateurs as well as for expert designers and illustrators, employing computer graphics, image processing and interaction techniques. As this is a broad spectrum to tackle, we identify three specific problems related to drawing and propose computer tools to help users overcome the main challenges on each domain. In Chapter 2 we present an interactive drawing tool to help beginners practice drawing-by-observation techniques. We build on a number of traditional techniques to help people gain consciousness of the shapes in a scene. We automatically extract visual guides from a model photograph and offer corrective feedback to guide their reproduction in the drawing. In Chapter 3 we propose a tool that helps users create wire wrapped jewelry. This technique of handmade jewelry can be seen as a form of line drawing with metal wires. The presented method assist the user in the main challenges of creating 2D wire-wrapped jewelry from a drawing: decomposing the input into a set of wires, and bending the wires to give them shape. In Chapter 4 we propose a method to help designers enrich their drawings with color and shading. Professionals frequently draw curvature lines to convey bending of smooth surfaces in concept sketches. We exploit this information and extrapolate curvature lines in a rough concept sketch. This extrapolation allows us to recover the intended 3D curvature and surface normal at each pixel, which we use to compute shading and texturing over the sketch.
514

Eutrophisation et dynamique du phosphore et de l'azote en Seine : un nouveau contexte suite à l’amélioration du traitement des eaux usées / Eutrophication and dynamics of phosphorus and nitrogen in the Seine River : a new context following the improvement of wastewater treatment

Aissa Grouz Jerbi, Najla 04 September 2015 (has links)
La Seine est un écosystème profondément affecté par les activités humaines. Il a subi des changements améliorant le traitement des eaux usées parisiennes et les apports diffus de l'agriculture. Des campagnes de prélèvements en profils longitudinaux ont été menées à l'amont et à l'aval de la station d'épuration Seine-Aval (step SAV) pour décrire la dynamique de l'azote et des activités des micro-organismes nitrifiants et la comparer aux observations disponibles antérieures à l'implémentation d'un traitement de l'azote. Les résultats prouvent que la step SAV rejette moins d'ammonium et plus d'organismes nitrifiants mais avec un développement plus lent et moins important qui disparaissent en aval améliorant le déficit en oxygène en Seine. De plus, le bilan et le rôle du phosphore ont été démontrés avec des apports au milieu fluvial diminués d'un facteur 2.7 depuis le début des années 2000. La mesure expérimentale des paramètres de l'adsorption du phosphore sur la matière en suspension a permis d'affirmer que ceux-ci sont influencés par les rejets des stations d'épuration mettant en oeuvre un traitement du phosphore. Nous montrons, par modélisation, que la dynamique de développement des algues est sensible au processus d'adsorption du phosphore. Les changements apparus dans la fréquence et l'intensité des blooms algaux en Seine peuvent s'expliquer par la réduction de la charge ponctuelle en phosphore. Avec des concentrations en orthophosphates proches de la limitation dans les secteurs amont, une modélisation précise de l'apparition du phytoplancton à l'échelle du bassin versant reste cependant encore difficile avec les outils mécanistiques actuels que nous avons développés. / The Seine river system is an ecosystem deeply affected by human activities. The new water quality requirements have led to significant changes. We provided an overview of nitrogen transfers in the Seine basin. We conducted sampling campaigns in order to describe the dynamics of nitrogen and nitrification. Furthermore, we compared our results with the observations before the implementation of nitrogen treatment at the wastewater treatment plant Seine Aval (WWTP SAV). The results proved that the WWTP discharges less ammonium and more nitrifiers but with a slower development than before. These communities disappear downstream, without causing low oxygen concentrations in the lower Seine and its estuary, as they did before... A simplified modelling of nitrogen concentrations and nitrification before and after the implementation of nitrogen treatment helped to reproduce the past and the present trends.Moreover, the assessment of the fluxes and the analysis of the role of phosphorus were realized. The inputs to the river system have been reduced almost three times in the early year 2000. The experimental measurement of phosphorus sorption characteristics onto suspended solids has shown that particles could be affected by the discharges coming from the WWTP SAV after the introduction of an advanced treatment. We show also by modelling, that the algal growth is very sensitive to adsorption process. The changes in frequency and amplitude of algal blooms observed in the Seine can be explained by the reduction of point phosphorus loadings. The modelling of algal blooms throughout the entire basin remains difficult with the currently available mechanistic tools.
515

Modélisation multi-échelle d'éléments finis de la macroségrégation et du transport des grains / Multiscale finite element modeling of macrosegregation and grain transport

Nguyen, Thi-Thuy-My 18 December 2015 (has links)
Ce travail de thèse a pour but de modéliser la macroségrégation des produits obtenus par solidification en prenant en compte le transport des grains équiaxes. Le modèle de solidification à deux phases (solide et liquide) est traité par une méthode d'éléments finis, consistant à résoudre les équations de conservation moyennées de l'énergie, de la quantité de mouvement et de la masse, dans lesquelles les évolutions multi-échelles de la masse des phases et des solutés sont modélisées en utilisant une approche de splitting. D'après cette technique, la variation des quantités est considérée comme résultant de la contribution de deux étapes : l'étape de croissance et l'étape de transport. L'implémentation numérique du modèle a été réalisée avec trois opérations principales : tout d'abord implémenter le modèle de croissance des grains, ensuite intégrer des phénomènes de transport résultant de la convection thermo-solutale du liquide et du mouvement du solide, enfin mettre en œuvre le modèle complet en combinant les étapes de croissance et de transport. Lors de ces opérations, une investigation attentive a été consacrée à l'établissement de la résolution par éléments finis pour les équations de transport avec champs discontinus de vitesse à divergence non nulle, afin de surmonter des problèmes numériques en respectant la qualité des solutions physiques. Parallèlement à ces travaux, différents tests de simulation 2D ont été effectués à chaque étape d'implémentation. De bons accords ont été globalement obtenus entre les solutions données par le modèle présent et celles de référence dans la littérature. Finalement, des applications industrielles et des simulations 3D ont été menées, pour lesquelles les résultats numériques reproduisent les configurations caractéristiques des mesures expérimentales : un profil typique de macroségrégation des lingots composé d'une ségrégation négative occupant de la zone inférieure et d'une ségrégation positive en zone supérieure. Ce profil est la signature caractéristique de la sédimentation des cristaux et de la convection thermo-solutale. En outre, un modèle à trois phases étendu à partir du modèle à deux phases précédent – en distinguant la phase liquide interdendritique – s'est avéré capable de décrire la morphologie des grains dendritiques. / The present work aims at modeling macrosegregation of castings, accounting for the transport of equiaxed grains. A two-phase (solid and liquid) finite element solidification model is presented, consisting in solving a system of volume-averaged conservation equations of energy, momentum, solute, in which the multi-scale evolutions of phase and solute mass are modeled by using a splitting method. According to this approach, the variation of quantities is considered as due to the contribution of two stages: the growth stage and the transport stage. The numerical implementation was realized with three principal steps: first implementing growth processes, then integrating transport phenomena including the thermo-solutal liquid convection and the solid movement, lastly combing the growth and transport stages to achieve a complete growth-transport model. Of these steps, solving the transport equations with discontinuous and non-divergence-free velocity fields by using finite element method required an attentive investigation in order to overcome numerical issues while respecting for physical solutions. Parallel to these works, various two-dimensional simulation tests were carried out in each implementation step. Agreements were globally found between results obtained from the present model and those of reference from the literature. Finally, industrial applications and three-dimensional simulations were performed, which show that computational solutions can predict essential features of experimental measurements. In particular, a typical macrosegregation profile of steel ingots, containing a negative segregation in the lower zone and a positive segregation in the upper zone, which is predominantly characterized by crystals sedimentation and fluid circulation was retrieved. Moreover, a three-phase model considering two different liquid phases, extended from the above-mentioned two-phase model, which enables to describe the morphology of dendritic solid crystals was implemented.
516

Méthodologie semi-formelle pour l’étude de systèmes biologiques : Application à l'homéostasie du fer / Semi-formal methodology for biological systems study : Application to iron homeostasis

Mobilia, Nicolas 29 September 2015 (has links)
Les travaux de cette thèse portent principalement sur le développement d'une méthodologie pour la modélisation de systèmes biologiques. Cette méthodologie, basée sur une modélisation en équations différentielles, intègre aussi bien des méthodes formelles (solveur sur intervalles, solveur de formules STL), qu'analytiques (calcul de stabilité d'état stationnaire) ou numériques (algorithme d'optimisation, analyses statistiques). Elle permet l'intégration de différents types de données, telles la réponse comportementale à une perturbation ou des données quantitatives (demie-vie, concentrations). En collaboration avec une équipe de biologistes, cette méthodologie est appliquée, avec succès, au système de l'homéostasie du fer : nous étudions la réponse intracellulaire du système, via des protéines régulatrices spécifiques (protéines IRP), face à une situation de carence en fer. Un résultat majeur de cette étude est l'amélioration des connaissances sur la concentration de fer intracellulaire nécessaire à la prolifération des cellules : cette concentration est mise en avant par l'étude du modèle, puis est confirmée expérimentalement.Le deuxième volet de ces travaux portent sur le développement d'un outil pour la modélisation de réseaux de gènes avec le formalisme des réseaux de Thomas. Cet outil, développé en ASP (Answer Set Programming), permet l'intégration de différents types de données telles des données sur des mutants ou l'existence de différents états stationnaires. Cet outil permet d'éviter automatiquement l'incohérence en cas de contradiction entre différentes hypothèses sur le système. Il permet également l'inférence de propriétés biologiques telles que l'ordre entre paramètres cinétiques. / The major part of this PhD consists in the creation of a methodology to model biological systems. This methodology considers models based on differential equations, and uses formal methods (interval solver, verification of STL formula), analytical methods (study of stability) and numerical methods (optimization algorithm, statistical analysis). Moreover, many kind of data, like behavioral response to perturbation, or quantitative data (metabolite half-life and concentration) can be incorporated. In collaboration with a biologist team, this methodology is successfully applied to the iron homeostasis network : we study the response of the system to an iron depletion, at the intracellular level, based on specific regulatory proteins (IRP proteins). A major output of this study is insight into the level of iron cells need to proliferate : this concentration is pointed out by the study of the model, and is experimentally validated.The second part of the PhD is the creation of a tool to model genetic regulatory networks, using Thomas' formalism. This tool, developed using ASP (Answer Set Programming) programming language, can integrate many kind of data, like mutation data, or the existence of many steady states. It automatically avoids inconsistency in case of contradiction between different hypotheses. It also infers biological properties such as relationships between kinetic parameters.
517

Analyse des causes d'échec des projets d'affaires à partir d'études de cas en entreprises, et proposition d'un modèle de domaine en langage UML / Firm-based investigation into business project failure and developing business project management domain using unified modelling language

Wong, Siaw Ming 24 September 2010 (has links)
En dépit des efforts destinés à accroitre la maturité de la profession dans le domaine de la gestion de projet, le taux d’échec des projets d’affaires (par opposition aux projets techniques) reste élevé. On s’est aperçu que les standards actuels en matière de gestion de projet ne prenaient pas en compte les contraintes liées au contexte d’exécution des projets, et que de ce fait, la gestion de projets d’affaires n’avait pas été étudiée en profondeur. L’objectif de ce travail de recherche transdisciplinaire est donc d’abord d’obtenir une meilleure compréhension du sujet en essayant de comprendre pourquoi l’échec d’un projet d’affaires est considéré comme un échec du point de vue de l’organisation, puis de formaliser la connaissance acquise dans un format qui permette par la suite de l’enrichir et de l’appliquer. En nous appuyant sur le modèle des systèmes ouverts, trois études de cas ont été conduites, avec pour objectif d’étudier l’effet modérateur des différents types de structures des organisations et des systèmes d’information pour la gestion de projet sur la relation causale entre la compétence en gestion de projet et le succès des projets d’affaires. Il résulte de ce travail que le succès des projets d’affaires devrait être mesuré en termes de réalisation des objectifs du projet mais aussi de l’organisation. Ce travail a également permis d’identifier les composants essentiels de la gestion de projets d’affaires : (1) “Compétences de base pour la gestion de projet ”; (2) “Gestion intégrée de programme” et (3) “Système d’information intégré pour la gestion de projet”. Dans les trois études de cas, il apparait également de manière déterminante que les facteurs d’ordre organisationnel ont un impact significatif sur la réussite du projet. Une théorie est proposée, qui postule qu’un projet d’affaires a de grandes chances d’échouer s’il n’est pas géré comme une partie intégrante de l’entreprise, en le traitant comme une opération courante au sein de l’entreprise. Cela signifie que la manière dont les projets d’affaires sont gérés aujourd’hui devrait être revue. Le rôle de l’informatique dans l’assistance à la gestion de ces projets devrait également être revu. Et il faudrait sans doute aussi faire une plus grande différence entre les projets d’affaires et les projets « traditionnels » plus techniques. D’autre part, la formalisation de la connaissance acquise au cours de ces études de cas a été effectuée en développant un modèle de domaine à l’aide du langage de modélisation UML. Et l’approche de modélisation du domaine a été élaborée en modifiant l’étape de conceptualisation dans le processus traditionnel d’ingénierie d’ontologie. En prenant comme point de départ le cadre théorique qui prend en compte l’essentiel des composants de la gestion de projets d’affaires, le modèle a été construit en quatre étapes : (1) définition de la portée du travail en développant chaque composant à partir des normes en vigueur ; (2) intégration de ces développements en réutilisant les travaux réalisés et proposés par d’autres chercheurs ; (3) développement et (4) évaluation des spécifications UML décrivant aussi bien les aspects structurels que dynamiques du sujet traité. Le fait d’avoir réussi à développer un modèle du domaine et à montrer de quelle manière il pouvait être mis en œuvre directement pour développer un système d’information pour la gestion de projet ainsi que des ontologies portant sur les connaissances liées à la gestion de projet a montré que l’approche consistant à construire une base sémantique commune permettant de travailler à la modélisation de systèmes applicatifs et d’ontologies est à la fois réalisable et valide. De plus, le modèle de domaine proposé peut servir de socle permettant d’accumuler progressivement la connaissance du domaine, dans la mesure où l’approche de modélisation a pris en compte la possibilité d’intégrer des travaux et propositions antérieurs. Ce résultat ouvre de nouvelles perspectives de développement de logiciels s’appuyant sur un modèle de domaine qui est directement issu de travaux de recherch / Despite the efforts to improve the maturity of the project management profession, the failure rate of business projects remains high. It was realized that current project management standards do not take contextual requirements into consideration and business project management really has not been addressed in totality. The purpose of this interdisciplinary study therefore, is to obtain a better understanding of the subject matter by investigating why business project fails from the organization’s perspective; and to specify the acquired knowledge in a format that facilitates future expansion and application.Based upon the open systems model, 3 case studies were conducted to examine the moderating effect of the types of organization structure and Project Management Information System (PMIS) support on the causal relationship between project management competency and business project success. It was found that business project success should be measured in terms of meeting both project and organization objectives; and the essential components of business project management were identified to be (1) “Core business project management competencies”; (2) “Integrated programme management” and (3) “Integrated PMIS”. It was conclusive that organizational factors do pose a significant impact in attainment of business project success in all 3 cases; and a theory that business project is likely to fail if it is not managed as an integral part of business enterprise with equal emphasis as its business-as-usual operations has been proposed. This implies that the way business project management is executed today should be reviewed; the role of IT in support of project management work should be reassessed; and a clear distinction between business project management and traditional project management should perhaps be made.The specification of the acquired knowledge on the other hand, was achieved by developing a domain model using UML; based on a domain modelling approach which was devised by modifying the conceptualization step of conventional ontology engineering process. Using the theoretical framework that captures the essential business project management components as the starting point, the model was constructed in 4 steps namely (1) defining the scope of work by expanding each component in the framework using prevailing standards; (2) integrating the defined scope with reusable existing work; (3) developing & (4) testing the UML specifications which describe both structural and behavioural aspects of the subject matter. The successful creation of the domain model and the demonstration of how it can be used directly in the development of the desired PMIS and project knowledge ontologies showed that the approach of building a common semantic foundation to support both application system modelling and ontology modelling is workable and effective. Furthermore, since the modelling approach has built in the ability to reuse existing work, the domain model can be used as a foundation that accumulates domain knowledge progressively. This opens up a new horizon where software systems could be built based on domain model which is a direct reflection of basic research findings; and software systems in the future would compete primarily from the non-functional perspective as a result.
518

Évaluation et modélisation de l’érosion du sol sous différentes pratiques de conservation sur les plantations de café ombragées sur les terres de pente (Ultisols) au Costa Rica / Soil erosion evaluation and modeling under different production practices on shade coffee plantation under steep lands (Ultisols)

Villatoro, Mario 07 December 2015 (has links)
L'objectif principal de ce travail était de mieux comprendre les processus et la dynamique d'érosion des sols sur pentes raides sous culture permanente (café sous arbres d'ombrage).Huit parcelles expérimentales ont été installées dans une plantation de café avec une pente moyenne de 65 % avec Erythrina sp. comme arbre d'ombrage. Le ruissellement superficiel a été mesuré chaque 5 min et collecté pour la mesure de la concentration en sédiments et l'évaluation de l'érosion.La pluviométrie annuelle a été de 2206, 1778 et 2220 mm en 2011, 2012 et 2013 respectivement avec une alternance marquée de saison sèche et saison des pluies. La lame ruisselée totale a été en moyenne de 103, 54 et 33 mm respectivement pour les trois années. La concentration moyenne en sédiments a été d'environ 1.3 g l-1 avec des variations temporelles réduites entre événements pluvieux et entre années. La perte de sol annuelle moyenne a diminué de 1.69 à 0.91 puis 0.58 t ha-1 an-1 de 2011 à 2013. La dynamique temporelle a été analysée à trois échelles de temps : annuel-mensuel, événement et intra-événement. Environ 60% de la pluie et 90% du ruissellement et de l'érosion s'est produit pendant les périodes d'octobre à aout, dont plus de la moitié en octobre. La hauteur de pluie de chaque événement et la teneur en d'eau du sol ont expliqué l'essentiel de la variabilité du ruissellement et de la perte en terre. Le stockage d'eau de sol hérité de l'année précédente a joué un rôle important sur le ruissellement. Un modèle d'infiltration simple (Diskin et Nazimov) a été utilisé pour évaluer la hauteur de ruissellement pendant une pluie.En 2012 quatre traitements ont été appliqués avec deux répétitions chacun : 1. traitement de référence avec renouvellement de mini-terrasses et désherbage manuel ; 2. idem 1 sans renouvellement de mini-terrasses ; 3. idem 1 sauf désherbage avec un herbicide ; 4. idem 1 avec taille réduite des arbres d'ombrage. On a considéré trois périodes : P1 avant application des traitements, P2 les deux mois suivants traitement et P3 l'année suivante (2013). Les différences significatives entre les ratios de traitements/référence pour les trois périodes indiquent une augmentation du ruissellement et de la concentration en sédiments après renouvellement des mini-terrasses avec un effet toujours présent pour P3. Le désherbage avec un herbicide n'a pas montré d'influence claire. Le traitement avec taille réduite des arbres d'ombrage a réduit l'érosion pour les conditions d'humidité de sol > 30 % seulement.Le ruissellement superficiel, la concentration en sédiments et la perte en terre ont été mesurés à l'exutoire d'un petit bassin versant (31 ha, de pente moyenne de 60 %) en 2012 et 2013. Seules les pluies de hauteur supérieure à 5 mm (169 événements) ont produit du ruissellement et l'essentiel des volumes ruisselés a été produit lors des fortes averses (> 40 mm). Les coefficients de ruissellement ont été faibles (0.9 %) aux deux échelles en 2013. Ils ont atteint 2.44 % pour les parcelles et 0.9 % pour le bassin versant en 2013. L'écoulement de base était également faible pour le bassin versant (13-16 % de la pluie totale) avec une grande partie de la pluie (environ 20 %) perdue par percolation. La concentration moyenne en sédiments a été d'environ 1.65 g l-1 à l'échelle de la parcelle avec des valeurs maximales de 5.64 g l-1. La concentration moyenne en sédiments à l'échelle du bassin versant a été de 0.51 g l-1. La perte de sol annuelle a été de 0.73 et 0.36 t ha-1 an-1 à l'échelle parcellaire (tous traitements confondus) pour 2012 et 2013 respectivement et de 0.46 et 1.24 t ha-1 yr-1 à l'échelle du bassin versant pour les mêmes années.Le système caféier étudié a présenté une perte en terre modérée liée à une protection importante de la surface du sol par la végétation. / The main objective of this work was to better understand soil erosion processes and dynamics on steep lands cultivated with a permanent crop (shade coffee).Eight large experimental plots were installed in a 65% average slope coffee plantation with Erythrina sp. as shade tree. The superficial runoff was measured every 5 min. and collected for sediment concentration measurement and soil loss assessment.Rainfall depth was 2206, 1778 and 2220 mm in 2011, 2012 and 2013 respectively with a marked succession of dry season and rainy season. Total runoff was 103, 54 and 33 mm along those three years. Annual average sediment concentration at plot scale was about 1.3 g l-1 with reduced temporal variations between years or rainfall events. The plots' average annual soil loss (under normal management) decreased from 1.69 to 0.91 and 0.58 t ha-1 from 2011 to 2013. An analysis of the temporal dynamics was performed in three time scales: annual-monthly, event and intra-event. Around 60% of rainfall and 90% of runoff and soil loss occurred each year during the August-October periods and more than half of it in October. Total event rainfall and soil water content explained most of surface runoff and soil loss dynamics, while inherited soil water storage from previous year played an important role on the relationship between rainfall and runoff dynamics the following year. A simple infiltration model (Diskin and Nazimov) was used to estimate runoff during a rainfall event.In 2012 four treatments were applied with two replicates each: no mini-terraces renewal, weed control with herbicide, reduced pruning pressure on shade trees and reference management. Three periods were considered: P1 before treatment application, P2 the next two months afterwards and P3 the year after (2013). The significant differences between treatments/reference ratios for the three periods suggested higher runoff and sediment concentration when mini-terraces were renewed and the effect decreased but was still present in P3. Chemical weed control did not show a clear trend. The reduced pruning treatment reduced erosion only for superficial soil moisture >30%.Superficial runoff, average sediment concentration and soil loss were monitored at the outlet of a small watershed (31 ha, 60% average slope) during 2012 and 2013. Rainfall events greater than 5 mm (169 events) produced runoff at both scales and most of runoff amount was produced for strong rainfalls (> 40 mm). The runoff coefficients were very low (0.9%) at both scales in 2013. But it was 2.44% for plots and 0.9% for watershed in 2013. The base flow was also very low on this watershed (13-16% of total rainfall) with a large part of the rainfall (about 20%) being lost by percolation. The average sediment concentration at the plots was about 1.65 g l-1 and the maximum value was 5.64 g l-1. The average sediment concentration at watershed scale was 0.51 g l-1. Estimated annual soil loss were 0.73 and 0.36 t ha-1 yr-1 at plots scale (all managements included) for 2012 and 2013 respectively and 0.46 and 1.24 t ha-1 yr-1 at watershed scale for thesame years.The shade coffee system studied showed a tolerable soil loss compared to the potential erosion due to the efficient vegetal surface protection.
519

3D numerical modelling of dune formation and dynamics in inland waterways / Modélisation numérique 3D de la formation et de la dynamique de dunes au sein des voies navigables

Goll, Annalena 14 October 2016 (has links)
Ce rapport présente et analyse les différentes possibilités de modélisation directe et de grande envergure de la forme du fond des voies naviguables. Cette étude est motivée par le fait que dans la modélisation de rivière, les incertitudes quant à la prédiction de la profondeur et du mouvement du lit, peuvent souvent être affectées par sa forme. La forme du fond constitue le facteur dominant dans le transport solide de nombreux cours d´eau qui nécessitent donc d´être entretenus par les autorités compétantes.Des expériences hydrodynamiques et morphodynamiques ont été menées au sein de l´institut fédéral allemand de la recherche et de l´ingénieurie des cours d´eau (BAW). Des mesures en haute résolution ont été effectuées et ont révélé la formation naturelle de dunes tridimensionelles à l´équilibre avec le champ d´écoulement environnant. Le modèle hydrodynamique est calibré sur cette base de données pour modéliser le régime d´écoulement complexe à travers une suite de dunes tridimensionelles. Les résultats de la simulation montrent qu´il est possible de reproduire le champ d´écoulement turbulent mesuré dans la configuration précédemment citée et que le niveau d´eau mesuré et simulé est également en accord avec cette même configuration. La résolution verticale et horizontale du maillage, le coefficient de friction, la forme du lit à petite échelle et la modélisation turbulente sont identifiés comme paramètres sensibles durant le calibrage.La seconde partie de cette thèse se concentre sur les simulations morphodynamiques de ce même canal expérimental mais cette fois avec un lit mobile. La numérisation du fond mesuré en haute résolution montrant la formation et le développement des dunes au fil du temps, est mis à disposition pour la comparaison. La hauteur et la largeur des dunes tout comme le moment de distribution, l´inclinaison et l´aplatissement sont utilisés pour comparer les dimensions des dunes ainsi que leur forme et leur distribution spatiale. Les formules du transport solide, de l´inclinaison, de l´aplatissement, les conditions aux limites et la considération des éléments de rugosité de sous échelle sont les paramètres qui influencent le plus la qualité des résultats. Durant cette étude, une attention toute particulière a été portée sur l´intégration des fluctuations turbulentes dans le calcul de la contrainte de cisaillement du fond. Un nouveau calcul total de cette contrainte est proposé et incorpore les vitesses d´écoulement principales et l´énergie cinétique turbulente fournit par le modèle turbulent. Grâce à cette approche, le modèle numérique est capable de reproduire quantitativement et qualitativement les dimensions de la forme du lit principal mesurée et les moments de forme des dunes physiques. Cela s´avère être la seule façon de reproduire le bon moment de distribution (aplatissement) du champ de dunes.Finalement, le modèle est appliqué à l´échelle du projet et testé sur une portion de l´Elbe (Allemagne). Les simulations morphodynamiques en haute résolution couplées à l´hydrodynamique-3D sont menées durant plusieurs jours sur la portion de rivière choisit d´une longueur de 4 kilomètres. Les formes des dunes préservent les paramètres de forme et la vitesse des dunes est en accord avec celle mesurée. La simulation montre des résultats prométeurs concernant la possibilité d´un usage opérationel du modèle dans l´avenir. Des problèmes locaux et communs comme les stratégies d´entretien tel que les changements dans les sections transversales d´écoulement, les brises lames et le revêtement sont des missions possibles qui peuvent être examinées / In this work the possibilities of direct modelling of large scale bed forms in waterways are highlighted and analysed. It is motivated by the fact that in river modelling, uncertainties in predicting water depth and bed movement can often be attributed to bed forms. Those bed forms are the dominating factor for bed load transport in many river stretches, which need to be maintained by the responsible waterways authorities.Hydrodynamic and morphodynamic experiments have been conducted at the Federal Waterways Engineering and Research Institute of Germany (BAW). High-resolution measurements have been performed over fixed, naturally formed three-dimensional sand dunes, which are at equilibrium with the surrounding flow field.Using these measured data sets, the hydrodynamic model is calibrated to simulate the complex flow situation over a train of several three-dimensional dunes. Simulation results show that it is possible to reproduce the measured turbulent flow field in the wake of the fixed dunes and that the measured and simulated water levels agree for the chosen configuration. Vertical and horizontal mesh resolution, friction coefficient, small scale bed forms and turbulence modelling are identified as most sensitive parameters during the calibration.The second part of this thesis focuses on morphodynamic simulations of the same experimental flume but with a mobile bed. High resolution measured bottom scans of the dune forms, developing over time, are available for comparison. Dune height and length, as well as the distribution moments, skewness and kurtosis are used to compare the dimensions of the dunes and also their shape and spatial distribution.Bed load transport formulation, skewness and kurtosis formulae, boundary conditions and the consideration of sub-grid scale roughness elements are the parameters which influence the quality of the results the most. A particular focus during the study is the inclusion of turbulent fluctuations in bed shear stress calculation. A new, total bed shear stress calculation is proposed, which incorporates mean flow velocities and turbulent kinetic energy provided by the turbulence model. With this approach, the numerical model is able to reproduce both qualitatively and quantitatively the measured mean bed forms dimensions and the shape moments of the physical dunes. It proves to be the only way to also produce the right distribution moment (kurtosis) of the dune field.Finally, the model is applied to project scale and tested on a stretch of the riverElbe, Germany. High resolution morphodynamic simulations coupled to 3D-hydrodynamics are conducted over several days for the chosen river stretch which is 4km in length. The dune forms preserve form and shape parameters and the dune speed agrees with the measured one. The simulations show promising results concerning the possibility of operational use of the model in the future. Local problems and statements, e.g. maintenance strategies such as changes in flow cross section, groynes and revetments, are possible tasks that can be examined
520

Modèle Monte Carlo du transport dans l'atmosphère des électrons relativistes et des photons gamma en relation avec les TGF / Monte Carlo model of the transport in the atmosphere of relativistic electrons and gamma rays associated to TGF

Sarria, David 14 September 2015 (has links)
Les orages sont des sources de phénomènes transitoires intenses, notamment lumineux, dans le domaine visible, mais également dans le domaine des rayons X et gamma. Ces phénomènes sont détectés sous la forme de flash de photons X et gamma appelés "Terrestrial Gamma Ray Flashes" (TGF). L'objet de cette thèse est le développement d'un modèle numérique pour étudier et comprendre les mécanismes associés aux TGF. L'étude des TGF est donc importante pour comprendre la physique des éclairs et des orages (qui sont des phénomènes très communs mais dont la microphysique reste encore très mal comprise) ainsi que le couplage entre l'atmosphère et l'ionosphère de la Terre. Cette thèse s'inscrit plus particulièrement dans le cadre de la préparation de la mission TARANIS du CNES, qui sera lancée en 2017. TARANIS disposera en particulier des instruments XGRE et IDEE, capables de caractériser les photons X/gamma et les électrons relativistes associés. Après son émission, vers 15 km d'altitude, le flux de rayons gamma du TGF est filtré et altéré par l'atmosphère, et une petite partie peut être détectée par un satellite en orbite basse. Cette dernière est constituée de photons primaires diffusés, ainsi que d'électrons, de positrons et de photons produits de manière secondaire. Une partie des leptons secondaires va pouvoir sortir de l'atmosphère et sera ensuite confinée par les lignes de champ géomagnétique. Ainsi, pouvoir établir des contraintes sur le mécanisme source des TGF à partir des observations est un problème inverse très complexe, qui ne peut être traité que par le développement d'un modèle de transport des particules énergétiques impliquées. Dans cette thèse, nous faisons dans un premier temps une synthèse des principaux travaux ayant été effectués concernant les observations et la modélisation associées aux TGF, depuis leur découverte, il y a environ 20 ans, jusqu'à nos jours. Dans un deuxième temps, nous présentons et justifions la validité du modèle MC-PEPTITA de transport des particules énergétiques concernées. Ce dernier utilise des méthodes Monte-Carlo, les jeux de sections efficaces EPDL et EEDL, des méthodes d'interaction similaires à celles présentées dans le code PENELOPE. De plus, des modèles extérieurs pour l'atmosphère (NRLMSISE-00) et pour le champ magnétique terrestre (IGRF-11) y sont intégrés. Le modèle collisionnel de MC-PEPTITA est ensuite validé par comparaison avec le code de référence GEANT4 du CERN. Une fois le modèle construit et validé, nous présentons et décomposons en détail la simulation d'un événement TGF typique pour en faire ressortir toute sa complexité. Finalement, nous procédons à des comparaisons directes entre le modèle et les données mesurées par le télescope spatial Fermi pour établir ou vérifier des propriétés importantes concernant les TGF et les faisceaux d'électrons et de positrons associés. / Thunderstorms are sources of intense transient phenomena, including light in the visible range and also in X and gamma rays. These phenomena are detected in the form of photon flashes called "Terrestrial Gamma Ray Flashes" (TGF). The purpose of this thesis is the development of a numerical model to study and understand the mechanisms associated with TGF. Studying TGF is then important to understand the physics of lightning and thunderstorms (which are very common phenomena, but the micro-physics is still poorly understood), together with the coupling between the atmosphere and the ionosphere of the Earth. This thesis is also part of the preparation for the TARANIS mission from the CNES, which will be launched in 2017. Among others, TARANIS will have the XGRE and IDEE instruments, able to characterize X/gamma photons and the associated relativistic electrons. After its emission, at around 15 km altitude, this flux of gamma-rays are filtered and altered by the atmosphere and a small part of it may be detected by a satellite in low earth orbit. This last is made of scattered primary photons, together with secondary produced electrons and positrons. A part of these secondary can escape the atmosphere and will then be confined by geomagnetic field lines. Thus, trying to get information on the initial flux from the measurement is a very complex inverse problem, which can only be tackled by the use of a model solving the transport the involved high energy particles. In this thesis, we firstly make a synthesis of the main work that has been done concerning observations and modeling associated with TGF, since their discovery, around 20 years ago, until today. Secondly, we present and validate the MC-PEPTITA model for the transport of the involved energetic particles. It uses Monte-Carlo methods, the EPDL and EEDL cross-section sets, and the methods of simulation of the interactions are similar to what is presented for the PENELOPE code. Moreover, exterior models for the atmosphere (NRLMSISE-00) and the magnetic field of the Earth (IGRF-11) are also integrated. The collision model of MC-PEPTITA is then validated by comparison with the reference code GEANT4 from the CERN. Furthermore, its ability to reproduce precisely some real lightcurves observed by the Fermi space telescope helps to strengthen even more its validation. Once the model is built and validated, we present and decompose in detail the simulation of a typical TGF event, in order to bring out all its complexity. Finally, we conduct direct comparisons between the model and the data measured by the Fermi space telescope to establish or verify important properties concerning the TGF and the associated beams of electrons and positrons.

Page generated in 0.0912 seconds