• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5991
  • 1673
  • 709
  • 10
  • 5
  • 5
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 8326
  • 2691
  • 2690
  • 1642
  • 1359
  • 1223
  • 866
  • 846
  • 823
  • 646
  • 583
  • 527
  • 514
  • 498
  • 478
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
501

Dérivation des électrons photosynthétiques par des médiateurs de type quinone. / Photosynthetic electrons derivation by quinone type exogenous mediator

Longatte, Guillaume 23 September 2015 (has links)
La photosynthèse consiste en la conversion photo-induite du dioxyde de carbone et de l'eau en matière organique et en dioxygène. Utilisée par les algues, les plantes ou certaines bactéries, la photosynthèse est pourtant intrinsèquement bridée puisque seulement 4 % de l'énergie lumineuse sont convertis en énergie chimique. Sous forte irradiation, ceci peut engendrer une dénaturation de l'appareil photosynthétique. Par ailleurs, dans le contexte environnemental actuel, cette limitation représente également une opportunité d'utiliser l'énergie non convertie sous forme d'énergie électrique. Le travail présenté dans ce manuscrit a donc pour but de créer une voie secondaire d'écoulement des électrons photosynthétiques excédentaires afin de réduire l'endommagement du système sous forte irradiation et de les transcrire sous la forme d'un photo-courant. C'est pourquoi un système impliquant une électrode collectrice de carbone et des médiateurs redox de type quinone a été envisagé. La capacité acceptrice de certaines quinones, connues pour être de bons accepteurs du Photosystème II, a été évaluée au moyen d'études de fluorescence. La facilité de restitution des électrons dérivés par les quinones réduites a été quant à elle étudiée par électrochimie. Au bilan, les meilleures quinones (DCBQ, PPBQ) permettent d'obtenir des photo-courants de l'ordre de quelques µA.cm-2. La corrélation entre données expérimentales et théorie a également permis de mieux cerner le mécanisme de dérivation des électrons photosynthétiques par les quinones exogènes mais aussi de mettre en évidence des effets d'empoisonnement et/ou de perte d'accepteur dans les membranes. / Photosynthesis can be views as the conversion of carbon dioxide and water into organic matter and dioxygen. Used by algae, plants or some bacteria, photosynthesis efficiency is limited because only 4% of light energy is converted into chemical energy. Under high light conditions, this can induce serious damages of the photosynthetic machinery. Besides, if considering the current environmental context, this limitation is an opportunity to use the part of not converted energy to generate some useable electricity. The aim of the work developed in this manuscript is thus to create an additional pathway for derivating the photosynthetic electrons flow. In this way, the system damages are expected to be reduced under hight light conditions as well as some photocurrent to be generated. This is why an experimental set-up involving carbon working electrode and some quinone type redox mediators has been developed. The quinone ability to accept some electrons from Photosystem II has been studied by the mean of fluorescence techniques. Their ability to be re-oxidised at the carbon electrode surface has been investigated by cyclic voltametry. As a conclusion, the best quinones (selected after the fluorescence investigations) are DCBQ and PPBQ and correspond to photocurrent values about several µA.cm-2. A correlation between experimental data and theoretical predictions helped us to best understand the photosynthetic electrons derivation pathway and to evidence concomitant phenomenon like poisoning and quinone partition effects.
502

Étude théorique et numérique de la dynamique des tsunamis sismiques / Theoretical and numerical study of seismic tsunami dynamics

Le gal, Marine 17 February 2017 (has links)
Dû à leur impact destructeur et meurtrier, il est important de comprendre la dynamique des tsunamis afin d'améliorer les modèles de prévention et d'alerte. Le peu de données disponibles in situ rend la génération des tsunamis peu connue. Les modèles de générations, notamment la génération sismique qui est considérée ici, simplifient les phénomènes mis en jeu. De nombreux effets sont négligés, parmi eux la cinématique de déformation du fond. Deux paramètres temporels peuvent être définis pour d écrire ce mouvement: la vitesse de propagation de rupture vp qui est propre à l' évènement sismique, et le temps d' élévation tr. Respectivement, ces paramètres caractérisent le mouvement horizontal et vertical. Une étude linéaire et théorique, puis non-linéaire et numérique, révèle un phénomène de résonance pour de courts tr et des vp de l'ordre de la célérité des ondes longues. Dans ces conditions, l'amplitude des vagues générées est amplifié e par rapport à celle de la déformation du fond marin, et des phénomènes dispersifs apparaissent. Pour illustrer ce phénomène, le cas du tsunami de 1947, qui frappa la Nouvelle Zélande, est simulé avec les modèles de Saint-Venant puis de Boussinesq du système Telemac2D. Rejoignant la théorie, l'influence de vp est nettement observable tandis que les faibles valeurs de tr ont un impact limité. Bien que des effets dispersifs soient attendus durant cet évènement, ils ne sont pas observés avec le modèle numérique. En parallèle de cette étude sur les échelles temporelles, cette thèse a permis de contribuer à la validation des modèles numériques du système Telemac dans le cadre du projet TANDEM. Ainsi, les modèles issus de Telemac2Det Telemac3D sont testés sur des cas tests représentant la génération, la propagation ou le run-up d'un tsunami. Il s'avère que dans la plupart des cas, les modèles numériques proposent de résultats très corrects. Cependant, on note une certaine dépendance aux paramètres numériques pour les cas délicats comme celui de la propagation d'une onde solitaire. En plus des cas idéalisés, le modèle de Saint-Venant de Telemac2D est utilisé pour modéliser l'évènement de Tohoku-Oki de 2011, pour lequel les résultats sont satisfaisants / The impact of tsunamis on mankind is well known. During recent years, several events showed us the disasters they can trigger which reiterate the importance of understanding their dynamics. Due to the lack of in-situ data, the generation is the least known aspect of tsunamis. As a result, simplified models of the source are used for numerical tsunami modeling, as for seismic generation for which the traditional approach neglects several phenomena, among which is the kinematic deformation of the sea floor. This motion canbe characterized by two temporal parameters: the rupture velocity vp and a hydraulic rise time tr. The novelty here, is to investigate both parameters simultaneously and to extend the linear theoretical development to a non-linear numerical study. From these works, a resonance zone is identified for small tr and vp close to the long wave celerity. For these particular values, the waves are amplified beside the sea floor deformation and dispersive effects develop. To illustrate this theory, the 1947 New Zealand tsunami is simulatedwith the Non-Linear Shallow Water and Boussinesq models of Telemac2D. This seismic event corresponds to a tsunami earthquake with slow kinematics of deformation. Four generation models, with different values of vp and tr are compared. The impact of vp on the generated wave amplitudes is strong whereas the influence due to tr is significantly smaller. Additionally, it was found that the expected dispersive effects did not develop during the numerical modeling. Meanwhile, in the scope of the TANDEM project, the validation of the Telemac system is performed through test cases, covering: generation, propagation and run-up of tsunamis. Globally, the models from the Telemac system match the validation data, however we note a reliance on numerical parameters for sensitive cases as the propagation of a solitary wave. Finally, the Non-Linear Shallow Water model of Telemac2D is used to simulate the Tohoku-Oki tsunami that hit Japan in 2011. Thenumerical model succeeds in representing this real event incorporating all the stages of tsunami life, from generation to flooded areas. Some limitations in using the method were found, which one discussed in detail within the present manuscript
503

Modélisation de l'architecture des forêts pour améliorer la télédétection des attributs forestiers

Côté, Jean-François January 2010 (has links)
The quality of indirect measurements of canopy structure, from in situ and satellite remote sensing, is based on knowledge of vegetation canopy architecture. Technological advances in ground-based, airborne or satellite remote sensing can now significantly improve the effectiveness of measurement programs on forest resources.The structure of vegetation canopy describes the position, orientation, size and shape of elements of the canopy.The complexity of the canopy in forest environments greatly limits our ability to characterize forest structural attributes. Architectural models have been developed to help the interpretation of canopy structural measurements by remote sensing. Recently, the terrestrial LiDAR systems, or TLiDAR ( Terrestrial Light Detection and Ranging ), are used to gather information on the structure of individual trees or forest stands.The TLiDAR allows the extraction of 3D structural information under the canopy at the centimetre scale.The methodology proposed in my Ph.D. thesis is a strategy to overcome the weakness in the structural sampling of vegetation cover.The main objective of the Ph.D. is to develop an architectural model of vegetation canopy, called L-Architect (LiDAR data to vegetation Architecture ), and to focus on the ability to document forest sites and to get information on canopy structure from remote sensing tools. Specifically, L-Architect reconstructs the architecture of individual conifer trees from TLiDAR data. Quantitative evaluation of L-Architect consisted to investigate (i) the structural consistency of the reconstructed trees and (ii) the radiative coherence by the inclusion of reconstructed trees in a 3D radiative transfer model. Then, a methodology was developed to quasi-automatically reconstruct the structure of individual trees from an optimization algorithm using TLiDAR data and allometric relationships. L-Architect thus provides an explicit link between the range measurements of TLiDAR and structural attributes of individual trees. L-Architect has finally been applied to model the architecture of forest canopy for better characterization of vertical and horizontal structure with airborne LiDAR data. This project provides a mean to answer requests of detailed canopy architectural data, difficult to obtain, to reproduce a variety of forest covers. Because of the importance of architectural models, L-Architect provides a significant contribution for improving the capacity of parameters' inversion in vegetation cover for optical and lidar remote sensing.
504

Analyse vibro-acoustique d'un flasque de transmission continuellement variable de motoneige et conception d'un flasque moins bruyant

Méjane, Jason January 2015 (has links)
Avec des normes très strictes pour limiter les désagréments liés au bruit des véhicules en circulation proche des habitations et des lieux fréquentés, la réduction du bruit généré par les véhicules, et en particulier les véhicules récréatifs, est un élément de conception qui demandent beaucoup d'attention aux constructeurs. Si l'expérimentation est le moyen le plus fréquemment utilisé pour comparer des solutions, une approche par simulation sur modèle numérique se révèle devenir un atout de choix en terme de gains de temps et d'argent. Si la démarche est large-ment utilisée dans l'industrie automobile, elle l'est beaucoup moins dans le cas des motoneiges, étant donné la taille des équipes de développement. Grâce à cette approche, appliquée au cas de la poulie d'une transmission continument variable, les sources de bruits ainsi que les mécanismes de transmission/rayonnement liés pourront être mis en évidence et modifiés bien plus facilement, pour ensuite appliquer les solutions ainsi déterminées sur des prototypes réels puis les tester en laboratoire (banc d'essai) ou en conditions réelles (motoneige statique ou essai "pass-by").
505

Outils de dessin informatique pour les débutants, les passionnés et les professionnels / Computer drawing tools for assisting learners, hobbyists, and professionals

Iarussi, Emmanuel 29 September 2015 (has links)
Le but de cette thèse est de faciliter et d'accélérer le dessin pour les amateurs ainsi que pour les dessinateurs experts en utilisant des techniques de traitement d'image et d'interaction. Nous identifions trois problèmes spécifiques liés au dessin, et proposons des outils pour aider les utilisateurs à surmonter les principaux défis sur chaque domaine. Dans le chapitre 2, nous présentons un outil de dessin interactif pour aider des débutants à pratiquer les techniques traditionnelles de dessin par observation. Nous construisons cet outil autour de techniques traditionnelle. Nous extrayons automatiquement des guides visuels à partir d'une photographie. L'interface de l'outil affiche ces informations et offre un retour pour guider l'utilisateur dans la reproduction du dessin. Dans le chapitre 3, nous proposons un outil qui permet aux utilisateurs de créer des bijoux par pliage de fils de fer. Cette forme de bijoux faits à la main peut être considérée comme une forme de dessin à base de fil de fer. La méthode présentée aide l'utilisateur dans les principaux défis de la création de bijoux à partir d'un dessin: la décomposition de l'entrée dans un ensemble de fils, et le pliage des fils pour leur donner forme. Dans le chapitre 4, nous proposons une méthode pour aider les designers à enrichir leurs dessins avec de la couleur et de l'ombrage. Les designers tracent souvent des lignes de courbure pour représenter la forme des surfaces lisses dans des esquisses. Nous exploitons cette information et extrapolons les lignes de courbure dans le design. Cette extrapolation nous permet d'estimer la courbure 3D du dessin, pour créer des ombres et des textures sur l'esquisse. / The goal of this thesis is to facilitate and accelerate drawing for amateurs as well as for expert designers and illustrators, employing computer graphics, image processing and interaction techniques. As this is a broad spectrum to tackle, we identify three specific problems related to drawing and propose computer tools to help users overcome the main challenges on each domain. In Chapter 2 we present an interactive drawing tool to help beginners practice drawing-by-observation techniques. We build on a number of traditional techniques to help people gain consciousness of the shapes in a scene. We automatically extract visual guides from a model photograph and offer corrective feedback to guide their reproduction in the drawing. In Chapter 3 we propose a tool that helps users create wire wrapped jewelry. This technique of handmade jewelry can be seen as a form of line drawing with metal wires. The presented method assist the user in the main challenges of creating 2D wire-wrapped jewelry from a drawing: decomposing the input into a set of wires, and bending the wires to give them shape. In Chapter 4 we propose a method to help designers enrich their drawings with color and shading. Professionals frequently draw curvature lines to convey bending of smooth surfaces in concept sketches. We exploit this information and extrapolate curvature lines in a rough concept sketch. This extrapolation allows us to recover the intended 3D curvature and surface normal at each pixel, which we use to compute shading and texturing over the sketch.
506

Eutrophisation et dynamique du phosphore et de l'azote en Seine : un nouveau contexte suite à l’amélioration du traitement des eaux usées / Eutrophication and dynamics of phosphorus and nitrogen in the Seine River : a new context following the improvement of wastewater treatment

Aissa Grouz Jerbi, Najla 04 September 2015 (has links)
La Seine est un écosystème profondément affecté par les activités humaines. Il a subi des changements améliorant le traitement des eaux usées parisiennes et les apports diffus de l'agriculture. Des campagnes de prélèvements en profils longitudinaux ont été menées à l'amont et à l'aval de la station d'épuration Seine-Aval (step SAV) pour décrire la dynamique de l'azote et des activités des micro-organismes nitrifiants et la comparer aux observations disponibles antérieures à l'implémentation d'un traitement de l'azote. Les résultats prouvent que la step SAV rejette moins d'ammonium et plus d'organismes nitrifiants mais avec un développement plus lent et moins important qui disparaissent en aval améliorant le déficit en oxygène en Seine. De plus, le bilan et le rôle du phosphore ont été démontrés avec des apports au milieu fluvial diminués d'un facteur 2.7 depuis le début des années 2000. La mesure expérimentale des paramètres de l'adsorption du phosphore sur la matière en suspension a permis d'affirmer que ceux-ci sont influencés par les rejets des stations d'épuration mettant en oeuvre un traitement du phosphore. Nous montrons, par modélisation, que la dynamique de développement des algues est sensible au processus d'adsorption du phosphore. Les changements apparus dans la fréquence et l'intensité des blooms algaux en Seine peuvent s'expliquer par la réduction de la charge ponctuelle en phosphore. Avec des concentrations en orthophosphates proches de la limitation dans les secteurs amont, une modélisation précise de l'apparition du phytoplancton à l'échelle du bassin versant reste cependant encore difficile avec les outils mécanistiques actuels que nous avons développés. / The Seine river system is an ecosystem deeply affected by human activities. The new water quality requirements have led to significant changes. We provided an overview of nitrogen transfers in the Seine basin. We conducted sampling campaigns in order to describe the dynamics of nitrogen and nitrification. Furthermore, we compared our results with the observations before the implementation of nitrogen treatment at the wastewater treatment plant Seine Aval (WWTP SAV). The results proved that the WWTP discharges less ammonium and more nitrifiers but with a slower development than before. These communities disappear downstream, without causing low oxygen concentrations in the lower Seine and its estuary, as they did before... A simplified modelling of nitrogen concentrations and nitrification before and after the implementation of nitrogen treatment helped to reproduce the past and the present trends.Moreover, the assessment of the fluxes and the analysis of the role of phosphorus were realized. The inputs to the river system have been reduced almost three times in the early year 2000. The experimental measurement of phosphorus sorption characteristics onto suspended solids has shown that particles could be affected by the discharges coming from the WWTP SAV after the introduction of an advanced treatment. We show also by modelling, that the algal growth is very sensitive to adsorption process. The changes in frequency and amplitude of algal blooms observed in the Seine can be explained by the reduction of point phosphorus loadings. The modelling of algal blooms throughout the entire basin remains difficult with the currently available mechanistic tools.
507

Modélisation multi-échelle d'éléments finis de la macroségrégation et du transport des grains / Multiscale finite element modeling of macrosegregation and grain transport

Nguyen, Thi-Thuy-My 18 December 2015 (has links)
Ce travail de thèse a pour but de modéliser la macroségrégation des produits obtenus par solidification en prenant en compte le transport des grains équiaxes. Le modèle de solidification à deux phases (solide et liquide) est traité par une méthode d'éléments finis, consistant à résoudre les équations de conservation moyennées de l'énergie, de la quantité de mouvement et de la masse, dans lesquelles les évolutions multi-échelles de la masse des phases et des solutés sont modélisées en utilisant une approche de splitting. D'après cette technique, la variation des quantités est considérée comme résultant de la contribution de deux étapes : l'étape de croissance et l'étape de transport. L'implémentation numérique du modèle a été réalisée avec trois opérations principales : tout d'abord implémenter le modèle de croissance des grains, ensuite intégrer des phénomènes de transport résultant de la convection thermo-solutale du liquide et du mouvement du solide, enfin mettre en œuvre le modèle complet en combinant les étapes de croissance et de transport. Lors de ces opérations, une investigation attentive a été consacrée à l'établissement de la résolution par éléments finis pour les équations de transport avec champs discontinus de vitesse à divergence non nulle, afin de surmonter des problèmes numériques en respectant la qualité des solutions physiques. Parallèlement à ces travaux, différents tests de simulation 2D ont été effectués à chaque étape d'implémentation. De bons accords ont été globalement obtenus entre les solutions données par le modèle présent et celles de référence dans la littérature. Finalement, des applications industrielles et des simulations 3D ont été menées, pour lesquelles les résultats numériques reproduisent les configurations caractéristiques des mesures expérimentales : un profil typique de macroségrégation des lingots composé d'une ségrégation négative occupant de la zone inférieure et d'une ségrégation positive en zone supérieure. Ce profil est la signature caractéristique de la sédimentation des cristaux et de la convection thermo-solutale. En outre, un modèle à trois phases étendu à partir du modèle à deux phases précédent – en distinguant la phase liquide interdendritique – s'est avéré capable de décrire la morphologie des grains dendritiques. / The present work aims at modeling macrosegregation of castings, accounting for the transport of equiaxed grains. A two-phase (solid and liquid) finite element solidification model is presented, consisting in solving a system of volume-averaged conservation equations of energy, momentum, solute, in which the multi-scale evolutions of phase and solute mass are modeled by using a splitting method. According to this approach, the variation of quantities is considered as due to the contribution of two stages: the growth stage and the transport stage. The numerical implementation was realized with three principal steps: first implementing growth processes, then integrating transport phenomena including the thermo-solutal liquid convection and the solid movement, lastly combing the growth and transport stages to achieve a complete growth-transport model. Of these steps, solving the transport equations with discontinuous and non-divergence-free velocity fields by using finite element method required an attentive investigation in order to overcome numerical issues while respecting for physical solutions. Parallel to these works, various two-dimensional simulation tests were carried out in each implementation step. Agreements were globally found between results obtained from the present model and those of reference from the literature. Finally, industrial applications and three-dimensional simulations were performed, which show that computational solutions can predict essential features of experimental measurements. In particular, a typical macrosegregation profile of steel ingots, containing a negative segregation in the lower zone and a positive segregation in the upper zone, which is predominantly characterized by crystals sedimentation and fluid circulation was retrieved. Moreover, a three-phase model considering two different liquid phases, extended from the above-mentioned two-phase model, which enables to describe the morphology of dendritic solid crystals was implemented.
508

Méthodologie semi-formelle pour l’étude de systèmes biologiques : Application à l'homéostasie du fer / Semi-formal methodology for biological systems study : Application to iron homeostasis

Mobilia, Nicolas 29 September 2015 (has links)
Les travaux de cette thèse portent principalement sur le développement d'une méthodologie pour la modélisation de systèmes biologiques. Cette méthodologie, basée sur une modélisation en équations différentielles, intègre aussi bien des méthodes formelles (solveur sur intervalles, solveur de formules STL), qu'analytiques (calcul de stabilité d'état stationnaire) ou numériques (algorithme d'optimisation, analyses statistiques). Elle permet l'intégration de différents types de données, telles la réponse comportementale à une perturbation ou des données quantitatives (demie-vie, concentrations). En collaboration avec une équipe de biologistes, cette méthodologie est appliquée, avec succès, au système de l'homéostasie du fer : nous étudions la réponse intracellulaire du système, via des protéines régulatrices spécifiques (protéines IRP), face à une situation de carence en fer. Un résultat majeur de cette étude est l'amélioration des connaissances sur la concentration de fer intracellulaire nécessaire à la prolifération des cellules : cette concentration est mise en avant par l'étude du modèle, puis est confirmée expérimentalement.Le deuxième volet de ces travaux portent sur le développement d'un outil pour la modélisation de réseaux de gènes avec le formalisme des réseaux de Thomas. Cet outil, développé en ASP (Answer Set Programming), permet l'intégration de différents types de données telles des données sur des mutants ou l'existence de différents états stationnaires. Cet outil permet d'éviter automatiquement l'incohérence en cas de contradiction entre différentes hypothèses sur le système. Il permet également l'inférence de propriétés biologiques telles que l'ordre entre paramètres cinétiques. / The major part of this PhD consists in the creation of a methodology to model biological systems. This methodology considers models based on differential equations, and uses formal methods (interval solver, verification of STL formula), analytical methods (study of stability) and numerical methods (optimization algorithm, statistical analysis). Moreover, many kind of data, like behavioral response to perturbation, or quantitative data (metabolite half-life and concentration) can be incorporated. In collaboration with a biologist team, this methodology is successfully applied to the iron homeostasis network : we study the response of the system to an iron depletion, at the intracellular level, based on specific regulatory proteins (IRP proteins). A major output of this study is insight into the level of iron cells need to proliferate : this concentration is pointed out by the study of the model, and is experimentally validated.The second part of the PhD is the creation of a tool to model genetic regulatory networks, using Thomas' formalism. This tool, developed using ASP (Answer Set Programming) programming language, can integrate many kind of data, like mutation data, or the existence of many steady states. It automatically avoids inconsistency in case of contradiction between different hypotheses. It also infers biological properties such as relationships between kinetic parameters.
509

Analyse des causes d'échec des projets d'affaires à partir d'études de cas en entreprises, et proposition d'un modèle de domaine en langage UML / Firm-based investigation into business project failure and developing business project management domain using unified modelling language

Wong, Siaw Ming 24 September 2010 (has links)
En dépit des efforts destinés à accroitre la maturité de la profession dans le domaine de la gestion de projet, le taux d’échec des projets d’affaires (par opposition aux projets techniques) reste élevé. On s’est aperçu que les standards actuels en matière de gestion de projet ne prenaient pas en compte les contraintes liées au contexte d’exécution des projets, et que de ce fait, la gestion de projets d’affaires n’avait pas été étudiée en profondeur. L’objectif de ce travail de recherche transdisciplinaire est donc d’abord d’obtenir une meilleure compréhension du sujet en essayant de comprendre pourquoi l’échec d’un projet d’affaires est considéré comme un échec du point de vue de l’organisation, puis de formaliser la connaissance acquise dans un format qui permette par la suite de l’enrichir et de l’appliquer. En nous appuyant sur le modèle des systèmes ouverts, trois études de cas ont été conduites, avec pour objectif d’étudier l’effet modérateur des différents types de structures des organisations et des systèmes d’information pour la gestion de projet sur la relation causale entre la compétence en gestion de projet et le succès des projets d’affaires. Il résulte de ce travail que le succès des projets d’affaires devrait être mesuré en termes de réalisation des objectifs du projet mais aussi de l’organisation. Ce travail a également permis d’identifier les composants essentiels de la gestion de projets d’affaires : (1) “Compétences de base pour la gestion de projet ”; (2) “Gestion intégrée de programme” et (3) “Système d’information intégré pour la gestion de projet”. Dans les trois études de cas, il apparait également de manière déterminante que les facteurs d’ordre organisationnel ont un impact significatif sur la réussite du projet. Une théorie est proposée, qui postule qu’un projet d’affaires a de grandes chances d’échouer s’il n’est pas géré comme une partie intégrante de l’entreprise, en le traitant comme une opération courante au sein de l’entreprise. Cela signifie que la manière dont les projets d’affaires sont gérés aujourd’hui devrait être revue. Le rôle de l’informatique dans l’assistance à la gestion de ces projets devrait également être revu. Et il faudrait sans doute aussi faire une plus grande différence entre les projets d’affaires et les projets « traditionnels » plus techniques. D’autre part, la formalisation de la connaissance acquise au cours de ces études de cas a été effectuée en développant un modèle de domaine à l’aide du langage de modélisation UML. Et l’approche de modélisation du domaine a été élaborée en modifiant l’étape de conceptualisation dans le processus traditionnel d’ingénierie d’ontologie. En prenant comme point de départ le cadre théorique qui prend en compte l’essentiel des composants de la gestion de projets d’affaires, le modèle a été construit en quatre étapes : (1) définition de la portée du travail en développant chaque composant à partir des normes en vigueur ; (2) intégration de ces développements en réutilisant les travaux réalisés et proposés par d’autres chercheurs ; (3) développement et (4) évaluation des spécifications UML décrivant aussi bien les aspects structurels que dynamiques du sujet traité. Le fait d’avoir réussi à développer un modèle du domaine et à montrer de quelle manière il pouvait être mis en œuvre directement pour développer un système d’information pour la gestion de projet ainsi que des ontologies portant sur les connaissances liées à la gestion de projet a montré que l’approche consistant à construire une base sémantique commune permettant de travailler à la modélisation de systèmes applicatifs et d’ontologies est à la fois réalisable et valide. De plus, le modèle de domaine proposé peut servir de socle permettant d’accumuler progressivement la connaissance du domaine, dans la mesure où l’approche de modélisation a pris en compte la possibilité d’intégrer des travaux et propositions antérieurs. Ce résultat ouvre de nouvelles perspectives de développement de logiciels s’appuyant sur un modèle de domaine qui est directement issu de travaux de recherch / Despite the efforts to improve the maturity of the project management profession, the failure rate of business projects remains high. It was realized that current project management standards do not take contextual requirements into consideration and business project management really has not been addressed in totality. The purpose of this interdisciplinary study therefore, is to obtain a better understanding of the subject matter by investigating why business project fails from the organization’s perspective; and to specify the acquired knowledge in a format that facilitates future expansion and application.Based upon the open systems model, 3 case studies were conducted to examine the moderating effect of the types of organization structure and Project Management Information System (PMIS) support on the causal relationship between project management competency and business project success. It was found that business project success should be measured in terms of meeting both project and organization objectives; and the essential components of business project management were identified to be (1) “Core business project management competencies”; (2) “Integrated programme management” and (3) “Integrated PMIS”. It was conclusive that organizational factors do pose a significant impact in attainment of business project success in all 3 cases; and a theory that business project is likely to fail if it is not managed as an integral part of business enterprise with equal emphasis as its business-as-usual operations has been proposed. This implies that the way business project management is executed today should be reviewed; the role of IT in support of project management work should be reassessed; and a clear distinction between business project management and traditional project management should perhaps be made.The specification of the acquired knowledge on the other hand, was achieved by developing a domain model using UML; based on a domain modelling approach which was devised by modifying the conceptualization step of conventional ontology engineering process. Using the theoretical framework that captures the essential business project management components as the starting point, the model was constructed in 4 steps namely (1) defining the scope of work by expanding each component in the framework using prevailing standards; (2) integrating the defined scope with reusable existing work; (3) developing & (4) testing the UML specifications which describe both structural and behavioural aspects of the subject matter. The successful creation of the domain model and the demonstration of how it can be used directly in the development of the desired PMIS and project knowledge ontologies showed that the approach of building a common semantic foundation to support both application system modelling and ontology modelling is workable and effective. Furthermore, since the modelling approach has built in the ability to reuse existing work, the domain model can be used as a foundation that accumulates domain knowledge progressively. This opens up a new horizon where software systems could be built based on domain model which is a direct reflection of basic research findings; and software systems in the future would compete primarily from the non-functional perspective as a result.
510

Évaluation et modélisation de l’érosion du sol sous différentes pratiques de conservation sur les plantations de café ombragées sur les terres de pente (Ultisols) au Costa Rica / Soil erosion evaluation and modeling under different production practices on shade coffee plantation under steep lands (Ultisols)

Villatoro, Mario 07 December 2015 (has links)
L'objectif principal de ce travail était de mieux comprendre les processus et la dynamique d'érosion des sols sur pentes raides sous culture permanente (café sous arbres d'ombrage).Huit parcelles expérimentales ont été installées dans une plantation de café avec une pente moyenne de 65 % avec Erythrina sp. comme arbre d'ombrage. Le ruissellement superficiel a été mesuré chaque 5 min et collecté pour la mesure de la concentration en sédiments et l'évaluation de l'érosion.La pluviométrie annuelle a été de 2206, 1778 et 2220 mm en 2011, 2012 et 2013 respectivement avec une alternance marquée de saison sèche et saison des pluies. La lame ruisselée totale a été en moyenne de 103, 54 et 33 mm respectivement pour les trois années. La concentration moyenne en sédiments a été d'environ 1.3 g l-1 avec des variations temporelles réduites entre événements pluvieux et entre années. La perte de sol annuelle moyenne a diminué de 1.69 à 0.91 puis 0.58 t ha-1 an-1 de 2011 à 2013. La dynamique temporelle a été analysée à trois échelles de temps : annuel-mensuel, événement et intra-événement. Environ 60% de la pluie et 90% du ruissellement et de l'érosion s'est produit pendant les périodes d'octobre à aout, dont plus de la moitié en octobre. La hauteur de pluie de chaque événement et la teneur en d'eau du sol ont expliqué l'essentiel de la variabilité du ruissellement et de la perte en terre. Le stockage d'eau de sol hérité de l'année précédente a joué un rôle important sur le ruissellement. Un modèle d'infiltration simple (Diskin et Nazimov) a été utilisé pour évaluer la hauteur de ruissellement pendant une pluie.En 2012 quatre traitements ont été appliqués avec deux répétitions chacun : 1. traitement de référence avec renouvellement de mini-terrasses et désherbage manuel ; 2. idem 1 sans renouvellement de mini-terrasses ; 3. idem 1 sauf désherbage avec un herbicide ; 4. idem 1 avec taille réduite des arbres d'ombrage. On a considéré trois périodes : P1 avant application des traitements, P2 les deux mois suivants traitement et P3 l'année suivante (2013). Les différences significatives entre les ratios de traitements/référence pour les trois périodes indiquent une augmentation du ruissellement et de la concentration en sédiments après renouvellement des mini-terrasses avec un effet toujours présent pour P3. Le désherbage avec un herbicide n'a pas montré d'influence claire. Le traitement avec taille réduite des arbres d'ombrage a réduit l'érosion pour les conditions d'humidité de sol > 30 % seulement.Le ruissellement superficiel, la concentration en sédiments et la perte en terre ont été mesurés à l'exutoire d'un petit bassin versant (31 ha, de pente moyenne de 60 %) en 2012 et 2013. Seules les pluies de hauteur supérieure à 5 mm (169 événements) ont produit du ruissellement et l'essentiel des volumes ruisselés a été produit lors des fortes averses (> 40 mm). Les coefficients de ruissellement ont été faibles (0.9 %) aux deux échelles en 2013. Ils ont atteint 2.44 % pour les parcelles et 0.9 % pour le bassin versant en 2013. L'écoulement de base était également faible pour le bassin versant (13-16 % de la pluie totale) avec une grande partie de la pluie (environ 20 %) perdue par percolation. La concentration moyenne en sédiments a été d'environ 1.65 g l-1 à l'échelle de la parcelle avec des valeurs maximales de 5.64 g l-1. La concentration moyenne en sédiments à l'échelle du bassin versant a été de 0.51 g l-1. La perte de sol annuelle a été de 0.73 et 0.36 t ha-1 an-1 à l'échelle parcellaire (tous traitements confondus) pour 2012 et 2013 respectivement et de 0.46 et 1.24 t ha-1 yr-1 à l'échelle du bassin versant pour les mêmes années.Le système caféier étudié a présenté une perte en terre modérée liée à une protection importante de la surface du sol par la végétation. / The main objective of this work was to better understand soil erosion processes and dynamics on steep lands cultivated with a permanent crop (shade coffee).Eight large experimental plots were installed in a 65% average slope coffee plantation with Erythrina sp. as shade tree. The superficial runoff was measured every 5 min. and collected for sediment concentration measurement and soil loss assessment.Rainfall depth was 2206, 1778 and 2220 mm in 2011, 2012 and 2013 respectively with a marked succession of dry season and rainy season. Total runoff was 103, 54 and 33 mm along those three years. Annual average sediment concentration at plot scale was about 1.3 g l-1 with reduced temporal variations between years or rainfall events. The plots' average annual soil loss (under normal management) decreased from 1.69 to 0.91 and 0.58 t ha-1 from 2011 to 2013. An analysis of the temporal dynamics was performed in three time scales: annual-monthly, event and intra-event. Around 60% of rainfall and 90% of runoff and soil loss occurred each year during the August-October periods and more than half of it in October. Total event rainfall and soil water content explained most of surface runoff and soil loss dynamics, while inherited soil water storage from previous year played an important role on the relationship between rainfall and runoff dynamics the following year. A simple infiltration model (Diskin and Nazimov) was used to estimate runoff during a rainfall event.In 2012 four treatments were applied with two replicates each: no mini-terraces renewal, weed control with herbicide, reduced pruning pressure on shade trees and reference management. Three periods were considered: P1 before treatment application, P2 the next two months afterwards and P3 the year after (2013). The significant differences between treatments/reference ratios for the three periods suggested higher runoff and sediment concentration when mini-terraces were renewed and the effect decreased but was still present in P3. Chemical weed control did not show a clear trend. The reduced pruning treatment reduced erosion only for superficial soil moisture >30%.Superficial runoff, average sediment concentration and soil loss were monitored at the outlet of a small watershed (31 ha, 60% average slope) during 2012 and 2013. Rainfall events greater than 5 mm (169 events) produced runoff at both scales and most of runoff amount was produced for strong rainfalls (> 40 mm). The runoff coefficients were very low (0.9%) at both scales in 2013. But it was 2.44% for plots and 0.9% for watershed in 2013. The base flow was also very low on this watershed (13-16% of total rainfall) with a large part of the rainfall (about 20%) being lost by percolation. The average sediment concentration at the plots was about 1.65 g l-1 and the maximum value was 5.64 g l-1. The average sediment concentration at watershed scale was 0.51 g l-1. Estimated annual soil loss were 0.73 and 0.36 t ha-1 yr-1 at plots scale (all managements included) for 2012 and 2013 respectively and 0.46 and 1.24 t ha-1 yr-1 at watershed scale for thesame years.The shade coffee system studied showed a tolerable soil loss compared to the potential erosion due to the efficient vegetal surface protection.

Page generated in 0.107 seconds