Spelling suggestions: "subject:"oon linéaire"" "subject:"oon linéaires""
51 |
Strategy for Selecting Input Ground Motion for Structural Seismic Demand Analysis / Élaboration de Stratégies de Sélection de Signaux Accélérométriques pour le Calcul du Comportement des StructuresIsbiliroglu, Levent 01 March 2018 (has links)
Les signaux accélérométriques enregistrés lors de l’occurrence d’un événement sismique est très large présentent une forte variabilité, par conséquent ils ne sont pas utilisé dans les analyse dynamiques de tenue sismique des structures. En effet, l’utilisation des accélérogrammes réels, pour les analyses dynamiques non linéaires, s’avère couteuse en termes de temps de calcul. La pratique courante prévoit la minimisation (voir suppression) de telle variabilité, mais les conséquences d’une telle opération sur la réponse des structures ne sont pas clairement indiquées. L’étude ci-présente a pour scope la quantification de l’impact des méthodes de sélection qui gardent la variabilité du signal sur les résultats de l’analyse de la réponse des structures (exprimée en termes d’engineering demand parameters EDPs). En particulier les questions suivantes seront investiguées :Quel est le niveau de variabilité des accélérogrammes réels et comment ce niveau est modifié par les techniques couramment utilisées ?Quelle est l’impact de la variabilité sur la réponse de plusieurs types de structures ?Pour un scénario sismique donné, un spectre cible est défini à partir de plusieurs équation de prédiction du mouvement sismique, sélection parmi celles disponibles en littérature. Les accélérogrammes sont sélectionnés à partir de quatre familles d’accélérogrammes, chacune relative à une méthode de modification : réels (enregistrés); mise à l’échelle (multiplication, par un facteur) ; calés aux spectres cibles avec large tolérance ; calés aux spectres cibles dans une plage de tolérance étroite.Chaque jeu de signaux est composé de cinq accélérogrammes et la sélection des signaux est faite en tenant compte de deux sources de variabilité : la variabilité au sein de chaque jeu de données (intraset), et la variabilité entre les différents jeux de données (interset) tous compatibles avec le même spectre cible. Les tests sur les EDPs menés sur les signaux accélérométriques réels mènent à la quantification de la variabilité naturelle (pour le scénario considéré). Les analyses basées sur les signaux réels sont utilisés comme benchmark afin d’évaluer non seulement de combien la distribution des EDPs (en termes de valeur moyenne et variabilité) est réduite par les différentes méthodes testées, mais aussi d’évaluer l’impact des choix de l’équation de prédiction du mouvement, des plages de tolérance, du nombre d’accélérogrammes constituant chaque jeu, du nombre de jeux, de le scope de l’analyse structurale et le modèle de structure.Ce travaille nous conduit à conclure que un seul jeu d’accélérogramme, tel qu’utilisé dans la pratique courante, est insuffisant pour assurer le niveau d’EDPs indépendamment de la méthode de modification utilisés, cela est lié à la variabilité des signaux et entre les jeux d’accélérogrammes. Les signaux réels, compatibles avec le spectre définis pour le scénario sismique, are l’option plus réaliste pour l’analyse dynamique non-linéaire ; si une méthode de modification du signal est nécessaire, la plus adaptées dépend du scope de l’analyse spectrale et du modèle. Le choix de l’équation de prédiction du mouvement sismique utilisée pour définir le spectre cible impacte significativement les caractéristiques des mouvements sismiques et des EDPs. Cette observation ne dépend pas de la stratégie de de modification du signal. / The observed variability is very large among natural earthquake records, which are not consolidated in the engineering applications due to the cost and the duration. In the current practice with the nonlinear dynamic analysis, the input variability is minimized, yet without clear indications of its consequences on the output seismic behavior of structures. The study, herein, aims at quantifying the impact of ground motion selection with large variability on the distribution of engineering demand parameters (EDPs) by investigating the following questions:What is the level of variability in natural and modified ground motions?What is the impact of input variability on the EDPs of various structural types?For a given earthquake scenario, target spectra are defined by ground motion prediction equations (GMPEs). Four ground motion modification and selection methods such as (1) the unscaled earthquake records, (2) the linearly scaled real records, (3) the loosely matched spectrum waveforms, and (4) the tightly matched waveforms are utilized. The tests on the EDPs are performed on a record basis to quantify the natural variability in unscaled earthquake records and the relative changes triggered by the ground motion modifications.Each dataset is composed by five accelerograms; the response spectrum compatible selection is then performed by considering the impact of set variability. The intraset variability relates to the spectral amplitude dispersion in a given set, and the interset variability relates to the existence of multiple sets compatible with the target.The tests on the EDPs are performed on a record basis to quantify the natural variability in unscaled earthquake records and the relative changes triggered by the ground motion modifications. The distributions of EDPs obtained by the modified ground motions are compared to the observed distribution by the unscaled earthquake records as a function of ground motion prediction equations, objective of structural analysis, and structural models.This thesis demonstrates that a single ground motion set, commonly used in the practice, is not sufficient to obtain an assuring level of the EDPs regardless of the GMSM methods, which is due to the record and set variability. The unscaled real records compatible with the scenario are discussed to be the most realistic option to use in the nonlinear dynamic analyses, and the ‘best’ ground motion modification method is demonstrated to be based on the EDP, the objective of the seismic analysis, and the structural model. It is pointed out that the choice of a GMPE can provoke significant differences in the ground motion characteristics and the EDPs, and it can overshadow the differences in the EDPs obtained by the GMSM methods.
|
52 |
Croissance rapide en solution de cristaux pour l'optique non linéaire quadratique / Rapid growth in solution of crystals for quadratic non linear opticsLeroudier, Julien 13 July 2011 (has links)
La croissance cristalline de KH2PO4(KDP)and K(H1-xDx)2PO4(DKDP)a été fortement étudiée depuis de nombreuses années. Les propriétés optiques nonlinéaires (conversion de fréquence: doublage pour le KDP et triplage pour le DKDP)et les études fondamentales sur les mécanismes de croissance sont à la base du développement important de la croissance de ces cristaux. Au début des années 90, un fort intérêt s'est porté sur le KDP et DKDP pour les dispositifs optiques à large ouverture pour les applications industrielles de fusion inertielle comme au NAtional Ignition Facility (NIF) aux USA ou pour le laser MégaJoule en France. La dimension de ces optiques (40*40 cm²) nécessite des cristaux géants crûs en solution. Une technique de croissance rapide a été développé par abaissement de température dans un réacteur de 1000L et par une filtration en continu afin d'éviter la nucléation spontanée. Cette méthode est très robuste et fiable pour la croissance rapide de cristaux géants de KDP mais néanmoins montre des limitations inhérentes à cette méthode. En effet, cela mène à des cristaux inhomogènes (défauts, inhomogénéités isotopiques)ce qui est rédhibitoire pour des solutions solides intermédiaires comme le DKDP : la composition en début de croissance peut varier significativement de celle en fin de croissance. Très récemment, des méthodes par circulation de solution en conditions stationnaires ont été développées pour palier à ce problèmeet sont considérées comme les plus pertinentes. C'est pourquoi nous avons développé un système par circulation en conditions stationnaires avec un traitement original de la solution. Dans un premier temps, le système a été testé sur un composé modèle KDP puis dans un deuxième sur le composé utilisé pour l'application DKDP. / Crystal Growth of KH2PO4(KDP)and K(H1-xDx)2PO4(DKDP)has been extensively covered over the years. For decades KDP and DKDP crystals have been grown either for their nonlinear optical properties (frequency conversion : doubling for KDP and tripling for DKDP) or for fundamental studies on crystal growth mechanisms. At the beginning of the 90's, a special interest arose for KDP for large aperture optical elements for laser fusion facilities such as the National Ignition Facility (NIF)in the USA or for the laser MegaJoule in France. The size of such optics(40*40 cm²)requires giant crystals to be grown in solution. A rapid growth technique has been developed based on the temperature lowering of a 1000L solution and its continuous filtration to avoid spurious nucleation. While this method is very robust and fully mature for the rapid growth of giant KDPs it nonetheless suffers from the limitations inherent to the Temperature Lowering Method(TLM).It does not provide stable growth conditions(temperature and supersaturation change).This can lead to inhomogeneous crystals (defects, isotopic inhomogeneity)and this is critical for intermediate of a solid solutions as the DKDP : the composition grown at the beginning can differ significantly from the one crystallizing later. Very early, transport methods growing crystals in stationary conditions, were considered to be "the most pertinent ones". That's why we have developed a growth system in stationary conditions with an original treatment of the solution. The grown compound selected was firstly KDP (model compound)then DKDP (KDP deuterated) for the desired application.
|
53 |
The Mechanisms And Timing Of Mother To Child Transmission Of HIV Using Model Based Approaches Integrating Prior Information From Historical Data / Analyse du mécanisme et moment de la transmission mère-enfant du VIH par des approches fondées sur des modèles intégrant des données historiquesSripan, Patumrat 28 April 2016 (has links)
Grâce aux combinaison d’antirétroviraux (ART), le taux de transmission mère-enfant (TME) du Virus de l’Immunodéficience Humaine VIH est maintenant réduit à moins de 1%. Des progrès restent néanmoins à faire, en particuliers chez les femmes débutant tardivement leurs consultations prénatales. Mais l’évaluation de nouvelles stratégies ART pour la prévention de la TME (PTME) devient de plus en plus complexe à cause des exigences statistiques liées au fait que les transmissions sont rares. Dés lors, il devient crucial de modéliser l’efficacité des ART sur la charge virale (CV) et la transmission. Dans cette thèse, nous modélisons les mécanismes et le moment de la TME du VIH en utilisant des modèles mixtes. Les données proviennent de 4 études de prévention périnatales du VIH en Thaïlande (PHPT-1, PHPT-2, PHPT-5 1st phase et PHPT-5 2nd phase), une base de données historiques de qualité, collectées de 1996 à 2015, où différentes prophylaxies ART ont été prescrites à plus de 4000 femmes enceintes pendant des durées variables: Zidovudine (ZDV) seule; ZDV + une dose unique de nevirapine périnatale (sdNVP); ZDV+lopinavir/ritonavir (LPV/r) ou ZDV+LPV/r+lamivudine (3TC). Les modèles développés apportent un éclairage sur les mécanismes et le moment de la PTME ainsi que sur le rôle respectif de différents ART sur la réduction de la CV et sur leur contribution à la prophylaxie pre/post exposition. Partant de ces connaissances, une approche bayésienne est appliquée à une étude de cas (essai de supériorité dans le contexte d’un événement rare comme la TME du VIH) afin d’améliorer la puissance statistique tout en limitant la taille de l’échantillon, et comparée à une approche fréquentiste. / Nowadays, with the use of highly efficacious antiretroviral (ART) combination, the rate of mother-to-child transmission (MTCT) of Human Immunodeficiency Virus (HIV) is reduced to less than 1%. However, there are still some gaps to be filled, especially in women who initiate antenatal prophylaxis late. The evaluation of new ART strategies or drug combinations for the prevention of MTCT (PMTCT) of HIV becomes more difficult in view of the statistical requirements in case of rare outcomes. Therefore modeling the impact of ART on maternal viral load (VL) and transmission rate is increasingly important. In this thesis, the mechanisms and timing of MTCT of HIV were investigated using mixed model approaches. Data were derived from four perinatal HIV prevention studies in Thailand (PHPT-1, PHPT-2, PHPT-5 1st phase and PHPT-5 2nd phase), a unique set of quality historical data, consistently collected from 1996 to 2015, in which different ART prophylaxis regimens were provided to more than 4000 HIV-infected pregnant women for varying durations: Zidovudine (ZDV) alone; ZDV plus perinatal single dose nevirapine; ZDV+lopinavir/ritonavir (LPV/r) or ZDV+LPV/r+lamivudine. The developed models provide insights on the mechanisms and timing of PMTCT as well as on the respective role of different ARTs on the maternal VL reduction and in turn on their contribution to pre/post-exposure prophylaxis in MTCT of HIV. With this prior knowledge, a Bayesian design is applied to a case study, a trial aimed at evaluating treatment superiority in the context of rare outcomes such as MTCT of HIV, to improve the statistical power –while limiting sample size— and compared to a frequentist design.
|
54 |
L'effet kerr optique dans des gels inorganiques dopes, source d'un effet memoire tout-optique.Bentivegna, Florian 24 May 1995 (has links) (PDF)
Dans la course aux materiaux pour l'optique non-lineaire, les matrices dopees, solides et transparentes obtenues, a temperature ambiante, par procede sol-gel, prennent une importance toujours croissante. Ainsi, en soumettant un gel de silice, dope par des molecules organiques, aux impulsions breves, polarisees rectilignement, issues d'un laser a colorant, on induit une birefringence locale, de relaxation extremement lente. Ce phenomene, qui presente une dependance quadratique par rapport au champ electrique optique, peut s'expliquer par la conjonction d'un alignement moleculaire par effet kerr optique et de l'etablissement de liaisons hydrogene entre le gel et ses dopants. La nature et la structure des especes dopantes, de leur matrice hote ou encore des impulsions lumineuses jouent ici chacune un role essentiel. Les molecules dopantes doivent ainsi presenter une forte polarisabilite, et offrir un nombre important de sites d'ancrage par liaison hydrogene. Il en est de meme pour les pores de la matrice hote. La composition du gel affecte grandement le nombre de ces sites. Une maniere, toutefois, de favoriser l'alignement remanent des dopants consiste a les greffer, des la synthese, aux pores du gel, via des liaisons covalentes. La structure temporelle des impulsions est egalement cruciale. On y distingue deux composantes. L'une, d'une duree d'une centaine de femtosecondes, brise les liaisons hydrogene et libere les dopants. L'autre, plus longue (une dizaine de nanosecondes), les aligne. Mathematiquement descriptibles par une equation de diffusion rotationnelle modifiee, ces mecanismes ont donne lieu a quelques premieres applications experimentales (inscription d'une image et d'un reseau de diffraction). Le choix, enfin, de nanoparticules magnetiques comme dopants, permet de les orienter et non plus seulement de les aligner sous champ magnetique statique des la formation du gel. Les materiaux ainsi obtenus presentent une birefringence uniforme, mais aussi une non-centrosymetrie propice aux non-linearites optiques du second ordre.
|
55 |
OPTIMISATION DU PLAN DE TRANSPORT PAR PLANIFICATION INTEGREE DES RESSOURCES / INTEGRATED PLANNING OF RAILWAY TRANSPORTATION RESOURCESBenhizia, Faten 25 October 2012 (has links)
La production des circulations ferroviaires a la sncf repose actuellement sur un processus essentiellement sequentiel dans lequel la conception des grilles horaires de circulation (reservation de l'infrastructure pour la circulation des trains de l'offre de transport de la sncf) conditionne largement la conception des planifications des engins ferroviaires (les roulements engins), puis celle des agents de conduite (adc) (les grilles de service des adc). cette strategie de planification sequentielle des ressources ferroviaires a ete massivement adoptee pour des raisons pratiques et scientifiques (historique, savoir-faire, complexite du systeme ferroviaire, etc.). toutefois, cette strategie de planification sequentielle genere des solutions qui peuvent etre de cout eleve et moins robustes aux aleas, car les decisions prises a une etape donnee peuvent reduire considerablement l'ensemble des solutions realisables aux etapes suivantes. face a ce constat et a la forte interaction entre ces trois ressources heterogenes et tres couteuses, la sncf a souhaite investiguer la praticabilite et les apports d'une demarche d'optimisation du plan de transport par planification integree de ces ressources critiques. dans cette optique, les travaux de these ont porte sur l'etude de faisabilite, le prototypage et la validation d'une demarche de planification integree des ressources permettant d'ameliorer l'efficacite globale du plan de transport, d'accroitre la competitivite de la sncf et d'ameliorer la qualite de ses services. nous avons propose une formalisation du probleme de planification integree engins/adc et des algorithmes performants qui s'appuient sur une approche par relaxation lagrangienne pour resoudre de maniere efficace la problematique etudiee. cette approche repose sur l'exploitation de deux briques logicielles developpees a la sncf pour resoudre chacun des sous-problemes de planification des engins et des adc. les algorithmes ont ete testes experimentalement avec des donnees reelles de la region ter bretagne. differentes evolutions des modeles et des algorithmes ont ete etudiees pour rendre ces derniers plus efficaces. les tests de validation sur des jeux de donnees reelles a une echelle industrielle sont encourageants et montrent des gains potentiels allant jusqu'a 4% des adc exploites par rapport a une approche traditionnelle (sequentielle). / The planning of railway production at the french national railways (sncf) is currently based on a mainly sequential process in which the design of railway timetabling widely conditioning design planning of railway equipment (rolling stock), then one of the train drivers (driver rosters). this strategy of sequential planning of railway resources massively adopted for practical and scientific reasons (expertise, complexity of the railway system, etc.). however, this strategy generates solutions which can be more expensive and less robust to uncertainties, because decisions taken at any given stage can significantly reduce the overall feasible solutions of the following steps.given this situation and the strong interaction between these heterogeneous and very expensive resources, the thesis deals with the feasibility and inputs of a process where these critical resources could be planned and optimized in an integrated way. the thesis focuses on the feasibility study, prototyping and validation of an integrated approach for planning rolling stocks and drivers, so as to improve the efficiency of the overall transportation plan, increase sncf competitiveness and enhance the quality of its services. we propose a mixed integer linear programming formulation of the rolling stock/ train drivers integrated planning problem. in this mathematical model, each planning sub-problem is formalized and coupling constraints are further introduced to model the interdependencies of these two resources when they are simultaneously used for train production. in this heuristic, the solution of the lagrangian dual and the calculation of feasible solutions are performed by calling two proprietary software modules available at sncf for planning rolling stocks and train drivers. the heuristic is tested experimentally with real data from the ter bretagne region, and several evolutions are introduced in the models and algorithms so as to improve their performances.validation tests on of real data sets at an industrial scale are encouraging and, when compared to a traditional (sequential) approach, show gain of up to 4% for train drivers used.
|
56 |
Diagnostic de Faisceau par "Laser-Wire" et Mesure Rapide du Spectre de Luminosite au Collisionneur Lineaire InternationalPoirier, Freddy 06 September 2005 (has links) (PDF)
The International Linear Collider (ILC), a high precision electron-positron machine with centre of mass energy extending up to the TeV scale, is curently being proposed and designed. With unprecedented small beam size and high intensity the ILC aims at luminosities of the order of $10^(34)$~cm$^(-2)$s$^(-1)$. Careful monitoring of the beam parameters that affect the luminosity will be mandatory if these ambitious goals are to be achieved.<br /><br />One of the key parameters is beam emittance, the optimisation of which requires beam size monitors with micron resolution.<br />With this aim, a non-invasive laser-wire monitor prototype was designed, installed and run at the PETRA ring. Prior to its installation, background simulations and measurements were performed to verify that they would be low enough to allow<br /> the laser-wire programme to proceed. A lead-tungstate crystal calorimeter for the laser-wire was commissioned, including a study of temperature dependance, geometrical acceptance and energy response. The first laser-wire measurements of the PETRA positron beam size were then performed. The system, calibration and results are reported here.<br /><br />At the ILC, beam energy spread and beamstrahlung effects modify the luminosity spectrum. Determination of these effects is crucial in order to extract precision physics from threshold scans. In order to provide a run-time diagnostic scheme to address this, a fast luminosity spectrum measurement technique employing forward calorimetry and statistical unfolding was devised, using the Bhabha process at low angles. The scheme is described and first results are presented.
|
57 |
Modélisation des pertes de rendement des cultures de blé dhiver au Grand-Duché de Luxembourg sur base de létude des surfaces photosynthétiquement actives./Yield loss modélisation of wheat based on photosynthetic active area studies.Mackels, Christophe 06 April 2009 (has links)
Au Grand-Duché de Luxembourg, le développement de modèles opérationnels pour la prévision
des rendements se heurte actuellement au problème de la non prise en compte de la diminution de la
surface verte utile et de sa relation avec des processus biotiques et abiotiques incriminés en situation
de production. Pourtant, il apparaît que lélaboration dun modèle reliant la perte de surface verte à la
baisse de rayonnement absorbé est la façon la plus adéquate daméliorer les prévisions de perte de
rendement aux champs. De nombreuses manières destimer les rendements existent et se basent sur
différentes approches et méthodes. Lobjectif de ce travail est de proposer un modèle destimation des
rendements basé sur létude de la dégradation de la surface verte foliaire du blé et du rayonnement
intercepté par cette surface tout au long de sa dégradation.
Lapproche envisagée consiste, dans un premier temps, à utiliser les deux principaux modèles
existants qui décrivent linterception du rayonnement par les surfaces foliaires vertes avec des
données issues dexpérimentations aux champs, au Grand-Duché de Luxembourg en 2006 et 2007.
Différentes méthodes dobtention des principales données dentrée de ces modèles ont été comparées
et leurs avantages ont été mis en évidence. Ces données sont le LAI (Leaf Area Index) et le
pourcentage de surface foliaire verte. Un LAI de référence, obtenu à laide dune méthode danalyse
dimages de feuilles a été validé et comparé à une méthode dobtention du LAI basée sur la mesure
du rayonnement intercepté par le couvert ainsi quà une méthode fournissant la couverture verte du
sol à partir dimages aériennes de courte distance. Il a été montré que le LAI issu de la mesure du
rayonnement intercepté et la couverture verte du sol sont obtenus plus rapidement et pour de plus
grandes surfaces, mais quils ne sont pas suffisamment corrélés au LAI de référence pour être utilisés
afin dobtenir le LAI réel. Le pourcentage de la surface foliaire verte de référence a également été
obtenu à laide de la méthode danalyse dimages de feuilles. La comparaison de celui-ci aux
estimations visuelles du pourcentage de surface verte foliaire a montré que cette méthode est plus
rapide, mais engendre une surestimation du pourcentage de surface foliaire verte. Une relation
linéaire significative entre la couverture verte du sol par prise dimages aériennes et le pourcentage de
surface foliaire verte a été obtenue. Une amélioration de la prise dimages aériennes de courte
distance pourrait mener à une substitution du pourcentage de surface foliaire verte par la couverture
verte du sol sur de grandes surfaces à lavenir.
Les deux principaux modèles décrivant linterception du rayonnement par les surfaces foliaires
vertes ont été utilisés avec le LAI et le pourcentage de surface foliaire verte de référence. Une
simplification de ces modèles par lutilisation de la dernière ou des deux dernières strates foliaires à la
place des trois dernières pour le pourcentage de surface verte a montré que la simplification ne menait
pas à une amélioration des résultats dans la plupart des cas. Dautre part, une estimation des biais
introduits en utilisant les pourcentages de surface verte issus de lestimation visuelle à la place des
estimations par lanalyse dimages montre que lestimation visuelle introduit un biais allant jusquà
20%. La comparaison des deux modèles testés a mené à la sélection du modèle aux sorties fournissant
la meilleure relation avec les rendements. Cest une relation linéaire simple entre les paramètres de la
courbe décrivant lévolution des sorties du modèle dit du « calcul de la matière sèche » au cours de la
saison de culture et le rendement qui a été retenue.
Dans un deuxième temps, le modèle sélectionné a été utilisé avec des données issues
dexpérimentations menées de lannée 2000 à 2005, afin dobtenir une relation linéaire plus stable
entre les rendements et les sorties de ce modèle. La relation obtenue montre des résultats significatifs
et expliquant plus de 66% des rendements si une variété au comportement atypique est exclue. Un
effet significatif de lannée, du précédent et de la variété sur cette relation a été mis en évidence.
Dans un troisième temps, laspect prédictif du modèle destimation des rendements basé sur la
relation linéaire simple retenue a été étudié sur deux années de données extérieures aux années
utilisées pour la construction de celui-ci. Les données dentrée nécessaires au fonctionnement du
modèle ont dû être obtenues de manière prédictive, afin de réaliser des estimations du rendement à
venir à partir de la floraison. Le modèle Proculture, basé sur la simulation de lévolution des
symptômes de la septoriose, a permis dobtenir des estimations en prévision des pourcentages de
surface verte, et le LAI a été considéré comme constant par variété dune année à lautre. Le modèle
destimation utilisé a permis dobtenir des prévisions de rendement ~20% supérieures aux rendements
réels./In the Grand Duchy of Luxembourg, the development of operational models for predicting
yields currently runs against the failure to take into account the green leaf area decline and its
relationship with biotic and non biotic processes involved in a situation of production. Yet it
appears that the development of a model linking the loss of green leaf area to lower radiation
absorbed is the most adequate to improve prediction of yield loss in the fields. Many ways to
estimate yields exist and are based on different approaches and methods. The objective of
this work is to propose a model for estimating yields based on the study of the green leaf area
decline of wheat and radiation intercepted by this area throughout the season.
The approach is, first, to use the two main existing models that describe the interception of
radiation by green leaf area with data from experiments in the field, in the Grand Duchy of
Luxembourg in 2006 and 2007. Different methods for obtaining key data entry of these
models were compared and their benefits have been identified. These data are LAI (Leaf
Area Index) and the percentage of green leaf area. The reference method, obtained using
image analysis of leaves has been validated and compared to a method for obtaining LAI
based on the measurement of radiation intercepted by the canopy as well as a method based
on the green cover soil obtained from short distance aerial images. It was shown that the LAI
obtained from the measurement of radiation intercepted and the green land cover obtained
from short distance aerial images are obtained faster and for larger surfaces, but they are not
sufficiently correlated with the LAI from the reference method to be used in place of
reference LAI. The percentage of green leaf area of reference has also been obtained using
the image analysis of leaves. Comparing it to visual estimates of the percentage of green leaf
area has shown that this method is faster and creates an overestimation of the percentage of
green leaf area. A significant linear relationship between green land cover from short
distance aerial images analysis and the percentage of green leaf area was obtained. An
improved short distance aerial image could lead to the substitution of the percentage of green
leaf area by the green land cover over large areas in the future. The two main models
describing the interception of radiation by green leaf area were used with the LAI and the
percentage of green leaf area of reference. A simplification of these models by using only the
upper leaf or the two last leaves to emerge in place of the last three leaves to emerge for the
percentage of green area has shown that simplification did not lead to improved results in
most cases. On the other hand, an estimate of bias using the percentage of green leaf area
from the visual estimate in place of estimates by image analysis shows that visual estimate
introduce an approximate bias of 20%. A comparison of the two models tested led to the
selection of the model outputs providing the best relationship with yields. It is a simple linear
relationship between parameters of the curve describing the evolution of model outputs socalled
calculation of dry matter during the growing season and yield that was chosen.
In a second time, the selected model was used with data from experiments conducted from
2000 to 2005 to obtain a more stable linear relationship between yields and output of the
model. The relationship obtained shows significant results and explains over 66% yields if
datas from an atypical variety are excluded. A significant effect of years, precedent and
variety on this relationship was highlighted.
In a third time, the predictive aspect of the model to estimate yields based on the simple
linear relationship has been studied on two years of external data used for years to build it.
The input data needed to run the model had to be obtained on a predictive way to make
estimates of future performance from flowering. The model Proculture, based on the
simulation of the progression of septoriose disease, allowed obtaining estimates in
anticipation of the percentage of green area, and LAI was considered constant variety from
one year to another. The estimation model used resulted in expected future performance ~
20% higher than actual yields.
|
58 |
INCERTITUDE SUR LES MODELES EN FINANCE ET EQUATIONS DIFFERENTIELLES STOCHASTIQUES RETROGRADES DU SECOND ORDREZhou, Chao 01 October 2012 (has links) (PDF)
L'objectif principal de cette thèse est d'étudier quelques problèmes de mathématiques financières dans un marché incomplet avec incertitude sur les modèles. Récemment, la théorie des équations différentielles stochastiques rétrogrades du second ordre (2EDSRs) a été développée par Soner, Touzi et Zhang sur ce sujet. Dans cette thèse, nous adoptons leur point de vue. Cette thèse contient quatre parties dans le domain des 2EDSRs. Nous commençons par généraliser la théorie des 2EDSRs initialement introduite dans le cas de générateurs lipschitziens continus à celui de générateurs à croissance quadratique. Cette nouvelle classe des 2EDSRs nous permettra ensuite d'étudier le problème de maximisation d'utilité robuste dans les modèles non-dominés. Dans la deuxième partie, nous étudions ce problème pour trois fonctions d'utilité.Dans chaque cas, nous donnons une caractérisation de la fonction valeur et d'une stratégie d'investissement optimale via la solution d'une 2EDSR. Dans la troisième partie, nous fournissons également une théorie d'existence et unicité pour des EDSRs réfléchies du second ordre avec obstacles inférieurs et générateurs lipschitziens, nous appliquons ensuite ce résultat à l'étude du problème de valorisation des options américaines dans un modèle financier à volatilité incertaine. Dans la quatrième partie, nous étudions des 2EDSRs avec sauts. En particulier, nous prouvons l'existence d'une unique solution dans un espace approprié. Comme application de ces résultats, nous étudions un problème de maximisation d'utilité exponentielle robuste avec incertitude sur les modèles. L'incertitude affecte à la fois le processus de volatilité, mais également la mesure des sauts.
|
59 |
Capteur photorefractif d'ultrasons : choix et optimisation d'un matériau holographique ; étude et réalisation d'un prototype. Senseur photorefractif d'ultrasons : choix et optimisation d'un matériau holographique ; étude et réalisation d'un prototype.De Montmorillon, Louis-Anne 15 April 1997 (has links) (PDF)
Les matériaux photorefractifs sont ici mis en oeuvre pour l'analyse sans contact des très faibles vibrations engendrées en surface d'une pièce mécanique brute et donc rugueuse. Nous réalisons un couplage entre un faisceau de référence et un faisceau signal issu de la surface vibrante et construisons, grâce a l'effet photorefractif, un oscillateur local qui va interférer en teinte plate avec le faisceau signal transmis quelle que soit la structure spatiale de ce dernier. De plus, le matériau photorefractif va s'adapter aux phénomènes lents, correspondant a des vibrations parasites ou a des déréglages du système, tout en restant sensible aux vibrations de hautes fréquences (ultrasons). Le cdte:v est le matériau photorefractif que nous avons choisi. Il présente des performances adaptées a notre application sur une plage de longueur d'onde comprise entre un et un virgule cinquante-cinq micromètre. Nous présentons une étude des propriétés photorefractives de ce matériau et en particulier une méthode qui nous a permis de déterminer avec précision la densité effective de pièges des échantillons testés. Nous avons ensuite mis au point un senseur photorefractif qui présente des sensibilités comparables a celles des techniques classiques qui elles ne fonctionnent qu'avec des ondes planes. Pour cela, nous avons applique un champ électrique continu au cristal photorefractif afin de mettre en quadrature le signal transmis et l'oscillateur local. Un avantage de cette technique sous champ est la très faible influence du phénomène de compétition electron-trou, présent dans nos cristaux, permettant une réponse indépendante de la longueur d'onde utilisée. Enfin, nous travaillerons en régime d'atténuation car on évite ainsi un phénomène de résonance gênant tout en accédant a la même sensibilité qu'en régime d'amplification
|
60 |
Etude de matériaux solides solgel présentant la proprieté de transmission saturable.Brunel, Marc 09 January 1996 (has links) (PDF)
Le développement rapide des sources lumineuses intenses, accordables en longueur d'onde, représente une menace croissante pour les différents détecteurs existant, et tout particulièrement l'il. Une méthode de protection envisageable est l'utilisation de composes organiques presentant un comportement d'absorption saturable inverse: leur absorption augmente lorsqu'ils sont eclaires par des faisceaux lumineux tres intenses. En utilisant le procede sol-gel, nous avons pu élaborer des materiaux solides compacts dopes avec des molecules de la famille des phtalocyanines. A la longueur d'onde de 532 nanometres, des echantillons de transmission initiale 0,7, ont permis d'induire une densite optique de 1 sous l'effet d'impulsions de forte densite. Avec des echantillons de transmission lineaire 0,4, la densité optique induite est egale a 1,6. Afin de mieux comprendre le processus de saturation de la transmission, nous avons écrit des programmes informatiques permettant de simuler le comportement observe. Ils se sont averes etre d'excellents outils pour mieux cerner les phenomenes mis en jeu. Pour améliorer les performances obtenues, differents types de synthèses ont ete entrepris, et differentes molecules organiques ont ete introduites dans des matrices sol-gel: des tetrabenzoporphyrines, des molécules de fullerènes et de hitci. Pour déterminer les plages spectrales d'efficacité de ces echantillons, des sources impulsionnelles accordables en longueur d'onde ont ete installees. Apres la synthèse de premiers échantillons efficaces dans la partie bleue du spectre visible, il a ete possible d'en elaborer d'autres efficaces dans la partie rouge du spectre. Disposant de materiaux actifs a la longueur d'onde de 620 nanomètres, nous avons alors pu montrer a cette longueur d'onde qu'il s'agit d'un processus ultrarapide qui intervient en moins de cent femtosecondes. Enfin, en utilisant les programmes de simulation developpes, nous avons étudie les performances que nous sommes en droit d'esperer de composes absorbants saturables inverses qui seraient inseres dans un systeme limiteur optique.
|
Page generated in 0.0779 seconds