• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 52
  • 34
  • 4
  • Tagged with
  • 91
  • 39
  • 26
  • 22
  • 21
  • 18
  • 18
  • 14
  • 13
  • 13
  • 13
  • 12
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Algorithmes stochastiques pour la gestion du risque et l'indexation de bases de données de média / Stochastic algorithms for risk management and indexing of database media

Reutenauer, Victor 22 March 2017 (has links)
Cette thèse s’intéresse à différents problèmes de contrôle et d’optimisation dont il n’existe à ce jour que des solutions approchées. D’une part nous nous intéressons à des techniques visant à réduire ou supprimer les approximations pour obtenir des solutions plus précises voire exactes. D’autre part nous développons de nouvelles méthodes d’approximation pour traiter plus rapidement des problèmes à plus grande échelle. Nous étudions des méthodes numériques de simulation d’équation différentielle stochastique et d’amélioration de calculs d’espérance. Nous mettons en œuvre des techniques de type quantification pour la construction de variables de contrôle ainsi que la méthode de gradient stochastique pour la résolution de problèmes de contrôle stochastique. Nous nous intéressons aussi aux méthodes de clustering liées à la quantification, ainsi qu’à la compression d’information par réseaux neuronaux. Les problèmes étudiés sont issus non seulement de motivations financières, comme le contrôle stochastique pour la couverture d’option en marché incomplet mais aussi du traitement des grandes bases de données de médias communément appelé Big data dans le chapitre 5. Théoriquement, nous proposons différentes majorations de la convergence des méthodes numériques d’une part pour la recherche d’une stratégie optimale de couverture en marché incomplet dans le chapitre 3, d’autre part pour l’extension la technique de Beskos-Roberts de simulation d’équation différentielle dans le chapitre 4. Nous présentons une utilisation originale de la décomposition de Karhunen-Loève pour une réduction de variance de l’estimateur d’espérance dans le chapitre 2. / This thesis proposes different problems of stochastic control and optimization that can be solved only thanks approximation. On one hand, we develop methodology aiming to reduce or suppress approximations to obtain more accurate solutions or something exact ones. On another hand we develop new approximation methodology in order to solve quicker larger scale problems. We study numerical methodology to simulated differential equations and enhancement of computation of expectations. We develop quantization methodology to build control variate and gradient stochastic methods to solve stochastic control problems. We are also interested in clustering methods linked to quantization, and principal composant analysis or compression of data thanks neural networks. We study problems motivated by mathematical finance, like stochastic control for the hedging of derivatives in incomplete market but also to manage huge databases of media commonly known as big Data in chapter 5. Theoretically we propose some upper bound for convergence of the numerical method used. This is the case of optimal hedging in incomplete market in chapter 3 but also an extension of Beskos-Roberts methods of exact simulation of stochastic differential equations in chapter 4. We present an original application of karhunen-Loève decomposition for a control variate of computation of expectation in chapter 2.
82

Algorithmes d’estimation et de détection en contexte hétérogène rang faible / Estimation and Detection Algorithms for Low Rank Heterogeneous Context

Breloy, Arnaud 23 November 2015 (has links)
Une des finalités du traitement d’antenne est la détection et la localisation de cibles en milieu bruité. Dans la plupart des cas pratiques, comme par exemple le RADAR ou le SONAR actif, il faut estimer dans un premier temps les propriétés statistiques du bruit, et plus précisément sa matrice de covariance ; on dispose à cette fin de données secondaires supposées identiquement distribuées. Dans ce contexte, les hypothèses suivantes sont généralement formulées : bruit gaussien, données secondaires ne contenant que du bruit, et bien sûr matériels fonctionnant parfaitement. Il est toutefois connu aujourd’hui que le bruit en RADAR est de nature impulsive et que l’hypothèse Gaussienne est parfois mal adaptée. C’est pourquoi, depuis quelques années, le bruit et en particulier le fouillis de sol est modélisé par des processus elliptiques, et principalement des Spherically Invariant Random Vectors (SIRV). Dans ce nouveau cadre, la Sample Covariance Matrix (SCM) estimant classiquement la matrice de covariance du bruit entraîne des pertes de performances très importantes des détecteurs / estimateurs. Dans ce contexte non-gaussien, d’autres estimateurs de la matrice de covariance mieux adaptés à cette statistique du bruit ont été développés : la Matrice du Point Fixe (MPF) et les M-estimateurs.Parallèlement, dans un cadre où le bruit se décompose sous la forme d’une somme d’un fouillis rang faible et d’un bruit blanc, la matrice de covariance totale est structurée sous la forme rang faible plus identité. Cette information peut être utilisée dans le processus d'estimation afin de réduire le nombre de données nécessaires. De plus, il aussi est possible d'utiliser le projecteur orthogonal au sous espace fouillis à la place de la matrice de covariance ce qui nécessite moins de données secondaires et d’être aussi plus robuste aux données aberrantes. On calcule classiquement ce projecteur à partir d'un estimateur de la matrice de covariance. Néanmoins l'état de l'art ne présente pas d'estimateurs à la fois être robustes aux distributions hétérogènes, et rendant compte de la structure rang faible des données. C'est pourquoi ces travaux se focalisent sur le développement de nouveaux estimateurs (de covariance et de sous espace), directement adaptés au contexte considéré. Les contributions de cette thèse s'orientent donc autour de trois axes :- Nous présenterons tout d'abord un modèle statistique précis : celui de sources hétérogènes ayant une covariance rang faible noyées dans un bruit blanc gaussien. Ce modèle et est, par exemple, fortement justifié pour des applications de type radar. Il à cependant peu été étudié pour la problématique d'estimation de matrice de covariance. Nous dériverons donc l'expression du maximum de vraisemblance de la matrice de covariance pour ce contexte. Cette expression n'étant pas une forme close, nous développerons différents algorithmes pour tenter de l'atteindre efficacement.- Nous développons de nouveaux estimateurs directs de projecteur sur le sous espace fouillis, ne nécessitant pas un estimé de la matrice de covariance intermédiaire, adaptés au contexte considéré.- Nous étudierons les performances des estimateurs proposés et de l'état de l'art sur une application de Space Time Adaptative Processing (STAP) pour radar aéroporté, au travers de simulations et de données réelles. / One purpose of array processing is the detection and location of a target in a noisy environment. In most cases (as RADAR or active SONAR), statistical properties of the noise, especially its covariance matrix, have to be estimated using i.i.d. samples. Within this context, several hypotheses are usually made: Gaussian distribution, training data containing only noise, perfect hardware. Nevertheless, it is well known that a Gaussian distribution doesn’t provide a good empirical fit to RADAR clutter data. That’s why noise is now modeled by elliptical process, mainly Spherically Invariant Random Vectors (SIRV). In this new context, the use of the SCM (Sample Covariance Matrix), a classical estimate of the covariance matrix, leads to a loss of performances of detectors/estimators. More efficient estimators have been developed, such as the Fixed Point Estimator and M-estimators.If the noise is modeled as a low-rank clutter plus white Gaussian noise, the total covariance matrix is structured as low rank plus identity. This information can be used in the estimation process to reduce the number of samples required to reach acceptable performance. Moreover, it is possible to estimate the basis vectors of the clutter-plus-noise orthogonal subspace rather than the total covariance matrix of the clutter, which requires less data and is more robust to outliers. The orthogonal projection to the clutter plus noise subspace is usually calculated from an estimatd of the covariance matrix. Nevertheless, the state of art does not provide estimators that are both robust to various distributions and low rank structured.In this Thesis, we therefore develop new estimators that are fitting the considered context, to fill this gap. The contributions are following three axes :- We present a precise statistical model : low rank heterogeneous sources embedded in a white Gaussian noise.We express the maximum likelihood estimator for this context.Since this estimator has no closed form, we develop several algorithms to reach it effitiently.- For the considered context, we develop direct clutter subspace estimators that are not requiring an intermediate Covariance Matrix estimate.- We study the performances of the proposed methods on a Space Time Adaptive Processing for airborne radar application. Tests are performed on both synthetic and real data.
83

Preuves formelles pour l'optimisation globale -- Méthodes de gabarits et sommes de carrés

Magron, Victor 09 December 2013 (has links) (PDF)
Cette thèse a pour but de certifier des bornes inférieures de fonctions multivariées à valeurs réelles, définies par des expressions semi-algébriques ou transcendantes et de prouver leur validité en vérifiant les certificats dans l'assistant de preuves Coq. De nombreuses inégalités de cette nature apparaissent par exemple dans la preuve par Thomas Hales de la conjecture de Kepler. Dans le cadre de cette étude, on s'intéresse à des fonctions non-linéaires, faisant intervenir des opérations semi-algébriques ainsi que des fonctions transcendantes univariées (cos, arctan, exp, etc). L'utilisation de différentes méthodes d'approximation permet de relâcher le problème initial en un problème d'optimisation semi-algébrique. On se ramène ainsi à des problèmes d'optimisation polynomiale, qu'on résout par des techniques de sommes de carrés creuses. Dans un premier temps, nous présentons une technique classique d'optimisation globale. Les fonctions transcendantes univariées sont approchées par les meilleurs estimateurs polynomiaux uniformes de degré d. Par la suite, nous présentons une méthode alternative, qui consiste a borner certains des constituants de la fonction non-linéaire par des suprema de formes quadratiques (approximation maxplus, introduite à l'origine en contrôle optimal) de courbures judicieusement choisies. Enfin, cet algorithme d'approximation est amélioré, en combinant l'idée des estimateurs maxplus et de la méthode des gabarits développée par Manna et al. (en analyse statique). Les gabarits non-linéaires permettent un compromis sur la precision des approximations maxplus afin de contrôler la complexité des estimateurs semi-algébriques. Ainsi, on obtient une nouvelle technique d'optimisation globale, basée sur les gabarits, qui exploite à la fois la precision des sommes de carrés et la capacité de passage à l'échelle des méthodes d'abstraction. L'implémentation de ces méthodes d'approximation a abouti à un outil logiciel : NLCertify. Cet outil génère des certificats à partir d'approximations semi-algébriques et de sommes de carrés. Son interface avec Coq permet de bénéficier de l'arithmétique certifiée disponible dans l'assistant de preuves, et ainsi d'obtenir des estimateurs et des bornes valides pour chaque approximation. Nous démontrons les performances de cet outil de certification sur divers problèmes d'optimisation globale ainsi que sur des inégalités serrées qui interviennent dans la preuve de Hales.
84

Dynamic Programming Approaches for Estimating and Applying Large-scale Discrete Choice Models

Mai, Anh Tien 12 1900 (has links)
People go through their life making all kinds of decisions, and some of these decisions affect their demand for transportation, for example, their choices of where to live and where to work, how and when to travel and which route to take. Transport related choices are typically time dependent and characterized by large number of alternatives that can be spatially correlated. This thesis deals with models that can be used to analyze and predict discrete choices in large-scale networks. The proposed models and methods are highly relevant for, but not limited to, transport applications. We model decisions as sequences of choices within the dynamic discrete choice framework, also known as parametric Markov decision processes. Such models are known to be difficult to estimate and to apply to make predictions because dynamic programming problems need to be solved in order to compute choice probabilities. In this thesis we show that it is possible to explore the network structure and the flexibility of dynamic programming so that the dynamic discrete choice modeling approach is not only useful to model time dependent choices, but also makes it easier to model large-scale static choices. The thesis consists of seven articles containing a number of models and methods for estimating, applying and testing large-scale discrete choice models. In the following we group the contributions under three themes: route choice modeling, large-scale multivariate extreme value (MEV) model estimation and nonlinear optimization algorithms. Five articles are related to route choice modeling. We propose different dynamic discrete choice models that allow paths to be correlated based on the MEV and mixed logit models. The resulting route choice models become expensive to estimate and we deal with this challenge by proposing innovative methods that allow to reduce the estimation cost. For example, we propose a decomposition method that not only opens up for possibility of mixing, but also speeds up the estimation for simple logit models, which has implications also for traffic simulation. Moreover, we compare the utility maximization and regret minimization decision rules, and we propose a misspecification test for logit-based route choice models. The second theme is related to the estimation of static discrete choice models with large choice sets. We establish that a class of MEV models can be reformulated as dynamic discrete choice models on the networks of correlation structures. These dynamic models can then be estimated quickly using dynamic programming techniques and an efficient nonlinear optimization algorithm. Finally, the third theme focuses on structured quasi-Newton techniques for estimating discrete choice models by maximum likelihood. We examine and adapt switching methods that can be easily integrated into usual optimization algorithms (line search and trust region) to accelerate the estimation process. The proposed dynamic discrete choice models and estimation methods can be used in various discrete choice applications. In the area of big data analytics, models that can deal with large choice sets and sequential choices are important. Our research can therefore be of interest in various demand analysis applications (predictive analytics) or can be integrated with optimization models (prescriptive analytics). Furthermore, our studies indicate the potential of dynamic programming techniques in this context, even for static models, which opens up a variety of future research directions. / Les gens consacrent une importante part de leur existence à prendre diverses décisions, pouvant affecter leur demande en transport, par exemple les choix de lieux d'habitation et de travail, les modes de transport, les heures de départ, le nombre et type de voitures dans le ménage, les itinéraires ... Les choix liés au transport sont généralement fonction du temps et caractérisés par un grand nombre de solutions alternatives qui peuvent être spatialement corrélées. Cette thèse traite de modèles pouvant être utilisés pour analyser et prédire les choix discrets dans les applications liées aux réseaux de grandes tailles. Les modèles et méthodes proposées sont particulièrement pertinents pour les applications en transport, sans toutefois s'y limiter. Nous modélisons les décisions comme des séquences de choix, dans le cadre des choix discrets dynamiques, aussi connus comme processus de décision de Markov paramétriques. Ces modèles sont réputés difficiles à estimer et à appliquer en prédiction, puisque le calcul des probabilités de choix requiert la résolution de problèmes de programmation dynamique. Nous montrons dans cette thèse qu'il est possible d'exploiter la structure du réseau et la flexibilité de la programmation dynamique afin de rendre l'approche de modélisation dynamique en choix discrets non seulement utile pour représenter les choix dépendant du temps, mais également pour modéliser plus facilement des choix statiques au sein d'ensembles de choix de très grande taille. La thèse se compose de sept articles, présentant divers modèles et méthodes d'estimation, leur application ainsi que des expériences numériques sur des modèles de choix discrets de grande taille. Nous regroupons les contributions en trois principales thématiques: modélisation du choix de route, estimation de modèles en valeur extrême multivariée (MEV) de grande taille et algorithmes d'optimisation non-linéaire. Cinq articles sont associés à la modélisation de choix de route. Nous proposons différents modèles de choix discrets dynamiques permettant aux utilités des chemins d'être corrélées, sur base de formulations MEV et logit mixte. Les modèles résultants devenant coûteux à estimer, nous présentons de nouvelles approches permettant de diminuer les efforts de calcul. Nous proposons par exemple une méthode de décomposition qui non seulement ouvre la possibilité d'estimer efficacement des modèles logit mixte, mais également d'accélérer l'estimation de modèles simples comme les modèles logit multinomiaux, ce qui a également des implications en simulation de trafic. De plus, nous comparons les règles de décision basées sur le principe de maximisation d'utilité de celles sur la minimisation du regret pour ce type de modèles. Nous proposons finalement un test statistique sur les erreurs de spécification pour les modèles de choix de route basés sur le logit multinomial. Le second thème porte sur l'estimation de modèles de choix discrets statiques avec de grands ensembles de choix. Nous établissons que certains types de modèles MEV peuvent être reformulés comme des modèles de choix discrets dynamiques, construits sur des réseaux de structure de corrélation. Ces modèles peuvent alors être estimées rapidement en utilisant des techniques de programmation dynamique en combinaison avec un algorithme efficace d'optimisation non-linéaire. La troisième et dernière thématique concerne les algorithmes d'optimisation non-linéaires dans le cadre de l'estimation de modèles complexes de choix discrets par maximum de vraisemblance. Nous examinons et adaptons des méthodes quasi-Newton structurées qui peuvent être facilement intégrées dans des algorithmes d'optimisation usuels (recherche linéaire et région de confiance) afin d'accélérer le processus d'estimation. Les modèles de choix discrets dynamiques et les méthodes d'optimisation proposés peuvent être employés dans diverses applications de choix discrets. Dans le domaine des sciences de données, des modèles qui peuvent traiter de grands ensembles de choix et des ensembles de choix séquentiels sont importants. Nos recherches peuvent dès lors être d'intérêt dans diverses applications d'analyse de la demande (analyse prédictive) ou peuvent être intégrées à des modèles d'optimisation (analyse prescriptive). De plus, nos études mettent en évidence le potentiel des techniques de programmation dynamique dans ce contexte, y compris pour des modèles statiques, ouvrant la voie à de multiples directions de recherche future.
85

Utilités Progressives Dynamiques.

M'Rad, Mohamed 19 October 2009 (has links) (PDF)
En 2002, Marek Musiela et Thaleia Zariphopoulo ont introduit la notion de {\em forward utility}, c'est à dire une utilité dynamique, progressive, cohérente avec un marché financier donné. On peut voir ce processus comme un champ aléatoire $U(t,x)$ adapté à l'information disponible, qui a chaque instant est une utilité standard (donc en particulier à la date $0$, compatible avec une famille de stratégies données $(X^{\pi})$ au sens où pour tout $t,h>0$, $ \mathbb{E}(U(t+h,X^{\pi}_{t+h})|\mathcal{F}_t)\leq U(t,X^{\pi}_t)$ et il existe un portefeuille optimal $X^*$ pour lequel l'inégalité est une égalité.\\ Les auteurs ont fait plusieurs articles sur ce sujet, montrant en particulier comment les utilités classiques, puissance, exponentielle, etc doivent être modifiées pour être des utilités dynamique progressives. Une attention limitée a été portée à l'univers d'investissement. \noindent Dans mon travail de thèse, je considère un cadre beaucoup plus général. En effet, le marché est incomplet dans le sens où un investisseur est contraint, à chaque date $t\ge 0$, de choisir ces stratégies admissibles dans des cones convexes fermés, adaptés $\K_t (X_t)$ dépendent du niveau de sa richesse $X_t$. Je considère par la suite que les champs aléatoires $U(t,x)$ évoluent selon la dynamique \begin{equation}\label{eq:champ} dU(t,x)=\beta(t,x)+\Gamma(t,x) dW_t,~U(0,.)=u(.) (\text{donnée}) \end{equation} Comme dans l'optimisation classique, (dite rétrograde puisqu'on reconstruit l'information à partir de la fin), %je montre que le terme %$\beta(t,x)$ contient, contient nécéssairement, un terme de type hamiltonien classique %modifié par la présence de la dérivée de la volatilité %$\Gamma(t,x)$ de l'utilité progressive. Et par conséquent toute utilité progressive qui % satisfait les hypothèses de régularités du lemme d'Itô-Ventzell % satisfait je me propose d'étudier les équations de type Hamilton-Jacobi-Bellman que satisfait une utilités progressive $u(t,x)$. Pour mener cette étude, j'utilise une formule d'Itô généralisée apellée la formule de Ventzell-Friedlin, qui permet d'établir la décomposition de type Itô de la composée d'un champ aléatoire avec un processus d'Itô. Je montre alors que le terme $\beta(t,x)$ contient, nécéssairement, un terme de type hamiltonien classique modifié par la présence de la dérivée de la volatilité $\Gamma(t,x)$ de l'utilité progressive. Et par conséquent toute utilité progressive qui satisfait les hypothèses de régularités du lemme d'Itô-Ventzell satisfont l' équation différentielle stochastique suivante \begin{equation}\label{EDPSU} dU(t,x)=\Big\{-xU'_{x}\, r_t dt+ \frac{1}{2U''_{xx}(t,x)}\|\prod_{\K_t(x)\sigma_t}\big(U'_{x}(t,x) \eta_t+\Gamma'_x(t,x)\big) \|^2\Big\}(t,x)\,dt\>+\Gamma(t,x)\,dW_t. \end{equation} avec comme portefeuille optimal $X^*$ le processus associé à la stratégie $\pi^*$ donnée par \begin{equation} x\pi^*(t,x)\sigma_t=- \frac{1}{U''_{xx}(t,x)}\|\prod_{\K_t(x)\sigma_t}\big(U'_{x}(t,x) \eta_t+\Gamma'_x(t,x)\big)(t,x) \end{equation} \noindent où $r$ est le taux court, $\eta$ la prime de marché, $\sigma$ la matrice de variance covariance des actifs et $ \prod_{\K_t(x)\sigma_t}$ désigne l'opérateur de projection sur le cône $\K_t(x)\sigma_t$. \\ Ce point de vue permet de vérifier que le champ aléatoire, s'il existe est compatible avec l'univers d'investissement. Cependant, la question de la convexité et de la monotonie est complexe a priori, car il n'existe pas de théorèmes de comparaison pour les équations progressives (qui sont {\em forward}), contrairement au cas des équations rétrogrades. La question de l'interprétation et du rôle de la volatilité s'avère alors être centrale dans cette étude. Contrairement au cadre général que je considère ici, M.Musiela et T.Zariphopoulo, puis C.Rogers et al se sont restreint au cas où la volatilité de l'utilité est identiquement nulle. Le processus progressif $u(t,x)$ est alors une fonction déterministe satisfaisant une EDP non linéaire, que les auteurs ont transformé en solution harmonique espace temps de l'équation de la chaleur. \\ Mon choix a été d'étudire la question de la volatilité par des techniques de changement de numéraire; ainsi, je montre la stabilité de la notion d'utilité progressive par changement de numéraire. L'avantage considérable de cette technique, comparée à la méthode classique, % Comme dans le cas % classique, le problème est compliqué par le fait que l'espace des % contraites n'est pas invariant par changement de numéraire. est le fait qu'elle permet de se ramener toujours à un marché "martingale" ($r=0$ et $\eta=0$), ce qui simplifie considérablement les équations et les calculs. La dérivée de la volatilité apparaît alors comme une prime de risque instantanée que le marché introduit, et qui dépend du niveau de la richesse de l'investisseur. Ce point de vue nouveau permet de répondre à la question de l'interprétation de la volatilité de l'utilité. Dans la suite, j'étudie le problème dual et je montre que la transformée de {\em Fenchel} $\tU$ de la fonction concave $U(t,x)$ est un champ markovien lui aussi satisfaisant la dynamique \begin{eqnarray}\label{EDPSDuale'} d\tilde{U}(t,y)=\left[\frac{1}{2\tU_{yy}''}(\|\tilde{\Gamma}'\|^2-\|\prod_{\K_t(-\tU_y'(t,y))\sigma_t}(\tilde{\Gamma}^{'}_y-y\eta_t)\|^2) +y\tU_{y}' r_t\right](t,y)dt +\tilde{\Gamma}(t,y)dW_t,~~\tilde{\Gamma}(t,y)=\Gamma(t,\tU_y'(t,y)). \end{eqnarray} À partir de ce résultat je montre que le problème dual admet une unique solution $Y^*$ dans la volatilté $\nu^*$ est donnée par \begin{equation} y\nu^*(t,y)= -\frac{1}{\tU_{yy}''}\Big(\tilde{\Gamma}'+y\eta_t-\prod_{\K_t(-\tU_y')\sigma_t}(\tilde{\Gamma}^{'}_y-y\eta_t)\Big)(t,y). \end{equation} \noindent Ce ci permettra d'établir les identités clé suivantes: \begin{eqnarray} &Y^*(t,(U_x')^{-1}(0,x))=U'_x(t,X^*(t,x)) \label{A}\\ &(\Gamma'_x+U'_x\eta)(t,x)=(xU''(t,x)\pi^*(t,x)\sigma_t+\nu^*(U_x'(t,x))\label{B}. \end{eqnarray} % Remarquons que le terme $(\Gamma'_x+U'_x\eta)$ se décompose de manière unique sous forme % de sa projection sur le cone $\K\sigma$, qui est la stratégie optimale, et la projection sur le cone dual $\K^* \sigma$, % qui est la volatilité du processus optimal dual. Mais notre but est deux termes projétés su comme la projection % Á partir de la première identité nous savons que $U'_x(t,X^*(t,x))$ n'est autre que le processus optimal dual %Á ce stade rapellons que le but de cette étude est de carracteriser les utilités progressives. La question par la suite est la suivante: peut-on caractériser l'utilité $U(t,x)$ pour tout $x>0$ à partir de la première identité? Ceci peut paraître trop demander car nous cherchons à caractériser le champ $U$ connaissant seulement son comportement le long de l'unique trajectoire optimale $X^*$. Cependant, la réponse à cette question s'avère être positive et assez simple. En effet, notons par $\Y(t,x):=Y^*(t,(U_x')^{-1}(0,x))$, et supposons que le flot stochastique $X^*$ soit inversible, $\X$ désigne son inverse. Alors, en inversant dans (\ref{A}), je déduis que $U_x'(t,x)=\Y(t,\X(t,x))$. En intégrant par rapport à $x$, j'obtiens que $U(t,x)=\int_0^x\Y(t,\X(t,z))dz$, ce qui prouve le théorème suivant: \begin{theo} Sous des hypothèses de régularités et d'inversion du flot $X^*$, les processus $U$ définis par $U(t,x)=\int_0^x\Y(t,\X(t,z))dz$ sont des utilités progressives solutions de l'EDP stochastique (\ref{EDPSU}). \end{theo} % %\noindent Inversement, je montre le théorème d'EDP stochastique suivant: \begin{theo} Soit $U$ un champ aléatoire solutions de l'EDP stochastique (\ref{EDPSU}). En utilisant la décompostion (\ref{B}), si les EDS suivantes \begin{eqnarray*} & dX^*_t(x)=X^*_t(x)(r_tdt+\pi^*(t,X^*_t(x))\sigma_t(dW_t+\eta_tdt)),X^*_0(x)=x ~\\ & dY^*_t(y)=Y^*_t(y)(-r_tdt+\nu^*(t,Y^*_t(y))dW_t),~Y^*_0(y)=y \end{eqnarray*} admettent des solutions fortes unique et monotonnes, alors, en notant par $ \Y(t,x):=Y^*(t,(U_x')^{-1}(0,x))$ et par $\X$ le flot inverse de $X$, on obtient que $U(t,x)= \int_0^x\Y(t,\X(t,z))dz$. Si de plus $X^*$ et $Y^*$ sont croissants, $U$ est concave. \end{theo} \noindent %Dans ce travail, je considère toujours un marché incomplet, Dans une seconde partie de ce travail, je me place dans un cadre beaucoup plus général dans le sens où les actifs sont supposés être cadlag locallement bornés, et par conséquent la filtration n'est plus une filtration brownienne. Je remplace les contraintes de type cône convexe par des contraintes plus générales de type ensemble convexe. Le but de cette partie est de caractériser toutes les utilités progressives avec le minimum d'hypothèses, notamment avec moins d'hypothèses de régularités sur les champs aléatoires $U$. Je ne suppose plus que $U$ est deux fois différentiable et par conséquent je ne peut plus appliquer le lemme d'Itô-Ventzell. L'approche est alors différente: je commence par établir des conditions d'optimalité sur le processus de richesses optimale ainsi que le processus optimal dual, et ce en utilisant des méthodes d'analyse. En utilisant ces résultats je démontre, par des éléments d'analyse, la convexité ainsi que les conditions d'optimalités que toutes les utilités progressives générant une richesse croissante est de la forme $\int_0^x\Y(t,\X(t,z))dz$ avec $\Y$ : $\Y X$ est une surmartingale pour toute richesse $X$ et une martingale si $X=X^*$.
86

Garantie de la qualité de service et évaluation de performance des réseaux de télécommunications

Tomasik, Joanna 04 January 2012 (has links) (PDF)
Notre recherche porte sur des méthodes pour garantir la QoS dans les réseaux filaires classiques, optiques, ad hoc et le réseau global Internet au niveau des domaines. Afin de valider les méthodes proposées, nous créons des modèles à partir des outils de la théorie des files d'attente. Nous étudions les méthodes analytiques et les méthodes numériques afin de traiter les générateurs de chaînes de Markov. Nous utilisons également dans nos études la simulation à évènements discrets. Le travail sur le réseau inter-domaine a nécessité le développement d'un outil pour la génération de topologies aléatoires avec une hiérarchie correspondant à celle observée dans l'Internet.
87

Participation de parcs de production éolienne au réglage de la tension et de la puissance réactive dans les réseaux électriques / Wind farms participation at voltage and reactive power regulation in the power system network

Ahmidi, Amir 16 December 2010 (has links)
Nous proposons dans cette thèse, différents outils de réglage de tension et de gestion de la puissance réactive en fonction des conditions de raccordement des éoliennes au réseau électrique. Trois cas figure sont étudiés : raccordement direct sur un poste source de distribution, raccordement des éoliennes réparties dans un réseau de distribution et raccordement d’un ensemble de parcs éoliens au réseau de transport.Un algorithme de réglage basé sur l’asservissement de la puissance réactive est proposé pour le raccordement direct d'un parc sur un poste source. Un réglage coordonné de tension en présence de régleur en charge est proposé (D-RCT) pour le raccordement des éoliennes reparties dans un réseau de distribution. On propose aussi une version plus décentralisée du réglage coordonné (D2-RCT) qui pourrait être implantée sous forme de système multi-agents intelligents (SMA). Un system de control multi-niveaux est proposé pour le raccordement d’un ensemble de parcs éoliens au réseau de transport. Il permet de répondre de manière optimale à une demande puissance réactive envoyée par le gestionnaire du réseau de transport. Les différents types de réglages proposés sont basés sur des algorithmes d’optimisation multi-objectifs. Afin de valider en temps réel le bon fonctionnement des stratégies de réglages développées ainsi que leurs modes de communication, une implantation expérimentale sous simulateur temps réel RT-Lab a été effectuée. Enfin, les résultats des simulations montrent l’amélioration de l’intégration de la production décentralisée dans les réseaux électriques / In this PhD dissertation, we propose various voltage and reactive power regulation algorithms for different connection types of the wind farm to the power network. Three connection types are considered here: a wind farm connected directly to the distribution network, dispersed wind turbines connected to the distribution network and a set of wind farms connected to the transmission system.A closed loop controller (Wind Farm Controller) is proposed in case of a directly connected wind farm to the distribution network.A coordinated voltage control in the presence of on load tap changer (D-CVC) is proposed in case of dispersed wind turbines connected to the distribution network. We also propose a more decentralized version of D-CVC named D2-CVC; this version can be also implemented under multi-agent system (MAS).A multi-level control system is proposed in case of a set of wind farms connected to the transmission system. It allows the wind farms to optimally participate at reactive power balancing in transmission network. All the proposed voltage algorithms are based on a multi-objective optimization function. The experimental implementation of these regulation algorithms is run under RT-Lab real-time simulator. It allows validating their real-time operation and their communication modes before the implementation on a real site.The results of the current thesis show the improvement of distributed generation integration in the power system network
88

Inversion des formes d'ondes électromagnétiques en 2D pour le géoradar : vers une imagerie multi-paramètre à partir des données de surface / 2D Full waveform inversion of ground penetrating radar data : towards multiparameter imaging from surface data

Lavoué, François 09 July 2014 (has links)
Les premiers mètres à centaines de mètres de la proche surface terrestre sont le siège de processus naturels dont la compréhension requiert une caractérisation fine de la subsurface, via une estimation quantifiée de ses paramètres. Le géoradar est un outil de prospection indirecte à même d'ausculter les milieux naturels et d'en estimer les propriétés électriques (permittivité et conductivité). Basé sur la propagation d'ondes électromagnétiques à des fréquences allant du MHz à quelques GHz, le géoradar est utilisé à des échelles et pour des applications variées concernant la géologie, l'hydrologie ou le génie civil. Dans ce travail de thèse, je propose une méthode d'imagerie quantitative des propriétés électriques sur des sections 2D de la subsurface, à partir de données radar acquises à la surface du sol. La technique mise en oeuvre est l'inversion des formes d'ondes, qui utilise l'intégralité du champ d'ondes enregistré.Dans une première partie, je présente les principes physiques et l'outil de modélisation numérique utilisés pour simuler la propagation des ondes électromagnétiques dans les milieux hétérogènes à deux dimensions. Pour cela, un algorithme de différences finies en domaine fréquentiel développé dans le cadre des ondes visco-acoustiques est adapté au problème électromagnétique 2D grâce à une analogie mathématique.Dans une deuxième partie, le problème d'imagerie est formulé sous la forme d'une optimisation multi-paramètre puis résolu avec l'algorithme de quasi-Newton L-BFGS. Cet algorithme permet d'estimer l'effet de la matrice Hessienne, dont le rôle est crucial pour la reconstruction de paramètres de différents types comme la permittivité et la conductivité. Des tests numériques montrent toutefois que l'algorithme reste sensible aux échelles utilisées pour définir ces paramètres. Dans un exemple synthétique représentatif de la proche surface, il est cependant possible d'obtenir des cartes 2D de permittivité et de conductivité à partir de données de surface, en faisant intervenir des facteurs d'échelle et de régularisation visant à contraindre les paramètres auxquelles l'inversion est la moins sensible. Ces facteurs peuvent être déterminés en analysant la qualité de l'ajustement aux données, sans hypothèse a priori autre que la contrainte de lissage introduite par la régularisation.Dans une dernière partie, la méthode d'imagerie est confrontée à deux jeux de données réelles. Dans un premier temps, l'examen de données expérimentales permet de tester la précision des simulations numériques vis-à-vis de mesures effectuées en environnement contrôlé. La connaissance des cibles à imager permet en outre de valider la méthodologie proposée pour l'imagerie multiparamètre dans des conditions très favorables puisqu'il est possible de calibrer le signal source et de considérer l'espace libre environnant les cibles comme modèle initial pour l'inversion.Dans un deuxième temps, j'envisage le traitement d'un jeu de données radar multi-offsets acquises au sein d'un massif calcaire. L'interprétation de ces données est rendue beaucoup plus difficile par la complexité du milieu géologique environnant, ainsi que par la méconnaissance des caractéristiques précises des antennes utilisées. L'application de la méthode d'inversion des formes d'ondes à ces données requiert donc une étape préliminaire impliquant une analyse de vitesse plus classique, basée sur les arrivées directes et réfléchies, et des simulations numériques dans des modèles hypothétiques à même d'expliquer une partie des données. L'estimation du signal source est effectuée à partir d'arrivées sélectionnées, simultanément avec des valeurs moyennes de conductivité et de hauteur d'antennes de façon à reproduire au mieux les amplitudes observées. Un premier essai d'inversion montre que l'algorithme est capable d'expliquer les données dans la gamme de fréquences considérée et de reconstruire une ébauche des principaux réflecteurs. / The quantitative characterization of the shallow subsurface of the Earth is a critical issue for many environmental and societal challenges. Ground penetrating radar (GPR) is a geophysical method based on the propagation of electromagnetic waves for the prospection of the near subsurface. With central frequencies between 10~MHz and a few GHz, GPR covers a wide range of applications in geology, hydrology and civil engineering. GPR data are sensitive to variations in the electrical properties of the medium which can be related, for instance, to its water content and bring valuable information on hydrological processes. In this work, I develop a quantitative imaging method for the reconstruction of 2D distributions of permittivity and conductivity from GPR data acquired from the ground surface. The method makes use of the full waveform inversion technique (FWI), originating from seismic exploration, which exploits the entire recorded radargrams and has been proved successful in crosshole GPR applications.In a first time, I present the numerical forward modelling used to simulate the propagation of electromagnetic waves in 2D heterogeneous media and generate the synthetic GPR data that are compared to the recorded radargrams in the inversion process. A frequency-domain finite-difference algorithm originally developed in the visco-acoustic approximation is adapted to the electromagnetic problem in 2D via an acoustic-electromagnetic mathematical analogy.In a second time, the inversion scheme is formulated as a fully multiparameter optimization problem which is solved with the quasi-Newton L-BFGS algorithm. In this formulation, the effect of an approximate inverse Hessian is expected to mitigate the trade-off between the impact of permittivity and conductivity on the data. However, numerical tests on a synthetic benchmark of the literature display a large sensitivity of the method with respect to parameter scaling, showing the limits of the L-BFGS approximation. On a realistic subsurface benchmark with surface-to-surface configuration, it has been shown possible to ally parameter scaling and regularization to reconstruct 2D images of permittivity and conductivity without a priori assumptions.Finally, the imaging method is confronted to two real data sets. The consideration of laboratory-controlled data validates the proposed workflow for multiparameter imaging, as well as the accuracy of the numerical forward solutions. The application to on-ground GPR data acquired in a limestone massif is more challenging and necessitates a thorough investigation involving classical processing techniques and forward simulations. Starting permittivity models are derived from the velocity analysis of the direct arrivals and of the reflected events. The estimation of the source signature is performed together with an evaluation of an average conductivity value and of the unknown antenna height. In spite of this procedure, synthetic data do not reproduce the observed amplitudes, suggesting an effect of the radiation pattern of the shielded antennae. In preliminary tests, the inversion succeeds in fitting the data in the considered frequency range and can reconstruct reflectors from a smooth starting model.
89

Introduction of New Products in the Supply Chain : Optimization and Management of Risks / Introduction de Nouveaux Produits dans la Supply Chain : Optimisation et Management des Risques

El-Khoury, Hiba 31 January 2012 (has links)
Les consommateurs d’aujourd’hui ont des goûts très variés et cherchent les produits les plus récents. Avec l’accélération technologique, les cycles de vie des produits se sont raccourcis et donc, de nouveaux produits doivent être introduits au marché plus souvent et progressivement, les anciens doivent y être retirés. L’introduction d’un nouveau produit est une source de croissance et d’avantage concurrentiel. Les directeurs du Marketing et Supply Chain se sont confrontés à la question de savoir comment gérer avec succès le remplacement de leurs produits et d’optimiser les coûts de la chaîne d’approvisionnement associée. Dans une situation idéale, la procédure de rollover est efficace et claire: l’ancien produit est vendu jusqu’à une date prévue où un nouveau produit est introduit. Dans la vie réelle, la situation est moins favorable. Le but de notre travail est d’analyser et de caractériser la politique optimale du rollover avec une date de disponibilitéstochastique pour l’introduction du nouveau produit sur le marché. Pour résoudre le problème d’optimisation,nous utilisons dans notre premier article deux mesures de minimisation: le coût moyen et le coût de la valeurconditionnelle à risque. On obtient des solutions en forme explicite pour les politiques optimales. En outre, nous caractérisons l’influence des paramètres de coûts sur la structure de la politique optimale. Dans cet esprit, nous analysons aussi le comportement de la politique de rollover optimale dans des contextes différents. Dans notre deuxième article, nous examinons le même problème mais avec une demande constante pour le premier produit et une demande linéaire au début puis constante pour le deuxième. Ce modèle est inspiré par la demande de Bass. Dans notre troisième article, la date de disponibilité du nouveau produit existe mais elle est inconnue. La seule information disponible est un ensemble historique d’échantillons qui sont tirés de la vraie distribution. Nous résoudrons le problème avec l’approche data drivenet nous obtenons des formulations tractables. Nous développons aussi des bornes sur le nombre d’échantillons nécessaires pour garantir qu’avec une forte probabilité, le coût n’est pas très loin du vrai coût optimal. / Shorter product life cycles and rapid product obsolescence provide increasing incentives to introduce newproducts to markets more quickly. As a consequence of rapidly changing market conditions, firms focus onimproving their new product development processes to reap the benefits of early market entry. Researchershave analyzed market entry, but have seldom provided quantitative approaches for the product rolloverproblem. This research builds upon the literature by using established optimization methods to examine howfirms can minimize their net loss during the rollover process. Specifically, our work explicitly optimizes thetiming of removal of old products and introduction of new products, the optimal strategy, and the magnitudeof net losses when the market entry approval date of a new product is unknown. In the first paper, we use theconditional value at risk to optimize the net loss and investigate the effect of risk perception of the manageron the rollover process. We compare it to the minimization of the classical expected net loss. We deriveconditions for optimality and unique closed-form solutions for single and dual rollover cases. In the secondpaper, we investigate the rollover problem, but for a time-dependent demand rate for the second producttrying to approximate the Bass Model. Finally, in the third paper, we apply the data-driven optimizationapproach to the product rollover problem where the probability distribution of the approval date is unknown.We rather have historical observations of approval dates. We develop the optimal times of rollover and showthe superiority of the data-driven method over the conditional value at risk in case where it is difficult to guessthe real probability distribution
90

Trees in the Andes:

Jost, François Paul 21 February 2017 (has links) (PDF)
High mountain regions including the Andean region are very sensitive to climate change. Farmers in the central Andes of Peru are increasingly being exposed to the impacts of climate variability. This transdisciplinary research uses field laboratories, combining the farming system and the sustainable livelihood approaches, to carry out social, ecological, and financial assessments so as to identify sustainable and resilient livelihood strategies for small-scale Andean farmers. The first research step studies and characterizes farm household systems, influenced by their biophysical and socioeconomic contexts, for which two vulnerability indices were elaborated. Focused on the climate variability, the five livelihood assets and the three IPCC’s vulnerability components, these indices show the highly sensitive conditions of most communities with poor health conditions, access to infrastructure and public services. Farmers’ capacity of response is often limited by the low on-farm diversity and lack of organization. Thereafter, sustainable livelihood strategies were identified. These include on-farm intensification and non-farm labor intensification for lowland and better-access communities. In the middle-access and highland communities, where temporary migration is a common coping strategy, sustainable scenarios include an increment in diversification strategies through agrobiodiversity and a larger share of tree-based production systems. Furthermore, research step II explores local strategies to cope with agricultural droughts and evaluates, by means of natural resource assessment methods, agroforestry systems as an alternative to reduce their negative effects. Mainly affected by the increasing variation in precipitation events, farmers identify off-farm and on-farm diversification as adaptive strategies against agricultural droughts that reduce the weather dependence and covariance between livelihood activities. Among the introduction of more resistant crop and pasture varieties, the incorporation of trees in their system is desired because of their positive influence in soil moisture and crop yields. Soil moisture in agroforestry systems with eucalyptus trees is 10-20% higher than in agricultural systems during the beginning of the wet season. Differences in the soil moisture during the end of the dry season and in the potato yield are not evident between these systems, although an area without sowing reduced the agricultural output in 13-17% in agroforestry systems. Research step III seeks to maximize the efficiency of resource allocation in farm household systems by developing a linear programming optimization model. This financial assessment underpinned the need of additional off-farm activities for resource-scarcer farmers. In addition, under interest rates below 15% the model includes tree-based production systems as part of the optimal solution. However, with increasing interest rates, a higher share of land is used to cover household’s basic needs and fewer resources are available for capital accumulation activities such as forestry. Variations introduced in the model show that pasture systems are more sensitive to changes in the production outputs, whereas variation in farm worker wages and tree prices affected less the optimal solutions, making farming systems less sensitive to these market changes. Finally, the incorporation of tree-based systems have proved to be a sustainable and resilient livelihood strategy against climate variability available for particular farm household systems of the study area. / Las zonas montañosas, incluyendo la región andina son muy sensibles al cambio climático. Los agricultores de los Andes centrales del Perú están cada vez más expuestos a los efectos de la variabilidad climática. Esta investigación transdisciplinaria utiliza laboratorios de campo (field laboratories), combinando los enfoques de sistemas agrícolas y de medios de vida sostenibles, para llevar a cabo evaluaciones sociales, ecológicas y financieras con el fin de identificar estrategias sostenibles y resilientes para los agricultores andinos de pequeña escala. La primera fase de la investigación caracteriza a los sistemas agrícolas familiares, influenciados por sus contextos biofísicos y socioeconómicos, para lo cual se elaboraron dos índices de vulnerabilidad centrados en la variabilidad del clima, los cinco activos de los medios de vida y los tres componentes de la vulnerabilidad del IPCC. Estos índices muestran las condiciones de alta sensibilidad de la mayoría de las comunidades, con malas condiciones de salud y poco acceso a la infraestructura y a los servicios públicos. La capacidad de respuesta de los agricultores es a menudo limitada por la baja diversidad en las actividades agrícolas y la falta de organización. Posteriormente se identificaron las estrategias de medios de vida sostenibles. Estas incluyen la intensificación en las actividades agrícolas y la intensificación del trabajo no agrícola en las comunidades de zonas bajas y con mejor acceso. En las comunidades con menor acceso y zonas altas la migración temporal es una estrategia de afrontamiento común. Los escenarios sostenibles en estas comunidades incluyen un incremento en las estrategias de diversificación p. ej. a través de un aumento de la biodiversidad agrícola y una mayor proporción de sistemas de producción asociados con árboles. Por otra parte, la segunda fase de la investigación explora las estrategias locales para hacer frente a las sequías agrícolas y evalúa, por medio de métodos de evaluación de recursos naturales, los sistemas agroforestales como alternativa para reducir sus efectos negativos. Afectados principalmente por el aumento en la variación de las precipitaciones, los pequeños agricultores identifican a la diversificación de actividades dentro y fuera de sus parcelas agrícolas como una estrategia de adaptación frente a las sequías agrícolas que reduce la dependencia climática y la covarianza entre las actividades de subsistencia. Dentro de la introducción de variedades de cultivos y pastos más resistentes, como parte de la solución, los agricultores desean la incorporación de árboles en su sistema debido a su influencia positiva en la humedad del suelo y en los rendimientos de los cultivos. La humedad del suelo en sistemas agroforestales con árboles de eucalipto es un 10-20% mayor que en los sistemas agrícolas durante el comienzo de la estación húmeda. Las diferencias en la humedad del suelo durante el final de la estación seca y en el rendimiento de los cultivos de papa no son evidentes entre estos dos sistemas. A pesar de esto, el espacio sin siembra dejado en los sistemas agroforestales redujo la producción agrícola en un 13-17%. La tercera fase de la investigación busca maximizar la eficiencia en la asignación de recursos en los sistemas agrícolas familiares mediante el desarrollo de un modelo de optimización de programación lineal. Esta evaluación financiera respalda la necesidad de actividades adicionales no-agrícolas para agricultores con recursos más escasos. Además, con tasas de interés por debajo del 15%, el modelo siempre incluye a los sistemas de producción forestales y/o agroforestales como parte de las soluciones óptimas. Sin embargo, con el aumento de las tasas de interés, una mayor proporción de tierra se utiliza para cubrir las necesidades básicas del hogar y menos recursos están disponibles para las actividades de acumulación de capital como la silvicultura. Las variaciones introducidas en el modelo muestran que los sistemas de pastoreo son más sensibles a los cambios en los condiciones de producción. Por otro lado, la variación en los salarios de los trabajadores agrícolas y en los precios de los árboles afectan en un menor grado las soluciones óptimas, proporcionando sistemas agrícolas menos sensibles a estos cambios en el mercado. Finalmente, la incorporación de árboles en los sistemas agrícolas ha demostrado ser una estrategia de vida sostenible y resiliente a la variabilidad climática disponible para determinados sistemas agrícolas familiares de la zona de estudio. / Hochgebirgsregionen einschließlich der Andenregion sind gegenüber dem Klimawandel sehr empfindlich. Die in den zentralen Anden von Peru lebenden Bauern sind mehr und mehr den Auswirkungen durch Klimaschwankungen ausgesetzt. Diese transdisziplinäre Forschung nutzt Feldlabore, die das System der landwirtschaftlichen Bewirtschaftung und Ansätze zur nachhaltigen Lebensunterhaltssicherung kombinieren, um soziale, ökologische und ökonomische Erhebungen durchzuführen, so dass nachhaltige Livelihood-Strategien für die Kleinbauern in den Anden aufgezeigt werden können. Der erste Forschungsschritt untersucht und charakterisiert die bäuerlichen Haushaltssysteme, die durch ihre biophysikalischen und sozioökonomischen Kontexte beeinflusst sind. Hierfür wurden zwei Vulnerabilitätsindizes herausgearbeitet, die Klimavariabilität und die fünf Güter des Sustainable Livelihood-Konzepts im Fokus haben, sowie die drei Vulnerabilitätskomponenten des Intergovernmental Panel on Climate Change (IPCC). Diese Indizes decken die hochgradige Sensitivität für die meisten Gemeinden auf, aufgrund des schlechten Gesundheitszustandes sowie dem Mangel an Infrastruktur und öffentlichen Dienstleistungen. Die Fähigkeit der Bauern damit umzugehen, ist zumeist begrenzt durch eine geringe Diversität und fehlende Organisation auf den Farmen. Anschließend werden nachhaltige Livelihood-Strategien aufgezeigt. Diese umfassen die Intensivierung der Arbeit in der Landwirtschaft und der Arbeitskraft außerhalb der Landwirtschaft für Gemeinden im Flachland sowie besser erreichbare Gemeinden. In Hochlandgemeinden und Gemeinden die schwer zugänglich sind, ist temporäre Migration eine geläufige Bewältigungsstrategie. Nachhaltige Szenarien in diesen Gemeinden beinhalten eine höhere Anzahl an Diversifizierungsstrategien wie die Steigerung von Agro-Biodiversität und dem Anteil an baumbasierten Produktionssystemen. Forschungsschritt II untersucht lokale Strategien, um die landwirtschaftliche Dürre zu bewältigen und bewertet – mit Hilfe von Naturressourcenbewertungsverfahren – Agroforstsysteme als eine Alternative, um die negativen Auswirkungen der Trockenzeiten zu verringern. Beeinträchtigt durch zunehmende Niederschlagsschwankungen, identifizieren Bauern die Diversifizierung von landwirtschaftlichen und nicht-landwirtschaftlichen Aktivitäten als Anpassungsstrategie bei landwirtschaftliche Dürre, wodurch die Abhängigkeit vom Wetter und die Kovarianz zwischen den Aktivitäten für den Lebensunterhalt reduziert werden kann. Neben der Einführung resistenterer Kultur- und Weidepflanzen, ist die Einbeziehung von Bäumen in das System wünschenswert, aufgrund ihres positiven Einflusses auf die Bodenfeuchte und Erträge. Die Bodenfeuchte in agroforstwirtschaftlichen Systemen mit Eukalyptusbäumen ist während der beginnenden Feuchtperiode 20% höher als in landwirtschaftlichen Systemen. Die Unterschiede der Bodenfeuchte am Ende der Trockenzeit und bezüglich des Kartoffelertrags sind zwischen diesen Systemen nicht markant, obwohl eine Fläche, auf der keine Saat ausgebracht wurde, den landwirtschaftlichen Ertrag in Agroforstsystemen um 13 bis 17% mindert. Forschungsschritt III versucht die Effizienz der Ressourcenzuordnung in Farmhaushaltssystemen zu maximieren, indem ein Optimierungsmodell mit Hilfe der linearen Programmierung entwickelt wird. Diese ökonomische Erhebung unterstreicht die Notwendigkeit zusätzlicher nichtlandwirtschaftlicher Aktivitäten für ressourcenärmere Bauern. Bei Zinsraten unter 15% umfasst das Model baumbasierte Produktionssysteme als einen Teil der optimalen Lösung. Mit steigenden Zinsraten wird jedoch eine größere Bodenfläche dazu verwendet, um die Grundbedürfnisse der Haushalte zu decken und es stehen weniger Ressourcen für Aktivitäten zur Kapitalanhäufung wie Forstwirtschaft zur Verfügung. Die in das Modell involvierten Variationen zeigen, dass Weidesysteme sensibler auf Veränderungen des Produktionsausstoßes reagieren. Schwankungen bei den Löhnen der Farmer und Veränderungen der Baumpreise beeinträchtigen hingegen die optimalen Lösungen weniger. Dadurch sind die landwirtschaftlichen Systeme gegenüber Marktschwankungen weniger anfällig. Abschließend erweist sich, dass – für bestimmte Farmhaushaltssysteme im Untersuchungsgebiet – die Einbeziehung baumbasierter Systeme als nachhaltige und resiliente Livelihood-Strategie angesichts von Klimaschwankungen nützlich ist. / Regiões altomontanas, incluindo os Andes são extremamente sensíveis aos impactos das mudanças climáticas. Pequenos agricultores da região central dos Andes Peruanos estão progressivamente sendo expostos aos impactos das variações climáticas. A presente investigação transdisciplinar utiliza “field laboratories”, combinando os enfoques de sistemas rurais e dos meios de subsistência sustentáveis, visando uma avaliação social, ecológica e financeira, com intuito de se identificar estratégias resilientes e sustentáveis para os pequenos agricultores Andinos. A primeira etapa do presente estudo investiga e caracteriza os sistemas rurais, influenciados por seus contextos biofísicos e socioeconômicos, para os quais foram elaborados dois índices de vulnerabilidade focados na variabilidade climática, nos recursos dos meios de vida (cinco capitais) e nos três componentes da vulnerabilidade do IPCC. Esses índices mostram as condições altamente sensíveis da maioria das comunidades, com más condições de saúde, acesso à infra-estrutura e serviços públicos. A capacidade de resposta dos pequenos agricultores é frequentemente limitada pela baixa diversificação de actividades na exploração agricola e falta de organização. Posteriormente, foram identificadas estratégias de subsitência sustentáveis. Estas incluem a intensificação tanto do trabalho rural, quanto do não-agrícola para as comunidades de terras baixas e mais acessíveis. Para as comunidades altomontanas e com menor acesso, a migração temporária é uma estratégia de enfrentamento comum. Cenários sustentáveis para essas comunidades incluem um incremento nas estratégias de diversificação p. ex. aumentando a agrobiodiversidade e a parcela dos sistemas de produção florestais. A segunda etapa da pesquisa explora estratégias locais para lidar com as secas agrícolas e investiga, por meio de métodos de avaliação de recursos naturais, sistemas agroflorestais como alternativa para reduzir os seus efeitos negativos. Afetado principalmente pelo aumento da variação da precipitação, os agricultores identificam a diversificação tanto no trabalho rural, quanto no não-agrícola, como estratégias adaptativas contra secas agrícolas que reduzam a dependência do clima e covariância entre atividades de subsitência. Entre a introdução de culturas e de pastagens de variedades mais resistentes, a incorporação de árvores em seu sistema é desejada por conta da sua influência positiva na umidade do solo e no rendimento das culturas. A umidade do solo em sistemas agroflorestais com árvores de eucalipto é de 10-20% maior do que em sistemas agrícolas durante o início da estação chuvosa. As diferenças na umidade do solo durante o final da estação seca e na produtividade da batata não são evidentes entre estes dois sistemas. Apesar disso, o espaço sem semeadura deixado em sistemas agroflorestais reduziu a produção agrícola em 13-17%. A terceira etapa da presente investigação visa maximizar a eficiência da alocação de recursos em sistemas agrícolas familiares por meio do desenvolvimento de um modelo de otimização de programação linear. Esta avaliação financeira sustenta a necessidade de atividades não-agrícolas adicionais para agricultores com recursos escassos. Ademais, sob taxas de juros abaixo de 15%, o modelo inclui sistemas de produção florestais como parte da solução ideal. Contudo, com o aumento das taxas de juros, uma parcela maior da propriedade é usada para garantir as necessidades básicas, e portanto, menos recursos do agregado familiar estão disponíveis para atividades de acumulação de capital, tais como a silvicultura. Variações introduzidas no modelo mostram que sistemas de pastagem são mais sensíveis a mudanças nas condições de produção. Ademais, variaçãoes nos salários dos trabalhadores agrícolas e nos preços de árvores afetam menos as soluções ótimas, tornando os sistemas agrícolas menos sensíveis a estas mudanças do mercado. Por fim, a incorporação de sistemas florestais provaram ser uma estratégia de subsistência sustentável e resiliente contra a variação climática para determinados sistemas de agricultura familiar da área de estudo.

Page generated in 0.109 seconds