• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 11
  • 7
  • 6
  • 1
  • 1
  • Tagged with
  • 27
  • 26
  • 10
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Optimal Basis For Ultrasound Rf Apertures: Applications to Real-Time Compression and Beamforming

Kibria, Sharmin 01 January 2014 (has links) (PDF)
Modern medical ultrasound machines produce enormous amounts of data, as much as several gigabytes/sec in some systems. The challenges of generating, storing, processing and reproducing such voluminous data has motivated researchers to search for a feasible compression scheme for the received ultrasound radio frequency (RF) signals. Most of this work has concentrated on the digitized data available after sampling and A/D conversion. We are interested in the possibility of compression implemented directly on the received analog RF signals; hence, we focus on compression of the set of signals in a single receive aperture. We first investigate the model-free approaches to compression that have been proposed by previous researchers that involve applications of some of the well-known signal processing tools like Principal Component Analysis (PCA), wavelets, Fourier Transform, etc. We also consider Bandpass Prolate Spheroidal Functions (BPSFs) in this study. Then we consider the derivation of the optimal basis for the RF signals assuming a white noise model for spatial inhomogeneity field in tissue. We first derive an expression for the (time and space) autocorrelation function of the set of signals received in a linear aperture. This is then used to find the autocorrelation's eigenfunctions, which form an optimal basis for minimum mean-square error compression of the aperture signal set. We show that computation of the coefficients of the signal set with respect to the basis is approximated by calculation of real and imaginary part of the Fourier Series coefficients for the received signal at each aperture element, with frequencies slightly scaled by aperture position, followed by linear combinations of corresponding frequency components across the aperture. The combination weights at each frequency are determined by the eigenvectors of a matrix whose entries are averaged cross-spectral coefficients of the received signal set at that frequency. The principal eigenvector generates a combination that corresponds to a variation on the standard delay-and-sum beamformed aperture center line, while the combinations from other eigenvectors represent aperture information that is not contained in the beamformed line. We then consider how to use the autocorrelation's eigenfunctions and eigenvalues to generate a linear minimum mean-square error beamformer for the center line of each aperture. Finally, we compare the performances of the optimal compression basis and to that of the 2D Fourier Transform.
12

Propagation d'incertitudes en CEM. Application à l'analyse de fiabilité et de sensibilité de lignes de transmission et d'antennes / Uncertainty propagation in EMC. Application to reliability and sensitivity analyzes of transmission lines and antennas

Kouassi, Attibaud 18 December 2017 (has links)
De nos jours, la plupart des analyses CEM d’équipements et systèmes électroniques sont basées sur des approches quasi-déterministes dans lesquelles les paramètres internes et externes des modèles sont supposés parfaitement connus et où les incertitudes les affectant sont prises en compte sur les réponses par le biais de marges de sécurité importantes. Or, l’inconvénient de telles approches est qu’elles sont non seulement trop conservatives, mais en outre totalement inadaptées à certaines situations, notamment lorsque l’objectif de l’étude impose de prendre en compte le caractère aléatoire de ces paramètres via des modélisations stochastiques appropriées de type variables, processus ou champs aléatoires. Cette approche probabiliste a fait l’objet ces dernières années d’un certain nombre de recherches en CEM, tant au plan national qu’au plan international. Le travail présenté dans cette thèse est une contribution à ces recherches et a un double objectif : (1) développer et mettre en œuvre une méthodologie probabiliste et ses outils numériques d’accompagnement pour l’évaluation de la fiabilité et l’analyse sensibilité des équipements et systèmes électroniques en se limitant à des modélisations stochastiques par variables aléatoires ; (2) étendre cette étude au cas des modélisations stochastiques par processus et champs aléatoires dans le cadre d’une analyse prospective basée sur la résolution de l’équation aux dérivées partielles des télégraphistes à coefficients aléatoires.L’approche probabiliste mentionnée au point (1) consiste à évaluer la probabilité de défaillance d’un équipement ou d’un système électronique vis-à-vis d’un critère de défaillance donné et à déterminer l’importance relative de chacun des paramètres aléatoires en présence. Les différentes méthodes retenues à cette fin sont des adaptations à la CEM de méthodes développées dans le domaine de la mécanique aléatoire pour les études de propagation d’incertitudes. Pour le calcul des probabilités de défaillance, deux grandes catégories de méthodes sont proposées : celles basées sur une approximation de la fonction d’état-limite relative au critère de défaillance et les méthodes de Monte-Carlo basées sur la simulation numérique des variables aléatoires du modèle et l’estimation statistique des probabilités cibles. Pour l’analyse de sensibilité, une approche locale et une approche globale sont retenues. Ces différentes méthodes sont d’abord testées sur des applications académiques afin de mettre en lumière leur intérêt dans le domaine de la CEM. Elles sont ensuite appliquées à des problèmes de lignes de transmission et d’antennes plus représentatifs de la réalité.Dans l’analyse prospective, des méthodes de résolution avancées sont proposées, basées sur des techniques spectrales requérant les développements en chaos polynomiaux et de Karhunen-Loève des processus et champs aléatoires présents dans les modèles. Ces méthodes ont fait l’objet de tests numériques encourageant, mais qui ne sont pas présentés dans le rapport de thèse, faute de temps pour leur analyse complète. / Nowadays, most EMC analyzes of electronic or electrical devices are based on deterministic approaches for which the internal and external models’ parameters are supposed to be known and the uncertainties on models’ parameters are taken into account on the outputs by defining very large security margins. But, the disadvantage of such approaches is their conservative character and their limitation when dealing with the parameters’ uncertainties using appropriate stochastic modeling (via random variables, processes or fields) is required in agreement with the goal of the study. In the recent years, this probabilistic approach has been the subject of several researches in the EMC community. The work presented here is a contribution to these researches and has a dual purpose : (1) develop a probabilistic methodology and implement the associated numerical tools for the reliability and sensitivity analyzes of the electronic devices and systems, assuming stochastic modeling via random variables; (2) extend this study to stochastic modeling using random processes and random fields through a prospective analysis based on the resolution of the telegrapher equations (partial derivative equations) with random coefficients. The first mentioned probabilistic approach consists in computing the failure probability of an electronic device or system according to a given criteria and in determining the relative importance of each considered random parameter. The methods chosen for this purpose are adaptations to the EMC framework of methods developed in the structural mechanics community for uncertainty propagation studies. The failure probabilities computation is performed using two type of methods: the ones based on an approximation of the limit state function associated to the failure criteria, and the Monte Carlo methods based on the simulation of the model’s random variables and the statistical estimation of the target failure probabilities. In the case of the sensitivity analysis, a local approach and a global approach are retained. All these methods are firstly applied to academic EMC problems in order to illustrate their interest in the EMC field. Next, they are applied to transmission lines problems and antennas problems closer to reality. In the prospective analysis, more advanced resolution methods are proposed. They are based on spectral approaches requiring the polynomial chaos expansions and the Karhunen-Loève expansions of random processes and random fields considered in the models. Although the first numerical tests of these methods have been hopeful, they are not presented here because of lack of time for a complete analysis.
13

Puissance asymptotique des tests non paramétriques d'ajustement du type Cramer-Von Mises

Boukili Makhoukhi, Mohammed 21 June 2007 (has links) (PDF)
L'analyse statistique, prise au sens large, est centrée sur la description, et, lorsque les circonstances le permettent, la modélisation quantitative des phénomènes observés, pour peu que ces derniers possèdent une part d'incertitude, et donc, qu'ils soient soumis aux lois du hasard. Dans cette activité scientifique, le plus grand soin doit être apporté à la validation des hypothèses de modélisation, nécessaires à l'interprétation des résultats. Ce principe général s'applique d'ailleurs à toutes les sciences expérimentales, et tout aussi bien aux sciences humaines (en psychologie), qu'en économie, et dans bien d'autres disciplines. Une théorie scientifique repose, au départ, sur des hypothèses de modélisation, qui sont ensuite soumises à l'épreuve de l'expérimentation. Celle-ci est basée sur le recueil de données, dont il est nécessaire de décider la nature, compatible ou non, avec les modèles choisis, aboutissant, soit au rejet, soit à l'acceptation, de ces derniers. La statistique a développé, dans ce but, une technologie basée sur les tests d'hypothèses, dont nous nous abstiendrons de discuter dans mon mémoire de thèse les bases et les fondements. Dans cette thèse, nous avons abordé l'étude de certains tests d'ajustement (dits, en Anglais, tests of fit"), de nature paramétrique et non paramétrique. Les aspects techniques de ces tests d'hypothèses ont été abordés, dans le contexte particulier de notre étude pour les tests de type Cramer-Von Mises. On ne manquera pas de citer l'approche initialement utilisée pour les tests de type Kolmogorov-Smirnov. Enfin, l'ouvrage de Nikitin était une référence de base particulièrement adaptée à la nature de notre recherche. L'objectif principal de la thèse est d'évaluer la puissance asymptotique de certains tests d'ajustement, relevant de la catégorie générale des tests de Cramer-Von Mises. Nous avons évalué cette puissance, relativement à des suites convenables d'alternatives locales. Notre méthode utilise les développements de Karhunen-Loève d'un pont brownien pondéré. Notre travail avait pour objet secondaire de compléter des recherches récentes de P.Deheuvels et G.Martynov, qui ont donné l'expression des fonctions propres et valeurs propres des développements de Karhunen-Loève de certains ponts browniens pondérés à l'aide de fonctions de Bessel. Dans le premier temps, nous avons exposé les fondements des développements de Karhunen-Loève [D.K.L], ainsi que les applications qui en découlent en probabilités et statistiques. Le deuxième paragraphe de cette thèse a été consacré à un exposé de la composante de la théorie des tests d'hypothèses adaptée à la suite de notre mémoire. Dans ce même paragraphe, nous montrons l'intérêt qu'apporte une connaissance explicite des composantes d'un développement de Karhunen-Loève, en vue de l'évaluation de la puissance de tests d'ajustement basés sur les statistiques de type Cramer-Von Mises qui sont liées à ce D.K.L.
14

Uma análise funcional da dinâmica de densidades de retornos financeiros

Horta, Eduardo de Oliveira January 2011 (has links)
Uma correta especificação das funções densidade de probabilidade (fdp’s) de retornos de ativos é um tópico dos mais relevantes na literatura de modelagem econométrica de dados financeiros. A presente dissertação propõe-se a oferecer, neste âmbito, uma abordagem distinta, através de uma aplicação da metodologia desenvolvida em Bathia et al. (2010) a dados intradiários do índice bovespa. Esta abordagem consiste em focar a análise diretamente sobre a estrutura dinâmica das fdp’s dos retornos, enxergando-as como uma sequência de variáveis aleatórias que tomam valores em um espaço de funções. A dependência serial existente entre essas curvas permite que se obtenham estimativas filtradas das fdp’s, e mesmo que se façam previsões sobre densidades de períodos subsequentes à amostra. No artigo que integra esta dissertação, onde é feita a mencionada aplicação, encontrou-se evidência de que o comportamento dinâmico das fdp’s dos retornos do índice bovespa se reduz a um processo bidimensional, o qual é bem representado por um modelo var(1) e cuja dinâmica afeta a dispersão e a assimetria das distribuições no suceder dos dias. Ademais, utilizando-se de subamostras, construíram-se previsões um passo à frente para essas fdp’s, e avaliaram-se essas previsões de acordo com métricas apropriadas. / Adequate specification of the probability density functions (pdf’s) of asset returns is a most relevant topic in econometric modelling of financial data. This dissertation aims to provide a distinct approach on that matter, through applying the methodology developed in Bathia et al. (2010) to intraday bovespa index data. This approach consists in focusing the analysis directly on the dynamic structure of returns fdp’s, seeing them as a sequence of function-valued random variables. The serial dependence of these curves allows one to obtain filtered estimates of the pdf’s, and even to forecast upcoming densities. In the paper contained into this dissertation, evidence is found that the dynamic structure of the bovespa index returns pdf’s reduces to a R2-valued process, which is well represented by a var(1) model, and whose dynamics affect the dispersion and symmetry of the distributions at each day. Moreover, one-step-ahead forecasts of upcoming pdf’s were constructed through subsamples and evaluated according to appropriate metrics.
15

Uma análise funcional da dinâmica de densidades de retornos financeiros

Horta, Eduardo de Oliveira January 2011 (has links)
Uma correta especificação das funções densidade de probabilidade (fdp’s) de retornos de ativos é um tópico dos mais relevantes na literatura de modelagem econométrica de dados financeiros. A presente dissertação propõe-se a oferecer, neste âmbito, uma abordagem distinta, através de uma aplicação da metodologia desenvolvida em Bathia et al. (2010) a dados intradiários do índice bovespa. Esta abordagem consiste em focar a análise diretamente sobre a estrutura dinâmica das fdp’s dos retornos, enxergando-as como uma sequência de variáveis aleatórias que tomam valores em um espaço de funções. A dependência serial existente entre essas curvas permite que se obtenham estimativas filtradas das fdp’s, e mesmo que se façam previsões sobre densidades de períodos subsequentes à amostra. No artigo que integra esta dissertação, onde é feita a mencionada aplicação, encontrou-se evidência de que o comportamento dinâmico das fdp’s dos retornos do índice bovespa se reduz a um processo bidimensional, o qual é bem representado por um modelo var(1) e cuja dinâmica afeta a dispersão e a assimetria das distribuições no suceder dos dias. Ademais, utilizando-se de subamostras, construíram-se previsões um passo à frente para essas fdp’s, e avaliaram-se essas previsões de acordo com métricas apropriadas. / Adequate specification of the probability density functions (pdf’s) of asset returns is a most relevant topic in econometric modelling of financial data. This dissertation aims to provide a distinct approach on that matter, through applying the methodology developed in Bathia et al. (2010) to intraday bovespa index data. This approach consists in focusing the analysis directly on the dynamic structure of returns fdp’s, seeing them as a sequence of function-valued random variables. The serial dependence of these curves allows one to obtain filtered estimates of the pdf’s, and even to forecast upcoming densities. In the paper contained into this dissertation, evidence is found that the dynamic structure of the bovespa index returns pdf’s reduces to a R2-valued process, which is well represented by a var(1) model, and whose dynamics affect the dispersion and symmetry of the distributions at each day. Moreover, one-step-ahead forecasts of upcoming pdf’s were constructed through subsamples and evaluated according to appropriate metrics.
16

Uma análise funcional da dinâmica de densidades de retornos financeiros

Horta, Eduardo de Oliveira January 2011 (has links)
Uma correta especificação das funções densidade de probabilidade (fdp’s) de retornos de ativos é um tópico dos mais relevantes na literatura de modelagem econométrica de dados financeiros. A presente dissertação propõe-se a oferecer, neste âmbito, uma abordagem distinta, através de uma aplicação da metodologia desenvolvida em Bathia et al. (2010) a dados intradiários do índice bovespa. Esta abordagem consiste em focar a análise diretamente sobre a estrutura dinâmica das fdp’s dos retornos, enxergando-as como uma sequência de variáveis aleatórias que tomam valores em um espaço de funções. A dependência serial existente entre essas curvas permite que se obtenham estimativas filtradas das fdp’s, e mesmo que se façam previsões sobre densidades de períodos subsequentes à amostra. No artigo que integra esta dissertação, onde é feita a mencionada aplicação, encontrou-se evidência de que o comportamento dinâmico das fdp’s dos retornos do índice bovespa se reduz a um processo bidimensional, o qual é bem representado por um modelo var(1) e cuja dinâmica afeta a dispersão e a assimetria das distribuições no suceder dos dias. Ademais, utilizando-se de subamostras, construíram-se previsões um passo à frente para essas fdp’s, e avaliaram-se essas previsões de acordo com métricas apropriadas. / Adequate specification of the probability density functions (pdf’s) of asset returns is a most relevant topic in econometric modelling of financial data. This dissertation aims to provide a distinct approach on that matter, through applying the methodology developed in Bathia et al. (2010) to intraday bovespa index data. This approach consists in focusing the analysis directly on the dynamic structure of returns fdp’s, seeing them as a sequence of function-valued random variables. The serial dependence of these curves allows one to obtain filtered estimates of the pdf’s, and even to forecast upcoming densities. In the paper contained into this dissertation, evidence is found that the dynamic structure of the bovespa index returns pdf’s reduces to a R2-valued process, which is well represented by a var(1) model, and whose dynamics affect the dispersion and symmetry of the distributions at each day. Moreover, one-step-ahead forecasts of upcoming pdf’s were constructed through subsamples and evaluated according to appropriate metrics.
17

Uma introdução à influência da interação modal nas oscilações não lineares de cascas cilíndricas / An introduction to the influence of modal interactions in non-linear oscillations of cylindrical shells

Rodrigues, Lara 14 February 2013 (has links)
Submitted by Erika Demachki (erikademachki@gmail.com) on 2014-09-22T20:32:01Z No. of bitstreams: 2 Lara Rodrigues.pdf: 17878503 bytes, checksum: a51778a9fbf6a31b2a71fe0c9c462105 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2014-09-23T15:24:03Z (GMT) No. of bitstreams: 2 Lara Rodrigues.pdf: 17878503 bytes, checksum: a51778a9fbf6a31b2a71fe0c9c462105 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Made available in DSpace on 2014-09-23T15:24:03Z (GMT). No. of bitstreams: 2 Lara Rodrigues.pdf: 17878503 bytes, checksum: a51778a9fbf6a31b2a71fe0c9c462105 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Previous issue date: 2013-02-14 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / The aim of this work is to investigate the interaction and modal coupling phenomena on the nonlinear vibrations of simply supported cylindrical shell subject to both harmonic axial and lateral loads. The equations of motion of the cylindrical shell are deduced from their energy functionals and the strain field is based on the nonlinear Donnell shallow shell theory. Finally, the problem is reduced to a system of nonlinear ordinary differential equations by the application of the standard Galerkin method. The modal expansion that describes the transverse displacement of the shell is obtained by applying perturbation techniques, which identifies the importance of each term in the modal expansion by the power of the perturbation parameter. The Karhunen-Loève method is applied in order to verify the importance of each term in the modal expansion, quantifying the contribution of each of these terms in the total energy of the system. The starting solution used in the perturbation procedure contains two modes of vibration with the same natural frequency and their respective companion modes, yielding a modal expansion able to describe the modal interaction between these two modes. Then, the influence of modal interaction on the nonlinear behavior of the cylindrical shell, subjected to both lateral and axial harmonic load is studied. From the analysis of the resonance curves, the parametric instability and escape boundaries, the bifurcation diagrams, the basins of attraction and phase portraits of the cylindrical shell is possible to identify situations in which the consideration of modal interaction is necessary. / Neste trabalho estudam-se as vibrações não lineares de cascas cilíndricas simplesmente apoiadas sujeitas a um carregamento lateral e a um carregamento axial, ambos harmônicos, com o objetivo de se analisar fenômenos como o acoplamento e a interação modal. As equações de movimento da casca cilíndrica são deduzidas a partir de seus funcionais de energia. O campo de deformações da casca cilíndrica é descrito com base na teoria não linear de Donnell para cascas esbeltas e o problema é reduzido a um sistema de equações diferenciais ordinárias não lineares a partir da aplicação do método de Galerkin. As expansões modais que descrevem o campo de deslocamento transversal da casca são obtidas através da aplicação do método da perturbação, que identifica a importância de cada termo da expansão modal a partir da potência do parâmetro de perturbação. O método de Karhunen-Loève é aplicado a fim de se verificar a importância de cada termo da expansão modal, quantificando a participação de cada um desses termos na energia total do sistema. Utilizam-se, como solução inicial do método da perturbação, dois modos de vibração com frequência natural igual e com seus respectivos companion modes, obtendo-se uma expansão modal capaz de descrever a interação modal entre esses dois modos. Em seguida, analisa-se a influência da interação modal no comportamento não linear da casca cilíndrica submetidas a cargas laterais e axiais harmônicas. A partir da análise das curvas de ressonância, das fronteiras de instabilidade paramétrica, dos diagramas de bifurcação, das bacias de atração e dos planosfase da casca cilíndrica é possível identificar em quais situações de carregamento a consideração da interação modal se faz necessária.
18

Implementation of Stochastic Neural Networks for Approximating Random Processes

Ling, Hong January 2007 (has links)
Artificial Neural Networks (ANNs) can be viewed as a mathematical model to simulate natural and biological systems on the basis of mimicking the information processing methods in the human brain. The capability of current ANNs only focuses on approximating arbitrary deterministic input-output mappings. However, these ANNs do not adequately represent the variability which is observed in the systems’ natural settings as well as capture the complexity of the whole system behaviour. This thesis addresses the development of a new class of neural networks called Stochastic Neural Networks (SNNs) in order to simulate internal stochastic properties of systems. Developing a suitable mathematical model for SNNs is based on canonical representation of stochastic processes or systems by means of Karhunen-Loève Theorem. Some successful real examples, such as analysis of full displacement field of wood in compression, confirm the validity of the proposed neural networks. Furthermore, analysis of internal workings of SNNs provides an in-depth view on the operation of SNNs that help to gain a better understanding of the simulation of stochastic processes by SNNs.
19

INVERSION DES MODELES STOCHASTIQUES DE MILIEUX HETEROGENES

Romary, Thomas 19 December 2008 (has links) (PDF)
La problématique du calage d'historique en ingénierie de réservoir, c'est-à-dire le calage des modèles géostatistiques aux données de production, est un problème inverse mal posé. Dans un cadre bayésien, sa résolution suppose l'inférence de la distribution de probabilité du modèle géostatistique conditionné aux données dynamiques, rendant compte à la fois de l'a priori géologique, exprimé dans le modèle géostatistique, et de l'adéquation aux données de production. Typiquement, la résolution de ce problème passe par la génération d'un ensemble de réalisations calées aux données, échantillon représentatif de cette distribution. Les modèles géostatistiques sont en général discrétisés sur des grilles de plusieurs centaines de milliers, voire des millions de blocs ; les approches classiques tentent de résoudre le problème inverse en considérant l'ensemble des blocs comme paramètres du modèle. Sa dimension est alors considérable et les méthodes d'échantillonnages deviennent impraticables sur un cas réel. Il convient alors de choisir une paramétrisation susceptible de réduire la dimension du problème. Dans la première partie de cette thèse, nous présentons une méthode de paramétrisation optimale des modèles géostatistiques basés sur les champs aléatoires gaussiens, à partir de leur décomposition de Karhunen-Loève (KL). Nous en décrivons les fondements théo- riques, puis, sur des applications aux modèles de champs aléatoires gaussiens courants en géostatistique, selon des critères d'abord statistiques puis hydrodynamiques, nous quantifions la réduction de la dimension du problème offerte par cette paramétrisation. Dans la seconde partie, nous présentons les principes des méthodes de Monte-Carlo par Chaînes de Markov (MCMC) et les défauts des méthodes classiques pour la résolution du problème inverse dans le cadre bayésien. Nous développons alors l'approche par chaînes de Markov en interaction dont nous exposons les avantages. Enfin, les résultats obtenus par l'emploi conjoint de ces deux méthodes sont présentés dans deux articles. Une approche différente, passant par l'emploi de méthodes d'analyse de sensibilité, est également décrite dans un troisième article.
20

Analyse de Sensibilité pour les modèles dynamiques utilisés en agronomie et environnement.

Matieyendou, Matieyendou 21 December 2009 (has links) (PDF)
Des modèles dynamiques sont souvent utilisés pour simuler l'impact des pratiques agricoles et parfois pour tester des règles de décision. Ces modèles incluent de nombreux paramètres incertains et il est parfois difficile voire impossible de tous les estimer. Une pratique courante dans la littérature consiste à sélectionner les paramètres clés à l'aide d'indices de sensibilité calculés par simulation et de n'estimer que les paramètres les plus influents. Bien que cette démarche soit intuitive, son intérêt réel et ses conséquences sur la qualité prédictive des modèles ne sont pas connus. Nos travaux de recherches ont pour ambition d'évaluer cette pratique des modélisateurs en établissant une relation entre les indices de sensibilité des paramètres d'un modèle et des critères d'évaluation de modèles tels que le MSEP (Mean Square Error of Prediction) et le MSE (Mean Square Error), souvent utilisés en agronomie. L'établissement d'une telle relation nécessite le développement d'une méthode d'AS qui fournit un unique indice par facteur qui prend en compte les corrélations entre les différentes sorties du modèle obtenues à différentes dates. Nous proposons un nouvel indice de sensibilité global qui permet de synthétiser les effets des facteurs incertains sur l'ensemble des dynamiques simulées à l'aide de modèle. Plusieurs méthodes sont présentées dans ce mémoire pour calculer ces nouveaux indices. Les performances de ces méthodes sont évaluées pour deux modèles agronomiques dynamiques: Azodyn et WWDM. Nous établissons également dans ce mémoire, une relation formelle entre le MSE, le MSEP et les indices de sensibilité dans le cas d'un modèle linéaire et une relation empirique entre le MSEP et les indices dans le cas du modèle dynamique non linéaire CERES-EGC. Ces relations montrent que la sélection de paramètres à l'aide d'indices de sensibilité n'améliore les performances des modèles que sous certaines conditions.

Page generated in 0.0399 seconds