• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 172
  • 103
  • 57
  • 33
  • 18
  • 12
  • 10
  • 8
  • 6
  • 5
  • 5
  • 4
  • 4
  • 2
  • 1
  • Tagged with
  • 513
  • 170
  • 85
  • 58
  • 55
  • 45
  • 45
  • 44
  • 42
  • 42
  • 41
  • 38
  • 36
  • 35
  • 34
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
481

Décomposition Modale Empirique : Contribution à la Modélisation Mathématique et Application en Traitement du Signal et de l'Image

Niang, Oumar 20 September 2007 (has links) (PDF)
La Décomposition Modale Empirique (EMD), est une méthode de décomposition multi-résolution de signaux en fonctions Modes Intrinsèques (IMF) et cela, de manière auto-adaptative. En la couplant avec la transformée de Hilbert, elle devient une méthode d'analyse Temps-Fréquence , la transformée de Hilbert-Huang, permettant d'étudier bon nombre de classes de signaux. Malgré ces nombreuses applications, l'une des plus importantes limites de l'EMD est son manque de formalisme mathématique. A la place d'une interpolation par splines cubiques utilisée dans l'EMD classique, nous avons estimé l'enveloppe moyenne par une solution d'un système d'EDP. Par une méthode variationnelle, nous avons établi un cadre théorique pour prouver les résultats de convergence, d'existence de modes et la propriété de presque orthogonalité de l'EMD. La comparaison avec des bancs de filtres itératifs et les ondelettes, montre l'aspect multi-résolution de l'EMD. Deux nouvelles applications en traitement du signal et de l'image sont présentées : l'extraction des intermittences et mode mixing et la restauration par shrinkage par EMD. Enfin le modèle peut servir de base pour l'étude de l'unicité de la décomposition.
482

La RMR de Saguenay, entre croissance et décroissance, perceptions et interventions des acteurs locaux

Tremblay, Michaël 11 1900 (has links)
Since around twenty years, the Saguenay CMA seems to have underwent a population decline and important economic transformations, wich would have confronted citizens and local actors to a situation of a possible decline. In a context of an ageing population generalized to the whole Quebec, the Saguenay CMA can be seen as a precursor territory of the population decline phenomenon for a medium-sized city. It’s the scale and the extent of the phenomenon wich seem to have become more important. In this context, is it possible to reverse the situation from an urban planning based on growth, to a planning that takes into account the possiblity of the decrease and the ageing of the population, as well as the reorganization of econimic activities? The analysis of the actors’s speech, who are involved in planning, economic development and politics, raise the question of the difficulty to conceive the decrease of the population and the economic tranformations, not as an occasional phenomenon, but as a possibly structural phenomenon that may last over time. The subject of the decline seems to generate a form of discomfort among the actors, going even to the complete reject of the situation as a possible reality. For several, the eventuality of a generalized decline is inconceivable, the decrease can be perceived as a political failure. It appears that most of the strategies put in place to correct the situation, are based on the goal of a return to the growth. From the signs in the built framework, through the strategy of territorial marketing and municipal interventionism, until the appearance of urban brownfields, the impacts of the population decrease and the economic transformations seems, for the greater part very subtile, but to be present on the territory of the CMA. The shrinking cities phenomenon is observed in this study according to a new approach that confronts the actors’s speech, the territory reality and the analysis of the economic and demographic dynamics. It is thus an exploratory research wich tries to question the current way of thinking the urban growth. / Depuis une vingtaine d’années, la RMR de Saguenay semble avoir connu une diminution démographique et d’importantes transformations économiques, qui auraient confronté les citoyens et les acteurs locaux à une situation de possible décroissance. Dans un contexte de vieillissement de population généralisé à l'ensemble du Québec, la RMR de Saguenay pourrait être perçue comme un territoire précurseur du phénomène de décroissance démographique d’une ville de taille moyenne. C’est l’échelle et l’ampleur du phénomène qui semblent être devenues plus importantes. Dans ce contexte, est-il possible de passer d’un aménagement du territoire basé sur la croissance, à une planification qui tient compte de la possibilité d’une diminution et du vieillissement de la population, ainsi que de la réorganisation des activités économiques ? L’analyse du discours des acteurs de l’aménagement, du développement économique et du politique soulève la difficulté de concevoir la diminution de la population et les mutations économiques non plus comme un phénomène occasionnel, mais comme un phénomène possiblement structurel qui pourrait être appelé à perdurer dans le temps. Le sujet de la décroissance semble générer une forme de malaise auprès des acteurs, allant même parfois jusqu’au refus de concevoir cette situation. Pour plusieurs, l’éventualité d’un déclin généralisé est inconcevable, la décroissance pouvant alors être perçue comme un échec politique. Il apparaîtrait logique que la plupart des stratégies mises en place reposent sur l’objectif d’un retour à la croissance. À partir des signes précurseurs dans le cadre bâti, en passant par la stratégie du marketing territorial et l’interventionnisme municipal, jusqu’à l’apparition de friches urbaines, les impacts du phénomène de la décroissance, pour la plupart très subtils, se révèlent tout de même présents sur le territoire de la RMR. La décroissance est observée dans cette étude selon une approche nouvelle qui confronte le discours des acteurs, la réalité sur le territoire et l’analyse des dynamiques économiques et démographiques. Il s’agit ainsi d’une recherche exploratoire qui tente de s’interroger sur la façon actuelle de concevoir la croissance urbaine.
483

Efficient estimation using the characteristic function : theory and applications with high frequency data

Kotchoni, Rachidi 05 1900 (has links)
The attached file is created with Scientific Workplace Latex / Nous abordons deux sujets distincts dans cette thèse: l'estimation de la volatilité des prix d'actifs financiers à partir des données à haute fréquence, et l'estimation des paramétres d'un processus aléatoire à partir de sa fonction caractéristique. Le chapitre 1 s'intéresse à l'estimation de la volatilité des prix d'actifs. Nous supposons que les données à haute fréquence disponibles sont entachées de bruit de microstructure. Les propriétés que l'on prête au bruit sont déterminantes dans le choix de l'estimateur de la volatilité. Dans ce chapitre, nous spécifions un nouveau modèle dynamique pour le bruit de microstructure qui intègre trois propriétés importantes: (i) le bruit peut être autocorrélé, (ii) le retard maximal au delà duquel l'autocorrélation est nulle peut être une fonction croissante de la fréquence journalière d'observations; (iii) le bruit peut avoir une composante correlée avec le rendement efficient. Cette dernière composante est alors dite endogène. Ce modèle se différencie de ceux existant en ceci qu'il implique que l'autocorrélation d'ordre 1 du bruit converge vers 1 lorsque la fréquence journalière d'observation tend vers l'infini. Nous utilisons le cadre semi-paramétrique ainsi défini pour dériver un nouvel estimateur de la volatilité intégrée baptisée "estimateur shrinkage". Cet estimateur se présente sous la forme d'une combinaison linéaire optimale de deux estimateurs aux propriétés différentes, l'optimalité étant défini en termes de minimisation de la variance. Les simulations indiquent que l'estimateur shrinkage a une variance plus petite que le meilleur des deux estimateurs initiaux. Des estimateurs sont également proposés pour les paramètres du modèle de microstructure. Nous clôturons ce chapitre par une application empirique basée sur des actifs du Dow Jones Industrials. Les résultats indiquent qu'il est pertinent de tenir compte de la dépendance temporelle du bruit de microstructure dans le processus d'estimation de la volatilité. Les chapitres 2, 3 et 4 s'inscrivent dans la littérature économétrique qui traite de la méthode des moments généralisés. En effet, on rencontre en finance des modèles dont la fonction de vraisemblance n'est pas connue. On peut citer en guise d'exemple la loi stable ainsi que les modèles de diffusion observés en temps discrets. Les méthodes d'inférence basées sur la fonction caractéristique peuvent être envisagées dans ces cas. Typiquement, on spécifie une condition de moment basée sur la différence entre la fonction caractéristique (conditionnelle) théorique et sa contrepartie empirique. Le défit ici est d'exploiter au mieux le continuum de conditions de moment ainsi spécifié pour atteindre la même efficacité que le maximum de vraisemblance dans les inférences. Ce défit a été relevé par Carrasco et Florens (2000) qui ont proposé la procédure CGMM (continuum GMM). La fonction objectif que ces auteurs proposent est une forme quadratique hilbertienne qui fait intervenir l'opérateur inverse de covariance associé au continuum de condition de moments. Cet opérateur inverse est régularisé à la Tikhonov pour en assurer l'existence globale et la continuité. Carrasco et Florens (2000) ont montré que l'estimateur obtenu en minimisant cette forme quadratique est asymptotiquement aussi efficace que l'estimateur du maximum de vraisemblance si le paramètre de régularisation (α) tend vers zéro lorsque la taille de l'échatillon tend vers l'infini. La nature de la fonction objectif du CGMM soulève deux questions importantes. La première est celle de la calibration de α en pratique, et la seconde est liée à la présence d'intégrales multiples dans l'expression de la fonction objectif. C'est à ces deux problématiques qu'essayent de répondent les trois derniers chapitres de la présente thèse. Dans le chapitre 2, nous proposons une méthode de calibration de α basée sur la minimisation de l'erreur quadratique moyenne (EQM) de l'estimateur. Nous suivons une approche similaire à celle de Newey et Smith (2004) pour calculer un développement d'ordre supérieur de l'EQM de l'estimateur CGMM de sorte à pouvoir examiner sa dépendance en α en échantillon fini. Nous proposons ensuite deux méthodes pour choisir α en pratique. La première se base sur le développement de l'EQM, et la seconde se base sur des simulations Monte Carlo. Nous montrons que la méthode Monte Carlo délivre un estimateur convergent de α optimal. Nos simulations confirment la pertinence de la calibration de α en pratique. Le chapitre 3 essaye de vulgariser la théorie du chapitre 2 pour les modèles univariés ou bivariés. Nous commençons par passer en revue les propriétés de convergence et de normalité asymptotique de l'estimateur CGMM. Nous proposons ensuite des recettes numériques pour l'implémentation. Enfin, nous conduisons des simulations Monte Carlo basée sur la loi stable. Ces simulations démontrent que le CGMM est une méthode fiable d'inférence. En guise d'application empirique, nous estimons par CGMM un modèle de variance autorégressif Gamma. Les résultats d'estimation confirment un résultat bien connu en finance: le rendement est positivement corrélé au risque espéré et négativement corrélé au choc sur la volatilité. Lorsqu'on implémente le CGMM, une difficulté majeure réside dans l'évaluation numérique itérative des intégrales multiples présentes dans la fonction objectif. Les méthodes de quadrature sont en principe parmi les plus précises que l'on puisse utiliser dans le présent contexte. Malheureusement, le nombre de points de quadrature augmente exponentiellement en fonction de la dimensionalité (d) des intégrales. L'utilisation du CGMM devient pratiquement impossible dans les modèles multivariés et non markoviens où d≥3. Dans le chapitre 4, nous proposons une procédure alternative baptisée "reéchantillonnage dans le domaine fréquentielle" qui consiste à fabriquer des échantillons univariés en prenant une combinaison linéaire des éléments du vecteur initial, les poids de la combinaison linéaire étant tirés aléatoirement dans un sous-espace normalisé de ℝ^{d}. Chaque échantillon ainsi généré est utilisé pour produire un estimateur du paramètre d'intérêt. L'estimateur final que nous proposons est une combinaison linéaire optimale de tous les estimateurs ainsi obtenus. Finalement, nous proposons une étude par simulation et une application empirique basées sur des modèles autorégressifs Gamma. Dans l'ensemble, nous faisons une utilisation intensive du bootstrap, une technique selon laquelle les propriétés statistiques d'une distribution inconnue peuvent être estimées à partir d'un estimé de cette distribution. Nos résultats empiriques peuvent donc en principe être améliorés en faisant appel aux connaissances les plus récentes dans le domaine du bootstrap. / In estimating the integrated volatility of financial assets using noisy high frequency data, the time series properties assumed for the microstructure noise determines the proper choice of the volatility estimator. In the first chapter of the current thesis, we propose a new model for the microstructure noise with three important features. First of all, our model assumes that the noise is L-dependent. Secondly, the memory lag L is allowed to increase with the sampling frequency. And thirdly, the noise may include an endogenous part, that is, a piece that is correlated with the latent returns. The main difference between this microstructure model and existing ones is that it implies a first order autocorrelation that converges to 1 as the sampling frequency goes to infinity. We use this semi-parametric model to derive a new shrinkage estimator for the integrated volatility. The proposed estimator makes an optimal signal-to-noise trade-off by combining a consistent estimators with an inconsistent one. Simulation results show that the shrinkage estimator behaves better than the best of the two combined ones. We also propose some estimators for the parameters of the noise model. An empirical study based on stocks listed in the Dow Jones Industrials shows the relevance of accounting for possible time dependence in the noise process. Chapters 2, 3 and 4 pertain to the generalized method of moments based on the characteristic function. In fact, the likelihood functions of many financial econometrics models are not known in close form. For example, this is the case for the stable distribution and a discretely observed continuous time model. In these cases, one may estimate the parameter of interest by specifying a moment condition based on the difference between the theoretical (conditional) characteristic function and its empirical counterpart. The challenge is then to exploit the whole continuum of moment conditions hence defined to achieve the maximum likelihood efficiency. This problem has been solved in Carrasco and Florens (2000) who propose the CGMM procedure. The objective function of the CGMM is a quadrqtic form on the Hilbert space defined by the moment function. That objective function depends on a Tikhonov-type regularized inverse of the covariance operator associated with the moment function. Carrasco and Florens (2000) have shown that the estimator obtained by minimizing the proposed objective function is asymptotically as efficient as the maximum likelihood estimator provided that the regularization parameter (α) converges to zero as the sample size goes to infinity. However, the nature of this objective function raises two important questions. First of all, how do we select α in practice? And secondly, how do we implement the CGMM when the multiplicity (d) of the integrals embedded in the objective-function d is large. These questions are tackled in the last three chapters of the thesis. In Chapter 2, we propose to choose α by minimizing the approximate mean square error (MSE) of the estimator. Following an approach similar to Newey and Smith (2004), we derive a higher-order expansion of the estimator from which we characterize the finite sample dependence of the MSE on α. We provide two data-driven methods for selecting the regularization parameter in practice. The first one relies on the higher-order expansion of the MSE whereas the second one uses only simulations. We show that our simulation technique delivers a consistent estimator of α. Our Monte Carlo simulations confirm the importance of the optimal selection of α. The goal of Chapter 3 is to illustrate how to efficiently implement the CGMM for d≤2. To start with, we review the consistency and asymptotic normality properties of the CGMM estimator. Next we suggest some numerical recipes for its implementation. Finally, we carry out a simulation study with the stable distribution that confirms the accuracy of the CGMM as an inference method. An empirical application based on the autoregressive variance Gamma model led to a well-known conclusion: investors require a positive premium for bearing the expected risk while a negative premium is attached to the unexpected risk. In implementing the characteristic function based CGMM, a major difficulty lies in the evaluation of the multiple integrals embedded in the objective function. Numerical quadratures are among the most accurate methods that can be used in the present context. Unfortunately, the number of quadrature points grows exponentially with d. When the data generating process is Markov or dependent, the accurate implementation of the CGMM becomes roughly unfeasible when d≥3. In Chapter 4, we propose a strategy that consists in creating univariate samples by taking a linear combination of the elements of the original vector process. The weights of the linear combinations are drawn from a normalized set of ℝ^{d}. Each univariate index generated in this way is called a frequency domain bootstrap sample that can be used to compute an estimator of the parameter of interest. Finally, all the possible estimators obtained in this fashion can be aggregated to obtain the final estimator. The optimal aggregation rule is discussed in the paper. The overall method is illustrated by a simulation study and an empirical application based on autoregressive Gamma models. This thesis makes an extensive use of the bootstrap, a technique according to which the statistical properties of an unknown distribution can be estimated from an estimate of that distribution. It is thus possible to improve our simulations and empirical results by using the state-of-the-art refinements of the bootstrap methodology.
484

La RMR de Saguenay, entre croissance et décroissance, perceptions et interventions des acteurs locaux

Tremblay, Michaël 11 1900 (has links)
Since around twenty years, the Saguenay CMA seems to have underwent a population decline and important economic transformations, wich would have confronted citizens and local actors to a situation of a possible decline. In a context of an ageing population generalized to the whole Quebec, the Saguenay CMA can be seen as a precursor territory of the population decline phenomenon for a medium-sized city. It’s the scale and the extent of the phenomenon wich seem to have become more important. In this context, is it possible to reverse the situation from an urban planning based on growth, to a planning that takes into account the possiblity of the decrease and the ageing of the population, as well as the reorganization of econimic activities? The analysis of the actors’s speech, who are involved in planning, economic development and politics, raise the question of the difficulty to conceive the decrease of the population and the economic tranformations, not as an occasional phenomenon, but as a possibly structural phenomenon that may last over time. The subject of the decline seems to generate a form of discomfort among the actors, going even to the complete reject of the situation as a possible reality. For several, the eventuality of a generalized decline is inconceivable, the decrease can be perceived as a political failure. It appears that most of the strategies put in place to correct the situation, are based on the goal of a return to the growth. From the signs in the built framework, through the strategy of territorial marketing and municipal interventionism, until the appearance of urban brownfields, the impacts of the population decrease and the economic transformations seems, for the greater part very subtile, but to be present on the territory of the CMA. The shrinking cities phenomenon is observed in this study according to a new approach that confronts the actors’s speech, the territory reality and the analysis of the economic and demographic dynamics. It is thus an exploratory research wich tries to question the current way of thinking the urban growth. / Depuis une vingtaine d’années, la RMR de Saguenay semble avoir connu une diminution démographique et d’importantes transformations économiques, qui auraient confronté les citoyens et les acteurs locaux à une situation de possible décroissance. Dans un contexte de vieillissement de population généralisé à l'ensemble du Québec, la RMR de Saguenay pourrait être perçue comme un territoire précurseur du phénomène de décroissance démographique d’une ville de taille moyenne. C’est l’échelle et l’ampleur du phénomène qui semblent être devenues plus importantes. Dans ce contexte, est-il possible de passer d’un aménagement du territoire basé sur la croissance, à une planification qui tient compte de la possibilité d’une diminution et du vieillissement de la population, ainsi que de la réorganisation des activités économiques ? L’analyse du discours des acteurs de l’aménagement, du développement économique et du politique soulève la difficulté de concevoir la diminution de la population et les mutations économiques non plus comme un phénomène occasionnel, mais comme un phénomène possiblement structurel qui pourrait être appelé à perdurer dans le temps. Le sujet de la décroissance semble générer une forme de malaise auprès des acteurs, allant même parfois jusqu’au refus de concevoir cette situation. Pour plusieurs, l’éventualité d’un déclin généralisé est inconcevable, la décroissance pouvant alors être perçue comme un échec politique. Il apparaîtrait logique que la plupart des stratégies mises en place reposent sur l’objectif d’un retour à la croissance. À partir des signes précurseurs dans le cadre bâti, en passant par la stratégie du marketing territorial et l’interventionnisme municipal, jusqu’à l’apparition de friches urbaines, les impacts du phénomène de la décroissance, pour la plupart très subtils, se révèlent tout de même présents sur le territoire de la RMR. La décroissance est observée dans cette étude selon une approche nouvelle qui confronte le discours des acteurs, la réalité sur le territoire et l’analyse des dynamiques économiques et démographiques. Il s’agit ainsi d’une recherche exploratoire qui tente de s’interroger sur la façon actuelle de concevoir la croissance urbaine.
485

Étude et développement d'un dispositif routier d'anticollision basé sur un radar ultra large bande pour la détection et l'identification notamment des usagers vulnérables / Study and development of a road collision avoidance system based on ultra wide-band radar for obstacles detection and identification dedicated to vulnerable road users

Sadli, Rahmad 12 March 2019 (has links)
Dans ce travail de thèse, nous présentons nos travaux qui portent sur l’identification des cibles en général par un radar Ultra-Large Bande (ULB) et en particulier l’identification des cibles dont la surface équivalente radar est faible telles que les piétons et les cyclistes. Ce travail se décompose en deux parties principales, la détection et la reconnaissance. Dans la première approche du processus de détection, nous avons proposé et étudié un détecteur de radar ULB robuste qui fonctionne avec des données radar 1-D (A-scan) à une dimension. Il exploite la combinaison des statistiques d’ordres supérieurs et du détecteur de seuil automatique connu sous le nom de CA-CFAR pour Cell-Averaging Constant False Alarm Rate. Cette combinaison est effectuée en appliquant d’abord le HOS sur le signal reçu afin de supprimer une grande partie du bruit. Puis, après avoir éliminé le bruit du signal radar reçu, nous implémentons le détecteur de seuil automatique CA-CFAR. Ainsi, cette combinaison permet de disposer d’un détecteur de radar ULB à seuil automatique robuste. Afin d’améliorer le taux de détection et aller plus loin dans le traitement, nous avons évalué l’approche des données radar 2-D (B-Scan) à deux dimensions. Dans un premier temps, nous avons proposé une nouvelle méthode de suppression du bruit, qui fonctionne sur des données B-Scan. Il s’agit d’une combinaison de WSD et de HOS. Pour évaluer les performances de cette méthode, nous avons fait une étude comparative avec d’autres techniques de suppression du bruit telles que l’analyse en composantes principales, la décomposition en valeurs singulières, la WSD, et la HOS. Les rapports signal à bruit -SNR- des résultats finaux montrent que les performances de la combinaison WSD et HOS sont meilleures que celles des autres méthodes rencontrées dans la littérature. A la phase de reconnaissance, nous avons exploité les données des deux approches à 1-D et à 2-D obtenues à partir du procédé de détection. Dans la première approche à 1-D, les techniques SVM et le DBN sont utilisées et évaluées pour identifier la cible en se basant sur la signature radar. Les résultats obtenus montrent que la technique SVM donne de bonnes performances pour le système proposé où le taux de reconnaissance global moyen atteint 96,24%, soit respectivement 96,23%, 95,25% et 97,23% pour le cycliste, le piéton et la voiture. Dans la seconde approche à 1-D, les performances de différents types d’architectures DBN composées de différentes couches ont été évaluées et comparées. Nous avons constaté que l’architecture du réseau DBN avec quatre couches cachées est meilleure et la précision totale moyenne peut atteindre 97,80%. Ce résultat montre que les performances obtenues avec le DBN sont meilleures que celles obtenues avec le SVM (96,24%) pour ce système de reconnaissance de cible utilisant un radar ULB. Dans l’approche bidimensionnelle, le réseau de neurones convolutifs a été utilisé et évalué. Nous avons proposé trois architectures de CNN. La première est le modèle modifié d’Alexnet, la seconde est une architecture avec les couches de convolution arborescentes et une couche entièrement connectée, et la troisième est une architecture avec les cinq couches de convolution et deux couches entièrement connectées. Après comparaison et évaluation des performances de ces trois architectures proposées nous avons constaté que la troisième architecture offre de bonnes performances par rapport aux autres propositions avec une précision totale moyenne qui peut atteindre 99,59%. Enfin, nous avons effectué une étude comparative des performances obtenues avec le CNN, DBN et SVM. Les résultats montrent que CNN a les meilleures performances en termes de précision par rapport à DBN et SVM. Cela signifie que l’utilisation de CNN dans les données radar bidimensionnels permet de classer correctement les cibles radar ULB notamment pour les cibles à faible SER et SNR telles que les cyclistes ou les piétons. / In this thesis work, we focused on the study and development of a system identification using UWB-Ultra-Wide-Band short range radar to detect the objects and particularly the vulnerable road users (VRUs) that have low RCS-Radar Cross Section- such as cyclist and pedestrian. This work is composed of two stages i.e. detection and recognition. In the first approach of detection stage, we have proposed and studied a robust UWB radar detector that works on one dimension 1-D radar data ( A-scan). It relies on a combination of Higher Order Statistics (HOS) and the well-known CA-CFAR (Cell-Averaging Constant False Alarm Rate) detector. This combination is performed by firstly applying the HOS to the received radar signal in order to suppress the noise. After eliminating the noise of the received radar signal, we apply the CA-CFAR detector. By doing this combination, we finally have an UWB radar detector which is robust against the noise and works with the adaptive threshold. In order to enhance the detection performance, we have evaluated the approach of using two dimensions 2-D (B-Scan) radar data. In this 2-D radar approach, we proposed a new method of noise suppression, which works on this B-Scan data. The proposed method is a combination of WSD (Wavelet Shrinkage Denoising) and HOS. To evaluate the performance of this method, we performed a comparative study with the other noise removal methods in literature including Principal Component Analysis (PCA), Singular Value Decomposition (SVD), WSD and HOS. The Signal-to-Noise Ratio (SNR) of the final result has been computed to compare the effectiveness of individual noise removal techniques. It is observed that a combination of WSD and HOS has better capability to remove the noise compared to that of the other applied techniques in the literature; especially it is found that it allows to distinguish efficiency the pedestrian and cyclist over the noise and clutters whereas other techniques are not showing significant result. In the recognition phase, we have exploited the data from the two approaches 1-D and 2-D, obtained from the detection method. In the first 1-D approach, Support Vector Machines (SVM) and Deep Belief Networks (DBN) have been used and evaluated to identify the target based on the radar signature. The results show that the SVM gives good performances for the proposed system where the total recognition accuracy rate could achieve up to 96,24%. In the second approach of this 1-D radar data, the performance of several DBN architectures compose of different layers have been evaluated and compared. We realised that the DBN architecture with four hidden layers performs better than those of with two or three hidden layers. The results show also that this architecture achieves up to 97.80% of accuracy. This result also proves that the performance of DBN is better than that of SVM (96.24%) in the case of UWB radar target recognition system using 1-D radar signature. In the 2-D approach, the Convolutional Neural Network (CNN) has been exploited and evaluated. In this work, we have proposed and investigated three CNN architectures. The first architecture is the modified of Alexnet model, the second is an architecture with three convolutional layers and one fully connected layer, and the third is an architecture with five convolutional layers and two fully connected layers. The performance of these proposed architectures have been evaluated and compared. We found that the third architecture has a good performance where it achieves up to 99.59% of accuracy. Finally, we compared the performances obtained using CNN, DBN and SVM. The results show that CNN gives a better result in terms of accuracy compared to that of DBN and SVM. It allows to classify correctly the UWB radar targets like cyclist and pedestrian.
486

Entwicklung eines Berechnungsmodells für das Langzeitverhalten von Stahlbeton und textilbewehrtem Beton bei überwiegender Biegebeanspruchung

Seidel, André 29 August 2009 (has links) (PDF)
Tragwerke aus Stahlbeton weisen infolge des Kriechens und Schwindens des Betons ein zeitveränderliches Materialverhalten auf. Die Folge sind Umlagerungen der im Querschnittsinneren wirkende Kräfte und im Zeitverlauf zunehmende Verformungen. Zur Beurteilung dieses Langzeitverhaltens sind geeignete Berechnungsmodelle erforderlich, die im Planungsstadium eine zuverlässige Prognose ermöglichen. Dabei spielen nicht nur reine Stahlbetonkonstruktionen eine Rolle, sondern im Zuge von Ertüchtigungsmaßnahmen werden zur Erhöhung der Tragfähigkeit zunehmend auch textile Bewehrungen aus Carbon- und AR-Glasfasern eingesetzt. Durch die beanspruchungsgerecht aufzubringenden Bewehrungsstrukturen und einen speziellen Feinbeton können sehr geringe Betonschichtdicken realisiert werden. Es entsteht ein Verbundquerschnitt mit unterschiedlichen Betonrezepturen, gleichfalls unterschiedlichem Betonalter und mit mehreren verschiedenen Bewehrungskomponenten. Um Aussagen zum Langzeitverhalten derartiger Konstruktionen treffen zu können, ist eine ganzheitliche Betrachtung über alle diese im Verbund liegenden Komponenten mit ihren jeweiligen Materialeigenschaften erforderlich. Im Rahmen der vorliegenden Arbeit sind in einem ersten Schritt die Stoffgesetze für die beteiligten Materialien Beton, Stahl- und Textilfaserbewehrung zu formulieren. Im Mittelpunkt steht dabei das viskoelastische Verhalten des Betons, für dessen baumechanische Beschreibung ein geeignetes rheologisches Modell in Form einer Feder-Dämpfer-Kombination dargestellt und die zugehörige Spannungs-Dehnungs-Zeit-Beziehung hergeleitet wird. Ferner wird aufgezeigt, wie die erforderlichen Materialparameter mit Hilfe üblicher Berechnungsansätze für Kriechen und Schwinden (z.B. nach EUROCODE 2) kalibriert werden können. Die betrachteten Textilfasern werden zunächst mit linear-elastischem Verhalten in Rechnung gestellt. Auf alternative Ansätze, die auch hier viskoelastische Eigenschaften berücksichtigen, wird hingewiesen, und das Berechnungsmodell ist dahingehend erweiterbar gestaltet. In einem zweiten Schritt werden die Materialmodelle der Einzelkomponenten nach den mechanischen Grundprinzipien von Gleichgewicht und Verträglichkeit und unter der BERNOULLIschen Annahme eines eben bleibenden Querschnittes miteinander in Beziehung gesetzt. Hierfür ist eine inkrementelle Vorgehensweise erforderlich, die mit dem Zeitpunkt der ersten Lastaufbringung beginnt und schrittweise den darauffolgenden Zustand berechnet. Im Ergebnis entsteht ein Algorithmus, der die am Querschnitt stattfindenden Veränderungen im Spannungs- und Dehnungsverhalten unter Einbeziehung der Stahlbewehrung sowie einer ggf. vorhandenen Textilbetonschicht wirklichkeitsnah erfaßt. Für statisch bestimmte Systeme mit bekanntem Schnittkraftverlauf wird gezeigt, wie sich so zu jeder Zeit an jeder Stelle der vorliegende Dehnungszustand und aus diesem über die Krümmung die Durchbiegung berechnen läßt. Der dritte und für viele praktische Anwendungen wichtigste Schritt besteht darin, die am Querschnitt hergeleiteten Beziehungen in ein finites Balkenelement zu überführen und dieses in ein FE-Programm zu implementieren. Auch das gelingt auf inkrementellem Wege, wobei für jedes Zeitinkrement die Spannungs- und Verformungszuwächse aller Elemente mit Hilfe des NEWTON-RAPHSON-Verfahrens über die Iteration des Gleichgewichtszustandes am gesamten System bestimmt werden. Hierzu werden einige Beispiele vorgestellt, und es werden die Auswirkungen des Kriechens und Schwindens mit den sich daraus ergebenden Folgen für das jeweilige Tragwerk erläutert. Ferner wird gezeigt, wie textilbewehrte Verstärkungsmaßnahmen gezielt eingesetzt werden können, um das Trag- und Verformungsverhalten bestehender Bauwerke unter Beachtung des zeitveränderlichen Materialverhaltens kontrolliert und bedarfsgerecht zu beeinflussen. / Structures of reinforced concrete show a time-varying material behaviour due to creeping and shrinking of the concrete. This results in the rearrangement of the stresses in the cross-section and time-depending increase of the deformations. Qualified calculation models enabling a reliable prediction during the design process are necessary for the assessment of the long-term behavior. Not only pure reinforced concrete structures play an important role, but within retrofitting actions textile reinforcements of carbon and AR-glass fibres are applied in order to enhance the load-bearing capacity. A small concrete-layer-thickness can be achieved by the load-compatible application of reinforced textile configurations and the usage of a special certain fine-grained concrete. It leads to a composite section of different concrete recipes, different concrete ages and also several components of reinforcement. To give statements for the long-term behaviour of such constructions, a holistic examination considering all this influencing modules with their particular material properties is necessary. Within this dissertation in a first step the material laws of the participated components, as concrete, steel and textile reinforcement, are defined. The focus is layed on the visco-elastic behaviour of the concrete. For its mechanical specification a reliable rheological model in terms of a spring-dashpot-combination is developed and the appropriate stress-strain-time-relation is derived. Furthermore the calibration of the required material parameters considering creep and shrinkage by means of common calculation approaches (e.g. EUROCODE 2) is demonstrated. For the textile fibres a linear-elastic behaviour is assumed within the calculation model. It is also refered to alternative approaches considering a visco-elastic characteristic and the calculation model is configured extendable to that effect. In a second step the material models of the single components are correlated taking into account the mechanical basic principles of equilibrium and compatibility as well as the BERNOULLIan theorem of the plane cross-section. Therefore an incremental calculation procedure is required, which starts at the moment of the first load-application and calculates the subsequent configuration step by step. In the result an algorithm is derived, that realistically captures the occuring changings of stress and strain in the cross-section by considering the steel reinforcement as well as a possibly existing layer of textile concrete. For statically determined systems with known section force status it is demonstrated how to calculate the existing condition of strain and following the deflection via the curvaturve at every time and at each position. The third step - for many practical applications the most important one - is the transformation of the derived relations at the cross-section into a finite beam-element and the implementation of this in a FE-routine. This also takes place in an incremental way, whereat for each time-increment the increase of stress and strain for all elements is identified by using the NEWTON-RAPHSON-method within the iteration process for the equilibrium condition of the whole system. Meaningful numerical examples are presented and the effects of creep and shrinkage are explained by depicting the consequences for the particular bearing structure. Moreover it is shown how the purposeful use of textile reinforcement strengthening methodes can influence and enhance the load-bearing and deflection characteristics of existing building constructions by considering the time-varying material behaviour.
487

Efficient estimation using the characteristic function : theory and applications with high frequency data

Kotchoni, Rachidi 05 1900 (has links)
Nous abordons deux sujets distincts dans cette thèse: l'estimation de la volatilité des prix d'actifs financiers à partir des données à haute fréquence, et l'estimation des paramétres d'un processus aléatoire à partir de sa fonction caractéristique. Le chapitre 1 s'intéresse à l'estimation de la volatilité des prix d'actifs. Nous supposons que les données à haute fréquence disponibles sont entachées de bruit de microstructure. Les propriétés que l'on prête au bruit sont déterminantes dans le choix de l'estimateur de la volatilité. Dans ce chapitre, nous spécifions un nouveau modèle dynamique pour le bruit de microstructure qui intègre trois propriétés importantes: (i) le bruit peut être autocorrélé, (ii) le retard maximal au delà duquel l'autocorrélation est nulle peut être une fonction croissante de la fréquence journalière d'observations; (iii) le bruit peut avoir une composante correlée avec le rendement efficient. Cette dernière composante est alors dite endogène. Ce modèle se différencie de ceux existant en ceci qu'il implique que l'autocorrélation d'ordre 1 du bruit converge vers 1 lorsque la fréquence journalière d'observation tend vers l'infini. Nous utilisons le cadre semi-paramétrique ainsi défini pour dériver un nouvel estimateur de la volatilité intégrée baptisée "estimateur shrinkage". Cet estimateur se présente sous la forme d'une combinaison linéaire optimale de deux estimateurs aux propriétés différentes, l'optimalité étant défini en termes de minimisation de la variance. Les simulations indiquent que l'estimateur shrinkage a une variance plus petite que le meilleur des deux estimateurs initiaux. Des estimateurs sont également proposés pour les paramètres du modèle de microstructure. Nous clôturons ce chapitre par une application empirique basée sur des actifs du Dow Jones Industrials. Les résultats indiquent qu'il est pertinent de tenir compte de la dépendance temporelle du bruit de microstructure dans le processus d'estimation de la volatilité. Les chapitres 2, 3 et 4 s'inscrivent dans la littérature économétrique qui traite de la méthode des moments généralisés. En effet, on rencontre en finance des modèles dont la fonction de vraisemblance n'est pas connue. On peut citer en guise d'exemple la loi stable ainsi que les modèles de diffusion observés en temps discrets. Les méthodes d'inférence basées sur la fonction caractéristique peuvent être envisagées dans ces cas. Typiquement, on spécifie une condition de moment basée sur la différence entre la fonction caractéristique (conditionnelle) théorique et sa contrepartie empirique. Le défit ici est d'exploiter au mieux le continuum de conditions de moment ainsi spécifié pour atteindre la même efficacité que le maximum de vraisemblance dans les inférences. Ce défit a été relevé par Carrasco et Florens (2000) qui ont proposé la procédure CGMM (continuum GMM). La fonction objectif que ces auteurs proposent est une forme quadratique hilbertienne qui fait intervenir l'opérateur inverse de covariance associé au continuum de condition de moments. Cet opérateur inverse est régularisé à la Tikhonov pour en assurer l'existence globale et la continuité. Carrasco et Florens (2000) ont montré que l'estimateur obtenu en minimisant cette forme quadratique est asymptotiquement aussi efficace que l'estimateur du maximum de vraisemblance si le paramètre de régularisation (α) tend vers zéro lorsque la taille de l'échatillon tend vers l'infini. La nature de la fonction objectif du CGMM soulève deux questions importantes. La première est celle de la calibration de α en pratique, et la seconde est liée à la présence d'intégrales multiples dans l'expression de la fonction objectif. C'est à ces deux problématiques qu'essayent de répondent les trois derniers chapitres de la présente thèse. Dans le chapitre 2, nous proposons une méthode de calibration de α basée sur la minimisation de l'erreur quadratique moyenne (EQM) de l'estimateur. Nous suivons une approche similaire à celle de Newey et Smith (2004) pour calculer un développement d'ordre supérieur de l'EQM de l'estimateur CGMM de sorte à pouvoir examiner sa dépendance en α en échantillon fini. Nous proposons ensuite deux méthodes pour choisir α en pratique. La première se base sur le développement de l'EQM, et la seconde se base sur des simulations Monte Carlo. Nous montrons que la méthode Monte Carlo délivre un estimateur convergent de α optimal. Nos simulations confirment la pertinence de la calibration de α en pratique. Le chapitre 3 essaye de vulgariser la théorie du chapitre 2 pour les modèles univariés ou bivariés. Nous commençons par passer en revue les propriétés de convergence et de normalité asymptotique de l'estimateur CGMM. Nous proposons ensuite des recettes numériques pour l'implémentation. Enfin, nous conduisons des simulations Monte Carlo basée sur la loi stable. Ces simulations démontrent que le CGMM est une méthode fiable d'inférence. En guise d'application empirique, nous estimons par CGMM un modèle de variance autorégressif Gamma. Les résultats d'estimation confirment un résultat bien connu en finance: le rendement est positivement corrélé au risque espéré et négativement corrélé au choc sur la volatilité. Lorsqu'on implémente le CGMM, une difficulté majeure réside dans l'évaluation numérique itérative des intégrales multiples présentes dans la fonction objectif. Les méthodes de quadrature sont en principe parmi les plus précises que l'on puisse utiliser dans le présent contexte. Malheureusement, le nombre de points de quadrature augmente exponentiellement en fonction de la dimensionalité (d) des intégrales. L'utilisation du CGMM devient pratiquement impossible dans les modèles multivariés et non markoviens où d≥3. Dans le chapitre 4, nous proposons une procédure alternative baptisée "reéchantillonnage dans le domaine fréquentielle" qui consiste à fabriquer des échantillons univariés en prenant une combinaison linéaire des éléments du vecteur initial, les poids de la combinaison linéaire étant tirés aléatoirement dans un sous-espace normalisé de ℝ^{d}. Chaque échantillon ainsi généré est utilisé pour produire un estimateur du paramètre d'intérêt. L'estimateur final que nous proposons est une combinaison linéaire optimale de tous les estimateurs ainsi obtenus. Finalement, nous proposons une étude par simulation et une application empirique basées sur des modèles autorégressifs Gamma. Dans l'ensemble, nous faisons une utilisation intensive du bootstrap, une technique selon laquelle les propriétés statistiques d'une distribution inconnue peuvent être estimées à partir d'un estimé de cette distribution. Nos résultats empiriques peuvent donc en principe être améliorés en faisant appel aux connaissances les plus récentes dans le domaine du bootstrap. / In estimating the integrated volatility of financial assets using noisy high frequency data, the time series properties assumed for the microstructure noise determines the proper choice of the volatility estimator. In the first chapter of the current thesis, we propose a new model for the microstructure noise with three important features. First of all, our model assumes that the noise is L-dependent. Secondly, the memory lag L is allowed to increase with the sampling frequency. And thirdly, the noise may include an endogenous part, that is, a piece that is correlated with the latent returns. The main difference between this microstructure model and existing ones is that it implies a first order autocorrelation that converges to 1 as the sampling frequency goes to infinity. We use this semi-parametric model to derive a new shrinkage estimator for the integrated volatility. The proposed estimator makes an optimal signal-to-noise trade-off by combining a consistent estimators with an inconsistent one. Simulation results show that the shrinkage estimator behaves better than the best of the two combined ones. We also propose some estimators for the parameters of the noise model. An empirical study based on stocks listed in the Dow Jones Industrials shows the relevance of accounting for possible time dependence in the noise process. Chapters 2, 3 and 4 pertain to the generalized method of moments based on the characteristic function. In fact, the likelihood functions of many financial econometrics models are not known in close form. For example, this is the case for the stable distribution and a discretely observed continuous time model. In these cases, one may estimate the parameter of interest by specifying a moment condition based on the difference between the theoretical (conditional) characteristic function and its empirical counterpart. The challenge is then to exploit the whole continuum of moment conditions hence defined to achieve the maximum likelihood efficiency. This problem has been solved in Carrasco and Florens (2000) who propose the CGMM procedure. The objective function of the CGMM is a quadrqtic form on the Hilbert space defined by the moment function. That objective function depends on a Tikhonov-type regularized inverse of the covariance operator associated with the moment function. Carrasco and Florens (2000) have shown that the estimator obtained by minimizing the proposed objective function is asymptotically as efficient as the maximum likelihood estimator provided that the regularization parameter (α) converges to zero as the sample size goes to infinity. However, the nature of this objective function raises two important questions. First of all, how do we select α in practice? And secondly, how do we implement the CGMM when the multiplicity (d) of the integrals embedded in the objective-function d is large. These questions are tackled in the last three chapters of the thesis. In Chapter 2, we propose to choose α by minimizing the approximate mean square error (MSE) of the estimator. Following an approach similar to Newey and Smith (2004), we derive a higher-order expansion of the estimator from which we characterize the finite sample dependence of the MSE on α. We provide two data-driven methods for selecting the regularization parameter in practice. The first one relies on the higher-order expansion of the MSE whereas the second one uses only simulations. We show that our simulation technique delivers a consistent estimator of α. Our Monte Carlo simulations confirm the importance of the optimal selection of α. The goal of Chapter 3 is to illustrate how to efficiently implement the CGMM for d≤2. To start with, we review the consistency and asymptotic normality properties of the CGMM estimator. Next we suggest some numerical recipes for its implementation. Finally, we carry out a simulation study with the stable distribution that confirms the accuracy of the CGMM as an inference method. An empirical application based on the autoregressive variance Gamma model led to a well-known conclusion: investors require a positive premium for bearing the expected risk while a negative premium is attached to the unexpected risk. In implementing the characteristic function based CGMM, a major difficulty lies in the evaluation of the multiple integrals embedded in the objective function. Numerical quadratures are among the most accurate methods that can be used in the present context. Unfortunately, the number of quadrature points grows exponentially with d. When the data generating process is Markov or dependent, the accurate implementation of the CGMM becomes roughly unfeasible when d≥3. In Chapter 4, we propose a strategy that consists in creating univariate samples by taking a linear combination of the elements of the original vector process. The weights of the linear combinations are drawn from a normalized set of ℝ^{d}. Each univariate index generated in this way is called a frequency domain bootstrap sample that can be used to compute an estimator of the parameter of interest. Finally, all the possible estimators obtained in this fashion can be aggregated to obtain the final estimator. The optimal aggregation rule is discussed in the paper. The overall method is illustrated by a simulation study and an empirical application based on autoregressive Gamma models. This thesis makes an extensive use of the bootstrap, a technique according to which the statistical properties of an unknown distribution can be estimated from an estimate of that distribution. It is thus possible to improve our simulations and empirical results by using the state-of-the-art refinements of the bootstrap methodology. / The attached file is created with Scientific Workplace Latex
488

Methods for ℓp/TVp Regularized Optimization and Their Applications in Sparse Signal Processing

Yan, Jie 14 November 2014 (has links)
Exploiting signal sparsity has recently received considerable attention in a variety of areas including signal and image processing, compressive sensing, machine learning and so on. Many of these applications involve optimization models that are regularized by certain sparsity-promoting metrics. Two most popular regularizers are based on the l1 norm that approximates sparsity of vectorized signals and the total variation (TV) norm that serves as a measure of gradient sparsity of an image. Nevertheless, the l1 and TV terms are merely two representative measures of sparsity. To explore the matter of sparsity further, in this thesis we investigate relaxations of the regularizers to nonconvex terms such as lp and TVp "norms" with 0 <= p < 1. The contributions of the thesis are two-fold. First, several methods to approach globally optimal solutions of related nonconvex problems for improved signal/image reconstruction quality have been proposed. Most algorithms studied in the thesis fall into the category of iterative reweighting schemes for which nonconvex problems are reduced to a series of convex sub-problems. In this regard, the second main contribution of this thesis has to do with complexity improvement of the l1/TV-regularized methodology for which accelerated algorithms are developed. Along with these investigations, new techniques are proposed to address practical implementation issues. These include the development of an lp-related solver that is easily parallelizable, and a matrix-based analysis that facilitates implementation for TV-related optimizations. Computer simulations are presented to demonstrate merits of the proposed models and algorithms as well as their applications for solving general linear inverse problems in the area of signal and image denoising, signal sparse representation, compressive sensing, and compressive imaging. / Graduate
489

Návrh a výroba plastové součásti / Design and production of a plastic komponent

ČÍŽEK, Václav January 2013 (has links)
The theoretical part is focused on evaluation of chosen ?essential? plastics used in the car industry. The principles of construction and proportioning of plastic components, basic conception of injection moulding and measuration follow. Another section of the theoretical part presents a summary of possible CAD systems, which are used. The practical part is focused on a particular plastic moulding. It includes the main description of a component with its material choice in dependence on the component function. Another section contains evaluation of the component complexity from the viewpoint of moulding, and a possible substitution of constructions, which could be productively simpler, is shown. The whole thesis is completed for better lucidity by pictures, drawings, and mechanical drawings.
490

Cinétique d'évolution structurale des sols argileux : relation stress hydrique-stress salin ; Application à la biodiversité et rendement de culture / Kinetics of structural evolution of clay dominated soils : water stress-salt stress relationship; biodiversity and crop yield application

Radimy, Raymond Tojo 11 December 2015 (has links)
Les marais de l'Ouest ont été gagnés sur les sédiments fluvio-marins par poldérisation débutée dès le moyen âge. Les aménagements hydrauliques avaient, initialement, des objectifs sanitaires et d'élevage. A partir des endiguements, ils ont divisé les territoires en marais mouillés et marais desséchés. Depuis les années 1970 le développement des cultures intensives de céréales a nécessité un rabaissement complémentaire de la nappe par drainage en partie pour augmenter la désalinisation de surface et limiter l’engorgement des sols. Néanmoins, ces territoires restent caractérisés par des nappes proches de la surface. En conséquence les profils hydriques vont être gouvernés par les conditions météorologiques y compris l'évapotranspiration, la pluviométrie, mais également par les remontées capillaires issues d'une nappe salée. D'autre par la nature argileuse des sols et ses propriétés de retrait conditionnent énormément le fonctionnement hydrodynamique et les évolutions de structure.La première partie du travail a été de suivre les évolutions des profils hydriques et de salinité en parcelles non drainées (prairies) et en parcelles drainées (Maïs, Blé, Tournesol). Ces suivis ont été complétés par les mesures des niveaux de nappes et par des mesures tensiométriques via des bougies poreuses implantées à différentes profondeurs. L'objectif final a été de calculer et modéliser les profils de réserve utile (RU) et de RU "résiduelle" utilisable par les plantes. Dans ces systèmes alimentés par les remontées capillaires, le réseau racinaire puise l'eau dans la zone non saturée de surface (vadose) puis dans la zone saturée sous-jacente. La teneur en eau caractéristique de l'interface zone non saturée - zone saturée a été déterminée par analogie entre les chemins d'état de la matrice argileuse le long de sa courbe de retrait et du sol le long de sa courbe de compaction. Les profils de RU résiduelle utilisable par les plantes ont été calculés à partir des profils de teneurs en eau puis comparés aux profils de RU obtenus via les données de station météorologique. Ces profils de RU résiduelle ont pu être écrits sous forme d'équation polynomiale du second degré puis modélisés. Dans cet environnement alimenté par les remontées capillaires, ces profils de RU résiduelles peuvent être modélisés à partir d'un paramètre facilement mesurable en surface qui prend en compte la structure du sol et les conditions météorologique : soit la teneur en eau à 10 cm de profondeur. Cette modélisation reste suffisamment réaliste pour être utilisée comme un outil prédictif face à la pédodiversité et/ou les rendements de culture.A ce travail s'ajoute deux études préliminaires : - les mesures des conductivités thermiques effectives de ces sols par la méthode du fil chaud et leurs modélisations dans les systèmes biphasés : eau - argile et air - argile, mais également pour les systèmes triphasés non saturés : eau - air - argile. Les perspectives sont la modélisation des transferts thermiques et hydriques dans le sol à partir de la surface, - et l'élaboration d'un protocole d'imprégnation-polymérisation des sols argileux humides par des résines de type HEMA. Cette imprégnation permet d'envisager la confection de lames minces dans le matériau argileux induré avec conservation de sa structure initiale humide. Les perspectives sont la pétrographie quantitative à l'interface racine - sol le long de profils verticaux dans les environnements argileux à degrés de saturation et structure évolutives. / The coastal marshlands are territories generally reclaimed on primary fluvio-marine sediments. They result from hydraulic managements and/or polderization which may date from the Middle Ages. Historically these hydraulic managements were built for goals of wholesomeness, breeding and farming. They isolate two territories: the dried marshes and the wet marshes. For the intensive cereal crops the slow drying caused by land reclamation was recently improved by the drainage, in part for increase the depth of desalinization and decrease waterlogging. Nevertheless, these territories remain characterized by shallow ground water of initial salt water. Consequently, the hydric profiles are governed by the meteoric conditions including the Evapotranspiration, the rainfall, but also the capillarity rises from the salt groundwater. Moreover, the clay dominated nature of the soils and their drastic shrinkage properties govern the hydrodynamic functioning and the soil structure behavior.The first part of the work was the monitoring of the water content and salinity profiles in drained cereal crops and in undrained grasslands. These measurements have been completed by the ground water level and tensiometric monitoring. The final goal was the calculation and modeling of the available water capacity (AWC) and plant available water (PAW) profiles. In these systems mainly supplied by the capillarity rises, the root network gets water in the subsurface vadose zone and then in the deeper saturated groundwater zone. The water content characteristic of the interface between the vadose and saturated zone was determined by comparison between the clay material state paths along its shrinkage curve and along its compaction curve. The PAW profiles were calculated from the water content profiles and then compared to the AWC profiles. The PAW profiles have been equated as polynomial second degree equations. In these shallow groundwater environments the PAW profiles have been modeled taking into account an easy measurable surface parameter which includes the soil structure behavior and the meteoric conditions: i.e. the water content measured at 10 cm depth. The PAW modelling remains sufficiently realistic to be used as a tool for farming management. Two preliminary studies were added to this work: - the measurement of effective thermal conductivity of the clayey soils by the transient hot wire method, and the modeling of the effective thermal conductivity of biphasic air-clay and water-clay media, but also triphasic unsaturated air-water-clay media. The prospect is the modeling of thermal and hydric transfer from the surface to the depth. - and the elaboration of a protocol of impregnation - hardening for wet clay dominated soils by HEMA resins. This impregnation allows the making of thin sections in these clay materials with conservation of their initial wet structures. The prospective is the quantitative petrography at the root - clay matrix interface along vertical profiles in clayey soils at different degrees of saturation and different structures.

Page generated in 0.0594 seconds