• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 49
  • 29
  • 6
  • 1
  • Tagged with
  • 84
  • 49
  • 32
  • 18
  • 17
  • 16
  • 14
  • 14
  • 14
  • 13
  • 12
  • 11
  • 10
  • 9
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

MODELISATION DE LA RELATION ENTRE PLUIE POLLINIQUE ACTUELLE, VEGETATION ET PRATIQUES PASTORALES EN MOYENNE MONTAGNE (PYRENEES ET JURA)<br /><br />Application pour l'interprétation des données polliniques fossiles

Mazier, Florence 03 November 2006 (has links) (PDF)
La reconstitution de la flore et des paysages anciens, mais également celle des pratiques, à partir des spectres polliniques fossiles, dépendent de notre connaissance des écosystèmes actuels. Ces reconstitutions requièrent une meilleure compréhension des communautés végétales actuelles et de leur image pollinique.<br />La calibration de la relation pluie pollinique actuelle / végétation a été étudiée selon deux approches dans des régions pastorales de moyenne montagne. Au Pays Basque, l'approche comparative a conduit à la discrimination des taxons transportés sur de longues distances et d'un ensemble d'indicateurs polliniques directement liés au pastoralisme. Dès lors, l'application de ces résultats aux données polliniques fossiles a permis de reconstruire à l'échelle locale les activités pastorales pour les 2000 dernières années. La lecture multi scalaire des données polliniques, l'utilisation combinée de plusieurs proxy (grain de pollen et microfossiles non polliniques) et la confrontation avec d'autres disciplines (archéologie pastorale, histoire) fournissent une meilleure lecture du fonctionnement des systèmes pastoraux, de leur dynamique et de leur signification. Parallèlement, le modèle Extended R-value a permis d'identifier la végétation à l'origine des grains de pollen conservés dans les mousses du paysage jurassien (rayon de 300m). Ainsi, les productions polliniques ont été estimées pour les taxons caractéristiques de ce paysage et constituent l'étape préliminaire pour simuler et reconstituer quantitativement les paysages anciens. <br />Ces approches apportent désormais une lecture plus concrète de la structure et de la composition des paysages passés et de l'impact des pratiques pastorales sur l'environnement passé. Elles constituent des outils potentiels pour des modèles prédictifs (climat, écologie...)
22

Rôle des microorganismes sur la spéciation du Cu, Zn et Al dans la rhizosphère de sols forestiers

Cloutier-Hurteau, Benoît January 2008 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
23

Nouvelles méthodes de traitement de signaux multidimensionnels par décomposition suivant le théorème de Superposition de Kolmogorov

Leni, Pierre-Emmanuel 23 November 2010 (has links) (PDF)
Le traitement de signaux multidimensionnels reste un problème délicat lorsqu'il s'agit d'utiliser des méthodes conçues pour traiter des signaux monodimensionnels. Il faut alors étendre les méthodes monodimensionnelles à plusieurs dimensions, ce qui n'est pas toujours possible, ou bien convertir les signaux multidimensionnels en signaux 1D. Dans ce cas, l'objectif est de conserver le maximum des propriétés du signal original. Dans ce contexte, le théorème de superposition de Kolmogorov fournit un cadre théorique prometteur pour la conversion de signaux multidimensionnels. En effet, en 1957, Kolmogorov a démontré que toute fonction multivariée pouvait s'écrire comme sommes et compositions de fonctions monovariées. Notre travail s'est focalisé sur la décomposition d'images suivant le schéma proposé par le théorème de superposition, afin d''etudier les applications possibles de cette d'ecomposition au traitement d'image. Pour cela, nous avons tout d'abord 'etudi'e la construction des fonctions monovari'ees. Ce probl'eme a fait l'objet de nombreuses 'etudes, et r'ecemment, deux algorithmes ont 'et'e propos'es. Sprecher a propos'e dans [Sprecher, 1996; Sprecher, 1997] un algorithme dans lequel il d'ecrit explicitement la m'ethode pour construire exactement les fonctions monovari'ees, tout en introduisant des notions fondamentales 'a la compr'ehension du th'eor'eme. Par ailleurs, Igelnik et Parikh ont propos'e dans [Igelnik and Parikh, 2003; Igelnik, 2009] un algorithme pour approximer les fonctions monovariéees par un réseau de splines. Nous avons appliqué ces deux algorithmes à la décomposition d'images. Nous nous sommes ensuite focalisés sur l'étude de l'algorithme d'Igelnik, qui est plus facilement modifiable et offre une repréesentation analytique des fonctions, pour proposer deux applications originales répondant à des problématiques classiques de traitement de l'image : pour la compression : nous avons étudié la qualité de l'image reconstruite par un réseau de splines généré avec seulement une partie des pixels de l'image originale. Pour améliorer cette reconstruction, nous avons proposé d'effectuer cette décomposition sur des images de détails issues d'une transformée en ondelettes. Nous avons ensuite combiné cette méthode à JPEG 2000, et nous montrons que nous améliorons ainsi le schéma de compression JPEG 2000, même à bas bitrates. Pour la transmission progressive : en modifiant la génération du réseau de splines, l'image peut être décomposée en une seule fonction monovariée. Cette fonction peut être transmise progressivement, ce qui permet de reconstruire l'image en augmentant progressivement sa résolution. De plus, nous montrons qu'une telle transmission est résistante à la perte d'information.
24

Models and estimation algorithms for nonparametric finite mixtures with conditionally independent multivariate component densities / Modèles et algorithmes d'estimation pour des mélanges finis de densités de composantes multivariées non paramétriques et conditionnellement indépendantes

Hoang, Vy-Thuy-Lynh 20 April 2017 (has links)
Plusieurs auteurs ont proposé récemment des modèles et des algorithmes pour l'estimation nonparamétrique de mélanges multivariés finis dont l'identifiabilité n'est pas toujours assurée. Entre les modèles considérés, l'hypothèse des coordonnées indépendantes conditionnelles à la sous-population de provenance des individus fait l'objet d'une attention croissante, en raison des développements théoriques et pratiques envisageables, particulièrement avec la multiplicité des variables qui entrent en jeu dans le framework statistique moderne. Dans ce travail, nous considérons d'abord un modèle plus général supposant l'indépendance, conditionnellement à la composante, de blocs multivariés de coordonnées au lieu de coordonnées univariées, permettant toute structure de dépendance à l'intérieur de ces blocs. Par conséquent, les fonctions de densité des blocs sont complètement multivariées et non paramétriques. Nous présentons des arguments d'identifiabilité et introduisons pour l'estimation dans ce modèle deux algorithmes méthodologiques dont les procédures de calcul ressemblent à un véritable algorithme EM mais incluent une étape additionnelle d'estimation de densité: un algorithme rapide montrant l'efficacité empirique sans justification théorique, et un algorithme lissé possédant une propriété de monotonie comme certain algorithme EM, mais plus exigeant en terme de calcul. Nous discutons également les méthodes efficaces en temps de calcul pour l'estimation et proposons quelques stratégies. Ensuite, nous considérons une extension multivariée des modèles de mélange utilisés dans le cadre de tests d'hypothèses multiples, permettant une nouvelle version multivariée de contrôle du False Discovery Rate. Nous proposons une version contrainte de notre algorithme précédent, adaptée spécialement à ce modèle. Le comportement des algorithmes de type EM que nous proposons est étudié numériquement dans plusieurs expérimentations de Monte Carlo et sur des données réelles de grande dimension et comparé avec les méthodes existantes dans la littérature. En n, les codes de nos nouveaux algorithmes sont progressivement ajoutés sous forme de nouvelles fonctions dans le package en libre accès mixtools pour le logiciel de statistique R. / Recently several authors have proposed models and estimation algorithms for finite nonparametric multivariate mixtures, whose identifiability is typically not obvious. Among the considered models, the assumption of independent coordinates conditional on the subpopulation from which each observation is drawn is subject of an increasing attention, in view of the theoretical and practical developments it allows, particularly with multiplicity of variables coming into play in the modern statistical framework. In this work we first consider a more general model assuming independence, conditional on the component, of multivariate blocks of coordinates instead of univariate coordinates, allowing for any dependence structure within these blocks. Consequently, the density functions of these blocks are completely multivariate and nonparametric. We present identifiability arguments and introduce for estimation in this model two methodological algorithms whose computational procedures resemble a true EM algorithm but include an additional density estimation step: a fast algorithm showing empirical efficiency without theoretical justification, and a smoothed algorithm possessing a monotony property as any EM algorithm does, but more computationally demanding. We also discuss computationally efficient methods for estimation and derive some strategies. Next, we consider a multivariate extension of the mixture models used in the framework of multiple hypothesis testings, allowing for a new multivariate version of the False Discovery Rate control. We propose a constrained version of our previous algorithm, specifically designed for this model. The behavior of the EM-type algorithms we propose is studied numerically through several Monte Carlo experiments and high dimensional real data, and compared with existing methods in the literature. Finally, the codes of our new algorithms are progressively implemented as new functions in the publicly-available package mixtools for the R statistical software.
25

Un arbre des formes pour les images multivariées / A Tree of shapes for multivariate images

Carlinet, Edwin 27 November 2015 (has links)
De nombreuses applications issues de la vision par ordinateur et de la reconnaissance des formes requièrent une analyse de l'image multi-échelle basée sur ses régions. De nos jours, personne ne considérerait une approche orientée « pixel » comme une solution viable pour traiter ce genre de problèmes. Pour répondre à cette demande, la Morphologie Mathématique a fourni des représentations hiérarchiques des régions de l'image telles que l'Arbre des Formes (AdF). L'AdF représente l'image par un arbre d'inclusion de ses lignes de niveaux. L'AdF est ainsi auto-dual et invariant au changement de contraste, ce qui fait de lui une structure bien adaptée aux traitements d'images de haut niveau. Néanmoins, il est seulement défini aux images en niveaux de gris et la plupart des tentatives d'extension aux images multivariées (e.g. en imposant un ordre total «arbitraire ») ne sont pas satisfaisantes. Dans ce manuscrit, nous présentons une nouvelle approche pour étendre l'AdF scalaire aux images multivariées : l'Arbre des Formes Multivarié (AdFM). Cette représentation est une « fusion » des AdFs calculés marginalement sur chaque composante de l'image. On vise à fusionner les formes marginales de manière « sensée » en préservant un nombre maximal d'inclusion. La méthode proposée a des fondements théoriques qui consistent en l'expression de l'AdF par une carte topographique de la variation totale curvilinéaire depuis la bordure de l'image. C'est cette reformulation qui a permis l'extension de l'AdF aux données multivariées. De plus, l'AdFM partage des propriétés similaires avec l'AdF scalaire ; la plus importante étant son invariance à tout changement ou inversion de contraste marginal (une sorte d'auto-dualité dans le cas multidimensionnel). Puisqu'il est évident que, vis-à-vis du nombre sans cesse croissant de données à traiter, nous ayons besoin de techniques rapides de traitement d'images, nous proposons un algorithme efficace qui permet de construire l'AdF en temps quasi-linéaire vis-à-vis du nombre de pixels et quadratique vis-à-vis du nombre de composantes. Nous proposons également des algorithmes permettant de manipuler l'arbre, montrant ainsi que, en pratique, l'AdFM est une structure facile à manipuler, polyvalente, et efficace. Finalement, pour valider la pertinence de notre approche, nous proposons quelques expériences testant la robustesse de notre structure aux composantes non-pertinentes (e.g. avec du bruit ou à faible dynamique) et nous montrons que ces défauts n'affectent pas la structure globale de l'AdFM. De plus, nous proposons des applications concrètes utilisant l'AdFM. Certaines sont juste des modifications mineures aux méthodes employant d'ores et déjà l'AdF scalaire mais adaptées à notre nouvelle structure. Par exemple, nous utilisons l'AdFM à des fins de filtrage, segmentation, classification et de détection d'objet. De ces applications, nous montrons ainsi que les méthodes basées sur l'AdFM surpassent généralement leur analogue basé sur l'AdF, démontrant ainsi le potentiel de notre approche / Nowadays, the demand for multi-scale and region-based analysis in many computer vision and pattern recognition applications is obvious. No one would consider a pixel-based approach as a good candidate to solve such problems. To meet this need, the Mathematical Morphology (MM) framework has supplied region-based hierarchical representations of images such as the Tree of Shapes (ToS). The ToS represents the image in terms of a tree of the inclusion of its level-lines. The ToS is thus self-dual and contrast-change invariant which make it well-adapted for high-level image processing. Yet, it is only defined on grayscale images and most attempts to extend it on multivariate images - e.g. by imposing an “arbitrary” total ordering - are not satisfactory. In this dissertation, we present the Multivariate Tree of Shapes (MToS) as a novel approach to extend the grayscale ToS on multivariate images. This representation is a mix of the ToS's computed marginally on each channel of the image; it aims at merging the marginal shapes in a “sensible” way by preserving the maximum number of inclusion. The method proposed has theoretical foundations expressing the ToS in terms of a topographic map of the curvilinear total variation computed from the image border; which has allowed its extension on multivariate data. In addition, the MToS features similar properties as the grayscale ToS, the most important one being its invariance to any marginal change of contrast and any marginal inversion of contrast (a somewhat “self-duality” in the multidimensional case). As the need for efficient image processing techniques is obvious regarding the larger and larger amount of data to process, we propose an efficient algorithm that can be build the MToS in quasi-linear time w.r.t. the number of pixels and quadraticw.r.t. the number of channels. We also propose tree-based processing algorithms to demonstrate in practice, that the MToS is a versatile, easy-to-use, and efficient structure. Eventually, to validate the soundness of our approach, we propose some experiments testing the robustness of the structure to non-relevant components (e.g. with noise or with low dynamics) and we show that such defaults do not affect the overall structure of the MToS. In addition, we propose many real-case applications using the MToS. Many of them are just a slight modification of methods employing the “regular” ToS and adapted to our new structure. For example, we successfully use the MToS for image filtering, image simplification, image segmentation, image classification and object detection. From these applications, we show that the MToS generally outperforms its ToS-based counterpart, demonstrating the potential of our approach
26

Nouvelles méthodes de traitement de signaux multidimensionnels par décomposition suivant le théorème de Superposition de Kolmogorov / Novel processing methods for multidimensional signals using decompositions by the Kolmogorov superposition theorem

Leni, Pierre-Emmanuel 23 November 2010 (has links)
Le traitement de signaux multidimensionnels reste un problème délicat lorsqu’il s’agit d’utiliser des méthodes conçues pour traiter des signaux monodimensionnels. Il faut alors étendre les méthodes monodimensionnelles à plusieurs dimensions, ce qui n’est pas toujours possible, ou bien convertir les signaux multidimensionnels en signaux 1D. Dans ce cas, l’objectif est de conserver le maximum des propriétés du signal original. Dans ce contexte, le théorème de superposition de Kolmogorov fournit un cadre théorique prometteur pour la conversion de signaux multidimensionnels. En effet, en 1957, Kolmogorov a démontré que toute fonction multivariée pouvait s’écrire comme sommes et compositions de fonctions monovariées. Notre travail s’est focalisé sur la décomposition d’images suivant le schéma proposé par le théorème de superposition, afin d’´etudier les applications possibles de cette d´ecomposition au traitement d’image. Pour cela, nous avons tout d’abord ´etudi´e la construction des fonctions monovari´ees. Ce probl`eme a fait l’objet de nombreuses ´etudes, et r´ecemment, deux algorithmes ont ´et´e propos´es. Sprecher a propos´e dans [Sprecher, 1996; Sprecher, 1997] un algorithme dans lequel il d´ecrit explicitement la m´ethode pour construire exactement les fonctions monovari´ees, tout en introduisant des notions fondamentales `a la compr´ehension du th´eor`eme. Par ailleurs, Igelnik et Parikh ont propos´e dans [Igelnik and Parikh, 2003; Igelnik, 2009] un algorithme pour approximer les fonctions monovariéees par un réseau de splines. Nous avons appliqué ces deux algorithmes à la décomposition d’images. Nous nous sommes ensuite focalisés sur l'étude de l’algorithme d’Igelnik, qui est plus facilement modifiable et offre une repréesentation analytique des fonctions, pour proposer deux applications originales répondant à des problématiques classiques de traitement de l’image : pour la compression : nous avons étudié la qualité de l’image reconstruite par un réseau de splines généré avec seulement une partie des pixels de l’image originale. Pour améliorer cette reconstruction, nous avons proposé d’effectuer cette décomposition sur des images de détails issues d’une transformée en ondelettes. Nous avons ensuite combiné cette méthode à JPEG 2000, et nous montrons que nous améliorons ainsi le schéma de compression JPEG 2000, même à bas bitrates. Pour la transmission progressive : en modifiant la génération du réseau de splines, l’image peut être décomposée en une seule fonction monovariée. Cette fonction peut être transmise progressivement, ce qui permet de reconstruire l’image en augmentant progressivement sa résolution. De plus, nous montrons qu’une telle transmission est résistante à la perte d’information. / The processing of multidimensional signal remains difficult when using monodimensional-based methods. Therefore, it is either required to extend monodimensional methods to several dimensions, which is not always possible, or to convert the multidimensional signals into 1D signals. In this case, the priority is to preserve most of the properties of the original signal. In this context, the Kolmogorov Superposition Theorem offers a promising theoretical framework for multidimensional signal conversion. In 1957, Kolmogorov demonstrated that any multivariate function can be written as sums and compositions of monovariate functions.We have focused on the image decomposition according to the superposition theorem scheme, to study the possible applications of this decomposition to image processing. We have first studied the monovariate function constructions. Various studies have dealt with this problem, and recently, two algorithms have been proposed. Sprecher has proposed in [Sprecher, 1996; Sprecher, 1997] an algorithm in which the method to exactly build the monovariate functions is described, as well as fundamental notions for the understanding of the theorem. Igelnik and Parikh have proposed in [Igelnik and Parikh, 2003; Igelnik, 2009] an algorithm to approximate the monovariate functions by a Spline network. We have applied both algorithms to image decomposition. We have chosen to use Igelnik’s algorithm which is easier to modify and provides an analytic representation of the functions, to propose two novel applications for classical problems in image processing : for compression : we have studied the quality of a reconstructed image using a spline network built with only a fraction of the pixels of the original image. To improve this reconstruction, we have proposed to apply this decomposition on images of details obtained by wavelet transform. We have then combined this method with JPEG 2000, and we show that the JPEG 2000 compression scheme is improved, even at low bitrates. For progressive transmission : by modifying the spline network construction, the image can be decomposed into one monovariate function. This function can be progressively transmitted, which allows to reconstruct the image by progressively increasing its resolution. Moreover, we show that such a transmission is resilient to information lost.
27

Apprentissage automatique et extrêmes pour la détection d'anomalies / Machine learning and extremes for anomaly detection

Goix, Nicolas 28 November 2016 (has links)
La détection d'anomalies est tout d'abord une étape utile de pré-traitement des données pour entraîner un algorithme d'apprentissage statistique. C'est aussi une composante importante d'une grande variété d'applications concrètes, allant de la finance, de l'assurance à la biologie computationnelle en passant par la santé, les télécommunications ou les sciences environnementales. La détection d'anomalies est aussi de plus en plus utile au monde contemporain, où il est nécessaire de surveiller et de diagnostiquer un nombre croissant de systèmes autonomes. La recherche en détection d'anomalies inclut la création d'algorithmes efficaces accompagnée d'une étude théorique, mais pose aussi la question de l'évaluation de tels algorithmes, particulièrement lorsque l'on ne dispose pas de données labellisées -- comme dans une multitude de contextes industriels. En d'autres termes, l'élaboration du modèle et son étude théorique, mais aussi la sélection du modèle. Dans cette thèse, nous abordons ces deux aspects. Tout d'abord, nous introduisons un critère alternatif au critère masse-volume existant, pour mesurer les performances d'une fonction de score. Puis nous nous intéressons aux régions extrêmes, qui sont d'un intérêt particulier en détection d'anomalies, pour diminuer le taux de fausse alarme. Enfin, nous proposons deux méthodes heuristiques, l'une pour évaluer les performances d'algorithmes de détection d'anomalies en grande dimension, l'autre pour étendre l'usage des forets aléatoires à la classification à une classe. / Anomaly detection is not only a useful preprocessing step for training machine learning algorithms. It is also a crucial component of many real-world applications, from various fields like finance, insurance, telecommunication, computational biology, health or environmental sciences. Anomaly detection is also more and more relevant in the modern world, as an increasing number of autonomous systems need to be monitored and diagnosed. Important research areas in anomaly detection include the design of efficient algorithms and their theoretical study but also the evaluation of such algorithms, in particular when no labeled data is available -- as in lots of industrial setups. In other words, model design and study, and model selection. In this thesis, we focus on both of these aspects. We first propose a criterion for measuring the performance of any anomaly detection algorithm. Then we focus on extreme regions, which are of particular interest in anomaly detection, to obtain lower false alarm rates. Eventually, two heuristic methods are proposed, the first one to evaluate anomaly detection algorithms in the case of high dimensional data, the other to extend the use of random forests to the one-class setting.
28

Archéophytes et néophytes. Pour une nouvelle détermination des marqueurs polliniques de l'anthropisation. Le cas des milieux cultivés et rudéraux de Franche-Comté.

Brun, Cécile 14 November 2007 (has links) (PDF)
L'intérêt des disciplines du paléoenvironnement pour l'étude des pratiques anthropiques passées, de leurs impacts sur le milieu, suppose une bonne connaissance des écosystèmes actuels. En explorant le lien entre la végétation actuelle et sa pluie pollinique, la palynologie cherche à établir des référentiels pour l'interprétation des spectres fossiles.<br />La recherche de ces marqueurs polliniques est menée ici dans deux milieux caractérisés par une végétation anthropique très spécifique : la flore adventice des champs cultivés et la flore rudérale, dans une région riche en données fossiles pour une application future, la Franche-Comté.<br />L'analyse phytogéographique de l'évolution de ces communautés végétales depuis le Néolithique permet d'abord de valider l'analogue. En distinguant espèces indigènes et étrangères (archéophytes et néophytes), en affinant leurs caractéristiques écologiques, elle discrimine aussi des marqueurs « forts » de l'anthropisation.<br />L'étude de terrain (relevés de végétation, collecte et lecture de données polliniques) permet, elle, d'analyser et de valider la relation végétation/pluie pollinique théorique/pluie pollinique réelle, au moyen d'une série d'analyses statistiques (classifications, ACoP, PCIA, indices de Davis).<br />Enfin, la comparaison des résultats de ces deux démarches permet une synthèse critique de l'application des marqueurs classiques de l'anthropisation (IPA, Behre...) à la région d'étude ainsi que la mise au jour de nouveaux marqueurs locaux plus spécifiques.
29

Évolution à long terme de l'écosystème estuarien de la Gironde

Chaalali, Aurélie 14 June 2013 (has links) (PDF)
Les estuaires font partie des écosystèmes les plus productifs de la planète. Ils constituent une zone d'importants échanges de matières et jouent à ce titre un rôle capital pour les cycles biogéochimiques. Du fait de leur position à l'interface entre domaines continental et marin, ils sont également un lieu de passage obligatoire pour de nombreuses espèces de poissons migrateurs ou encore de nourricerie et de refuge. Ces systèmes sont contraints par de nombreuses pressions de natures diverses dont certaines en lien avec les activités humaines locales (p. ex. pêcheries, transport maritime, dragages, pollutions accrues, etc.). Ces altérations viennent s'ajouter à la variabilité intrinsèque de ces systèmes naturellement complexes (variabilité spatio-temporelle de différents facteurs environnementaux ; c.-à-d. température, salinité, turbidité, etc.). Toutefois, une intensification de ces d'altérations, dont une partie est associée à la composante climatique des changements globaux, est observée depuis ces dernières décennies. Ces modifications avérées et leurs incidences sur les communautés biologiques constituent un enjeu en matière de gestion des écosystèmes estuariens. Cependant, par manque de chroniques de données continues suffisamment longues, peu d'études sur l'évolution à long terme de systèmes estuariens ont été réalisées à ce jour. Pour mes travaux, j'ai eu à ma disposition un ensemble de chroniques uniques - acquises depuis 35 ans - associées à plusieurs suivis écologiques de l'estuaire de la Gironde (notre site atelier). L'objectif général de cette thèse est de caractériser l'évolution globale du système dans son ensemble (physico-chimie et biologie) et d'identifier les forçages impliqués. L'originalité de ces travaux, par rapport aux études spécifiques déjà menées, consiste à analyser l'évolution de l'ensemble des descripteurs caractéristiques du fonctionnement d'un système modèle et de qualifier la part relative aux forçages globaux. L'étude des séries chronologiques, via une approche end-to-end basée sur des analyses multivariées, permet d'identifier deux changements abrupts d'état de l'écosystème de l'estuaire de la Gironde, associés à des fluctuations hydroclimatiques à large échelle (bassin Atlantique nord) mais aussi à une échelle plus locale (estuaire). Des hypothèses relatives aux possibles mécanismes impliqués, reliant les altérations climatiques à large échelle aux altérations observées à l'échelle des communautés biologiques estuariennes, sont discutées. Un deuxième volet de la thèse, au travers d'une approche modélisatrice basée sur le concept de niche d'Hutchinson, permet d'identifier un changement de répartition spatiale, longitudinale, des populations de copépodes estuariennes en réponse au réchauffement des masses d'eau et à la marinisation de l'estuaire. Enfin un troisième volet de mes travaux s'est consacré à l'étude spécifique d'une espèce de copépode invasive : Acartia tonsa. Suivant une double approche modélisatrice permettant d'estimer à la fois les niches fondamentale et réalisée de l'espèce, ces travaux illustrent l'importance relative des changements climatiques qui ont facilité la colonisation et l'essor de cette espèce dans l'estuaire.
30

The hydrodynamics associated with instream large roughness elements in gravel-bed rivers = L'hydrodynamique associée aux éléments de rugosité dans les rivières à lit de graviers

Lacey, Ralph William Jay January 2007 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Page generated in 0.0577 seconds