• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 327
  • 163
  • 33
  • 1
  • Tagged with
  • 515
  • 263
  • 108
  • 94
  • 91
  • 84
  • 79
  • 78
  • 75
  • 74
  • 61
  • 59
  • 58
  • 56
  • 56
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Étude des effets et du rôle des herbiers à Zostera noltii sur la biogéochimie des sédiments intertidaux

Delgard, Marie Lise 21 May 2013 (has links) (PDF)
Cette étude a été menée afin de mieux comprendre l'influence de l'herbier à Zosteranoltii du Bassin d'Arcachon, herbier affecté par une sévère régression depuis les années2000, sur la dynamique biogéochimique des sédiments intertidaux de cette lagune. Dans cet environnement côtier dynamique, il s'agissait de caractériser cette influence sur demultiples échelles spatiales (i.e. de la racine à l'écosystème) et temporelles (i.e. tidale, diurne, saisonnière et interannuelle). Des mesures par voltammétrie in situ de la composition des eaux porales des sédiments intertidaux non végétalisés ont montré que (i) les distributions verticales des espèces réduites variaient avec les marées et que (ii) la dynamique de l'oxygène dissous en réponse aux cycles tidaux et diurnes était contrôlée par l'activité photosynthétique et les migrations verticales du microphytobenthos. L'étude de l'influence de l'herbier sur cette dynamique via des pertes d'oxygène au niveau des racines a été initiée en mesurant les variations des concentrations en oxygène à l'intérieur des lacunes aérifères de ces plantes. L'organisation des lacunes de Zostera noltii est présentée pour la première fois dans cette étude. La distribution verticale de nutriments dans les eaux porales de sédiments végétalisés et de sédiments nus a été caractérisée pendant la période de croissance de l'herbier. La présence de Zostera noltii a induit une zonation verticale marquée de cette distribution qui reflète l'évolution avec la profondeur de l'équilibre entre la production de nutriments résultant de l'exsudation de matière organique labile par les parties souterraines de la plante (source) et le pompage de ces nutriments par les racines (puits). L'existence d'un pompage de carbone inorganique dissous et de silice dissoute par les racines de l'herbier a été mise en évidence. Des mesures d'échanges benthiques d'oxygène dissous sur des sédiments nus et colonisés par Zostera noltii ont permis de caractériser la saisonnalité et l'hétérogénéité spatiale du métabolisme benthique (respiration et production primaire brute) en relation avec les distributions d'herbier et/ou de macrofaune benthique. Dans les sédiments végétalisés, la forte variabilité spatio-temporelle de ce métabolisme benthique était largement contrôlée par la biomasse de feuilles d'herbier. A l'échelle de la lagune, nos calculs ont montré que la regression de l'herbier à Zostera noltii entre 2005 et 2007 a induit une diminution significative des taux de respiration et de production de la zone intertidal de la lagune. L'évolution interannuelle de la biogéochimie de sédiments colonisés par Zostera noltii a été étudiée en 2006 et en 2010/2011 sur une zone située dans une partie du Bassin d'Arcachon particulièrement affectée par le déclin des herbiers (secteur de Cassy). Contrairement aux observations réalisées sur l'herbier bien portant en 2006, l'herbier en déclin augmenterait le relargage de nutriments dans les sédiments via la stimulation de la production d'ammonium ou de la dissolution du phosphore particulaire. La régression des herbiers fournirait un apport significatif de phosphore vers la colonne d'eau de la lagune, d'une magnitude comparable aux apports par les rivières ou à ceux liés au pompage tidal.
82

Régression robuste bayésienne à l'aide de distributions à ailes relevées

Schiller, Ian January 2008 (has links) (PDF)
Dans ce mémoire nous nous intéressons à des méthodes d'estimations robustes de la pente de la droite de régression linéaire simple ainsi que du paramètre d'échelle de la densité des erreurs en présence de valeurs aberrantes dans l'échantillon de données. Une revue des méthodes d'estimations des paramètres de la droite de régression est présentée. Nous y analysons numériquement les différentes méthodes afin de décrire le comportement des estimateurs en présence d'une valeur aberrante dans l'échantillon. Une méthode d'estimation bayésienne est présentée afin d'estimer la pente de la droite de régression lorsque le paramètre d'échelle est connu. Nous exprimons le problème d'estimation de la pente de la droite de régression en un problème d'estimation d'un paramètre de position, ce qui nous permet d'utiliser les résultats de robustesse bayésienne pour un paramètre de position. Le comportement de cet estimateur est ensuite étudié numériquement lorsqu'il y a une valeur aberrante dans l'échantillon de données. Enfin, nous explorons une méthode bayésienne d'estimation simultanée du paramètre d'échelle et de la pente de la droite de régression. Nous exprimons le problème comme une estimation des paramètres de position et échelle même si les résultats de robustesse bayésienne pour ce cas ne sont pas encore publiés. Nous étudions tout de même le comportement des estimateurs de façon numérique. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Régression linéaire, Inférence bayésienne, Robustesse, Valeurs aberrantes, Densités à ailes relevées, Densités GEP (Generalized exponential power), P-credence.
83

Évaluation de méthodes de mise à l'échelle statistique : reconstruction des extrêmes et de la variabilité du régime de mousson au Sahel

Parishkura, Dimitri January 2009 (has links) (PDF)
Deux méthodes de mise à l'échelle statistique sont évaluées sur une station située au Burkina Faso afin de générer une information climatique pertinente au niveau local, en terme de climat moyen et des principales caractéristiques de variabilité et d'extrême du régime de précipitation. Les deux méthodes de régression multi-linéaire SDSM et ASD analysées reposent sur le principe que des relations empiriques entre certaines variables atmosphériques à grande échelle issues des réanalyses ou des Modèles Climatiques globaux (MCGs), variables dénommées prédicteurs, et des paramètres climatiques locaux (ex. précipitation) peuvent être établies. En mode réanalyse, le travail a consisté, d'une part, à partir de variables synoptiques de NCEP, à analyser (i) l'intérêt d'utiliser une gamme plus vaste de prédicteurs dérivés et sur plus de niveaux verticaux dans l'atmosphère, et (ii) l'intérêt d'utiliser une sélection des prédicteurs sur une base mensuelle versus annuelle. D'autre part, en mode climat, à partir de variables synoptiques issues de deux MCGs (CGCM2 et HadCM3), l'évaluation a porté sur l'utilisation de ces modèles climatiques mondiaux afin de générer une information climatique plausible et utile à l'échelle locale dans le but ultime de générer des scénarios climatiques pertinents pour les études d'impacts en milieu sahélien. En mode réanalyse, le fait de considérer un plus vaste ensemble de prédicteurs et plus de niveaux atmosphériques, a permis de réduire les biais de l'ensemble des critères statistiques/climatiques comme la moyenne quotidienne, la variabilité intra-saisonnière, les indices d'intensité et d'extrêmes, et l'indice des dates de début, de fin et de longueur de mousson. De plus, avec cette nouvelle configuration, les deux modèles de mise à l'échelle sont en mesure de reconstruire une partie des changements observés dans le régime de précipitation (i.e. diminution de la quantité totale de pluie et de la fréquence du nombre d'événements pluvieux). Si dans la majorité des cas ASD performe mieux que SDSM avec un choix restreint de prédicteurs, les différences entre les modèles diminuent en utilisant un plus grand choix de prédicteurs, et en sélectionnant ceux-ci sur une base mensuelle. Dans ce dernier cas, les incertitudes sur la valeur médiane et la moyenne des indices de précipitation, notamment au coeur de la saison pluvieuse et à la fin de celle-ci, sont réduites par rapport aux autres simulations. Avec les prédicteurs des MCGs, notamment le modèle HadCM3, la simulation de l'ensemble des indices est systématiquement améliorée par rapport aux valeurs équivalentes issues des variables brutes des MCGs, aussi bien avec SDSM que ASD, notamment l'occurrence des jours de pluie, la variabilité intra-saisonnière, les indices d'intensité et d'extrêmes. Par contre l'utilisation des prédicteurs CGCM2 dans la mise à l'échelle statistique ne permet pas d'améliorer systématiquement tous les indices analysés par rapport aux données brutes de ce MCG. Quoi qu'il en soit, notre étude a permis de montrer qu'avec des prédicteurs relativement bien reproduits à grande échelle par les modèles globaux, les distributions quotidiennes de précipitation étaient plus plausibles à l'échelle locale, en dépit des difficultés à simuler adéquatement les extrêmes (i.e. largement surestimés surtout avec le CGCM2). Dans l'avenir, d'autres analyses devront inclure des prédicteurs des modèles globaux ou régionaux, telles que suggérés avec les réanalyses NCEP (i.e. autres niveaux, variables et résolution temporelle), ainsi qu'à l'aide d'autres méthodes non-linéaires en lien avec les particularités physiques à l'échelle régionale et locale. Ceci contribuera ultimement à générer des scénarios plus plausibles à ces échelles, d'autant que la mousson Ouest Africaine est influencée naturellement par des téléconnections variées à l'échelle globale et régionale. L'usage de cette information climatique pour des applications locales pourrait ainsi être amélioré, en lien avec les besoins des études d'impacts et de vulnérabilité dans le domaine agropastoral, humain et de la modélisation environnementale. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : ASD, SDSM, NCEP, MCG, Variabilité interannuelle, Mousson ouest africaine, Prédicteurs, Indices de précipitations, Mise à l'échelle statistique.
84

Introduction des effets fixes dans un modèle binomial négatif : application à la consommation de médicaments au Canada

Ammour, Boubekeur Seddik January 2010 (has links) (PDF)
Dans ce travail, nous modélisons le nombre de médicaments consommés par les Canadiens en estimant deux modèles de données de comptage en panel. Les données incluent des observations effectuées sur 17 276 individus entre 1994 et 2007. Les modèles de Poisson et binomial négatif à effets fixes sont donc estimés afin de contrôler pour les effets individuels non observés. Allison et Waterman (2002) ont démontré que le modèle binomial négatif conditionnel à effets fixes proposé par Hausman, Hall and Griliches (1984) ne contrôle pas vraiment pour les effets fixes étant donné que le modèle inclut des régresseurs individuels fixes. Malgré cette argumentation, l'estimation de ce modèle, effectuée avec le progiciel Stata en utilisant les données de l'enquête nationale sur la santé de la population au Canada (ENSP), fournit des résultats presque identiques à ceux obtenus avec l'estimation du modèle de Poisson à effets fixes. En effet, une partie de la corrélation de certaines variables explicatives avec l'hétérogénéité inobservée n'existe plus lorsque nous estimons le modèle à effets fixes, comparativement aux modèles à effets aléatoires. Cela fait radicalement changer les effets individuels et prouve alors l'importance de contrôler pour les effets fixes. Wooldridge propose un modèle similaire au modèle binomial négatif à effets fixes. Celui-ci permet de contrôler et d'interpréter les effets du modèle binomial négatif à effets fixes en estimant les effets fixes à l'aide des moyennes des variables explicatives, qui seront introduites dans le modèle binomial négatif. Nous n'aurons donc plus besoin d'utiliser la commande Xtnbreg avec l'option FE (qui s'est révélée non performante) car le modèle alternatif de Wooldridge s'estime en utilisant les options RE ou GEE. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Régression de Poisson, Binomial négatif, Effets fixes, Effets aléatoires.
85

L'effet du prix de l'essence sur l'étalement urbain dans 12 régions métropolitaines canadiennes : une analyse de régression de panel

Gingras, Ian 11 1900 (has links) (PDF)
Les régions métropolitaines canadiennes n'échappent pas à l'étalement urbain et plusieurs facteurs récurrents existent dans la littérature scientifique afin d'expliquer ce phénomène. L'un de ces facteurs est la diminution du coût de transport, une diminution reflétée par l'omniprésence de l'automobile. Dans l'optique où le prix de l'essence augmenterait substantiellement, forçant ainsi les agents économiques à changer leur comportement envers les transports urbains, l'un des objectifs de notre étude est de déterminer si une éventuelle hausse du prix de l'essence pourra ralentir l'étalement urbain. À l'aide de données de 12 régions métropolitaines canadiennes échelonnées sur 20 ans, notre analyse de régression de panel révèle qu'une augmentation de 10 % du prix de l'essence: 1) hausserait la proportion de la population d'une région métropolitaine vivant dans la ville centrale de 1,76 %; (2) diminuerait de 6,78 % la proportion de logements à faible densité et (3) diminuerait de 0,15 km la distance médiane de navettage. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Étalement urbain, prix de l'essence, régions métropolitaines canadiennes.
86

Contribution à l'étude de la régression non paramétrique et à l'estimation de la moyenne d'un processus à temps continu

Degras, David 07 December 2007 (has links) (PDF)
Cette thèse porte sur l'étude de la régression non paramétrique en présence de mesures répétées. D'abord, nous étendons aux estimateurs splines de lissage les vitesses de convergence présentées dans la littérature pour d'autres estimateurs usuels sous différentes hypothèses classiques de dépendance des données. Ensuite, dans le cadre de l'estimation de la moyenne d'un processus aléatoire à temps continu, nous généralisons les résultats existants sur la convergence en moyenne quadratique et nous établissons de nouveaux résultats de normalité asymptotique pour les distributions finies-dimensionnelles. Enfin, dans le cadre d'un échantillon fini et corrélé, nous comparons les performances d'estimateurs construits par moindres carrés ordinaires ou généralisés, nous proposons une méthode efficace de sélection du paramètre de lissage tenant compte de la structure de covariance des données, et à travers des simulations, nous mettons en évidence l'apport du lissage local par rapport au lissage global.
87

Analyse comparative des tests de permutations en régression multiple et application à l'analyse de tableaux de distances.

Shadrokh, Ali 20 July 2007 (has links) (PDF)
Lorsque le processus de génération des données ne respecte pas certains des postulats fondant l'analyse statistique du modèle classique de régression linéaire, les tests de permutations offrent une alternative non paramétrique fiable de construction de tests d'hypothèse libres. La première application de cette méthode d'inférence statistique au modèle de régression linéaire simple renvoie à Fisher (1935) et Pitman (1937a,b,1938). Cette méthode de ré-échantillonnage est fondée sur des postulats moins forts que la méthode paramétrique classique et facilement vérifiables en pratique : l'échangeabilité des observations sous l'hypothèse nulle. Si l'utilisation des tests de permutation fait consensus en régression linéaire simple et pour tester l'adéquation d'un modèle en régression multiple, le problème se complique lorsqu'on souhaite mettre à l'épreuve une hypothèse de nullité d'un coefficient de régression partielle. L'étude des conditions d'échangeabilité n'est plus simple dans ce cas. Il n'est alors plus possible de construire des tests exacts plusieurs propositions de tests sont en concurrence. <br />L'objectif principal de notre travail est la comparaison des tests de permutation adaptés aux hypothèses de nullité d'un coefficient de régression partielle dans un modèle linéaire à p variables explicatives, conditionnellement à l'observation d'un échantillon. Quatre méthodes sont comparées, d'une part en recourant à des simulations effectuées dans le cas d'une régression double, puis théoriquement, afin de déterminer les propriétés de biais, de couverture et de puissance de ces tests. Les résultats obtenus sont ensuite étendus au cas de la régression linéaire multiple.<br />Un dernier chapitre complète cette étude en traitant le problème de test de la dépendance partielle entre tableaux de distances interpoints. Nous avons comparé les adaptations des quatre méthodes de test de permutation à ce contexte marqué par la dépendance existant entre éléments d'une matrice de distance et nous avons obtenu dans ce cas des résultats tout à fait différents de ceux qui caractérisent.
88

Modélisation supervisée de données fonctionnelles par perceptron multi-couches

Conan-Guez, Brieuc 18 December 2002 (has links) (PDF)
L'Analyse de Données Fonctionnelles est une extension de l'analyse de données traditionnelles à des individus décrits par des fonctions. Le travail présenté ici s'inscrit pleinement dans ce courant, et tente de faire la jonction entre le domaine de la statistique fonctionnelle, et celui des techniques "neuronales" classiques. L'extension du perceptron multi-couches (PMC) à des espaces fonctionnels, proposé dans ce travail, apporte une réponse naturelle au traitement d'individus de type fonctions. Deux approches distinctes sont ici présentées : une approche par traitement direct des fonctions d'entrée et une approche par projection sur une base topologique de l'espace fonctionnel considéré (méthode classique en Analyse de Données Fonctionnelles). Pour chacune de ces deux méthodes, on montre dans un premier temps que le modèle est un approximateur universel, i.e. que toute fonction continue définie sur un compact d'un espace fonctionnel peut être approchée arbitrairement bien par un PMC fonctionnel. Dans un deuxième temps, on s'intéresse aux propriétés de consistance de l'estimateur fonctionnel. L'originalité de ce résultat vient du fait que non seulement l'estimation s'effectue sur un nombre fini d'individus (les fonctions observées), mais que de plus chacune de ces fonctions n'est connue qu'en un nombre fini de points d'observation (discrétisation). Un point important à noter est que ce résultat s'appuie sur une modélisation aléatoire du design des fonctions d'entrée. Enfin, on montre que le modèle peut encore être adapté afin d'obtenir une réponse fonctionnelle, ce qui autorise le traitement de processus fonctionnels à temps discret. L'approximation universelle et la consistance de l'estimateur (dans le cas i.i.d) sont encore vérifiées.
89

Caractéristiques et déterminants des taux de croissance des firmes : Investigations empiriques

Coad, Alex 23 April 2007 (has links) (PDF)
Cette thèse se concentre sur les investigations empiriques de la croissance des firmes, en utilisant des bases de données des firmes manufacturières françaises et américaines. Nous commençons avec une revue de la littérature afin d'identifier les lacunes dans la littérature actuelle. Nous regardons ensuite la loi de Gibrat et la distribution des taux de croissance. Puis nous observons des effets d'autocorrélation dans la croissance des firmes. Dans un discussion théorique nous contrastons la théorie des 'contraintes financières' à la théorie évolutionniste, et nous concluons que la recherche néoclassique a peut-être exagéré le problème des contraintes financières. Dans notre base de données, nous observons que la croissance est plus ou moins indépendant de la performance financière, et nous concluons que la sélection est assez faible.<br />Dans la dernière partie nous étudions la relation entre<br />l'innovation et la performance des firmes. Des régressions par quantile indiquent que l'innovation a des effets spectaculaires dans une minorité des cas, mais pour 'la firme moyenne' elle n'a que peu d'influence.
90

Apprentissage dans les espaces de grande dimension : Application à la caractérisation de tumeurs noires de la peau à partir d'images

Tenenhaus, Arthur 08 December 2006 (has links) (PDF)
L'objectif de la thèse est de définir les bases conceptuelles permettant de développer des méthodes efficaces et adaptées à la classification dans les espaces de grande dimension. Dans ce contexte, les méthodes à noyau s'avèrent particulièrement adaptées. En effet, au-delà de leurs propriétés de régularisation - régularisation de type Tikhonov (Régression Ridge, Support Vector Machines, ... ) ou réduction de dimension (Partial Least Squares, Régression sur Composantes Principales,...) – elles offrent des avantages algorithmiques majeurs lorsque la dimension des données est supérieure au nombre d'observations. Ces méthodes ont fait l'objet d'une étude approfondie à la fois du point de vue théorique et appliqué dans les deux premiers chapitres de la thèse.<br /><br />Les deux chapitres suivants proposent de nouvelles méthodes, découlant de cette étude. Elles se fondent sur des principes de réduction de dimension supervisée en se focalisant principalement sur la régression PLS, particulièrement bien adaptée à la gestion de données de grande dimension. Il s'agissait de concevoir des algorithmes de classification s'appuyant sur les principes algorithmiques de la régression PLS. Nous avons proposé, la Kernel Logistic PLS, modèle de classification nonlinéaire et binaire basé à la fois sur la construction de variables latentes et sur des transformations du type Empirical Kernel Map. Nous avons étendu la KL-PLS au cas où la variable à prédire est polytomique donnant naissance à la Kernel Multinomial Logistic PLS regression.<br />Enfin dans les deux derniers chapitres, nous avons appliqué ces méthodes à de nombreux domaines, notamment en analyse d'images. Nous avons ainsi contribué au développement d'une application en vraie grandeur dans le domaine médical en élaborant un outil d'aide au diagnostic de tumeurs noires de la peau à partir d'images.

Page generated in 0.0945 seconds