• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 3
  • 1
  • Tagged with
  • 16
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modélisation des apports naturels de réservoirs

Ouhib, Lyes January 2005 (has links)
No description available.
2

Régression sur variable fonctionnelle: Estimation, tests de structure et Applications.

Delsol, Laurent 17 June 2008 (has links) (PDF)
Au cours des dernières années, la branche de la statistique consacrée à l'étude de variables fonctionnelles a connu un réel essor tant en terme de développements théoriques que de diversification des domaines d'application. Nous nous intéressons plus particulièrement dans ce mémoire à des modèles de régression dans lesquels la variable réponse est réelle tandis que la variable explicative est fonctionnelle, c'est à dire à valeurs dans un espace de dimension infinie. Les résultats que nous énonçons sont liés aux propriétés asymptotiques de l'estimateur à noyau généralisé au cas d'une variable explicative fonctionnelle. Nous supposons pour commencer que l'échantillon que nous étudions est constitué de variables α-mélangeantes et que le modèle de régression est de nature nonparamétrique. Nous établissons la normalité asymptotique de notre estimateur et donnons l'expression explicite des termes asymptotiquement dominants du biais et de la variance. Une conséquence directe de ce résultat est la construction d'intervalles de confiance asymptotiques ponctuels dont nous étudions les propriétés aux travers de simulations et que nous appliquons sur des données liées à l'étude du courant marin El Niño. On établit également à partir du résultat de normalité asymptotique et d'un résultat d'uniforme intégrabilité l'expression explicite des termes asymptotiquement dominants des moments centrés et des erreurs Lp de notre estimateur. Nous considérons ensuite le problème des tests de structure en régression sur variable fonctionnelle et supposons maintenant que l'échantillon est composé de variables indépendantes. Nous construisons une statistique de test basée sur la comparaison de l'estimateur à noyau et d'un estimateur plus particulier dépendant de l'hypothèse nulle à tester. Nous obtenons la normalité asymptotique de notre statistique de test sous l'hypothèse nulle ainsi que sa divergence sous l'alternative. Les conditions générales sous lesquelles notre résultat est établi permettent l'utilisation de notre statistique pour construire des tests de structure innovants permettant de tester si l'opérateur de régression est de forme linéaire, à indice simple, . . . Différentes procédures de rééchantillonnage sont proposées et comparées au travers de diverses simulations. Nos méthodes sont enfin appliquées dans le cadre de tests de non effet à deux jeux de données spectrométriques.
3

Méthodes d'analyse des données incomplètes incorporant l'incertitude attribuable aux valeurs manquantes

Bernard, Francis January 2013 (has links)
Lorsqu'on réalise une analyse des données dans le cadre d'une enquête, on est souvent confronté au problème des données manquantes. L'une des solutions les plus fréquemment utilisées est d'avoir recours aux méthodes d'imputation simple. Malheureusement, ces méthodes souffrnt d'un handicap important : les estimations courantes basées sur les valeurs observées et imputées considèrent à tort les valeurs imputées comme des valeurs connues, bien qu'une certaine forme d'incertitude plane au sujet des valeurs à imputer. En particulier, les intervalles de confiance pour les paramètres d'intérêt basés sur les données ainsi complétées n'incorporent pas l'incertitude qui est attribuable aux valeurs manquantes. Les méthodes basées sur le rééchantillonnage et l'imputation multiple -- une généralisation de l'imputation simple -- s'avèrent toutes deux des solutions courantes convenables au problème des données manquantes, du fait qu'elles incorporent cette incertitude. Une alternative consiste à avoir recours à l'imputation multiple à deux niveaux, une généralisation de l'imputation multiple (conventionnelle) qui a été développée dans la thèse que Shen [51] a rédigée en 2000 et qui permet d'exploiter les situations où la nature des valeurs manquantes suggère d'effectuer la procédure d'imputation en deux étapes plutôt qu'en une seule. Nous décrirons ces méthodes d'analyse des données incomplètes qui incorporent l'incertitude attribuable aux valeurs manquantes, nous soulèverons quelques problématiques intéressantes relatives au recours à ces méthodes et nous y proposerons des solutions appropriées. Finalement, nous illustrerons l'application de l'imputation multiple conventionnelle et de l'imputation multiple à deux niveaux au moyen d'exemples simples et concrets.
4

Développement de méthodes pour la détection de changement

Blanc, Philippe 03 December 1999 (has links) (PDF)
La détection des changements d'un paysage est la mise en œuvre de techniques ayant pour but de repérer, de mettre en évidence et enfin, de comprendre son évolution temporelle. Ses domaines d'application sont riches et variés en télédétection. Cependant, la plupart des applications de détection de changement ne s'appuient pas sur une démarche générale permettant de justifier ou de généraliser les solutions techniques proposées. La thèse a pour premier objectif d'apporter une nouvelle contribution à la mise en place d'un cadre et d'une méthodologie générale propre à la détection de changement. Après l'établissement d'un certain nombre de définitions sur les changements d'un paysage en termes d'échelles caractéristiques et d'observabilité, nous proposons une méthodologie, basée sur un analyse bibliographique, se décomposant en cinq étapes : l'identification et la caractérisation des différentes sources de changements effectifs et exogènes ; l'alignement géométrique et radiométrique des données ; l'extraction d'informations pertinentes vis-à-vis des changements à détecter ; la création des écarts à un modèle d'évolution temporelle ; la prise de décision et la synthèse des résultats. Cette analyse fait apparaître des problèmes fondamentaux relatifs au lien entre les changements effectifs et ceux observés en fonction des caractéristiques des moyens d'observation. L'étude de ce lien est le deuxième objectif de la thèse. Enfin, la thèse a mis en évidence le rôle crucial de l'alignement des données et, notamment, de l'alignement géométrique. A partir d'un algorithme existant, nous avons élaboré une méthode de recalage automatique itérative s'appuyant sur une décomposition multirésolution des images et utilisant des techniques d'appariement sub-pixellaire et de déformation géométrique locales. Un protocole innovant de validation à partir d'images simulées a été établi et a permis d'évaluer la qualité de la méthode et son apport comparé à des méthodes de recalage standards.
5

Etude de la qualité géomorphologique de modèles numériques de terrain issus de l'imagerie spatiale

El Hage, Mhamad 12 November 2012 (has links) (PDF)
La production de Modèles Numériques de Terrain (MNT) a subi d'importantes évolutions durant les deux dernières décennies en réponse à une demande croissante pour des besoins scientifiques et industriels. De nombreux satellites d'observation de la Terre, utilisant des capteurs tant optiques que radar, ont permis de produire des MNT couvrant la plupart de la surface terrestre. De plus, les algorithmes de traitement d'images et de nuages de points ont subi d'importants développements. Ces évolutions ont fourni des MNT à différentes échelles pour tout utilisateur. Les applications basées sur la géomorphologie ont profité de ces progrès. En effet, ces applications exploitent les formes du terrain dont le MNT constitue une donnée de base. Cette étude a pour objectif d'évaluer l'impact des paramètres de production de MNT par photogrammétrie et par InSAR sur la qualité de position et de forme de ces modèles. La qualité de position, évaluée par les producteurs de MNT, n'est pas suffisante pour évaluer la qualité des formes. Ainsi, nous avons décrit les méthodes d'évaluation de la qualité de position et de forme et la différence entre elles. Une méthode originale de validation interne, qui n'exige pas de données de référence, a été proposée. Ensuite, l'impact des paramètres de l'appariement stéréoscopique, du traitement interférométrique ainsi que du rééchantillonnage, sur l'altitude et les formes, a été évalué. Finalement, nous avons conclu sur des recommandations pour choisir correctement les paramètres de production, en particulier en photogrammétrie.Nous avons observé un impact négligeable de la plupart des paramètres sur l'altitude, à l'exception de ceux de l'InSAR. Par contre, un impact significatif existe sur les dérivées de l'altitude. L'impact des paramètres d'appariement présente une forte dépendance avec la morphologie du terrain et l'occupation du sol. Ainsi, le choix de ces paramètres doit être effectué en prenant en considération ces deux facteurs. L'effet des paramètres du traitement interférométrique se manifeste par des erreurs de déroulement de phase qui affectent principalement l'altitude et peu les dérivées. Les méthodes d'interpolation et la taille de maille présentent un impact faible sur l'altitude et important sur ses dérivées. En effet, leur valeur et leur qualité dépendent directement de la taille de maille. Le choix de cette taille doit s'effectuer selon les besoins de l'application visée. Enfin, nous avons conclu que ces paramètres sont interdépendants et peuvent avoir des effets similaires. Leur choix doit être effectué en prenant en considération à la fois l'application concernée, la morphologie du terrain et son occupation du sol afin de minimiser l'erreur des résultats finaux et des conclusions.
6

Sélection de modèle par validation-croisée en estimation de la densité, régression et détection de ruptures

Celisse, Alain 09 December 2008 (has links) (PDF)
L'objet de cette thèse est l'étude d'un certain type d'algorithmes de rééchantillonnage regroupés sous le nom de validation-croisée, et plus particulièrement parmi eux, du leave-p-out. Très utilisés en pratique, ces algorithmes sont encore mal compris d'un point de vue théorique, notamment sur un plan non-asymptotique. Notre analyse du leave-p-out s'effectue dans les cadres de l'estimation de densité et de la régression. Son objectif est de mieux comprendre la validation-croisée en fonction du cardinal $p$ de l'ensemble test dont elle dépend. D'un point de vue général, la validation-croisée est destinée à estimer le risque d'un estimateur. Dans notre cas, le leave-$p$-out n'est habituellement pas applicable en pratique, à cause d'une trop grande complexité algorithmique. Pourtant, nous parvenons à obtenir des formules closes (parfaitement calculables) de l'estimateur leave-p-out du risque, pour une large gamme d'estimateurs très employés. Nous envisageons le problème de la sélection de modèle par validation-croisée sous deux aspects. L'un repose sur l'estimation optimale du risque en termes d'un compromis biais-variance, ce qui donne lieu à une procédure d'estimation de densité basée sur un choix de $p$ entièrement fondé sur les données. Une application naturelle au problème des tests multiples est envisagée. L'autre aspect est lié à l'interprétation de l'estimateur validation-croisée comme critère pénalisé. Sur le plan théorique, la qualité de la procédure leave-$p$-out est garantie par des inégalités oracle ainsi qu'un résultat d'adaptativité dans le cadre de l'estimation de densité. Le problème de la détection de ruptures est également abordé au travers d'une vaste étude de simulations, basée sur des considérations théoriques. Sur cette base, nous proposons une procédure entièrement tournée vers le rééchantillonnage, permettant de traiter le cas difficile de données hétéroscédastiques avec une complexité algorithmique raisonnable.
7

Rééchantillonnage et Sélection de modèles

Arlot, Sylvain 13 December 2007 (has links) (PDF)
Cette thèse s'inscrit dans les domaines de la statistique non-paramétrique et de la théorie statistique de l'apprentissage. Son objet est la compréhension fine de certaines méthodes de rééchantillonnage ou de sélection de modèles, du point de vue non-asymptotique. <br /><br />La majeure partie de ce travail de thèse consiste dans la calibration précise de méthodes de sélection de modèles optimales en pratique, pour le problème de la prédiction. Nous étudions la validation croisée V-fold (très couramment utilisée, mais mal comprise en théorie, notamment pour ce qui est de choisir V) et plusieurs méthodes de pénalisation. Nous proposons des méthodes de calibration précise de pénalités, aussi bien pour ce qui est de leur forme générale que des constantes multiplicatives. L'utilisation du rééchantillonnage permet de résoudre des problèmes difficiles, notamment celui de la régression avec un niveau de bruit variable. Nous validons théoriquement ces méthodes du point de vue non-asymptotique, en prouvant des inégalités oracle et des propriétés d'adaptation. Ces résultats reposent entre autres sur des inégalités de concentration.<br /><br />Un second problème que nous abordons est celui des régions de confiance et des tests multiples, lorsque l'on dispose d'observations de grande dimension, présentant des corrélations générales et inconnues. L'utilisation de méthodes de rééchantillonnage permet de s'affranchir du fléau de la dimension, et d'"apprendre" ces corrélations. Nous proposons principalement deux méthodes, et prouvons pour chacune un contrôle non-asymptotique de leur niveau.
8

Réseaux et signal : des outils de traitement du signal pour l'analyse des réseaux / Networks and signal : signal processing tools for network analysis

Tremblay, Nicolas 09 October 2014 (has links)
Cette thèse propose de nouveaux outils adaptés à l'analyse des réseaux : sociaux, de transport, de neurones, de protéines, de télécommunications... Ces réseaux, avec l'essor de certaines technologies électroniques, informatiques et mobiles, sont de plus en plus mesurables et mesurés ; la demande d'outils d'analyse assez génériques pour s'appliquer à ces réseaux de natures différentes, assez puissants pour gérer leur grande taille et assez pertinents pour en extraire l'information utile, augmente en conséquence. Pour répondre à cette demande, une grande communauté de chercheurs de différents horizons scientifiques concentre ses efforts sur l'analyse des graphes, des outils mathématiques modélisant la structure relationnelle des objets d'un réseau. Parmi les directions de recherche envisagées, le traitement du signal sur graphe apporte un éclairage prometteur sur la question : le signal n'est plus défini comme en traitement du signal classique sur une topologie régulière à n dimensions, mais sur une topologie particulière définie par le graphe. Appliquer ces idées nouvelles aux problématiques concrètes d'analyse d'un réseau, c'est ouvrir la voie à une analyse solidement fondée sur la théorie du signal. C'est précisément autour de cette frontière entre traitement du signal et science des réseaux que s'articule cette thèse, comme l'illustrent ses deux principales contributions. D'abord, une version multiéchelle de détection de communautés dans un réseau est introduite, basée sur la définition récente des ondelettes sur graphe. Puis, inspirée du concept classique de bootstrap, une méthode de rééchantillonnage de graphes est proposée à des fins d'estimation statistique. / This thesis describes new tools specifically designed for the analysis of networks such as social, transportation, neuronal, protein, communication networks... These networks, along with the rapid expansion of electronic, IT and mobile technologies are increasingly monitored and measured. Adapted tools of analysis are therefore very much in demand, which need to be universal, powerful, and precise enough to be able to extract useful information from very different possibly large networks. To this end, a large community of researchers from various disciplines have concentrated their efforts on the analysis of graphs, well define mathematical tools modeling the interconnected structure of networks. Among all the considered directions of research, graph signal processing brings a new and promising vision : a signal is no longer defined on a regular n-dimensional topology, but on a particular topology defined by the graph. To apply these new ideas on the practical problems of network analysis paves the way to an analysis firmly rooted in signal processing theory. It is precisely this frontier between signal processing and network science that we explore throughout this thesis, as shown by two of its major contributions. Firstly, a multiscale version of community detection in networks is proposed, based on the recent definition of graph wavelets. Then, a network-adapted bootstrap method is introduced, that enables statistical estimation based on carefully designed graph resampling schemes.
9

Contributions to robust methods in nonparametric frontier models

Bruffaerts, Christopher 10 September 2014 (has links)
Les modèles de frontières sont actuellement très utilisés par beaucoup d’économistes, gestionnaires ou toute personne dite « decision-maker ». Dans ces modèles de frontières, le but du chercheur consiste à attribuer à des unités de production (des firmes, des hôpitaux ou des universités par exemple) une mesure de leur efficacité en terme de production. Ces unités (dénotées DMU-Decision-Making Units) utilisent-elles à bon escient leurs « inputs » et « outputs »? Font-elles usage de tout leur potentiel dans le processus de production? <p>L’ensemble de production est l’ensemble contenant toutes les combinaisons d’inputs et d’outputs qui sont physiquement réalisables dans une économie. De cet ensemble contenant p inputs et q outputs, la notion d’efficacité d ‘une unité de production peut être définie. Celle-ci se définie comme une distance séparant le DMU de la frontière de l’ensemble de production. A partir d’un échantillon de DMUs, le but est de reconstruire cette frontière de production afin de pouvoir y évaluer l’efficacité des DMUs. A cette fin, le chercheur utilise très souvent des méthodes dites « classiques » telles que le « Data Envelopment Analysis » (DEA).<p><p>De nos jours, le statisticien bénéficie de plus en plus de données, ce qui veut également dire qu’il n’a pas l’opportunité de faire attention aux données qui font partie de sa base de données. Il se peut en effet que certaines valeurs aberrantes s’immiscent dans les jeux de données sans que nous y fassions particulièrement attention. En particulier, les modèles de frontières sont extrêmement sensibles aux valeurs aberrantes et peuvent fortement influencer l’inférence qui s’en suit. Pour éviter que certaines données n’entravent une analyse correcte, des méthodes robustes sont utilisées.<p><p>Allier le côté robuste au problème d’évaluation d’efficacité est l’objectif général de cette thèse. Le premier chapitre plante le décor en présentant la littérature existante dans ce domaine. Les quatre chapitres suivants sont organisés sous forme d’articles scientifiques. <p>Le chapitre 2 étudie les propriétés de robustesse d’un estimateur d’efficacité particulier. Cet estimateur mesure la distance entre le DMU analysé et la frontière de production le long d’un chemin hyperbolique passant par l’unité. Ce type de distance très spécifique s’avère très utile pour définir l’efficacité de type directionnel. <p>Le chapitre 3 est l’extension du premier article au cas de l’efficacité directionnelle. Ce type de distance généralise toutes les distances de type linéaires pour évaluer l’efficacité d’un DMU. En plus d’étudier les propriétés de robustesse de l’estimateur d’efficacité de type directionnel, une méthode de détection de valeurs aberrantes est présentée. Celle-ci s’avère très utile afin d’identifier les unités de production influençantes dans cet espace multidimensionnel (dimension p+q). <p>Le chapitre 4 présente les méthodes d’inférence pour les efficacités dans les modèles nonparamétriques de frontière. En particulier, les méthodes de rééchantillonnage comme le bootstrap ou le subsampling s’avère être très utiles. Dans un premier temps, cet article montre comment améliorer l’inférence sur les efficacités grâce au subsampling et prouve qu’il n’est pas suffisant d’utiliser un estimateur d’efficacité robuste dans les méthodes de rééchantillonnage pour avoir une inférence qui soit fiable. C’est pourquoi, dans un second temps, cet article propose une méthode robuste de rééchantillonnage qui est adaptée au problème d’évaluation d’efficacité. <p>Finalement, le dernier chapitre est une application empirique. Plus précisément, cette analyse s’intéresse à l ‘efficacité des universités américaines publiques et privées au niveau de leur recherche. Des méthodes classiques et robustes sont utilisées afin de montrer comment tous les outils étudiés précédemment peuvent s’appliquer en pratique. En particulier, cette étude permet d’étudier l’impact sur l’efficacité des institutions américaines de certaines variables telles que l’enseignement, l’internationalisation ou la collaboration avec le monde de l’industrie.<p> / Doctorat en sciences, Orientation statistique / info:eu-repo/semantics/nonPublished
10

Impacts des dépôts d'azote atmosphérique sur la végétation des prairies acides du domaine atlantique français : approche comparative et expérimentale / The impacts of atmospheric nitrogen deposition on the vegetation of acid grasslands along the French Atlantic domain : Comparative and experimental approach

Gaudnik, Cassandre 06 December 2011 (has links)
Afin d’appréhender l’impact des dépôts d’azote atmosphérique sur les écosystèmes,nous nous sommes intéressés à un écosystème d’intérêt patrimonial : les prairies acides duViolion caninae. Au sein de ces prairies, les objectifs étaient de (i) quantifier les variationsfloristiques temporelles et spatiales le long du domaine atlantique français et de déterminer siles variables de dépôts d’azote et du climat expliquaient ces patrons, (ii) comprendre lesprocessus mis en jeu lors de l’enrichissement en azote au niveau de la végétation et du sol, et(iii) examiner les moyens potentiels de conservation et de restauration.L’étude temporelle et spatiale des prairies acides a permis de mettre en évidence deschangements de composition à l’échelle locale du type de communautés mais également àl’échelle nationale du domaine atlantique français. A l’échelle locale et nationale, ceschangements ont pu être reliés à des changements climatiques d’augmentation de latempérature annuelle moyenne et de diminution de la disponibilité en eau du sol. Toutefois àl’échelle locale, les plus forts changements de végétation ont été perçus pour les sites soumiségalement aux plus forts dépôts chroniques d’azote depuis les 25 dernières années. Ceschangements de composition se sont produits au détriment des espèces de petites tailles, tellesque des dicotylédones, alors que les Poacées généralistes se sont maintenues en dominant lecouvert végétal. Ces changements sont visibles dès 10-15 kg N ha-1 an-1, déterminé comme lacharge critique d’azote pour les prairies acides.L’approche expérimentale a permis de souligner les processus mis en jeu dans ceshabitats acides lors d’un apport d’azote. Notamment, l’enrichissement en azote n’entraineraitpas de compétition pour la lumière au sein de la végétation. Ce type de milieu, principalementdéfini par son caractère oligotrophe et sa faible capacité à neutraliser l’acidité du sol,semblerait donc essentiellement affecté par des mécanismes de toxicité de l’ammonium voired’acidification du milieu à long terme.Enfin, les moyens de restauration étudiés ont montré la difficulté de conserver et derestaurer de tels habitats potentiellement affectés par les dépôts d’azote. En effet, l’utilisationde fauches répétées avec exportation de la biomasse a montré son inutilité dans un systèmequi n’est pas influencé par la compétition pour la lumière. De même, l’étude des banques degraines a montré que ce pool d’espèces ne pouvait pas représenter le seul moyen deconservation des espèces caractéristiques. Ces résultats révèlent l’importance de conserver lesprairies acides existantes, principalement dans des sites soumis à de faibles dépôts ambiants. / To assess the impact of atmospheric nitrogen deposition on ecosystems, we werefocused on a patrimonial interest ecosystem: acid grasslands of Violion caninae. Within thesegrasslands, we aimed to (i) characterise temporal and spatial variation in plant speciescomposition along the French Atlantic domain and determine if nitrogen deposition andclimate variables could explain these patterns, (ii) understand processes underlined bynitrogen addition on vegetation and soil, and (iii) examine the potential conservation andrestoration ways.Temporal and spatial approach of acid grasslands brought to light changes in speciescomposition at local scale of community type but also at the national French Atlantic domainscale. At both local and national scale, these changes were linked to climate change withincrease of mean annual temperature and decrease of soil water availability. However at localscale, the most changes in species composition were experienced on sites with climate changeand also the highest chronic nitrogen deposition since the last 25 years. These changes inspecies composition occurred at the expense of short stature species like forbs whereasgrasses species were persistent and dominated vegetation. These changes are visible from 10-15 kg N ha-1 an-1, determined as the critical load for nitrogen in acid grasslands.The experiment allowed to highlight processes underlined in acid grasslands afternitrogen addition. In particular, nitrogen enrichment did not lead to light competition invegetation. These grasslands, mainly defined by poor-nutrient and low capacity to bufferacidity in soil, were essentially affected by ammonium toxicity or even acidification on thelong range.Finally, the study of conservation ways showed the difficulty to conserve and restorethe grasslands affected by nitrogen deposition. Indeed, more frequent cuttings with biomassremoval were useless in a system not influenced by light competition within vegetation. Thestudy of seed banks showed also that conservation ways could not be based just on seed banksto maintain characteristic species. These results highlight the importance to conserve theexisting acid grasslands, mostly in region with low ambient nitrogen deposition.

Page generated in 0.0698 seconds