• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 945
  • 444
  • 93
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1531
  • 381
  • 293
  • 274
  • 226
  • 202
  • 192
  • 179
  • 153
  • 147
  • 143
  • 142
  • 142
  • 139
  • 136
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Analyse du géoïde de séparation des sources pour la compréhension de l'organisation verticale des anomalies de masse dans le manteau / Geoid analysis and blind source separation for the undrstanding of the vertical organization of mass anomalies within the mantle

Grabkowiak, Alexia 21 February 2017 (has links)
Depuis le début des années 80, les progrès techniques permettent des estimations quantitatives des relations entre les structures internes de la Terre et sa forme. Des méthodes statistiques appliquées à un modèle tomographique de la Méditerranée permettent d’extraire 3 composantes qui capturent 70% de la variance des données. La première correspond à la réaction du manteau supérieur à la présence de lithosphère à 660 km, la seconde enregistre la réaction du manteau aux slabs subverticaux dans le manteau supérieur, la troisième capture les variations de vitesse sismiques du sommet des manteaux supérieur et inférieur. L’effet de ces 3 phénomènes sur le géoïde est modélisé en considérant : (i) Toutes les anomalies enregistrées par les données tomographiques constituent des sources d’anomalies. Leur effet est calculé en utilisant la gravito-visco-élasticité. Il semble que cette approche ne suffit pas à modéliser l’ensemble de la composante mantellique. (ii) les données tomographiques enregistrent les sources d’anomalies et tous les phénomènes de réajustement. En intégrant les anomalies de masses données par le modèle tomographique on obtient des structures détaillées qui surestiment la composante mantellique. (ii) Chaque composante isole des phénomènes du manteau liés à une source à laquelle est appliquée la théorie de la gravito-visco-élasticité. La composante mantellique obtenue est de longueur d'onde et amplitude compatibles avec le géoïde.La présence de calottes de lithosphère à la base de la zone de transition est susceptible d’être visible par le géoïde contrairement à la présence de slabs subverticaux dans le manteau supérieur / Progress made in seismic tomography and geodesy open the way to estimations of relations between the structures within the Earth and its shape. Applying statistical analysis to tomographic data of the mediterranean area, we extract 3 components that capture almost 70 % of the variance of the tomographic data : first one isolates the mantle reaction to lithospheric masses from the bottom of the transition zone, the second one is legated to subvertical lithsopheric slabs in the upper mantle, the third one corresponds to the tops of upper- and lower- mantle expression. Effect of these dynamics on the geoid has been modelized using considering that : (i) all the structures of the tomographic model are geoid anomaly sources, mantle component of the geoid is computed applying the gravito-visco-elasticity theory to take into account deflection of viscosity interfaces. This approach provides a smooth and low amplitude geoid mantle component. (ii) the tomographic model can register sources but also the all readjustment. Mantle component of the geoid is computed integrating anomalies of the model. It provides a detailled but too large with respect with the regional geoid mantle component. (iii) each component has capacity to isolate a phenomenon legated to a specific source of geoid anomalies. We applied gravito-visco-elastic theory specifically to it. That provides a mantle component detailled and that has a magnitude low enough with respect to the geoid.The presence of lithospheric caps on the bottom of the transition zone can be detected by the mantellic component of the geoid, but the geoid is not sensitive to subvertical slabs within the upper mantle
192

Utilisation d'information auxiliaire en théorie des sondages à l'étape de l'échantillonnage et à l'étape de l'estimation / Use of auxiliary information in survey sampling at the sampling stage and the estimation stage

Lesage, Éric 31 October 2013 (has links)
Cette thèse est consacrée à l'utilisation d'information auxiliaire en théorie des sondages à l'étape de l'échantillonnage et à l'étape de l'estimation. Dans le chapitre 2, on donne une présentation des principales notions de la théorie des sondages. Au chapitre 3, on propose une extension de la famille des estimateurs par calage reposant sur l'emploi de paramètres de calage complexes. Au chapitre 4 et 5, on s'intéresse à la correction simultanée des erreurs d'échantillonnage et de non-réponse au moyen d'un calage unique. On montre qu'en dépit du fait que le calage n'utilise pas explicitement les probabilités de réponse, il est nécessaire d'écrire le modèle de réponse afin de choisir correctement la fonction de calage. A défaut, on s'expose à des estimateurs biaisés dont le biais peut dépasser le biais de l'estimateur non-ajusté. En particulier, dans le cas du calage généralisé, la variance et le biais sont amplifiés pour des variables de calage faiblement corrélées aux variables instrumentales. Au chapitre 6, on montre qu'une approche conditionnelle, par rapport au plan de sondage, permet de construire des estimateurs plus robustes aux valeurs extrêmes et aux "sauteurs de strates". Au chapitre 7, on met en évidence que la méthode du tirage réjectif de Fuller conduit un estimateur par la régression qui peut être biaisé lorsque la variable d'intérêt ne suit pas un modèle de régression linéaire en fonction des variables d'équilibrage. / This thesis is devoted to the use of auxiliary information in sampling theory at the sampling stage and estimation stage. In Chapter 2, we give an overview of the key concepts of sampling theory. In Chapter 3, we propose an extension of the family of calibration estimators based on the use of complex parameters. In Chapter 4 and 5, we are interested in the simultaneous correction of sampling errors and nonresponse using a single calibration. It shows that despite the fact that the calibration does not explicitly use the response probabilities, it is necessary to write the response model to correctly select the calibration function. Otherwise, we run the risk of biased estimators whose bias can exceed the bias of the unadjusted estimator. In particular, in the case of generalized calibration, the variance and bias are amplified for calibration variables weakly correlated with the instrumental variables. In Chapter 6, we show that a conditional approach, based on the design, leads to estimators more robust to outliers and "jumpers strata. In Chapter 7, we highlight that the Fuller rejective sampling yield to a regression estimator which can be biased when the variable of interest does not follow a linear regression with the balancing variables.
193

Une étude didactique sur l'introduction dans l'enseignement mathématique vietnamien de notions statistiques dans leurs liens avec les probabilités

Vu Nhu, Thu Huong 01 September 2009 (has links) (PDF)
L'étude didactique porte sur l'enseignement secondaire vietnamien des statistiques dans ses liens potentiels avec les concepts de probabilité. Elle part de deux constats, le premier de nature épistémologique et le second de nature didactique :<br />- il existe un corpus des savoirs en statistique inférentielle qui caractérise mathématiquement les liens entre statistiques et probabilités <br />- les deux systèmes d'enseignement, vietnamien et français diffèrent profondément puisque statistiques et probabilités sont enseignées séparément au Vietnam et ces savoirs sont absents des programmes alors qu'en France plusieurs réformes récentes ont inscrit dans les programmes certains de ces savoirs au travers de notions comme la fluctuation d'échantillonnage ou l'adéquation d'une distribution statistique à une loi probabiliste. <br />L'articulation d'une analyse épistémologique et d'une analyse institutionnelle développe la problématique de l'étude dans deux questions successives : quel effet a la coupure constatée entre statistiques et probabilités sur le rapport institutionnel à des « objets-candidats pour les liens statistiques-probabilités » au Vietnam aussi bien du côté enseignant que du côté élève ? Est-il possible de faire vivre dans les conditions actuelles de l'enseignement vietnamien quelques uns de ces objets-candidats ? Chacune des questions est travaillée via un dispositif expérimental : la première à travers un questionnaire aux élèves et aux enseignants vietnamiens et la seconde dans une ingénierie didactique réalisée dans une classe de lycée vietnamien.
194

Le Calcul du Gradient d'Erreur dans les Réseaux de Neurones : Applications aux Telecom et aux Sciences Environnementales

Aussem, Alexandre 19 December 2002 (has links) (PDF)
Document de 180 pages décrivant en détail les techniques de descente du gradient dans les réseaux de neurones récurrents.
195

Auto-évaluation et autocorrection dans l'enseignement des mathématiques et de la statistique <br />Entre praxéologie et épistémologie scolaire

Regnier, Jean-Claude 13 December 2000 (has links) (PDF)
Investi depuis 1972 dans une conception pédagogique de l'enseignement des mathématiques et de la statistique orientée par la philosophie éducative de la pédagogie Freinet, nous n'avons eu de cesse de questionner, chaque année scolaire ou universitaire davantage, notre action d'enseigner. Dès cette époque, pour enseigner les mathématiques et la statistique en lycée, nous avons tenté, de manière relativement pionnière, d'organiser des dispositifs pédagogiques qui intégraient les techniques et les instruments de la pédagogie Freinet. Ce travail pédagogique fut réalisé dans une permanente interaction, à la fois, avec les groupes d'étude de l'I.C.E.M. (Institut Coopératif de l'École Moderne), avec ceux des I.R.E.M. (Institut de Recherche sur l'Enseignement des Mathématiques) et enfin ceux qui, dans le cadre universitaire, étaient rattachés au champ de la didactique des mathématiques <br />L'organisation coopérative de la classe que nous proposions, visait à prendre en charge le développement de l'autonomie du sujet apprenant, au sein d'une communauté éducative (la classe) dans le contexte complexe d'un établissement scolaire (le lycée). Les dispositifs pédagogiques s'appuyaient sur des instruments tels que le journal de classe, le débat, les plans et bilans de travail, la réunion coopérative, la libre recherche mathématique et les documents autocorrectifs et auto-évaluatifs, que nous étions appropriés et que nous tentions d'adapter aux spécificités de l'enseignement des mathématiques et de la statistique en lycée.<br />Dans notre quête de compréhension de ce phénomène d'enseignement-apprentissage, la question de l'autocorrection et l'auto-évaluation en mathématiques et en statistique en lycée constitua notre principal axe d'investigation. C'est sur cette thématique que nous avons construit notre problématique de thèse de doctorat de 3ème cycle de didactique des mathématiques, dirigée par le Pr Georges Glaeser et soutenue à l'ULP de Strasbourg le 4 juillet 1983 sur le sujet de l'étude didactique d'un test autocorrectif en trigonométrie.<br />Nous avons alors poursuivi nos recherches et études en nous centrant à la fois sur la question de l'auto-évaluation et celle de l'apprentissage fondé sur le tâtonnement expérimental de l'apprenant, dans l'enseignement des mathématiques et de la statistique en lycée puis à l'université.<br />La reconstruction de notre parcours intellectuel à laquelle nous a amené l'écriture de la note de synthèse, a fait ressortir une thématique forte intégrant ces questions. Il s'agit de celle de l'instrumentation et de l'autonomisation du sujet apprenant, processus que l'enseignant cherche à stimuler par son action d'enseignement. Toutefois, le titre ne les désigne pas directement, mais il vise à attirer l'attention sur les processus d'autocorrection et d'auto-évaluation, un des points forts de notre ingénierie pédagogique . Dans une certaine mesure, les questions sous-jacentes furent : Comment dans les contextes scolaire et universitaire, l'enseignant peut-il agir pour permettre au sujet à la fois d'apprendre les contenus qu'il a désignés, et de développer son autonomie à l'égard du maître ou de ses substituts dans l'acte même d'apprendre les mathématiques et la statistique ? Pourquoi et dans quel but cherche-t-il à agir ainsi ? Ces questions se fondent sur de nombreux facteurs que nous avons cherché à expliciter. L'un d'eux repose sur le parti pris que le maître a un rôle à jouer dans le faire apprendre, et que cette part du maître est aussi à chercher dans le guidage et dans l'accompagnement. Qui plus est, nous plaçons la question de l'autonomie du sujet apprenant dans une finalité éducative des formations en mathématiques et en statistique que nous désignons par éducation mathématique et éducation statistique.<br />Les sujets avec lesquels nous avons travaillé, sont des adolescents et des adultes, c'est à dire des sujets ayant déjà parcouru une longue histoire personnelle de plus d'une quinzaine d'années. Pour ceux-ci, la conception piagétienne des stades conduirait à postuler l'accomplissement de leur développement mental au stade supérieur de la maîtrise des opérations formelles.<br />Notre conduite de praticien-chercheur fut d'une certaine façon déterminée par un paradigme selon lequel (de Peretti 1982) « la recherche-action et l'analyse des pratiques impliquent de lier constamment la formation au terrain professionnel : il faut envisager la formation des enseignants et de leurs formateurs selon un axe qui relie fortement la théorie à la pratique, à la recherche, à la didactique des disciplines et au vécu des élèves, dans un va-et-vient où le terrain nourrit la théorie et où l'élaboration théorique éclaire le travail sur le terrain » Nous présentons notre propos en deux temps. <br />Le premier est centré sur un itinéraire intellectuel entre la conviction militante de l'enseignant et le doute scientifique du chercheur dans le champ de l'enseignement des mathématiques et de la statistique, préoccupé des questions liées à l'autocorrection, l'auto-évaluation, l'instrumentation, la conceptualisation et l'autonomisation.<br />Le second est articulé :<br />• rétrospectivement, sur une thématique intégrant les questions précédentes et la préoccupation du praticien et du chercheur, à savoir celle de la formation à et par l'autonomie des sujets apprenants en mathématiques et en statistique dans les contextes scolaire et universitaire, conçue comme une opérationnalisation pédagogique et didactique des processus d'instrumentation, de conceptualisation et d'autonomisation. <br />• prospectivement, sur un questionnement ouvert sur la contribution au développement de deux domaines connexes, à savoir celui de la pédagogie et de la didactique de la statistique, et celui des nouvelles technologies de l'information et de la communication appliquées à la formation, à l'éducation et à la recherche dans le domaine des sciences de l'éducation, en ce qu'elles fournissent des instruments d'aide à l'analyse, au traitement et à l'interprétation des informations, mais aussi en ce qu'elles sont à la fois des objets et des instruments de formation et d'éducation.<br /><br />Enfant, né quelque part... , nous avons parcouru un chemin qui nous a conduit vers l'enseignant-chercheur dont Jean-Claude Gillet, dans une approche praxéologique, parle en ces termes (Gillet 1998b p.27) « un professionnel de la formation et de la recherche universitaire amené à prendre des décisions multiples pour construire un modèle pédagogique qui intègre pensée et action, valeurs et intentions, sens et efficacité, acteur au service d'autres acteurs, les sujets en formation qui seront (sont) eux aussi à leur tour amenés à prendre des décisions, à les penser ... »<br />A posteriori, notre conduite d'enseignant s'est progressivement inscrite dans un schéma proche de celui décrit par Donald A. Schön, (Schön 1994 p.94) « Quand quelqu'un réfléchit sur l'action, il devient un chercheur dans un contexte de pratique. Il ne dépend pas des catégories découlant d'une théorie et d'une technique préétablies mais il édifie une nouvelle théorie du cas particulier. Sa recherche ne se limite pas à une délibération sur les moyens qui dépendent d'un accord préalable sur les fins. Il ne maintient aucune séparation entre la fin et les moyens, mais définit plutôt ceux-ci, de façon interactive, à mesure qu'il structure une situation problématique. Il ne sépare pas la réflexion de l'action, il ne ratiocine pas pour prendre une décision qu'il lui faudra plus tard convertir en action. Puisque son expérimentation est une forme d'action, sa mise en pratique est inhérente à sa recherche. Ainsi la réflexion en cours d'action et sur l'action peut continuer de se faire même dans des situations d'incertitude ou de singularité, parce que cette réflexion n'obéit pas aux contraintes des dichotomies de la science appliquée . » <br />Questionner notre action d'enseigner a requis l'inscription de nos thématiques et problématiques dans le champ de la didactique des mathématiques et de la statistique ainsi que dans celui de la pédagogie, dans la mesure où comme l'écrivent Michel Develay et Jean-Pierre Astolfi (Astolfi, JP, Develay, M. 1989) « La réflexion didactique permet (...) de traduire en actes pédagogiques une intention éducative. (...) L'enseignant [est] alors un éternel artisan de génie qui doit contextualiser les outils que lui propose la recherche en didactique en fonction des conditions de ses pratiques . »<br />Ce questionnement nous entraîna vers une profusion de notions pour expliciter notre praxis. Nonobstant, dès le début, les notions d'autocorrection, d'auto-évaluation et d'apprentissage fondé sur le tâtonnement expérimental émergèrent et constituèrent les principaux objets de nos recherches. Les résultats qui sortirent de nos investigations, apportèrent quelques éclairages dans le cadre de la didactique et de la pédagogie des mathématiques et de la statistique. Nous avons explicité un modèle d'organisation d'une séquence d'enseignement-apprentissage intégrant en particulier ces processus, ainsi que notre instrument d'analyse des situations d'enseignement-apprentissage que nous nommons le triangle pédagogico-didactique complexifié. Nous avons essayé de mieux cerner les notions d'esprit statistique et d'éducation statistique en rapport aux instruments intellectuels visés par l'enseignement et dont l'interprétation statistique en constitue un point fort.<br />Après-coup nous avons pu systématiser ces notions en les emboîtant à la façon des poupées gigognes et de manière intégrative, autour d'un pôle constitué par l'autonomie du sujet apprenant. Pour en rendre compte, nous recourons au schéma suivant qui replace le processus d'autonomisation et l'autonomie du sujet comme une finalité de l'élévation des niveaux de conceptualisation et de formation dans le domaine des mathématiques et de la statistique que nous avons présenté.<br /> <br />Figure : De la formation en statistique à l'autonomie du sujet<br />Certes nous mesurons combien de questions dont l'ancrage est tout banalement dans la situation habituelle de l'enseignement des mathématiques et de la statistique, demeurent en suspens. <br />Nous avons tenté de situer nos travaux d'étude à la fois dans une approche praxéologique de l'action d'enseigner, et dans celle d'une épistémologie des savoirs scolaires constitués par les mathématiques et la statistique, pour mieux comprendre les enjeux d'une formation à et par l'autonomie des sujets apprenants dans les contextes scolaire et universitaire en mathématiques et statistique et les obstacles à surmonter tant du point de vue de l'enseignant que de celui de l'apprenant.<br />Nous avons aussi essayé de montrer comment dans notre conception de l'enseignement et de la formation en mathématiques et en statistique pour des étudiants de sciences de l'éducation ont ré-émergé les (N).T.I.C. <br />Certes, nous avons conscience de l'extrême modestie de notre apport à la compréhension et à l'instrumentation de l'action d'enseigner, centrée sur l'autonomisation du sujet apprenant en milieu scolaire ou universitaire. Néanmoins, nous souhaitons que nos réflexions puissent susciter des travaux de recherche, dans le cadre des sciences de l'éducation, dont l'ambition soit de contribuer au progrès de la connaissance relative à l'enseignement des mathématiques et de la statistique.
196

Determination du rôle de certaines peptidases bacteriennes par inference a partir de donnees heterogenes et incompletes

López Kleine, Liliana 07 October 2008 (has links) (PDF)
La détermination du rôle des protéines est à l'origine de la plupart des études biologiques. Elle est encore plus d'actualité depuis l'avènement du séquençage des génomes qui fournit des protéines de rôle inconnu en grande quantité. Le séquençage de nouveaux génomes a permis, par ailleurs, l'obtention de données post-génomiques à haut débit comme les données transciptomique. Il a permis également la construction de données comme les profils phylogénétiques. L'approche que nous avons utilisée, mêlant statistiques et biologie, intègre ces données post-génomiques pour prédire puis valider le rôle de protéines protéolytiques chez Lactococcus lactis. Nous avons procédé en trois étapes réalisant, dans un premier temps, une inférence statistique des liens prédits entre protéines du lactocoque basée sur cinq sources de données distinctes : le graphe des voies métaboliques, des données transcriptomiques, des profils phylogénétiques, des distances entre gènes en paires de bases et des données protéomiques issues de gels 2D. Ces liens nous ont permis de émettre des hypothèses biologiques sur le rôle de protéines cibles. Dans un deuxième temps, nous avons réalisé des expériences de laboratoire pour valider les prédictions comparant la souche sauvage aux mutants de délétion de PepF et YvjB. La troisième étape de ce travail a consisté à réaliser une analyse de sensibilité dans le but de souligner les données qui ont contribuées le plus aux prédictions et de trouver un sous-ensemble de données aboutissant aux mêmes prédictions. Appliquée à deux enzymes protéolytiques potentielles du lactocoque, PepF et YvjB, cette approche nous a permis de vérifier leur participation dans l'export de protéines telle qu'elle avait été prédite par l'analyse statistique. Nous avons montré que PepF participe à l'export de protéines libérées dans le milieu extérieur (protéines sécrétées) en hydrolysant le peptide signal libéré par la signal peptidase I. PepF participe par ailleurs aussi à la synthèse de la paroi cellulaire et au métabolisme du pyruvate, fonctions aussi prédites par l'analyse statistique. YvjB participe à la mise en place et la maturation d'un autre groupe de protéines exportées, les lipoprotéines. Elle est nécessaire pour la localisation correcte de certaines lipoprotéines et participe au clivage de leur peptide signal. Notre approche s'est avérée très utile dans la mesure où elle permet d'émettre des hypothèses biologiques qui guident les validations expérimentales. Par ailleurs, cette démarche est applicable à tout organisme entièrement séquencé pour lequel suffisamment de données post-génomiques sont disponibles.
197

Performances statistiques de méthodes à noyaux

Loustau, Sébastien 28 November 2008 (has links) (PDF)
Cette thèse se concentre sur le modèle de classification binaire. Etant donné $n$ couples de variables aléatoires indépendantes et identiquement distribuées (i.i.d.) $(X_i,Y_i)$, $i=1,\ldots ,n$ de loi $P$, on cherche à prédire la classe $Y\in\{-1,+1\}$ d'une nouvelle entrée $X$ où $(X,Y)$ est de loi $P$. La règle de Bayes, notée $f^*$, minimise l'erreur de généralisation $R(f)=P(f(X)\not=Y)$. Un algorithme de classification doit s'approcher de la règle de Bayes. Cette thèse suit deux axes : établir des vitesses de convergence vers la règle de Bayes et proposer des procédures adaptatives.<br /><br />Les méthodes de régularisation ont montrées leurs intérêts pour résoudre des problèmes de classification. L'algorithme des Machines à Vecteurs de Support (SVM) est aujourd'hui le représentant le plus populaire. Dans un premier temps, cette thèse étudie les performances statistiques de cet algorithme, et considère le problème d'adaptation à la marge et à la complexité. On étend ces résultats à une nouvelle procédure de minimisation de risque empirique pénalisée sur les espaces de Besov. Enfin la dernière partie se concentre sur une nouvelle procédure de sélection de modèles : la minimisation de l'enveloppe du risque (RHM). Introduite par L.Cavalier et Y.Golubev dans le cadre des problèmes inverses, on cherche à l'appliquer au contexte de la classification.
198

Résolution et modélisation chimiométrique en spectroscopie moléculaire

Ruckebusch, Cyril 09 June 2008 (has links) (PDF)
Cette Habilitation à Diriger des Recherches présente les concepts et développements en chimiométrie pour la description, la résolution ou la modélisation des données des systèmes physico-chimiques étudiés par spectroscopie moléculaire. Les algorithmes de chimiométrie seront d'abord redéfinis dans un contexte mathématique et<br />statistique pour justifier l'utilisation qui en est faite en spectroscopie. L'accent sera mis ensuite sur les travaux de recherche et les activités de valorisation autour des deux axes suivants :<br /><br />- l'analyse des systèmes chimiques et physico-chimiques évolutifs, tels que les processus réactionnels photoinduits. L'idée est la description des données spectro-cinétiques par un modèle de structure algébrique bilinéaire, le problème consistant à estimer les contributions cinétiques et spectrales des constituants purs du système chimique. Nous montrons l'intérêt des méthodes multivariées de résolution de courbes pour l'analyse globale des données des systèmes multi-expériences et pour l'intégration d'informations physico-chimiques lors de la résolution. Le résultat<br />est une description adaptée et robuste des données permettant la caractérisation moléculaire des espèces transitoires inconnues. Nous envisageons également les développements vers les méthodes hybrides ou semiparamétriques, en lien avec les approches statistiques développées en traitement du signal.<br /><br />- l'analyse qualitative ou quantitative d'échantillons complexes, multi-composants et soumis à de nombreux facteurs d'influence, tels que les échantillons naturels ou manufacturés. L'idée est la modélisation d'une grandeur obtenue par une méthode de référence à partir d‘observations spectroscopiques des échantillons. L'objectif du modèle construit est la prédiction de cette grandeur lors d'observations ultérieures, pour bénéficier des caractéristiques métrologiques des techniques de spectroscopie. Nous montrons le potentiel des méthodes issues de l'apprentissage statistique. Les développements sont liés à l'écriture de termes de pénalisation de l'erreur empirique, notamment pour le contrôle de la complexité des modèles. Nous insistons sur les méthodes non-paramétriques telles que les machines à vecteurs de support à fonctions noyaux, pour nos applications en spectroscopie, lorsque la dimension des données est problématique.
199

Sur l'estimation adaptative de fonctions anisotropes

Nicolas, Klutchnikoff 14 December 2005 (has links) (PDF)
Cette thèse est consacrée à l'étude de problèmes statistiques d'estimation non paramétrique. Un signal bruité multidimensionnel est observé (par exemple une image dans le cas de la dimension deux) et nous nous fixons l'objectif de le reconstruire \emph{au mieux}.<br /><br />Pour réaliser ce but, nous nous plaçons dans le cadre de la théorie adaptative au sens minimax : nous cherchons un seul estimateur qui atteint simultanément sur chaque espace fonctionnel d'une collection la <>.<br /><br />Nous donnons un nouveau critère pour choisir une famille de normalisations optimale. Ce critère est plus sophistiqué que ceux introduits par Lepski (1991) puis Tsybakov (1998) et est mieux adapté au cas multidimensionnel.<br /><br />Ensuite, nous donnons deux résultats adaptatifs (en estimation ponctuelle) par rapport à deux collections différentes d'espaces de H
200

Construction d'un intervalle de confiance par la méthode bootstrap et test de permutation

Dragieva, Nataliya January 2008 (has links) (PDF)
Ce mémoire traite d'une application pratique de deux méthodes statistiques non paramétriques : le bootstrap et le test de permutation. La méthode du bootstrap a été proposée par Bradley Efron (1979) comme une alternative aux modèles mathématiques traditionnels dans des problèmes d'inférence complexe; celle-ci fournit plusieurs avantages sur les méthodes d'inférence traditionnelles. L'idée du test de permutation est apparue au début du XXème siècle dans les travaux de Neyman, Fisher et Pitman. Le test de permutation, très intensif quant au temps de calcul, est utilisé pour construire une distribution empirique de la statistique de test sous une hypothèse afin de la comparer avec la distribution de la même statistique sous l'hypothèse alternative. Notre objectif est de déterminer l'intervalle de confiance pour un estimateur à maximum de vraisemblance d'une méthode de cartographie génétique existante (MapArg, Larribe et al. 2002) et de tester la qualité de cet estimateur, c'est-à-dire d'établir des seuils de signification pour la fonction de la vraisemblance. Les deux méthodes utilisent le calcul répétitif d'une même statistique de test sur des échantillons obtenus à partir de l'échantillon initial, soit avec le «bootstrap», soit avec des permutations. Dans un test d'hypothèse, les deux méthodes sont complémentaires. Le but de ce mémoire est de proposer différentes variantes pour la construction de l'intervalle de confiance, et de tester des hypothèses distinctes, afin de trouver la meilleure solution adaptée pour la méthode MapArg. Pour faciliter la compréhension des décisions prises, un rappel de l'inférence statistique et des tests d' hypothèse est fait dans les chapitres 4 et 5 où la théorie du bootstrap et celle de test de permutation sont présentées. Comme les qualités d'un estimateur dépendent de la méthode utilisée pour le calculer, les chapitres 1 et 2 présentent la base biologique et la base en mathématiques sur lesquelles la méthode MapArg est construite, tandis qu'on trouvera dans le chapitre 3 une explication de la méthode MapArg. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Mutation, Recombinaison, Coalescence, Cartographie génétique, «Bootstrap», Test de permutation.

Page generated in 0.0977 seconds