321 |
Etude statistique des corrélations dans la distribution des galaxies - application aux oscillations baryoniques acoustiquesLabatie, Antoine 13 December 2012 (has links) (PDF)
Les Oscillations Baryoniques Acoustiques (BAOs) correspondent au phénomène d'ondes acoustiques dans le plasma baryon-photon avant la recombinaison. Ces oscillations impriment une échelle standard, correspondant à l'horizon sonique, qui peut être observée dans les grandes structures de l'Univers. De par cette propriété d'étalon standard, les BAOs permettent d'étudier la relation distance-redshift dans les catalogues de galaxies et fournissent un outil très prometteur pour étudier les propriétés de l'énergie sombre. Les BAOs peuvent être étudiés à partir des statistiques du second ordre (la fonction de corrélation ou le spectre de puissance) dans la distribution des galaxies. Dans cette thèse, on se restreint au cas de la fonction de corrélation. Les BAOs apparaissent dans la fonction de corrélation comme un faible pic à l'échelle de l'horizon sonique. Il y a deux applications principales des BAOs: la détection des BAOs et la contraintes des paramètres cosmologiques grâce à la propriété d'étalon standard. La détection du pic BAO à une échelle proche de l'échelle attendue permet de confirmer le modèle cosmologique actuel. Quant à la contrainte des paramètres cosmologiques, permettant d'étudier l'énergie sombre, il s'agit d'un objectif majeur de la cosmologie moderne. Dans cette thèse, on s'intéresse à différents problèmes statistiques concernant l'étude de la fonction de corrélation dans la distribution des galaxies, avec un accent particulier sur l'étude des BAOs. Dans la première partie, on fait une étude à la fois théorique et pratique du biais dû à la contrainte intégrale dans les estimateurs de la fonction de corrélation. On montre que ce biais est très faible pour les relevés de galaxies actuels. Dans la seconde partie, on s'intéresse à la détection des BAOs. On montre les limitations de la méthode de détection classique, et on propose une nouvelle méthode plus rigoureuse. Notre méthode permet notamment de prendre en compte la dépendance de la matrice de la covariance de l'estimateur en fonction du modèle. Enfin dans la troisième partie, on étudie à nouveau la question la dépendance de la matrice de la covariance, cette fois pour la contrainte des paramètres cosmologiques. On estime une matrice de covariance dépendant du modèle et l'on compare nos contraintes avec les contraintes obtenues en faisant l'approximation habituelle d'une matrice de covariance constante. On montre que l'effet de cette approximation est relativement faible et diminue lorsque les relevés de galaxies grandissent.
|
322 |
Méthodes socio-statistiques pour l'aide à la décision en milieu industriel : Application à la gestion des capacités d'un système d'information en industrie micro-électroniqueLutz, Michel 14 May 2013 (has links) (PDF)
Les données industrielles offrent un matériau pour la prise de décision. Les travaux présentés concernent la transformation de données brutes en connaissances, pour contribuer au système de connaissances d'une organisation et améliorer son système décisionnel. Un processus d'aide à la décision est proposé. Il implique les acteurs de l'organisation et l'emploi de méthodes formelles. D'abord, il analyse et formalise les problématiques décisionnelles. Ensuite, il construit une aide la décision quantitative. Cette méthodologie est appliquée à un problème particulier : la gestion des capacités des TI d'une usine de STMicroelectronics. En effet, les managers doivent assurer un équilibre entre le coût de l'infrastructure TI et le niveau de service offert. Notre processus offre une aide pertinente. Il permet de surmonter deux enjeux, fréquents lors de la gestion des capacités : la complexité des systèmes IT et la prise en compte de l'activité métier. Situant ces travaux dans le cadre du référentiel ITIL, l'application du processus permet de constituer des modèles prédictifs, mettant en relation l'activité des serveurs informatiques et l'activité industrielle. Cette application permet aussi de contrôler dynamiquement la validité des modèles, ainsi que l'activité quotidienne du SI. Nos travaux formalisent quantitativement des connaissances, en favorisent l'utilisation dans les processus décisionnels, et en assurent l'évolution dans le temps. Nos recherches posent des fondations pour un plus large recours plus à l'exploitation des données issues des systèmes de production, dans le cadre du développement de systèmes de support à la décision et de perspectives Big Data.
|
323 |
Nouvelle gestion publique et production de l'objectivité à Statistique Canada (1985-2008)Dionne, Francis 09 1900 (has links) (PDF)
À l'ère du projet de société de l'information entrepris par les pays capitalistes avancés, l'économie est dominée par le travail informationnel. Dès lors, l'information et le savoir prennent la forme de marchandises. Comme l'entreprise dans l'économie mondialisée, les institutions étatiques sont encouragées à s'organiser en réseaux décentralisés, interconnectés, afin de faire circuler l'information de façon efficace. Les pratiques et discours du néo-management propres au secteur privé sont adoptés par l'État néolibéral sous le nom de Nouvelle Gestion Publique. L'État adopte en son sein des mécanismes de marché, il se met en spectacle, les pratiques de branding sont adoptées, et le citoyen est de plus en plus considéré comme un client. Dans ce contexte caractérisé par un besoin croissant d'information et par la montée en importance des corps non-élus participant à une nouvelle séparation des pouvoirs dans les démocraties, entre collecteurs d'informations empiriques non élus et émetteurs de jugements éthiques, sociaux et politiques élus, il nous semble pertinent de nous intéresser aux systèmes statistiques nationaux, en tant que sources d'expertise « indépendantes » dans la production et la diffusion d'informations quantifiées au service du débat démocratique (revendication de politiques publiques, critique des politiques existantes ou de leur mise en œuvre), et en tant qu'organes fondamentaux au fonctionnement de l'État. Afin de ne pas négliger les différences nationales qui existent entre les différents systèmes statistiques, nous nous penchons sur le cas de Statistique Canada. À la fin de 1984, à la suite du rapport du groupe de travail Nielsen sur l'examen des programmes, le gouvernement conservateur de Brian Mulroney décide de couper dans les dépenses de l'État et annonce que le recensement de 1986 n'aura pas lieu. Statistique Canada, soutenu par plusieurs acteurs concernés, réitère la pertinence du recensement et promet de le faire en gérant lui-même la réduction des dépenses et du personnel. Le mandat du nouveau statisticien en chef, Ivan Fellegi, débute et est caractérisé par l'adoption de principes inspirées de la Nouvelle Gestion publique qui répondent en partie aux coupes budgétaires gouvernementales. Trois pratiques inspirées de la Nouvelle Gestion publique appliquées au cours de la période étudiée sont retenues dans le cadre de notre mémoire : la gouvernance en réseau, la redéfinition des critères de qualité de l'information, et la commercialisation des produits d'information et des services du bureau statistique. L'objectif de cette recherche est de cerner en quoi l'adoption des pratiques inspirées de la Nouvelle gestion publique par le bureau statistique exerce une influence, si tel est le cas, sur la nature de l'information produite. De plus, nous voulons savoir si l'indépendance et les fonctions essentielles du bureau canadien de la statistique sont remises en question par de telles pratiques. La diversification et la commercialisation des demandes tendent à soumettre le critère de pertinence de l'information aux objectifs d'efficacité et de rentabilité des différents ministères et du secteur privé. Un rapprochement s'effectue entre les systèmes de données et l'application des politiques néolibérales. Enfin, l'harmonisation internationale des données, des systèmes de classification, des concepts et des définitions semblent s'effectuer en lien avec le processus de mondialisation de l'économie capitaliste. Sans que l'indépendance scientifique ne soit directement touchée par les pressions politiques et l'adoption de principes néo-managériaux, le contenu des enquêtes, le programme statistique et les fonctions essentielles du Bureau sont, eux, directement influencés.
______________________________________________________________________________
|
324 |
Méthodes bayesiennes pour l'estimation de l'histoire démographique et de la pression de sélection à partir de la structure génétique des populations.Foll, Matthieu 21 December 2007 (has links) (PDF)
Les récents progrès, dans les domaines de la biologie computationnelle et des techniques de biologie moléculaire, ont conduit à l'émergence d'une nouvelle discipline appelée génomique des populations, et dont l'un des objectifs principaux est l'étude de la structure spatiale de la diversité génétique. Cette structure est déterminée à la fois par des forces neutres, comme la migration et la dérive, et des forces adaptatives comme la sélection naturelle, et trouve des applications importantes dans de nombreux domaines comme la génétique médicale ou la biologie de la conservation. Nous développons ici de nouvelles méthodes statistiques pour évaluer le rôle de la sélection naturelle et de l'environnement dans cette structure spatiale. Le modèle bayésien Dirichlet-multinomial de différenciation génétique est utilisé comme base à ces différentes méthodes. Dans un premier temps, nous proposons d'inclure des variables environnementales dans l'estimation de la structure génétique afin d'identifier les facteurs biotiques et abiotiques qui la déterminent. Ensuite, nous étudions la possibilité d'étendre le modèle Dirichlet-multinomial aux marqueurs dominants, devenus très populaires ces dernières années, mais affectés par différents biais de recrutement. Enfin, nous cherchons à séparer les effets neutres des effets de la sélection naturelle, afin, en particulier, d'identifier les régions du génome qui y sont soumis. Trois bases de données ont été analysées pour illustrer l'utilisation de ces nouvelles méthodes : des données humaines, des données de l'arganier du Maroc et des données de littorine. Finalement, nous avons développé trois logiciels implémentant ces différents modèles.
|
325 |
Etude de certains problèmes de décision dans les structures statistiques Gaussiennes infinidimensionnellesAntoniadis, Anestis 16 June 1983 (has links) (PDF)
Ce travail se place dans le cadre de la statistique infinidimensionnelle . Par généralisation en dimension quelconque de certaines méthodes d'analyse multidimensionnelle classique il fournit des solutions satisfaisantes pour des problèmes de décision concernant la moyenne de certains processus gaussiens.<br /><br />La première partie est consacrée à l'étude de tests<br />quadratiques d' hypothèses linéaires et à l'extension en dimension infinie du modèle I d' analyse de la variance.<br /><br />Dans la deuxième partie - les aspects probabilistes d'un modèle mathématique pour la réponse en potentiel d'un neurone sont étudiés et une application de l'analyse de la variance est développée.<br /><br />Enfin le dernier chapitre aborde les problèmes de calcul effectif des régions critiques des tests utilisés .
|
326 |
Contribution à la caractérisation multi-échelle de l'anisotropie des images texturéesGermain, Christian 17 December 1997 (has links) (PDF)
Ce travail est consacré à la caractérisation de l'anisotropie des images. Pour y parvenir, il est établi que, dans le cas de textures complexes, la mesure de l'orientation dominante comme celle de l'anisotropie dépendent fortement de l'échelle à laquelle la texture a été observée.<br />Le premier chapitre définit la notion de texture et celle d'échelle d'observation. Les différentes approches de caractérisation texturale existantes sont présentées et leur aptitude à rendre compte des phénomènes directionnels à différentes échelles d'observation est évaluée.<br />Le second chapitre présente les méthodes les plus courantes pour l'estimation de l'orientation dominante d'une texture. Un indicateur local est ensuite proposé : le Vecteur Directionnel Moyen. Il s'appuie sur des caractéristiques locales et peut être calculé à toute échelle d'observation. Ses performances sont étudiées sur des images de synthèse et sur des textures naturelles.<br />Le troisième chapitre introduit un nouvel indicateur d'anisotropie nommé Iso. Il est basé sur le calcul des différences locales des Vecteurs Directionnels Moyens obtenus à une échelle donnée. Ses performances sont comparées à celles des estimateurs classiques de dispersion directionnelle.<br />Le dernier chapitre est consacré à l'évaluation de l'anisotropie de textures complexes (microscopiques et macroscopiques) en fonction de l'échelle d'observation. Un modèle de texture complexe est construit et le comportement de l'indicateur Iso sur ce modèle est établi. L'indicateur est ensuite appliqué à la caractérisation de textures naturelles et de synthèse. Il est ensuite montré que l'évolution de cet indicateur en fonction de l'échelle d'observation fournit une courbe qui caractérise à la fois l'anisotropie de la texture traitée ainsi que la taille des différentes primitives texturales microscopiques et macroscopiques formant cette texture. L'indicateur Iso , calculé à différentes échelles, est appliqué à des textures synthétiques, à des textures de l'album de Brodatz ainsi qu'à des images de matériaux composites observés par microscopie électronique à transmission.
|
327 |
Aspects statistiques de la stabilité en dynamique des populations : application au modèle de Usher en foresterie.Zetlaoui, Mélanie 07 December 2006 (has links) (PDF)
Le modèle de Usher est un modèle matriciel qui décrit l'évolution en temps discret d'une population<br />structurée par taille et qui restreint les transitions entre les classes d'état. Il est particulièrement<br />adapté pour décrire la dynamique d'un peuplement forestier et sert de guide dans la gestion des<br />forêts. Cette étude porte sur les prédictions dans l'état stationnaire du modèle. L'objectif principal<br />est la construction d'intervalles de confiance de ces prédictions. Dans un premier temps, des<br />intervalles de confiance asymptotiques sont construits en utilisant les estimateurs du maximum de<br />vraisemblance des prédictions. La distribution asymptotique de ces estimateurs est obtenue grâce<br />à la delta-méthode. Les résultats sont étendus, dans un autre chapitre, au cas du modèle densitédépendant,<br />dans lequel les paramètres sont fonctions des caractéristiques courantes de la population.<br />Dans un deuxième temps, les intervalles de confiance asymptotiques sont affinés en cherchant des<br />estimateurs robustes des paramètres de transition du modèle. Cette recherche est guidée par deux<br />types de contraintes du modèle portant sur sa structure discrète et sur la dynamique de la population.<br />Les estimateurs des paramètres ainsi construits sont des L-estimateurs exprimés dans un<br />modèle statistique multidimensionnel. Le critère de robustesse utilisé est la sensibilité des estimateurs,<br />basé sur la notion de fonction d'influence. Les résultats théoriques sont appliqués un jeu de<br />données réelles d'un peuplement forestier en Guyane Française et les implications pratiques sont<br />discutées.
|
328 |
De l'erg à la forêtBrun, Stéphane Hotyat, Micheline. Arnould, Paul January 2007 (has links)
Reproduction de : Thèse de doctorat : Géographie et aménagement : Paris 4 : 2005. / Titre provenant de l'écran titre. 72 références bibliographiques.
|
329 |
Tests d'hypothèses pour les processus de Poisson dans les cas non réguliersYang, Lin 22 January 2014 (has links) (PDF)
Ce travail est consacré aux problèmes de testd'hypothèses pour les processus de Poisson nonhomogènes.L'objectif principal de ce travail est l'étude decomportement des différents tests dans le cas desmodèles statistiques singuliers. L'évolution de lasingularité de la fonction d'intensité est comme suit :régulière (l'information de Fisher finie), continue maisnon différentiable (singularité de type "cusp"),discontinue (singularité de type saut) et discontinueavec un saut de taille variable. Dans tous les cas ondécrit analytiquement les tests. Dans le cas d'un saut detaille variable, on présente également les propriétésasymptotiques des estimateurs.En particulier, on décrit les statistiques de tests, le choixdes seuils et le comportement des fonctions depuissance sous les alternatives locales. Le problèmeinitial est toujours le test d'une hypothèse simple contreune alternative unilatérale. La méthode principale est lathéorie de la convergence faible dans l'espace desfonctions discontinues. Cette théorie est appliquée àl'étude des processus de rapport de vraisemblancenormalisé dans les modèles singuliers considérés. Laconvergence faible du rapport de vraisemblance sousl'hypothèse et sous les alternatives vers les processuslimites correspondants nous permet de résoudre lesproblèmes mentionnés précédemment.Les résultats asymptotiques sont illustrés par dessimulations numériques contenant la construction destests, le choix des seuils et les fonctions de puissancessous les alternatives locales.
|
330 |
Apprentissage par renforcement pour la généralisation des approches automatiques dans la conception des systèmes de dialogue oralPinault, Florian 24 November 2011 (has links) (PDF)
Les systèmes de dialogue homme machine actuellement utilisés dans l'industrie sont fortement limités par une forme de communication très rigide imposant à l'utilisateur de suivre la logique du concepteur du système. Cette limitation est en partie due à leur représentation de l'état de dialogue sous la forme de formulaires préétablis.Pour répondre à cette difficulté, nous proposons d'utiliser une représentation sémantique à structure plus riche et flexible visant à permettre à l'utilisateur de formuler librement sa demande.Une deuxième difficulté qui handicape grandement les systèmes de dialogue est le fort taux d'erreur du système de reconnaissance vocale. Afin de traiter ces erreurs de manière quantitative, la volonté de réaliser une planification de stratégie de dialogue en milieu incertain a conduit à utiliser des méthodes d'apprentissage par renforcement telles que les processus de décision de Markov partiellement observables (POMDP). Mais un inconvénient du paradigme POMDP est sa trop grande complexité algorithmique. Certaines propositions récentes permettent de réduire la complexité du modèle. Mais elles utilisent une représentation en formulaire et ne peuvent être appliqués directement à la représentation sémantique riche que nous proposons d'utiliser.Afin d'appliquer le modèle POMDP dans un système dont le modèle sémantique est complexe, nous proposons une nouvelle façon de contrôler sa complexité en introduisant un nouveau paradigme : le POMDP résumé à double suivi de la croyance. Dans notre proposition, le POMDP maitre, complexe, est transformé en un POMDP résumé, plus simple. Un premier suivi de croyance (belief update) est réalisé dans l'espace maitre (en intégrant des observations probabilistes sous forme de listes nbest). Et un second suivi de croyance est réalisé dans l'espace résumé, les stratégies obtenues sont ainsi optimisées sur un véritable POMDP.Nous proposons deux méthodes pour définir la projection du POMDP maitre en un POMDP résumé : par des règles manuelles et par regroupement automatique par k plus proches voisins. Pour cette dernière, nous proposons d'utiliser la distance d'édition entre graphes, que nous généralisons pour obtenir une distance entre listes nbest.En outre, le couplage entre un système résumé, reposant sur un modèle statistique par POMDP, et un système expert, reposant sur des règles ad hoc, fournit un meilleur contrôle sur la stratégie finale. Ce manque de contrôle est en effet une des faiblesses empêchant l'adoption des POMDP pour le dialogue dans l'industrie.Dans le domaine du renseignement d'informations touristiques et de la réservation de chambres d'hôtel, les résultats sur des dialogues simulés montrent l'efficacité de l'approche par renforcement associée à un système de règles pour s'adapter à un environnement bruité. Les tests réels sur des utilisateurs humains montrent qu'un système optimisé par renforcement obtient cependant de meilleures performances sur le critère pour lequel il a été optimisé.
|
Page generated in 0.0278 seconds