421 |
Contributions à l'inférence statistique semi- et non-paramétriqueGirard, Stéphane 06 July 2004 (has links) (PDF)
Les travaux présentés s'inscrivent dans le cadre de l'inférence statistique. Ils s'articulent autour des quatre thèmes suivants : estimation de quantiles extrêmes, estimation de frontière, réduction de dimension en analyse d'images et estimation de courbes de référence. Le plupart de ces travaux sont issus de collaborations avec des industriels et s'étendent de l'étude théorique d'une méthode statistique au développement d'outils logiciels l'implémentant.
|
422 |
Test fonctionnel statistique de logiciels spécifiés en Lustre ; application à la validation de services téléphoniquesDu Bousquet, Lydie 29 September 1999 (has links) (PDF)
Ce travail s'inscrit dans le cadre de la conception d'environnements de test fonctionnel de systèmes réactifs spécifiés formellement en Lustre. Lutess est un tel environnement. Il permet la génération automatique et dynamique de données de test. Cette génération est menée sous contraintes, de manière aléatoire, et éventuellement guidée par des propriétés. Nous avons étendu cet environnement par une méthode de test de type statistique, qui facilite la génération des données de test considérées comme significatives par l'utilisateur. Nous avons validé expérimentalement Lutess avant et après son extension, en montrant que les données générées étaient bien aléatoires et qu'elles respectaient les distributions statistiques attendues. De plus, nous avons utilisé Lutess et la méthode proposée de façon intensive pour la validation de spécifications de services téléphoniques sur deux études de cas conséquentes : une fournie par le CNET et une autre sous la forme d'un concours proposé en marge de la conférence "Feature Interaction Workshop'98". A cette occasion, Lutess a été déclaré "meilleur outil pour la détection d'interactions de services téléphoniques".
|
423 |
Méthodes exploratoires d'analyse de données temporellesSaporta, Gilbert 10 June 1981 (has links) (PDF)
L'analyse en composantes principales et l'analyse des correspondances sont généralisées pour étudier des ensembles de trajectoires de processus numériques ou qualitatifs. On étudie également certains problèmes de régression avec une infinité non dénombrable de variables: régression sur un processus, régression d'un processus sur un autre.
|
424 |
Méthodologies de simulation moléculaire pour le calcul de grandeurs thermodynamiques d'association : théorie et application à différents types de complexesGhoufi, Aziz 23 June 2006 (has links) (PDF)
Le développement de nouvelles méthodes de perturbation, d'intégration thermodynamique et de potentiel de forces moyennes nous a permis de caractériser thermodynamiquement (delta r G, delta r H, delta r S) des processus d'association entre un macrocycle et différents types de cations en solution aqueuse. Différentes méthodologies ont été développées en fonction de la nature des interactions non-covalentes mises en jeu entre le macrocycle et le cation (interaction-pi, électrostatique, van des Waals). Lorsque les grandeurs d'association calculées étaient en accord avec l'expérience, l'aspect description moléculaire des complexes et des phénomènes associés a permis le couplage entre le microscopique et le macroscopique complétant ainsi l'analyse des grandeurs thermodynamiques.
|
425 |
Estimation de paramètres et de conditions limites thermiques en conduction instationnaire pour des matériaux anisotropes. Apport des algorithmes stochastiques à la conception optimale d'expérience.Ruffio, Emmanuel 01 December 2011 (has links) (PDF)
Cette étude porte sur deux types de problèmes inverses en thermique : l'estimation de propriétés thermophysiques de matériaux anisotropes et l'estimation de conditions limites. Dans un premier temps, la méthode flash 3D permet d'estimer la diffusivité thermique dans les trois directions principales d'un matériau anisotrope. Pour cela, un dispositif expérimental spécifique a été développé. Il s'appuie essentiellement sur un laser CO2 comme source de puissance thermique et sur la thermographie infrarouge comme instrument de mesure. En associant à l'expérimentation un modèle analytique des transferts thermiques dans l'échantillon, un estimateur permet d'obtenir les diffusivités thermiques recherchées. Au cours de ce travail, différents estimateurs ont été proposés et comparés à travers notamment leurs écarts types. Par ailleurs, il est proposé également une méthode de conception optimale d'expérience permettant de diminuer davantage ces écarts types. Dans un deuxième temps, on s'intéresse à l'estimation de conditions aux limites thermiques d'un système faisant intervenir les matériaux dont on connait les propriétés thermophysiques, à partir de mesures de température par thermocouples. La première application concerne la caractérisation les transferts thermiques instationnaires gaz-paroi pendant la phase de remplissage de bouteilles d'hydrogène haute pression. La seconde application porte sur l'estimation du flux de chaleur absorbé par des matériaux composites soumis à une flamme oxygène/acétylène. Ces travaux font appel à différentes méthodes d'optimisation, aussi bien des algorithmes classiques de type gradient, que des algorithmes stochastiques. Ces derniers se sont révélés particulièrement adaptés à la conception optimale d'expériences.
|
426 |
Effet de l'évolution du parcellaire agricole sur la redistribution des sols et la morphologie des versants cultivés - exemple du Sud-Ouest du bassin parisien.Chartin, Caroline 06 October 2011 (has links) (PDF)
L'évolution historique des types et techniques de production agricole a causé celle de l'organisation paysagère, via les parcellaires notamment. Les bordures de parcelles créent des discontinuités dans les processus d'érosion-dépôt de sol. L'objectif est ici de comprendre l'effet du parcellaire et de son évolution sur la distribution actuelle des sols et la morphologie des versants. Un versant cultivé (16 ha) dans le SW du Bassin Parisien a été étudié. La distribution spatiale de figures morphologiques linéaires et de l'épaisseur des sols a été analysée. Les deux types de figures identifiés correspondent à des épaississements de sols (dépôts) induits par des bordures de parcelles, pérennes depuis plusieurs siècles pour les premières, et disparues en 1967 (remembrement) pour les secondes. Ces épaississements ont été cartographiés grâce à une analyse statistique (CART) de la morphologie du versant. L'étude de traceurs granulométriques et minéralogiques (SEDI) a permis d'identifier les processus d'érosion-dépôt impliqués. La solifluxion périglaciaire puis le ruissellement auraient affecté l'ensemble du versant avant la pérennisation d'un parcellaire. Puis, des processus hydriques et aratoires ont agi dans des unités (parcelles) fixées par des bordures : les plus pérennes (1000 ans) montrent les dépôts les plus marqués (banquettes). La distribution spatiale du 137Cs et sa conversion en taux d'érosion (modélisation numérique) ont permis d'évaluer l'implication relative des processus hydriques (15%) et aratoires (85%) depuis 1954. Le remembrement parcellaire de 1967 s'avère avoir favorisé l'érosion des sols, convertissant des zones de rétention en zones sources (ondulations).
|
427 |
GESTION PROACTIVE DU CHANGEMENT DANS LES PROJETS DE REINGENIERIE DES PROCESSUS METIERSCamara, Mamadou Samba 10 November 2009 (has links) (PDF)
La problématique de cette étude est la gestion du changement dans les projets d'implémentation de progiciel. L'approche proposée est la gestion proactive du changement. Elle est basée sur des actions à priori pour réduire l'impact négatif du changement. Ces actions sont optimisées et ciblées sur certains processus de l'entreprise identifiés par prédiction. Notre objectif est de combiner la gestion quantitative et non-quantitative du changement dans les projets ERP afin de lever leurs limites. En effet, la littérature montre que les méthodes non-quantitatives proposent des actions de gestion du changement, sans pour autant accompagner ces actions d'une optimisation et d'un ciblage formalisé. Les techniques quantitatives, quant à elles, proposent des modèles mais ne définissent pas des actions claires. La démarche proposée repose sur l'application du processus de datamining. Nous nous sommes intéressés à trois concepts principaux qui sont l'ampleur, l'effort de gestion et l'impact du changement. L'idée est de tirer parti des informations collectées dans des projets d'implémentation de progiciel antérieurs, pour établir des relations quantitatives et objectives entre ces trois concepts. La première composante de l'application du datamining est l'utilisation d'un modèle pour faire des prédictions sur l'impact potentiel du changement. Cet impact est mesuré de manière prédictive par rapport à la variation des critères de performance du processus après sa restructuration et son implémentation dans le progiciel. L'unité d'analyse dans l'étude est le processus métier. La seconde composante de l'application du processus de datamining est la prise de décision basée sur les prédictions du modèle. L'ampleur et l'effort de gestion du changement sont considérés comme des explications pour l'impact du changement. Ils sont utilisés aussi comme levier dans les actions à définir pour la gestion de cet impact. Notre approche intervient principalement dans la phase " d'adéquation et de configuration " du projet ERP (Tomas, 2000) dans laquelle les processus sont restructurés. Elle vient compléter la simulation, le prototypage (qui inclut l'analyse des écarts) pour l'acceptation d'un processus " en-devenir ".
|
428 |
Étude des déterminants de la puissance statistique en spectrométrie de masseJouve, Thomas 03 December 2009 (has links) (PDF)
La spectrométrie de masse fait partie des technologies haut débit et offre à ce titre un regard inédit, à une échelle nouvelle, sur les protéines contenues dans divers échantillons biologiques. Les études biomédicales utilisant cette technologie sont de plus en plus nombreuses et visent à détecter de nouveaux biomarqueurs de différents processus biologiques, notamment de processus pathologiques à l'origine de cancers. Cette utilisation comme outil de criblage pose des questions quant à la capacité même des expériences de spectrométrie de masse dans cette détection. La puissance statistique traduit cette capacité et rappelle que les études doivent être calibrées pour offrir des garanties suffisantes de succès. Toutefois, cette exploration de la puissance statistique en spectrométrie de masse n'a pas encore été réalisée. L'objet de cette thèse est précisément l'étude des déterminants de la puissance pour la détection de biomarqueurs en spectrométrie de masse. Une revue de la littérature a été réalisée, reprenant l'ensemble des étapes nécessaires du traitement du signal, afin de bien comprendre les techniques utilisées. Les méthodes statistiques disponibles pour l'analyse du signal ainsi traité sont revues et mises en perspective. Les situations de tests multiples, qui émergent notamment de ces données de spectrométrie de masse, suggèrent une redéfinition de la puissance, détaillée par la suite. La puissance statistique dépend du plan d'expérience. La taille d'échantillon, la répartition entre groupes étudiés et l'effet différentiel ont été investigués, par l'intermédiaire de simulations d'expériences de spectrométrie de masse. On retrouve ainsi les résultats classiques de la puissance, faisant notamment ressortir le besoin crucial d'augmenter la tailles des études pour détecter des biomarqueurs, particulièrement lorsque ceux-ci présentent un faible effet différentiel. Au delà de ces déterminants classiques de la puissance, des déterminants propres à la spectrométrie de masse apparaissent. Une chute importante de puissance est mise en évidence, due à l'erreur de mesure des technologies de spectrométrie de masse. Une synergie péjorative existe de plus entre erreur de mesure et procédure de contrôle du risque de première espèce de type FDR. D'autre part, les méthodes de détection des pics, par leurs imperfections (faux pics et pics manqués), induisent un contrôle suboptimal de ce risque de première espèce, conduisant à une autre chute de puissance. Ce travail de thèse met ainsi en évidence trois niveaux d'intervention possibles pour améliorer la puissance des études : la meilleure calibration des plans d'expérience, la minimisation de l'erreur de mesure et l'amélioration des algorithmes de prétraitement. La technologie même de spectrométrie de masse ne pourra conduire de façon fiable à la détection de nouveaux biomarqueurs qu'au prix d'un travail à ces trois niveaux.
|
429 |
METHODES STATISTIQUES POUR L'ETUDE DE LA STRUCTURATION SPATIALE DE LA DIVERSITE GENETIQUEFaubet, Pierre 06 February 2009 (has links) (PDF)
La sélection naturelle et les flux de gènes entre populations contribuent à structurer la diversité génétique dans l'espace sous l'influence de l'environnement. L'étude de ces forces évolutives et de leur interaction avec le milieu a des applications importantes dans des domaines tels que la biologie de la conservation, la génétique ou l'agronomie. Les données génétiques peuvent être reliées aux données environnementales à travers des modèles qui décrivent les processus évolutifs mis en jeu pour estimer des paramètres d'intérêt. Le développement d'une méthode d'estimation en génétique des populations consiste donc à construire un modèle selon des considérations biologiques pour l'utiliser ensuite dans des algorithmes d'estimation. L'étape suivante consiste alors à évaluer les performances de la méthode pour la valider ou l'améliorer. Ce schéma a été appliqué pour évaluer une méthode d'estimation des taux de migration qui a été étendue par la suite. Une autre méthode a été développée pour étudier l'adaptation locale sous l'influence de la migration et de la sélection naturelle.
|
430 |
Bifurcations globales hydrodynamiques et magnetohydrodynamiques dans un ecoulement de von Karman turbulentRavelet, Florent 22 September 2005 (has links) (PDF)
Nous étudions ici expérimentalement l'écoulement de von Kármán, produit dans un cylindre entre deux turbines coaxiales. Nous nous plaçons plus particulièrement en régime de turbulence pleinement développée, pour un écoulement contrarotatif forcé inertiellement. Nous étudions dans un premier temps la transition à la turbulence de cet écoulement fermé, depuis les régimes laminaires. Nous insistons sur le rôle des grandes échelles lentement variables<br />de la couche de mélange. Nous étudions alors la stabilité de l'écoulement moyen et mettons en évidence une bifurcation des grandes échelles en régime turbulent. Nous étudions statistiquement le rôle des fluctuations sur le déclenchement des transitions. Ces transitions peuvent également avoir une dynamique intermittente à temps long.<br />Dans un deuxième temps, nous étudions la possibilité d'un effet dynamo pour le champ de vitesse moyenné dans le temps. L'effet dynamo est une instabilité du champ magnétique dans un fluide conducteur en écoulement. Nous définissons ainsi la configuration de l'expérience VKS2, en sodium liquide, et discutons enfin les premiers résultats de l'expérience. Nous y retrouvons la trace des instationnarités des grandes échelles de l'écoulement.
|
Page generated in 0.0394 seconds