• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 1
  • Tagged with
  • 10
  • 10
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Estimation de la borne supérieur par des approches statistiques et par la méthode de Stringer

Joubir, Sami January 2010 (has links) (PDF)
Ce mémoire présente de nouvelles approches statistiques pour estimer la borne supérieure d'une population dans un contexte bien particulier, celui de la vérification comptable. Étant donné que dans la plupart des cas on se retrouve avec des échantillons où le nombre d'erreurs est souvent. faible ou nul, les méthodes classiques risquent fort d'être inadéquates. Dans ce mémoire, nous allons revenir sur quelques méthodes classiques puis présenter différentes méthodes spécifiques proposées par des chercheurs et nous mettrons l'accent sur la méthode de Stringer qui est très utilisée dans la pratique de la profession. Notre objectif est de voir dans quels cas ces méthodes pourraient être plus efficaces que les méthodes classiques. Les propriétés des méthodes classiques sont connues, contrairement à celles des approches spécifiqes où plusieurs d'entre elles n'ont jamais été démontrées et, parmi elles, la méthode de Stringer qui nous intéresse particulièrement. À cet effet, dans le chapitre 3, nous allons faire des simulations pour confirmer les comparaisons théoriques entre les méthodes dont on connait les propriétés et voir les résultats de celles qu'on ne connaît pas. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Échantillonnage, Estimation, Borne supérieure, Méthodes classiques, Méthode de Stringer.
2

Cartographie génétique fine simultanée de deux gènes

Forest, Marie 06 1900 (has links) (PDF)
Dans le domaine de la recherche de gènes causaux, il est maintenant connu que plusieurs caractères complexes peuvent en fait être influencés par une multitude de gènes. Dans ce mémoire, nous présentons l'adaptation d'une méthode de cartographie génétique fine à la cartographie de caractère polygénique. Nous présentons tout d'abord un aperçu de certains outils statistiques utilisés en génétique. En particulier, certaines mesures d'association généralement employées en cartographie génétique. Puis, nous présentons la méthode de cartographie que nous souhaitons adapter: méthode qui suppose que le caractère est causé par l'effet d'un seul gène. Nous supposons plutôt que le caractère est causé par la combinaison de deux gènes. Après avoir présenté notre modélisation et les aspects théoriques de l'adaptation proposée, nous utilisons des données simulées pour tester nos développements. Nous comparons aussi nos résultats avec ceux obtenus avec une mesure d'association, ainsi qu'avec la méthode de cartographie dont nous proposons une adaptation. Les résultats démontrent la nécessité de développer des méthodes de cartographie génétique adaptées aux caractères polygéniques ; avec quelques améliorations concernant l'inférence des génotypes aux gènes causaux, notre adaptation devrait offrir de meilleurs résultats que les autres méthodes présentées. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : statistique génétique, cartographie génétique, caractère polygénique, processus de coalescence, arbre de recombinaison ancestral
3

A priori structurés pour l'apprentissage supervisé en biologie computationnelle

Jacob, Laurent 25 November 2009 (has links) (PDF)
Les méthodes d'apprentissage supervisé sont utilisées pour construire des fonctions prédisant efficacement le comportement de nouvelles entités à partir de données observées. Elles sont de ce fait très utiles en biologie computationnelle, où elles permettent d'exploiter la quantité grandissante de données expérimentales disponible. Dans certains cas cependant, la quantité de données disponible n'est pas suffisante par rapport à la complexité du problème d'apprentissage. Heureusement ce type de problème mal posé n'est pas nouveau en statistiques. Une approche classique est d'utiliser des méthodes de régularisation ou de manière équivalente d'introduire un a priori sur la forme que la fonction devrait avoir. Dans cette thèse, nous proposons de nouvelles fonctions de régularisation basées sur la connaissance biologique de certains problèmes. Dans le contexte de la conception de vaccins ou de médicaments, nous montrons comment l'utilisation du fait que les cibles similaires lient des ligands similaires permet d'améliorer sensiblement les prédictions pour les cibles ayant peu ou n'ayant pas de ligands connus. Nous proposons également une fonction prenant en compte le fait que seuls certains groupes inconnus de cibles partagent leur comportement de liaison. Finalement, dans le cadre de la prédiction de métastase de tumeurs à partir de données d'expression, nous construisons une fonction de régularisation favorisant les estimateurs parcimonieux dont le support est une union de groupes de gènes potentiellement chevauchants définis a priori, ou un ensemble de gènes ayant tendance à être connectés sur un graphe défini a priori.
4

Techniques géostatistiques au service de l'aménagement de la pêcherie céphalopodière marocaine

Faraj, Abdelmalek 01 December 2009 (has links) (PDF)
L'aménagement de la pêcherie céphalopodière au Maroc est principalement axé sur la régulation des captures du poulpe (Octopus vulgaris), l'espèce prioritaire. Son potentiel exploitable est déterminé sur la base des évaluations directes à travers des campagnes de prospection scientifiques. Il s'agit de (i) fournir un estimateur de bonne qualité – sans biais et précis – de l'abondance globale, accompagné de sa variance d'estimation et des cartes de distribution du stock, (ii) suivre la dynamique spatio-temporelle du poulpe dont la connaissance est indispensable pour la gestion. Pour y parvenir : <br/>- Les propriétés spatiales de la densité du poulpe sont décrites et les conditions de stationnarité sont analysées sur une série de données historique. <br/>- Des méthodes d'estimation globale – transitives et intrinsèques – sont appliquées en tenant compte des conditions particulières des données, notamment la non-stationnarité concernant l'approche probabiliste intrinsèque et l'échantillonnage non contrôlé concernant l'approche déterministe transitive. <br/>- La stratégie d'occupation de l'espace par le poulpe est décrite à l'aide d'indicateurs géostatistiques. Elle se caractérise par un schéma de reproduction étendu sur le plateau continental et un succès du recrutement essentiellement côtier. D'importantes implications en matière de gestion sont discutées. <br/>Pour finir, ce travail est replacé dans son contexte plus global de l'aménagement de la pêcherie céphalopodière, et de la nouvelle stratégie de la pêche. De nouvelles perspectives pour l'application des techniques géostatistiques et des statistiques spatiales sont envisagées pour les évaluations de stocks, en particulier du poulpe.
5

Évaluation de méthodes de mise à l'échelle statistique : reconstruction des extrêmes et de la variabilité du régime de mousson au Sahel

Parishkura, Dimitri January 2009 (has links) (PDF)
Deux méthodes de mise à l'échelle statistique sont évaluées sur une station située au Burkina Faso afin de générer une information climatique pertinente au niveau local, en terme de climat moyen et des principales caractéristiques de variabilité et d'extrême du régime de précipitation. Les deux méthodes de régression multi-linéaire SDSM et ASD analysées reposent sur le principe que des relations empiriques entre certaines variables atmosphériques à grande échelle issues des réanalyses ou des Modèles Climatiques globaux (MCGs), variables dénommées prédicteurs, et des paramètres climatiques locaux (ex. précipitation) peuvent être établies. En mode réanalyse, le travail a consisté, d'une part, à partir de variables synoptiques de NCEP, à analyser (i) l'intérêt d'utiliser une gamme plus vaste de prédicteurs dérivés et sur plus de niveaux verticaux dans l'atmosphère, et (ii) l'intérêt d'utiliser une sélection des prédicteurs sur une base mensuelle versus annuelle. D'autre part, en mode climat, à partir de variables synoptiques issues de deux MCGs (CGCM2 et HadCM3), l'évaluation a porté sur l'utilisation de ces modèles climatiques mondiaux afin de générer une information climatique plausible et utile à l'échelle locale dans le but ultime de générer des scénarios climatiques pertinents pour les études d'impacts en milieu sahélien. En mode réanalyse, le fait de considérer un plus vaste ensemble de prédicteurs et plus de niveaux atmosphériques, a permis de réduire les biais de l'ensemble des critères statistiques/climatiques comme la moyenne quotidienne, la variabilité intra-saisonnière, les indices d'intensité et d'extrêmes, et l'indice des dates de début, de fin et de longueur de mousson. De plus, avec cette nouvelle configuration, les deux modèles de mise à l'échelle sont en mesure de reconstruire une partie des changements observés dans le régime de précipitation (i.e. diminution de la quantité totale de pluie et de la fréquence du nombre d'événements pluvieux). Si dans la majorité des cas ASD performe mieux que SDSM avec un choix restreint de prédicteurs, les différences entre les modèles diminuent en utilisant un plus grand choix de prédicteurs, et en sélectionnant ceux-ci sur une base mensuelle. Dans ce dernier cas, les incertitudes sur la valeur médiane et la moyenne des indices de précipitation, notamment au coeur de la saison pluvieuse et à la fin de celle-ci, sont réduites par rapport aux autres simulations. Avec les prédicteurs des MCGs, notamment le modèle HadCM3, la simulation de l'ensemble des indices est systématiquement améliorée par rapport aux valeurs équivalentes issues des variables brutes des MCGs, aussi bien avec SDSM que ASD, notamment l'occurrence des jours de pluie, la variabilité intra-saisonnière, les indices d'intensité et d'extrêmes. Par contre l'utilisation des prédicteurs CGCM2 dans la mise à l'échelle statistique ne permet pas d'améliorer systématiquement tous les indices analysés par rapport aux données brutes de ce MCG. Quoi qu'il en soit, notre étude a permis de montrer qu'avec des prédicteurs relativement bien reproduits à grande échelle par les modèles globaux, les distributions quotidiennes de précipitation étaient plus plausibles à l'échelle locale, en dépit des difficultés à simuler adéquatement les extrêmes (i.e. largement surestimés surtout avec le CGCM2). Dans l'avenir, d'autres analyses devront inclure des prédicteurs des modèles globaux ou régionaux, telles que suggérés avec les réanalyses NCEP (i.e. autres niveaux, variables et résolution temporelle), ainsi qu'à l'aide d'autres méthodes non-linéaires en lien avec les particularités physiques à l'échelle régionale et locale. Ceci contribuera ultimement à générer des scénarios plus plausibles à ces échelles, d'autant que la mousson Ouest Africaine est influencée naturellement par des téléconnections variées à l'échelle globale et régionale. L'usage de cette information climatique pour des applications locales pourrait ainsi être amélioré, en lien avec les besoins des études d'impacts et de vulnérabilité dans le domaine agropastoral, humain et de la modélisation environnementale. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : ASD, SDSM, NCEP, MCG, Variabilité interannuelle, Mousson ouest africaine, Prédicteurs, Indices de précipitations, Mise à l'échelle statistique.
6

Traçabilité modulée pour la conformité à Sarbanes-Oxley

Lepage, Yves January 2009 (has links) (PDF)
La traçabilité est un mécanisme qui est indispensable dans la conduite des activités de vérification de la conformité des compagnies à la loi Sarbanes-Oxley. Cette loi rend les administrateurs (PDG, Chef des affaires financières, etc.) responsables des déclarations faites dans les états financiers. Elle a été établie dans la foulée des scandales corporatifs aux États-Unis, comme ceux des compagnies Enron et Worldcom. Les données utilisées pour produire les états financiers, lesquelles sont produites par des systèmes informatiques périphériques, transitent toujours par des bases de données. L'implantation d'un mécanisme de traçabilité des bases de données se heurte à plusieurs problèmes, dont le plus important est la gestion du volume des données de traçabilité, lequel devient rapidement trop important pour rendre les données de traçabilité utiles. Ce mémoire démontre qu'une solution envisageable pour résoudre ce problème consiste à identifier et à définir les comportements typiques de la fraude et d'utiliser ces comportements comme indicateurs de fraude potentielle. Jumelés à des techniques de classification telles que la classification Baysienne qui est utilisée dans le domaine de la détection du pourriel, les indicateurs permettront la classification des transactions potentiellement frauduleuses, dans le but d'appliquer le mécanisme de traçabilité qu'à ces transactions. Ainsi, nous démontrons que l'application de la classification Baysienne sur ces attributs, permet effectivement de détecter et de classifier des transactions frauduleuses comme tel et qu'en conséquence, un traitement de traçage spécifique peut être effectué sur ces transactions. En ne traçant plus spécifiquement que les transactions identifiées comme frauduleuses, le volume de données de traçabilité est alors réduit à son expression la plus utile et simple et du coup le problème de la gestion du volume des données de traçage s'en trouve d'autant diminué. Notre expérimentation démontre le bien-fondé de cette approche pour différencier les transactions honnêtes des transactions frauduleuses. Cette différenciation s'est faite avec un haut taux de succès et avec grande fiabilité, tel que démontré par les taux de détection obtenus pour les transactions frauduleuses. Les résultats détaillés sont documentés dans ce mémoire et prouvent la viabilité de cette approche. Comme les attributs utilisés qui sont basés sur les indicateurs de comportements sont intimement liés au domaine d'application, nous proposons une approche pour raffiner les résultats et ainsi rendre possible la différenciation des différents types de fraude à l'intérieur de ces transactions frauduleuses. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Fraude, Sarbanes-Oxley, Traçabilité, Détection automatique, Classification, Bayes.
7

Caractérisation de la population de planètes géantes à grandes séparations. Imagerie différentielle avec NaCo et SPHERE au VLT / Characterization of the population of wide-orbit giant planets. Differential imaging with NaCo and SPHERE at the VLT

Rameau, Julien 02 October 2014 (has links)
La formation, l’évolution et la structure des planètes géantes font parties des grandesproblématiques de l’astrophysique moderne. Les planète géantes ont un rôle majeur carelles possèdent la plupart de la masse des systèmes planétaires et donc influencent leursévolutions dynamiques. Mon travail de thèse s’inscrit dans une démarche observationnellequi est essentielle pour apporter des contraintes sur la diversité des systèmes exoplanétaires.Mes premiers résultats de thèse sont issus d’une campagne d’observations sur trois ansréalisées avec l’instrument NaCo au VLT. Mes observations de HD142527 excluent laprésence d’une planète géante dans le disque et favoriseraient plutôt un système multiplede faible masse pour expliquer les structures de ce disque de transition. J’ai égalementdétecté une planète géante autour de HD95086. Cette planète possède des propriétés atmosphériquesparticulières. Sa présence fait de HD95086 un rare exemple de systèmesimagés possédant un disque de débris et une planète géante. Enfin, j’ai réalisé une étudestatistique sur l’ensemble du relevé et montré que les planètes géantes sur des orbiteséloignées sont rares (10 − 20 %) et ne peuvent pas s’être formées majoritairement pareffondrement direct du gaz dans un disque instable.La dernière partie de mon travail de thèse a été consacrée à l’étude du mode d’imageriedifférentielle simultanée spectrale. J’ai identifié les biais particuliers liés à la réductionde ce type de données et ai montré que leurs analyses nécessitent l’utilisation de modèlesd’évolution. Cette étude permettra d’exploiter les données de l’instrument IRDISde SPHERE installé au VLT. / How giant exoplanet form, evolve and are made of is one of the biggest challenge of modernastronomy. They play an important role as they carry most of the planetary systemmasses. Therefore, they strongly impact their dynamics and the fate of these systems tohost life. My PhD thesis falls within an observational approach that is mandatory to bringconstraints on the diversity of planetary systems.I got my first results from a three-year survey, with NaCo at VLT. My observations ofHD142527 excluded the presence of massive giants planets to explain the structures of thistransitional disk and might favor a light multiple system. I also detected a giant planetaround HD95086 and I showed that it has particular atmospheric properties. Finally, Icarried out a statistical analysis of the whole survey to show that giant planets on wideorbitsare rare (10 − 20 %) and could not be formed via direct collapse of unstable disks.I dedicated the last part of my work to investigate the spectral simultaneous differentialimaging mode. I pointed out the biases associated to the reduction of these data andshowed that evolutionary models have to be used to analyze them. This study might helpto exploit the full potential of SPHERE/IRDIS data.
8

La baisse des coûts des tunnels. Mesures, causes et conséquences

Zhang, Chi 10 June 1994 (has links) (PDF)
L'objectif de cette thèse est de tenter de chercher la loi, de trouver les facteurs déterminants des coûts des tunnels de métros, de les expliquer, de construire des modèles de prévision d'ordres de grandeur des coûts. Cette étude est basée essentiellement sur la base de données établie en 1990 par le groupe de travail N°15 de l'Association Française des Travaux en Souterrain (AFTES) concernant les coûts des infrastructures des métros français. La base des données utilisées dans cette étude comporte les principales opérations françaises réalisées de 1975 à 1990 (90 observations qui représentent environ 61 000 mètres au total). La recherche porte uniquement sur les coûts des tunnels entre les stations, rapporté au mètre linéaire d'ouvrage à 2 voies. Les méthodes statistiques utilisées sont notamment les régressions linaires ou multiples. L'étude a permis de connaître le coût global, le coût hors équipements et le coût des équipements des tunnels de métros urbains et régionaux exécutés en souterrain, en tranchée couverte ainsi que sa composition, sa ventilation en pourcentage. L'analyse des facteurs quantitatifs et qualitatifs par des méthodes économétriques a permis de comprendre la complexité du problème des coûts, les facteurs déterminants des coûts et de construire des modèles pour la prévision du coût de grandeur. Cette étude a mis en évidence une tendance d'évolution des coûts en Francs constants des tunnels de métros français qui est de l'ordre de -3,5% par an en moyenne pendant la période 1975-1990, soit environ -50% au total. La recherche a montré que les évolutions constatées résultent des efforts conjugués des ingénieurs d'étude, des expériences et des progrès techniques (l'emploi de tunnelier, la réduction du volume de structure en béton etc.). Les conséquences de l'évolution des coûts pour les autorités publiques et les entreprises ainsi que les tendances du marché des travaux souterrains ont été également analysées.
9

Etude du comportement à la rupture d'un matériau fragile précontraint : le verre trempé

Carre, Hélène 11 December 1996 (has links) (PDF)
L'objectif de ce travail est l'étude du comportement à la rupture d'un matériau fragile précontraint : le verre trempé. Pour la prédiction de la résistance du verre trempé, la connaissance de l'état de précontrainte tridimensionnel est indispensable. Dans le cas de l'utilisation du verre pour les structures du bâtiment (ce qui constitue la première application de ce travail), les éléments sont chargés dans leur plan ; le niveau de précontrainte sur la tranche doit être déterminé. La simulation du traitement de trempe (chauffage et refroidissement brutal) par le code aux éléments finis MARC permet de calculer les contraintes transitoires et résiduelles. Le verre est un matériau viscoélastique dont le comportement varie avec la température. Le verre est un matériau fragile. Sa résistance dépend directement de son état de surface, des défauts présents dans l'élément. Une analyse statistique permet de relier la probabilité de rupture au niveau de la contrainte appliquée, de prendre en compte l'effet de surface et l'effet de la distribution des contraintes. Des essais de flexion 4 points sur de petits éléments en verre recuit servent à déterminer les caractéristiques de la loi statistique utilisée (loi de Weibull). L'effet de la vitesse de chargement sur la résistance est mis en évidence et pris en compte dans la modélisation. Il est dû à la fissuration sous-critique des défauts préexistants pendant le chargement en raison de la réaction chimique entre le verre et la vapeur d'eau présente dans l'environnement. Des essais de flexion 4 points sur de grandes poutres en verre recuit permettent de valider la loi statistique pour prédire l'effet de volume dans le verre recuit. Grâce aux résultats des simulations de la trempe et à la connaissance des caractéristiques statistiques de rupture du verre recuit, la prédiction de la résistance de grands éléments en verre trempé est possible. Cette prédiction est validée par des essais de flexion 4 points sur de grandes poutres en verre trempé. Des essais similaires de longue durée sont programmés pour étudier l'évolution de la résistance du verre recuit et trempé dans le temps.
10

Prédiction et optimisation des techniques pour l’observation à haute résolution angulaire et pour la future génération de très grands télescopes / Prevision and optimisation of technics for high angular resolution observations and for the next generation of extremely large telescopes

Giordano, Christophe 19 December 2014 (has links)
Avec l’avènement de la prochaine génération de télescope de plus de 30m de diamètre, il devient primordial de réduire le coût des observations et d’améliorer leur rendement scientifique. De plus il est essentiel de construire ces instruments sur des sites disposant d’une qualité optique maximale. J’ai donc essayé, au cours de ma thèse, de développer un outil fiable, facile d’utilisation et économique permettant de satisfaire ces exigences. J’ai donc utilisé le modèle de prévision météorologique Weather Research and Forecasting et le modèle de calcul de la turbulence optique Trinquet-Vernin pour prédire, plusieurs heures à l’avance, les conditions optiques du ciel tout au long de la nuit. Cette information permettrait d’améliorer la gestion du programme d’observation, appelée "flexible scheduling", et ainsi de réduire les pertes dues à la variation des conditions atmosphériques. Les résultats obtenus et les améliorations apportées au modèle WRF-TV lui permettent de présenter un bon accord entre les mesures et les prévisions ce qui est prometteur pour une utilisation réelle. Au delà de cette gestion, nous avons voulu créer un moyen d’améliorer la recherche et le test de sites astronomiquement intéressants. Nous avons donc définit un paramètre de qualité qui prend en compte les conditions météorologiques et optiques. Ce paramètre a été testé au-dessus de l’île de La Palma aux Canaries et a montré que l’Observatorio del Roque de los Muchachos est situé au meilleur emplacement de l’île. Enfin nous avons créé une routine d’automatisation du modèle WRF-TV afin d’avoir un outil opérationnel fonctionnant de manière autonome. / With the next generation of extremely large telescope having mirror with a diameter larger than 30m, it becomes essential to reduce the cost of observations and to improve their scientific efficiency. Moreover it is fundamental to build these huge infrastructures in location having the best possible optical quality. The purpose of my thesis is to bring a solution easier and more economical than before. I used the Weather Research and Forecasting (WRF) model and the Trinquet-Vernin parametrization, which computes the values of the optical turbulence, to forecast a couple of hours in advance the evolution of the sky optical quality along the coming night. This information would improve the management of observation program, called "flexible scheduling", and thereby reduce losses due to the atmospheric variations. Our results and improvements allow the model us WRF-TV to have a good agreement between previsions and in-situ measurements in different sites, which is promising for a real use in an observatory. Beyond the flexible scheduling, we wanted to create a tool to improve the search for new sites or site testing for already existing sites. Therefore we defined a quality parameter which takes into account meteorological conditions (wind, humidity, precipitable water vapor) and optical conditions (seeing, coherence time, isoplanatic angle). This parameter has been tested above La Palma in Canary island showing that the Observatorio del Roque de los Muchachos is located close to the best possible location of the island. Finally we created an automated program to use WRF-TV model in order to have an operational tool working routinely.

Page generated in 0.4871 seconds