• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 35
  • 24
  • 5
  • Tagged with
  • 66
  • 38
  • 13
  • 8
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Etude de la variabilité intra-balle des caractéristiques technologiques des fibres de coton produites en Afrique de l'Ouest et du Centre / Study of the within-bale variability of the technological characteristics of cotton fibers produced in Western and Central Africa

Aboe, Modeste 05 March 2012 (has links)
Grâce aux développements techniques et technologiques des dernières décennies, le commerce international du coton passe graduellement d’un classement manuel et visuel à un classement à base de résultats de mesures instrumentales. Or adopter une technique requiert d’en étudier ses modalités et ses conditions d’utilisation. Aux USA, des études périodiques de variabilité permettent d’assortir ces résultats d’analyse de tolérances commerciales afin de limiter la fréquence des litiges. Adopter en Afrique les règles et les méthodes de mesure des USA exposerait à un risque de litige accru si les conditions de production déterminent un coton de qualité plus variable. Pour la première fois en Afrique, nous avons mené une étude de la variabilité des caractéristiques technologiques des fibres dans huit pays d’Afrique de l’Ouest et du Centre : Bénin, Burkina-Faso, Cameroun, Côte d’Ivoire, Mali, Sénégal, Tchad et Togo. Pendant deux saisons de production, nous avons réalisé une expérimentation à trois types de prélèvements de fibres : 1) huit échantillons par balle au sein de 215 balles produites dans 27 usines d’égrenage, 2) un échantillon par balle de 4286 balles constituées en séries de 200 balles consécutives en saison 1 et de 100 balles consécutives en saison 2 dans les mêmes usines, 3) deux échantillons par balle (un en haut et un en bas) sur 817 balles constituées en séries de vingt balles consécutives hebdomadairement dans cinq usines au cours de la saison 2. Ensuite, les échantillons des 5318 balles échantillonnées furent analysés sur une Chaîne de Mesures Instrumentales (CMI) dans un laboratoire respectant les recommandations internationales et les conditions d’ambiance contrôlées. L’analyse statistique des données recueillies a permis d’évaluer le niveau de variabilité de chacune des caractéristiques technologiques étudiées, au sein des balles et entre celles-ci. Une méthode d’échantillonnage et de réalisation des analyses sur CMI est proposée pour réaliser le classement des balles de coton d’Afrique de l’Ouest et du Centre à partir de résultats précis et répétables respectant les règles commerciales établies au niveau mondial. / Thanks to the technical and technological developments of the last decades, the international cotton trade is moving from a manual and visual classification to one based on instrument results. Now, adopting a technique requires studying its modalities and its conditions of use. In the USA, periodical studies of the variability make it possible to provide trading tolerances together with instrumental test results in order to limit the litigation event frequency. Apply USA rules and measurement methods in Africa would lead to increased litigation risk if production conditions induce more variable cotton quality. For the first time in Africa, we have conducted a study of the variability of the technological characteristics of the fibers in eight countries of Western and Central Africa: Benin, Burkina-Faso, Cameroon, Chad, the Ivory-Coast, Mali, Senegal and Togo. During two seasons of production, we conducted an experiment with three types of fiber sampling: 1) eight samples per bale within 215 bales produced in 27 ginning mills, 2) one sample per bale from 4286 bales organized in lots of 200 consecutive bales during season 1 and of 100 consecutive bales in season 2 in the same ginning mills, 3) two samples per bale (one from the top, one from the bottom) from 817 bales organized in lots of twenty consecutive bales each week in five ginning mills during season 2. Then, samples from the 5318 sampled bales were analysed with Standardized Instruments for Testing Cotton (SITC) in a laboratory which respects international recommendations and required ambient air conditions. The statistical data analysis allowed us to evaluate the level of variability of each of the studied technological characteristics, within the bales and between the bales. A sampling and testing methodology using SITC is being proposed to achieve the classification of the different sorts of cotton produced in Western and Central Africa from precise and repeatable results abidden by the worldwide established trading rules.
32

Squelettes et graphes de Voronoï 2D et 3D

Attali, Dominique 13 October 1995 (has links) (PDF)
Notre travail concerne l'étude, le calcul et la simplification des squelettes d'objets 2D et 3D. Le squelette d'un objet est une figure mince, centrée dans la forme et qui en résume l'aspect. Il est utile pour la description et la reconnaissance de formes, la quantification, la mise en correspondance, etc. Dans un premier temps, nous recensons les différentes techniques de calcul du squelette. La très grande majorité d'entre elles travaille sur des images binaires avec des outils de la géométrie discrète. Or, dernièrement, une nouvelle famille de méthodes, appelées méthodes continues a vu le jour. Le squelette est approché à l'aide du graphe de Voronoï d'un échantillonnage de la frontière, et se calcule par des moyens propres à la géométrie algorithmique. Notre intérêt s'est porté sur cette nouvelle approche et les problèmes qui s'y rattache. Pour commencer, nous proposons une formulation des méthodes continues à l'aide du squelette d'une union finie de sphères. En effet, nous montrons que le squelette d'une union finie de sphères se construit de façon exacte à l'aide d'éléments très simples comme des segments de droite en 2D et des polygones en 3D. La construction du squelette nécessite de pouvoir interpoler par des facettes triangulaires un ensemble de points localisés sur la frontière d'un objet. Nous proposons une méthode, fondée sur le calcul du graphe de Delaunay et dont nous montrons la convergence en 2D. Enfin, des méthodes de simplification du squelette sont présentées. Elles permettent de sélectionner les branches correspondant à des renflements significatifs de la forme et conduisent en 3D soit à des squelettes surfaciques, soit à des squelettes filiformes selon les besoins de l'utilisateur. Pour finir, nous décrivons une application qui valide notre approche, et l'illustre sur des données biologiques
33

Etude méthodologique de l'analyse en composantes principales de processus bidimensionnels : effets des approximations numériques et de l'échantillonnage et utilisation pour la simulation de champs aléatoires : application au traitement des températures mensuelles de surface de la mer sur l'Atlantique intertropical

Braud, Isabelle 10 April 1990 (has links) (PDF)
Le point de départ de ce mémoire est la technique d'Analyse en Composantes Principales de Processus (ACPP), extension à des champs spatialement et/ou temporellement continus de l'Analyse en Composantes Principales (ACP) classique. Elle conduit à rechercher les fonctions propres d'un noyau de covariance, solutions d'une équation intégrale de Fredholm et permet ainsi de tenir compte explicitement de la forme et de la taille du domaine d'étude. Dans le chapitre l, après un rappel de la méthode et la présentation de l'approximation numérique utilisée lorsqu'on travaille avec un échantillon de taille fInie et un processus discrétisé spatialement, on s'attache à montrer les liens de cette technique avec la recherche de modes normaux de systèmes dynamiques puis avec les techniques d'interpolation optimale et la géostatistique. On montre ainsi que l'ACPP peut s'interpréter comme un cas particulier de krigeage s'appuyant sur un modèle de covariance spécifique, non nécessairement stationnaire. Dans le chapitre 2, afIn de quantifIer les erreurs sur l'estimation des fonctions propres, dues à l'échantillonnage statistique et à la discrétisation spatiale, une solution analytique, pour un modèle particulier de covariance et un domaine circulaire, est proposée puis comparée aux solutions numériques. Le chapitre 3 pose ensuite les principes de l'utilisation de l'ACPP pour la simulation de champs bidimensionnels et analyse la sensibilité de la méthode au choix des paramètres en terme de restitution d'une covariance cible. La technique est aussi comparée à d'autres méthodes (Bandes tournantes, méthodes matricielles), puis utilisée pour la simulation de champs non stationnaires. Enfin, le chapitre 4 illustre tous ces développements méthodologiques sur des données de température mensuelle de surface de la mer sur l'Atlantique intertropical entre 1964 et 1987.
34

Contributions à l'analyse des lois d'échelles et de la qualité de service dans les réseaux : aspects expérimentaux et théoriques

Loiseau, Patrick 11 December 2009 (has links) (PDF)
Dans le contexte actuel d'expansion rapide de l'Internet, la compréhension profonde des propriétés statistiques du trafic réseau est essentielle pour que les fournisseurs d'accès puisse offrir la meilleure "Qualité de Service" possible aux utilisateurs. Une avancée majeure dans cette direction a été la découverte en 1993 de l'auto-similarité du trafic, suivie en 1997 par le modèle ON/OFF qui interprète cette propriété par les tailles de fichiers à queue lourde. Bien qu'ils soient d'un grand intérêt, de tels modèles mathématiques s'appuient nécessairement sur des hypothèses simplificatrices qui peuvent en limiter l'applicabilité en situation réelle, en particulier du fait de la complexité du protocole TCP. Dans cette thèse, nous utilisons une approche hybride, basée sur la combinaison de traces de trafic réelles, d'expériences contrôlées et de modèles théoriques, pour aborder certaines questions ouvertes sur le trafic réseau et la Qualité de Service. Nos expériences utilisent une plate-forme contrôlable à grande échelle et un système performant de capture du trafic. Nous abordons dans un premier temps des questions liées au trafic agrégé : nous étendons les modèles existants de longue mémoire et nous proposons un estimateur du paramètre de queue lourde sous échantillonnage. Nous étudions ensuite empiriquement l'impact de la longue mémoire et des queues lourdes sur la Qualité de Service. Nous nous tournons enfin vers le trafic d'une seule source TCP et montrons, à l'aide d'un principe de grandes déviations, qu'il peut être finement caractérisé par une structure multifractale reliée au mécanisme de contrôle AIMD, et naturellement reproduite par des modèles markoviens.
35

Identification en imagerie Doppler : liens avec la transformée de radon généralisée

Mennessier, Catherine 17 October 1997 (has links) (PDF)
Le champ magnétique des étoiles joue un rôle essentiel dans leur évolution interne et dans l'interaction qu'elles entretiennent avec leur environnement. Il se manifeste, entre autre, par l'existence de structures inhomogènes à leur surface. Hélas à de rares exceptions la résolution des télescopes reste insuffisante pour les résoudre spatialement. Ceci oblige donc à se tourner vers des méthodes indirectes. Telle est le but de l'imagerie Doppler. Après un exposé détaillé du principe de l'imagerie Doppler et quelques rappels sur la tomographie - transformée de Radon classique - nous montrons que cette technique astrophysique peut être traduite en termes de transformée de Radon généralisée. Cette réécriture du problème inverse d'imagerie Doppler permet d'étudier l'identifiabilité. Nous en déduisons, en particulier, l'existence de fonctions radiales du noyau. Des codes numériques performants utilisés classiquement en tomographie sont ensuite adaptés à notre type de mesure. Ils permettront de mieux caractériser les fonctions du noyau déduites de l'étude précédente. Nous nous intéressons ensuite à la géométrie d'échantillonnage des mesures en imagerie Doppler. Pour cela, nous étendons les résultats de schémas d'échantillonnage de la transformée de Radon classique à la transformée de Radon généralisée invariante par rotation avec fonction poids polynomiales. Ce résultat peut être appliqué à deux cas singuliers en imagerie Doppler. Par ailleurs, nous présentons les enjeux astrophysiques de l'imagerie Doppler : dans un premier temps sont résumées diverses manifestations du champ magnétique dans l'activité des étoiles, en particulier des étoiles jeunes T Tauri ainsi que le rôle de ce champ dans certains modèles d'évolution. Dans un deuxième temps sont données diverses techniques permettant d'estimer l'activité magnétique, parmi lesquelles l'imagerie Doppler dont la spécificité est soulignée. Enfin, cette technique est appliquée sur des données réelles issues d'observations que nous avons menées à l'Observatoire de Haute Provence. Des structures en surface sont déduites et les résultats sont discutés.
36

Contribution à la modélisation et à la gestion dynamique du risque des marchés de l'énergie

Frikha, Noufel 01 December 2010 (has links) (PDF)
Cette thèse est consacrée à des problématiques numériques probabilistes liées à la modélisation, au contrôle et à la gestion du risque et motivées par des applications dans les marchés de l'énergie. Le principal outil utilisé est la théorie des algorithmes stochastiques et des méthodes de simulation. Cette thèse se compose de trois parties. La première est dévouée à l'estimation de deux mesures de risque de la distribution L des pertes d'un portefeuille: la Value-at-Risk (VaR) et la Conditional Value-at-Risk (CVaR). Cette estimation est effectuée à l'aide d'un algorithme stochastique combiné avec une méthode de réduction de variance adaptative. La première partie de ce chapitre traite du cas de la dimension finie, la deuxième étend la première au cas d'une fonction de la trajectoire d'un processus et la dernière traite du cas des suites à discrépance faible. Le deuxième chapitre est dédié à des méthodes de couverture du risque en CVaR dans un marché incomplet opérant à temps discret à l'aide d'algorithmes stochastiques et de quantification vectorielle optimale. Des résultats théoriques sur la couverture en CVaR sont présentés puis les aspects numériques sont abordés dans un cadre markovien. La dernière partie est consacrée à la modélisation conjointe des prix des contrats spot Gaz et l'Electricité. Le modèle multi-facteur présenté repose sur des processus d'Ornstein stationnaires à coefficient de diffusion paramétrique.
37

Analyse statistique des valeurs extrêmes de précipitation : application dans la région Cévennes-Vivarais

Nguyen, Thi Phuong Thao 25 February 1993 (has links) (PDF)
Ce travail consiste à choisir une méthode statistique d'ajustement des valeurs extrêmes et à l'appliquer aux précipitations extrêmes dans la région Cévennes - Vivarais. La première partie est réalisée à partir de valeurs simulées. La méthode non-paramétrique de Villasenor qui n'impose pas au début de l'analyse une loi statistique à la série de données, est choisie comme la meilleure méthode parmi les cinq méthodes d'ajustements. Dans la deuxième partie les caractéristiques pluviométriques de la région Cévennes - Vivarais sont calculées à partir de mesures horaires de 52 stations par la méthode choisie. La cartographie des caractéristiques pluviométriques de cette région est réalisée par les méthodes : spline et krigeage. La méthode krigeage donne une meilleure interpolation que celle de spline, et fournit encore des informations sur la structure spatiale de la région. Les cartes tracées représentent une distribution réaliste des valeurs extrêmes de précipitation de la région Cévennes - Vivarais.
38

Intégration de connaissances a priori dans la reconstruction des signaux parcimonieux : Cas particulier de la spectroscopie RMN multidimensionnelle

Merhej, Dany 10 February 2012 (has links) (PDF)
Les travaux de cette thèse concernent la conception d'outils algorithmiques permettant l'intégration de connaissances a priori dans la reconstruction de signaux parcimonieux. Le but étant principalement d'améliorer la reconstruction de ces signaux à partir d'un ensemble de mesures largement inférieur à ce que prédit le célèbre théorème de Shannon-Nyquist. Dans une première partie nous proposons, dans le contexte de la nouvelle théorie du " compressed sensing " (CS), l'algorithme NNOMP (Neural Network Orthogonal Matching Pursuit), qui est une version modifiée de l'algorithme OMP dans laquelle nous avons remplacé l'étape de corrélation par un réseau de neurones avec un entraînement adapté. Le but est de mieux reconstruire les signaux parcimonieux possédant des structures supplémentaires, i.e. appartenant à un modèle de signaux parcimonieux particulier. Pour la validation expérimentale de NNOMP, trois modèles simulés de signaux parcimonieux à structures supplémentaires ont été considérés, ainsi qu'une application pratique dans un arrangement similaire au " single pixel imaging ". Dans une deuxième partie, nous proposons une nouvelle méthode de sous-échantillonnage en spectroscopie RMN multidimensionnelle (y compris l'imagerie spectroscopique RMN), lorsque les spectres des acquisitions correspondantes de dimension inférieure, e.g. monodimensionnelle, sont intrinsèquement parcimonieux. Dans cette méthode, on modélise le processus d'acquisition des données et de reconstruction des spectres multidimensionnels, par un système d'équations linéaires. On utilise ensuite des connaissances a priori, sur les emplacements non nuls dans les spectres multidimensionnels, pour enlever la sous-détermination induite par le sous échantillonnage des données. Ces connaissances a priori sont obtenues à partir des spectres des acquisitions de dimension inférieure, e.g. monodimensionnelle. La possibilité de sous-échantillonnage est d'autant plus importante que ces spectres monodimensionnels sont parcimonieux. La méthode proposée est évaluée sur des données synthétiques et expérimentales in vitro et in vivo.
39

Etude de la dynamique conformationnelle des protéines intrinsèquement désordonnées par résonance magnétique nucléaire

Ozenne, Valery 28 November 2012 (has links) (PDF)
Près de 40% des protéines présentes dans les cellules sont prédites partiellement ou complètement désordonnées. Ces protéines dépourvues de structure tridimensionnelle à l'état natif sont impliquées dans de nombreux mécanismes biologiques, la flexibilité jouant un rôle moteur dans les mécanismes de reconnaissance moléculaire. La prise en considération de l'existence de flexibilité au sein des protéines et des interactions protéines-protéines a nécessité le renouvellement de nos connaissances, de notre appréhension des fonctions biologiques ainsi que des approches pour étudier et interpréter ces phénomènes. La méthode retenue pour étudier ces transitions conformationnelles est la spectroscopie par résonance magnétique nucléaire. Elle dispose d'une sensibilité unique, d'une résolution à l'échelle atomique et permet par diverses expériences d'accéder à l'ensemble des échelles de temps définissant les mouvements de ces protéines. Nous combinons ces mesures expérimentales à un modèle statistique représentant l'ensemble du paysage énergétique des protéines désordonnées : la description par ensemble explicite de structures. Ce modèle est une représentation discrète des différents états échantillonnés par ces protéines. Il permet, combinant les déplacements chimiques, les couplages dipolaires et la relaxation paramagnétique, de développer une description moléculaire de l'état déplié en caractérisant à la fois l'information locale et l'information à longue portée présente dans les protéines intrinsèquement désordonnées.
40

Nouvelles approches en filtrage particulaire. Application au recalage de la navigation inertielle

Murangira, A. 25 March 2014 (has links) (PDF)
Les travaux présentés dans ce mémoire de thèse concernent le développement et la mise en œuvre d'un algorithme de filtrage particulaire pour le recalage de la navigation inertielle par mesures altimétriques. Le filtre développé, le MRPF (Mixture Regularized Particle Filter), s'appuie à la fois sur la modélisation de la densité a posteriori sous forme de mélange fini, sur le filtre particulaire régularisé ainsi que sur l'algorithme mean-shiftclustering. Nous proposons également une extension du MRPF au filtre particulaire Rao-Blackwellisé appelée MRBPF (Mixture Rao-Blackwellized ParticleFilter). L'objectif est de proposer un filtre adapté à la gestion des multimodalités dues aux ambiguïtés de terrain. L'utilisation des modèles de mélange fini permet d'introduire un algorithme d'échantillonnage d'importance afin de générer les particules dans les zones d'intérêt. Un second axe de recherche concerne la mise au point d'outils de contrôle d'intégrité de la solution particulaire. En nous appuyant sur la théorie de la détection de changement, nous proposons un algorithme de détection séquentielle de la divergence du filtre. Les performances du MRPF, MRBPF, et du test d'intégrité sont évaluées sur plusieurs scénarios de recalage altimétrique.

Page generated in 0.0691 seconds