• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 294
  • 81
  • 17
  • 3
  • Tagged with
  • 407
  • 100
  • 94
  • 89
  • 82
  • 50
  • 49
  • 49
  • 45
  • 38
  • 38
  • 36
  • 35
  • 35
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Statistical methods for analysis and correction of high-throughput screening data

Dragiev, Plamen 11 1900 (has links) (PDF)
Durant le criblage à haut débit (High-throughput screening, HTS), la première étape dans la découverte de médicaments, le niveau d'activité de milliers de composés chimiques est mesuré afin d'identifier parmi eux les candidats potentiels pour devenir futurs médicaments (i.e., hits). Un grand nombre de facteurs environnementaux et procéduraux peut affecter négativement le processus de criblage en introduisant des erreurs systématiques dans les mesures obtenues. Les erreurs systématiques ont le potentiel de modifier de manière significative les résultats de la sélection des hits, produisant ainsi un grand nombre de faux positifs et de faux négatifs. Des méthodes de correction des données HTS ont été développées afin de modifier les données reçues du criblage et compenser pour l'effet négatif que les erreurs systématiques ont sur ces données (Heyse 2002, Brideau et al. 2003, Heuer et al. 2005, Kevorkov and Makarenkov 2005, Makarenkov et al. 2006, Malo et al. 2006, Makarenkov et al. 2007). Dans cette thèse, nous évaluons d'abord l'applicabilité de plusieurs méthodes statistiques servant à détecter la présence d'erreurs systématiques dans les données HTS expérimentales, incluant le x2 goodness-of-fit test, le t-test et le test de Kolmogorov-Smirnov précédé par la méthode de Transformation de Fourier. Nous montrons premièrement que la détection d'erreurs systématiques dans les données HTS brutes est réalisable, de même qu'il est également possible de déterminer l'emplacement exact (lignes, colonnes et plateau) des erreurs systématiques de l'essai. Nous recommandons d'utiliser une version spécialisée du t-test pour détecter l'erreur systématique avant la sélection de hits afin de déterminer si une correction d'erreur est nécessaire ou non. Typiquement, les erreurs systématiques affectent seulement quelques lignes ou colonnes, sur certains, mais pas sur tous les plateaux de l'essai. Toutes les méthodes de correction d'erreur existantes ont été conçues pour modifier toutes les données du plateau sur lequel elles sont appliquées et, dans certains cas, même toutes les données de l'essai. Ainsi, lorsqu'elles sont appliquées, les méthodes existantes modifient non seulement les mesures expérimentales biaisées par l'erreur systématique, mais aussi de nombreuses données correctes. Dans ce contexte, nous proposons deux nouvelles méthodes de correction d'erreur systématique performantes qui sont conçues pour modifier seulement des lignes et des colonnes sélectionnées d'un plateau donné, i.e., celles où la présence d'une erreur systématique a été confirmée. Après la correction, les mesures corrigées restent comparables avec les valeurs non modifiées du plateau donné et celles de tout l'essai. Les deux nouvelles méthodes s'appuient sur les résultats d'un test de détection d'erreur pour déterminer quelles lignes et colonnes de chaque plateau de l'essai doivent être corrigées. Une procédure générale pour la correction des données de criblage à haut débit a aussi été suggérée. Les méthodes actuelles de sélection des hits en criblage à haut débit ne permettent généralement pas d'évaluer la fiabilité des résultats obtenus. Dans cette thèse, nous décrivons une méthodologie permettant d'estimer la probabilité de chaque composé chimique d'être un hit dans le cas où l'essai contient plus qu'un seul réplicat. En utilisant la nouvelle méthodologie, nous définissons une nouvelle procédure de sélection de hits basée sur la probabilité qui permet d'estimer un niveau de confiance caractérisant chaque hit. En plus, de nouvelles mesures servant à estimer des taux de changement de faux positifs et de faux négatifs, en fonction du nombre de réplications de l'essai, ont été proposées. En outre, nous étudions la possibilité de définir des modèles statistiques précis pour la prédiction informatique des mesures HTS. Remarquons que le processus de criblage expérimental est très coûteux. Un criblage virtuel, in silico, pourrait mener à une baisse importante de coûts. Nous nous sommes concentrés sur la recherche de relations entre les mesures HTS expérimentales et un groupe de descripteurs chimiques caractérisant les composés chimiques considérés. Nous avons effectué l'analyse de redondance polynomiale (Polynomial Redundancy Analysis) pour prouver l'existence de ces relations. En même temps, nous avons appliqué deux méthodes d'apprentissage machine, réseaux de neurones et arbres de décision, pour tester leur capacité de prédiction des résultats de criblage expérimentaux. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : criblage à haut débit (HTS), modélisation statistique, modélisation prédictive, erreur systématique, méthodes de correction d'erreur, méthodes d'apprentissage automatique
102

Simulation et assimilation de données radar pour la prévision de la convection profonde à fine échelle

Caumont, Olivier 04 December 2007 (has links) (PDF)
Le travail de thèse a porté sur l'utilisation des données radar dans les domaines de la validation et de l'initialisation des modèles atmosphériques à échelle kilométrique. Dans la première partie, un simulateur radar sophistiqué et modulaire est développé dans le modèle atmosphérique à haute résolution Méso-NH. Des tests de sensibilité sur les différentes formulations utilisées pour décrire chaque processus physique impliqué dans les mesures radar (réflectivités et vents radiaux Doppler) sont effectués. Ils permettent de préciser le niveau de complexité nécessaire pour la simulation de la donnée radar à des fins de validation et pour l'opérateur d'observation à des fins d'assimilation des données radar. Dans la seconde partie, une méthode originale est développée pour assimiler les réflectivités. Cette méthode en deux temps, appelée 1D+3DVar, restitue d'abord des profils verticaux d'humidité à partir de profils de réflectivité par le biais d'une technique bayésienne qui utilise des colonnes voisines d'humidité et de réflectivité cohérentes du modèle. Les pseudo-observations restituées sont à leur tour assimilées par un système d'assimilation 3DVar à la résolution de 2,5 km. La méthode est évaluée et réglée avec à la fois des données simulées et réelles. On montre notamment le bénéfice de l'assimilation des données de réflectivité pour les prévisions à courte échéance de la situation des inondations exceptionnelles de septembre 2002 dans le Gard.
103

Squelettes algorithmiques méta-programmés : implantations, performances et sémantique

Javed, Noman 21 October 2011 (has links) (PDF)
Les approches de parallélisme structuré sont un compromis entre la parallélisation automatique et la programmation concurrentes et réparties telle qu'offerte par MPI ou les Pthreads. Le parallélisme à squelettes est l'une de ces approches. Un squelette algorithmique peut être vu comme une fonction d'ordre supérieur qui capture un algorithme parallèle classique tel qu'un pipeline ou une réduction parallèle. Souvent la sémantique des squelettes est simple et correspondant à celle de fonctions d'ordre supérieur similaire dans les langages de programmation fonctionnels. L'utilisation combine les squelettes disponibles pour construire son application parallèle. Lorsqu'un programme parallèle est conçu, les performances sont bien sûr importantes. Il est ainsi très intéressant pour le programmeur de disposer d'un modèle de performance, simple mais réaliste. Le parallélisme quasi-synchrone (BSP) offre un tel modèle. Le parallélisme étant présent maintenant dans toutes les machines, du téléphone au super-calculateur, il est important que les modèles de programmation s'appuient sur des sémantiques formelles pour permettre la vérification de programmes. Les travaux menés on conduit à la conception et au développement de la bibliothèque Orléans Skeleton Library ou OSL. OSL fournit un ensemble de squelettes algorithmiques data-parallèles quasi-synchrones. OSL est une bibliothèque pour le langage C++ et utilise des techniques de programmation avancées pour atteindre une bonne efficacité. Les communications se basent sur la bibliothèque MPI. OSL étant basée sur le modèle BSP, il est possible non seulement de prévoir les performances des programmes OSL mais également de fournir une portabilité des performances. Le modèle de programmation d'OSL a été formalisé dans l'assistant de preuve Coq. L'utilisation de cette sémantique pour la preuve de programmes est illustrée par un exemple.
104

Vers une approche intégrée de gestion de planification de la production et de la distribution : cas de l'industrie textile

Safra, Imen 06 February 2013 (has links) (PDF)
A travers cette thèse, nous nous intéressons au secteur industriel du textile. Les acteurs de ce secteur, qui se caractérise souvent par des chaînes logistiques internationales, doivent s'adapter à une demande dynamique pour des produits de courte durée de vie. Ces spécificités renforcent la nécessité de s'imposer dans un environnement très concurrentiel par une maîtrise des coûts et des ressources de production et logistique ainsi que par une bonne connaissance du marché auquel il faut savoir sans cesse s'adapter. Dans cette thèse, en s'inspirant du contexte d'un industriel tunisien du textile, nous nous focalisons sur l'optimisation, par la programmation mathématique, de la planification de la production et de la distribution des produits. Ces décisions reviennent à l'industriel qui fournit des clients nationaux et internationaux. Il s'engage auprès d'eux à répondre à deux types de commandes : (i) des commandes de mise en place des collections à venir, souvent de délais longs et (ii) des commandes de réassort, souvent de délais très courts, pour les collections en cours de vente. Nous proposons une méthode de planification qui optimise, à la fois, les décisions de production et de distribution de produits. Cette méthode se caractérise par une anticipation d'une certaine flexibilité dans le plan de production tactique pour mieux absorber les commandes de réassort dans le plan opérationnel. Grâce aux données fournies par notre partenaire industriel, nous étions en mesure de démontrer qu'une telle approche permet des économies de coûts remarquables, allant jusqu'à 10% pour le cas étudié. Nous supposons dans un second temps qu'un accord de partenariat permettait à l'industriel d'avoir accès à l'information sur l'évolution de la demande pour les produits en cours de vente chez ses clients. Il peut alors mobiliser cette information pour établir des modèles de prévision et les utiliser pour anticiper au mieux la flexibilité a priori des plannings de production. Sous cette hypothèse, nous démontrons que l'industriel peut réaliser un gain sur les coûts totaux d'environ 15%. Le travail de cette thèse a trouvé une application et une validation grâce aux données fournies par un acteur de l'industrie du textile. Nous montrons néanmoins qu'il est largement valable pour des contextes industriels différents.
105

Modes de variabilité géomagnétiques et de météo spatiale à partir des données satellites / Geomagnetic and space weather variability modes in satellite data

Rosa Domingos, João Miguel 27 March 2018 (has links)
Ce travail porte sur l’anomalie de l’Atlantique Sud (SAA anglais). Nous avons étudié cette anomalie du champ magnétique principal à partir de données satellitaires afin de mieux connaître les différentes sources de ses variations temporelles. Nous avons appliqué l’analyse en composantes principales (PCA) à des données de flux de particules, de bruit d’un lidar embarqué et à des séries temporelles d’observatoires magnétiques virtuels - séries construites à partir de mesures satellitaires du champ géomagnétique. Les données de flux de particules proviennent de trois satellites de la série POES de la NOAA (POES 10, 12 et 15) ainsi que du satellite Jason-2 du CNES et de la NASA. Nous utilisons aussi le bruit affectant le lidar CALIOP du mini-satellite CALIPSO (CNES/NASA) comme substitut au flux de particules chargées heurtant ce satellite. Pour l’information géomagnétique, deux jeux de données d’observatoires virtuels construits à partir d’enregistrements des satellites CHAMP et Swarm ont été utilisés. Ces deux ensembles différents de données apportent des éclairages complémentaires sur l’anomalie de l’Atlantique Sud. L’analyse en composantes principales des données de flux de particules a permis de distinguer différents modes de variabilité, dus au soleil d’une part et au champ magnétique principal d’autre part. Le cycle solaire de 11 ans affecte à la fois le flux total de particules énergétiques à l’aplomb de l’anomalie de l’Atlantique Sud et leur distribution dans les différentes ceintures de radiation internes. Le champ magnétique principal, qui provient du noyau liquide de la Terre, est responsable d’une lente dérive de l’anomalie de l’Atlantique Sud et par ricochet de la région où il y a un flux intense de particules énergétiques. Une fois déconvolué le rôle du champ magnétique principal, on distingue deux composantes que l’on peut associer sans ambiguïté au cycle solaire. Sur des temps plus longs, nous avons finalement pu mettre en évidence une tendance dans le flux total de particules dans la région de l’Atlantique Sud. Peu d’analyses globales des modes de variabilité du champ interne ont été entreprises. Notre étude vise aussi à combler ce manque. L’analyse en composantes principales permet d’extraire jusqu’à trois modes d’origine interne et un mode annuel combinant contributions interne et externe. Ce dernier mode a une géométrie principalement quadrupolaire et zonale. Le premier des modes purement internes explique l’essentiel de la variabilité du champ et correspond à la variation séculaire moyenne au cours de l’intervalle de temps étudié. Il s’interprète principalement comme la variation de la partie du champ géomagnétique représentée par un dipôle qui serait de plus en plus décalé par rapport au centre de la Terre en direction de l’Asie du Sud-Est et qui serait aussi incliné par rapport à l’axe de rotation. Ainsi, ce simple modèle nous a été utile à la fois pour rendre compte du flux de particule au dessus de l’anomalie de l’Atlantique Sud et pour interpréter la variation du champ géomagnétique à l’échelle globale. / This work focus on the study of the South Atlantic Anomaly (SAA) of the main magnetic field from satellite data, aiming at identifying different sources of variability. This is done by first applying the Principal Component Analysis (PCA) method to particle flux and dark noise data and then to Virtual Observatories (VOs) time series constructed from satellite magnetic records. Particle flux data are provided by three POES NOAA satellites (10, 12 and 15) and the Jason-2 satellite. Dark noise data, which can be interpreted as a proxy to particle flux, are provided by the CALIOP lidar onboard the CALIPSO satellite. The magnetic field information is used in the form of time series for VOs, which were computed from both CHAMP and Swarm data as two separate datasets. The two different groups of data provide different views of the South Atlantic Anomaly. Applying PCA to particle flux data on the SAA produces interesting modes that can be related with specific physical processes involved with the anomaly. The main sources that drive these modes are the Earth’s magnetic field and the Sun. The Sun’s 11-year cycle is a well-known quasi-period of solar activity. This work shows how it clearly affects the evolution of the energetic particles trapped in the inner Van Allen belt, by modulating both their total number and their distribution among different L-shells. The way particles become trapped and move near-Earth is also dictated by the main magnetic field geometry and intensity and so a good understanding of its variation allows for a better description of the evolution of these particles. The main magnetic field, with origin in the Earth’s liquid core, is responsible for a slow drift of the anomaly, associated to the Westward drift of several features of the main field. Changing the frame of reference to that of the eccentric dipole, we were able to identify two separate modes associated with the variability of the solar activity. On longer time-scales, we also observed a linear trend in the spatial evolution of the particle flux. A global analysis of variability modes of the Earth’s magnetic field has not been often addressed. This study also contributes to fill this gap. By decomposing satellite records of the magnetic field into PCA modes, we retrieved modes of internal origin and modes with large external contributions, with no a-priori considerations. An annual signal has been identified and associated with mainly external sources. It exhibits an interesting geometry dominated by a zonal quadrupolar geometry. As for the internal source, three separate modes were obtained from the longest time series analysed. The first of these modes explains most of the variability of the field and represents the mean secular variation. It is closely modelled by an eccentric tilted dipole moving away from the Earth’s center and toward under East Asia. As this study shows, this simple model turns out to be a useful tool that can be used both on regional studies of the SAA and on global studies of the geomagnetic field.
106

Squelettes algorithmiques méta-programmés : implantations, performances et sémantique / Metaprogrammed algorithmic skeletons : implementations, performances and semantics

Javed, Noman 21 October 2011 (has links)
Les approches de parallélisme structuré sont un compromis entre la parallélisation automatique et la programmation concurrentes et réparties telle qu'offerte par MPI ou les Pthreads. Le parallélisme à squelettes est l'une de ces approches. Un squelette algorithmique peut être vu comme une fonction d'ordre supérieur qui capture un algorithme parallèle classique tel qu'un pipeline ou une réduction parallèle. Souvent la sémantique des squelettes est simple et correspondant à celle de fonctions d'ordre supérieur similaire dans les langages de programmation fonctionnels. L'utilisation combine les squelettes disponibles pour construire son application parallèle. Lorsqu'un programme parallèle est conçu, les performances sont bien sûr importantes. Il est ainsi très intéressant pour le programmeur de disposer d'un modèle de performance, simple mais réaliste. Le parallélisme quasi-synchrone (BSP) offre un tel modèle. Le parallélisme étant présent maintenant dans toutes les machines, du téléphone au super-calculateur, il est important que les modèles de programmation s'appuient sur des sémantiques formelles pour permettre la vérification de programmes. Les travaux menés on conduit à la conception et au développement de la bibliothèque Orléans Skeleton Library ou OSL. OSL fournit un ensemble de squelettes algorithmiques data-parallèles quasi-synchrones. OSL est une bibliothèque pour le langage C++ et utilise des techniques de programmation avancées pour atteindre une bonne efficacité. Les communications se basent sur la bibliothèque MPI. OSL étant basée sur le modèle BSP, il est possible non seulement de prévoir les performances des programmes OSL mais également de fournir une portabilité des performances. Le modèle de programmation d'OSL a été formalisé dans l'assistant de preuve Coq. L'utilisation de cette sémantique pour la preuve de programmes est illustrée par un exemple. / Structured parallelism approaches are a trade-off between automatic parallelisation and concurrent and distributed programming such as Pthreads and MPI. Skeletal parallelism is one of the structured approaches. An algorithmic skeleton can be seen as higher-order function that captures a pattern of a parallel algorithm such as a pipeline, a parallel reduction, etc. Often the sequential semantics of the skeleton is quite simple and corresponds to the usual semantics of similar higher-order functions in functional programming languages. The user constructs a parallel program by combined calls to the available skeletons. When one is designing a parallel program, the parallel performance is of course important. It is thus very interesting for the programmer to rely on a simple yet realistic parallel performance model. Bulk Synchronous Parallelism (BSP) offers such a model. As the parallelism can now be found everywhere from smart-phones to the super computers, it becomes critical for the parallel programming models to support the proof of correctness of the programs developed with them. . The outcome of this work is the Orléans Skeleton Library or OSL. OSL provides a set of data parallel skeletons which follow the BSP model of parallel computation. OSL is a library for C++ currently implemented on top of MPI and using advanced C++ techniques to offer good efficiency. With OSL being based over the BSP performance model, it is possible not only to predict the performances of the application but also provides the portability of performance. The programming model of OSL is formalized using the big-step semantics in the Coq proof assistant. Based on this formal model the correctness of an OSL example is proved.
107

Aircraft trajectory prediction by local functional regression / Prévision de trajectoire de l'avion par régression fonctionnelle locale dans l'espace de Sobolev

Tastambekov, Kairat 18 December 2012 (has links)
Les systèmes de contrôle aérien donneront, dans un avenir assez proche, une plus grande autonomie et liberté d’action aux pilotes (en particulier dans le cadre de la “planification 4D des trajectoires”), ce qui nécessite une prévision de trajectoire de qualité, afin d’une part d’éviter les « conflits » entre avions (avions trop proches, d’où un risque de collision), d’autre part de réguler efficacement les temps d’arrivée aux aéroports.Les trajectoires dépendent de facteurs extérieurs souvent pas, ou mal connus ; en particulier les vents ne sont pas connus avec la précision nécessaire pour une prévision de trajectoire de qualité. De sorte que la prévision de trajectoire ne peut être faite de façon utilisable qu’à court ou moyen terme, disons dans un horizon de moins de 10 minutes ou de l’ordre de 10 à 30 minutes.On appelle “trajectoire 4D” la trajectoire d’un avion, dans l’espace 4D constitué des trois dimensions d’espace, et de la dimension du temps. L’objet de cette thèse est d’établir des méthodes de prévision de trajectoires 4D à court et moyen terme (jusqu’à 10 à 30 minutes). Une telle prévision prend en compte (éventuellement implicitement) des facteurs importants tels que le type de l’appareil, les conditions atmosphériques (vent, température), de façon à pouvoir en déduire les actions précises pour résoudre les conflits potentiels, et/ou arriver à l’instant t voulu à l’aéroport.Dans ce travail, nous présentons une nouvelle approche pour la prédiction des trajectoires d’avion. Cette méthode est basée sur une régression fonctionnelle linéaire, et comprend en particulier un prétraitement des données (lissage, mais surtout synchronisation et cadencement régulier en temps), résolution de la régression par l’utilisation d’une décomposition en ondelettes. On commence par collecter un nombre important de données concernant les vols ayant existé entre deux aéroports ; ces données comportent en particulier les coordonnées, vitesses et projection de l’avion à différents temps. L’étape suivante, que nous appelons localisation, consiste à déterminer un certain nombre de trajectoires “logiquement proches”, c’est à dire, en particulier, concernant le même type d’appareil, et concernant les mêmes aéroports d’origine et de destination. Cet ensemble de trajectoires est ensuite utilisé pour construire un modèle type, qui se rapproche le plus possible de la partie connue de la trajectoire en cours, à prolonger ; ceci est réalisé grâce à une régression fonctionnelle linéaire. Le “modèle type” est alors utilisé comme prédicteur de la trajectoire en cours. Remarquons que cet algorithme n’utilise que des mesures radar, et ne prend pas en compte explicitement des données importantes physiques ou aéronautiques. Cependant les trajectoires ayant servi pour construire le modèle type dépendant elles aussi de ces données, ces dernières sont implicitement prises en compte par cette démarche.Nous avons appliqué cette méthode sur de nombreuses trajectoires entre plusieurs aéroports français, la base de données s’étendant sur plus d’un an. Près de trois millions de vols ont été pris en compte. Les résultats sont présentés en fin du manuscrit ; ils présentent en particulier l’erreur de prédiction, qui est la différence entre la prédiction de la trajectoire et la trajectoire effective (connue puisqu’il s’agit de trajectoires ayant existé, mais bien sûr non utilisée à partir de l’instant où démarre la prévision de trajectoire). Ces résultats montrent que l’erreur de prédiction relative (différence relative entre l’erreur de prédiction et la déviation standard) est de l’ordre de 2% à 16 %. Les résultats obtenus sont meilleurs que ceux obtenus avec la régression linéaire multivariée standard, comme présenté en fin du manuscrit. Rappelons que la méthode est intrinsèque, ne dépend en particulier pas de la structure de l’espace aérien / Air Traffic Management (ATM) heavily rely on the ability to predict where an aircraft will be located in a 10-minute time window. So it is clear that a controller’s workload can be reduced by an accurate and automated forecast of aircraft trajectories, since knowing whether conflicts are to be expected helps in prioritizing the actions to be taken.Despite the increasing autonomy in future air traffic management systems, especially 4D trajectory planning, the ability of trajectory prediction is still actual. As known, 4D trajectory planning implies aircraft will be properly located in a certain place at a certain time. However, such an approach is not realistic. Because, in particular, of the wind, Present Flight Management Systems are not able to predict precisely the position of an aircraft in a window larger than, say 15 minutes. For this reason, trajectory prediction problem can be stated as an actual issues at least for the near future. We consider the problem of short to mid-term aircraft trajectory prediction, that is, the estimation of where an aircraft will be located over a 10 to 30 minutes time horizon. Such a problem is central in the decision support tools, especially in conflict detection and resolution algorithms. It also appears when an air traffic controller observes traffic on the radar screen and tries to identify convergent aircraft, which may be in conflict in the near future, in order to apply maneuvers that will separate them. The problem is then to estimate where the aircraft will be located in the time horizon of 10 - 30 minutes. A 4-dimensional (4D) trajectory prediction contains data specifying the predicted horizontal and vertical position of an aircraft. The ability to accurately predict trajectories for different types of aircraft under different flight conditions, that involving external actions (pilot, ATC) and atmospheric influences (wind, temperature), is an important factor in determining the accuracy and effectiveness of ATM.In this work, we present an innovative approach for aircraft trajectory prediction in this work. It is based on local linear functional regression that considers data preprocessing, localizing and solving linear regression using wavelet decomposition. This approach starts from collecting the data set, consisting of a large enough amounts of aircraft trajectories between several airports, in order to make statistical procedures useful. It is necessary to note that ATC radar observations for a given aircraft are a discrete collection of aircraft coordinates, speed, projections, and other factors depending on the radar system. The next step, called localization, is to select a subset of trajectories of the same type of aircraft and connecting the same Origin-Destination as an aircraft trajectory to be predicted. Let us denote an aircraft trajectory to be predicted as a real trajectory. Then, the selected subset is taken as a learning data set to construct a model which is a linear functional regression model. The first part of real aircraft is also taken as a learning set to the model, and the second part is taken to compare it with the predicted part, which is a linear functional regression model. This algorithm takes into account only past radar tracks, and does not make use of any physical or aeronautical parameters.This approach has been successfully applied to aircraft trajectories between several airports on the data set (one year of air traffic over France). The data set consists of more than 2.9*10^6 flights. Several examples at the end of the manuscript show that the relative prediction error that is the difference between prediction error and standard deviation is about 2 to 16 per cents. The proposed algorithm shows better results compares to the standard multiple linear regressions that is shown from the figures at the end of the manuscript. The method is intrinsic and independent from airspace structure
108

Vers une approche intégrée de gestion de planification de la production et de la distribution : cas de l'industrie textile / Toward an integrated approach of production and distribution planning : case of the textile industry

Safra, Imen 06 February 2013 (has links)
A travers cette thèse, nous nous intéressons au secteur industriel du textile. Les acteurs de ce secteur, qui se caractérise souvent par des chaînes logistiques internationales, doivent s’adapter à une demande dynamique pour des produits de courte durée de vie. Ces spécificités renforcent la nécessité de s’imposer dans un environnement très concurrentiel par une maîtrise des coûts et des ressources de production et logistique ainsi que par une bonne connaissance du marché auquel il faut savoir sans cesse s’adapter. Dans cette thèse, en s’inspirant du contexte d’un industriel tunisien du textile, nous nous focalisons sur l’optimisation, par la programmation mathématique, de la planification de la production et de la distribution des produits. Ces décisions reviennent à l’industriel qui fournit des clients nationaux et internationaux. Il s’engage auprès d’eux à répondre à deux types de commandes : (i) des commandes de mise en place des collections à venir, souvent de délais longs et (ii) des commandes de réassort, souvent de délais très courts, pour les collections en cours de vente. Nous proposons une méthode de planification qui optimise, à la fois, les décisions de production et de distribution de produits. Cette méthode se caractérise par une anticipation d’une certaine flexibilité dans le plan de production tactique pour mieux absorber les commandes de réassort dans le plan opérationnel. Grâce aux données fournies par notre partenaire industriel, nous étions en mesure de démontrer qu’une telle approche permet des économies de coûts remarquables, allant jusqu’à 10% pour le cas étudié. Nous supposons dans un second temps qu’un accord de partenariat permettait à l’industriel d’avoir accès à l’information sur l’évolution de la demande pour les produits en cours de vente chez ses clients. Il peut alors mobiliser cette information pour établir des modèles de prévision et les utiliser pour anticiper au mieux la flexibilité a priori des plannings de production. Sous cette hypothèse, nous démontrons que l’industriel peut réaliser un gain sur les coûts totaux d’environ 15%. Le travail de cette thèse a trouvé une application et une validation grâce aux données fournies par un acteur de l’industrie du textile. Nous montrons néanmoins qu’il est largement valable pour des contextes industriels différents. / Through this thesis, we are interested in the textile industry. The actors in this field of industry, which is often characterized by global supply chains, must adapt to a dynamic demand for short-life-cycle products. These characteristics reinforce the need to be imperative in a highly competitive environment by controlling costs and resources of production and logistics and by having a good knowledge of the market to which it is necessary to constantly know how to adapt. In this thesis, basing on the context of a Tunisian textile industry, we focus on production and distribution planning using mathematical programming. These decisions are made by the manufacturer who provides local and overseas retailers. He is fully committed to meet two types of orders: (i) pre-season orders of future collections, often with a large delivery lead time and (ii) replenishment orders, often with shorter due dates, occurring over the season to fill in stock outs or to replace unsold products. We propose an integrated planning method that optimizes both the production and distribution decisions. This method is characterized by an anticipation of some flexibility in the tactical production plan to better place the unplanned and urgent newly arrived demands at the operational level. Using the data provided by our industrial partner, we were able to demonstrate that such an approach allows remarkable cost savings, reaching 10% for the cases studied. Then, we assume that a partnership agreement has allowed the manufacturer to follow the evolution of demand information concerning the products being sold to their retailers. They can then use this information to build forecast model to anticipate at best the flexibility a priori of production plans. Under this assumption, we demonstrate that a cost cutting of 15% is attained. The work of this thesis was validated by data provided by a Tunisian textile-apparel company. We show, however, that it can be widely applied to different industrial contexts.
109

Sensibilité des assimilations d'ensemble globales et régionales aux conditions initialites et aux conditions limites latérales

El Ouaraini, Rachida 16 April 2016 (has links) (PDF)
La mise en œuvre de méthodes d'assimilation d'ensemble est une technique assez récente visant à simuler les erreurs d'analyse et de prévision d'un système d'assimilation de données. Cela permet d'une part d'estimer des covariances spatiales des erreurs de prévision, qui sont un ingrédient essentiel des systèmes d'assimilation de données, dans la mesure où elles permettent de filtrer et de propager spatialement l'information observée. La dépendance de ces covariances d'erreur à la situation météorologique devient ainsi accessible avec ces techniques d'ensemble. D'autre part, l'assimilation d'ensemble est également une méthode de plus en plus utilisée pour fournir des perturbations initiales aux systèmes de prévision d'ensemble. Une telle approche peut être mise en place non seulement dans un système modélisant l'atmosphère sur l'ensemble du globe, mais aussi dans un système régional à aire limitée, en utilisant dans ce cas des conditions limites latérales appropriées. Le sujet de thèse proposé consiste à examiner certaines propriétés de sensibilité de ces techniques d'assimilation d'ensemble dans ces deux types de contextes (à savoir global et régional, respectivement). Il s'agit premièrement d'étudier la sensibilité d'un système global d'assimilation d'ensemble à son initialisation. Cela sera mené en comparant une technique d'initialisation "à froid" (basée sur des perturbations initiales nulles) avec une méthode basée sur des perturbations initiales tirées d'un modèle de covariance. Dans une deuxième partie, la sensibilité d'une assimilation d'ensemble régionale aux conditions limites latérales sera examinée. Dans cette perspective, une comparaison entre différentes techniques de production des perturbations latérales sera réalisée. Il s'agit notamment de comparer les approches basées sur des perturbations latérales qui sont soit nulles, soit tirées d'un ensemble global, ou encore produites à l'aide d'un modèle de covariance. Ces études de sensibilité seront menées d'une part en utilisant des expérimentations avec les systèmes global Arpege et régional Aladin. Ce travail s'appuiera d'autre part sur une formalisation des équations qui gouvernent l'évolution des perturbations au sein d'une assimilation d'ensemble. Ces études devraient permettre de documenter les propriétés de ces assimilations d'ensemble, et de définir des stratégies de mise en œuvre en grandeur réelle pour l'assimilation de données ainsi qu'éventuellement pour la prévision d'ensemble.
110

Essays in Empirical Economics on the Formation of Wine Prices / Essais d'Economie Empirique sur la Formation des Prix du Vin

Paroissien, Emmanuel 08 December 2017 (has links)
La vaste dispersion des prix et la grande variété des produits sur le marché du vin suscite un intérêt grandissant au sein de la communauté des économistes. Justement, les acteurs de ce marché sont en demande de nouveaux outils économiques pour comprendre les mutations récentes, dont la multiplication des experts influents et l'accélération de l'intégration des régions vinicoles à l'économie mondiale. Cette thèse se place au croisement des intérêts des économistes et des professionnels du vin en développant de nouvelles méthodes statistiques pour l'étude et la mesure de l'influences des déterminants des prix du vin. Chacun des quatre chapitres qui la compose propose une innovation méthodologique dont l'intérêt est illustré par une application empirique sur des données originales du marché des vins de Bordeaux. Le premier chapitre s'appuie sur des données météorologiques pour isoler la composante subjective des notes de dégustation et évaluer l'influence des critiques sur les prix de détail. Le deuxième chapitre introduit une méthode d'échelonnage pour comparer les scores de qualité estimés par plusieurs sources. Le troisième chapitre estime l'impact des médailles obtenues aux concours vinicoles sur les prix payés aux producteurs. Le quatrième et dernier chapitre compile une base de données exhaustive sur les déterminants macroéconomiques des fluctuations du marché Bordelais pour établir un modèle opérationnel de prévision des cours des vins par appellation d'origine contrôlée. / The price dispersion and the variety of products on the wine market has attracted an increasing interest from the economists community. On the other end, the agents of this market require new economic tools to understand the recent evolutions, such as the multiplication of influential experts and the accelerating integration of the wine regions in the global economy. This dissertation aligns the interests of economists and wine professionals by developing new methods for the study and the impact measurement of wine prices determinants. Each of the four chapters constituting this thesis introduces a specific methodological innovation and illustrates its benefits with an empirical application using novel data on the Bordeaux wine market. The first chapter builds on weather data to identify the subjective component of tasting grades and assess the influence of experts on retail prices. The second chapter proposes a scaling method to compare quality scores among different sources. The third chapter estimates the causal impact of the obtention of a medal at wine competitions on the prices paid to producers. The fourth and last chapter assembles a comprehensive database on macro-level determinants of the fluctuations of the Bordeaux wine market to build an operational forecasting model of the average prices by protected appellation of origin.

Page generated in 0.0663 seconds