Spelling suggestions: "subject:"prévision"" "subject:"révision""
111 |
Prévision du trafic Internet : modèles et applicationsZhani, Mohamed Faten 06 1900 (has links) (PDF)
Avec l'essor de la métrologie de l'Internet, la prévision du trafic s'est imposée comme une de ses branches les plus importantes. C'est un outil puissant qui permet d'aider à la conception, la mise en place et la gestion des réseaux ainsi qu'à l'ingénierie du trafic et le contrôle des paramètres de qualité de service. L'objectif de cette thèse est d'étudier les techniques de prévision et d'évaluer la performance des modèles de prévision et de les appliquer pour la gestion des files d'attente et le contrôle du taux de perte dans les réseaux à commutation de rafales. Ainsi, on analyse les différents paramètres qui permettent d'améliorer la performance de la prévision en termes d'erreur. Les paramètres étudiés sont : la quantité de données nécessaires pour définir les paramètres du modèle, leur granularité, le nombre d'entrées du modèle ainsi que les caractéristiques du trafic telles que sa variance et la distribution de la taille des paquets. Nous proposons aussi une technique d'échantillonnage baptisée échantillonnage basé sur le maximum (Max-Based Sampling - MBS). Nous prouvons son efficacité pour améliorer la performance de la prévision et préserver l'auto-similarité et la dépendance à long terme du trafic.
Le travail porte aussi sur l'exploitation de la prévision du trafic pour la gestion du trafic et le contrôle du taux de perte dans les réseaux à commutation de rafales. Ainsi, nous proposons un nouveau mécanisme de gestion de files d'attente, baptisé α_SNFAQM, qui est basé sur la prévision du trafic. Ce mécanisme permet de stabiliser la taille de la file d'attente et par suite, contrôler les délais d'attente des paquets. Nous proposons aussi une nouvelle technique qui permet de garantir la qualité de service dans les réseaux à commutation de rafales en termes de taux de perte. Elle combine entre la modélisation, la prévision du trafic et les systèmes asservis avec feedback. Elle permet de contrôler efficacement le taux de perte des rafales pour chaque classe de service. Le modèle est ensuite amélioré afin d'éviter les feedbacks du réseau en utilisant la prévision du taux de perte au niveau TCP.
______________________________________________________________________________
MOTS-CLÉS DE L’AUTEUR : Modélisation et prévision du trafic, techniques d'échantillonnage, gestion des files d'attente, réseaux à commutation de rafales, contrôle du taux de perte, qualité de service, l'automatique.
|
112 |
Contribution à l'élaboration de stratégies prospectives pour saisir les incertitudes environnementales et territoriales : application au massif du Fouta-Djalon (Guinée)Diallo, Alpha Issaga Pallé 02 1900 (has links) (PDF)
La complexité des systèmes territoriaux et environnementaux ainsi que les incertitudes entourant leur avenir sont au cœur du management stratégique de l'environnement à l'échelle des territoires. La compréhension de la première et la réduction des secondes constituent une préoccupation majeure pour les acteurs territoriaux et les chercheurs en prospective environnementale et territoriale. Le but de cette thèse est de contribuer à l'avancement des connaissances en prospective stratégique du territoire centrée sur l'environnement. C'est une recherche appliquée qui est à la fois descriptive, exploratoire et prospective. Elle intègre l'environnement, la géographie, l'écologie, la sociologie, l'anthropologie, l'économie régionale et la prospective stratégique. Elle combine également des démarches relevant de ces différents champs scientifiques. L'objectif de la recherche est de caractériser le développement socio-économique et écologique du système territorial du massif du Fouta-Djalon, cerner les incertitudes liées à ce développement, élaborer des outils d'aide à la décision en vue d'harmoniser et d'optimiser les actions socio-économiques et environnementales et améliorer les conditions de vie de la population. Elle aborde le développement territorial, le comportement stratégique des acteurs territoriaux et la dynamique de l'anthroposystème. Les méthodes utilisées pour l'acquisition des données sont la recherche documentaire, l'inventaire d'infrastructures sociales et d'Entreprises d'Économie Populaire (EÉP), l'enquête par entrevues semi-directives, l'enquête par questionnaire structuré et des observations physionomiques accompagnées de relevés. Celles ayant servi au traitement et à l'analyse de ces données sont l'analyse cluster (ou partitionnement des données), l'analyse discriminante, le test non paramétrique, l'analyse stratégique utilisant la MACTOR (Méthode Acteurs Objectifs et Rapports de forces), le traitement d'images Landsat pour la réalisation des cartes d'occupation du sol et la modélisation systémique basée sur la PenTe (Prospective Environnementale des Territoires). Les résultats montrent qu'en fonction des caractéristiques de développement, les
CRD/CU se regroupent dans sept clusters (ou agglomérats). En plus, à une pauvreté manifeste du territoire s'ajoute une disparité de la distribution spatiale des EÉP et des infrastructures sociales. L'analyse du comportement stratégique des acteurs fait constater l'existence des inégalités sociales et l'utilisation non durable des ressources naturelles. Cela fragilise la cohésion sociale et menace l'avenir des écosystèmes naturels. La dynamique prospective du système socio-écologique vient confirmer ces constats. Pour mettre en valeur les indices latents d'équité, freiner l'expansion de l'oekoumène et assurer le développement intégré et durable du système territorial, la mise en œuvre des outils stratégiques élaborés à cet effet s'avère nécessaire. L'originalité de l'étude réside en (i) l'élaboration d'un schéma de conception et de mise en œuvre des Documents Stratégiques de Réduction de la Pauvreté (DSRP) en intégrant des perceptions de la population et des variables du développement territorial, (ii) la caractérisation quantitative et qualitative des inégalités sociales dans la gestion du territoire, (iii) la mise au point d'outils stratégiques de gestion intégrée et durable du territoire et de l'environnement en passant par la représentation sociale de la durabilité territoriale, et (iv) la compréhension de la dynamique des anthroposystèmes et l'élaboration de modèles de durabilité territoriale et environnementale à partir de l'interaction des dimensions démographique, socio-économique, écologique et la référence territoriale. À cause de quelques difficultés rencontrées pendant la collecte des données et certaines faiblesses inhérentes à toute recherche en prospective territoriale et environnementale, ces résultats ont des limites. Ces limites sont liées (i) au fait que les données d'enquête n'aient pas été comparées suivant la distance sociale des répondants dans l'analyse du développement territorial, (ii) à la faible précision des images utilisées pour l'étude de l'occupation du sol, (iii) au fait que les séries des données utilisées pour l'étude de la dynamique du système socio-écologique ne couvrent pas dans certains cas toutes les années de la période, et (iv) à la non prise en compte par le modèle de dynamique prospective du système territorial des difficultés pouvant survenir lors de sa mise en œuvre. Cependant, (a) l'investigation sur l'ensemble de l'espace géographique de la zone d'étude, (b) le traitement des images satellitales sur la base de la connaissance du milieu, (c) le tri des données à partir du croisement des diverses sources, (d) l'utilisation des perceptions et des représentations de la population selon les catégories d'acteurs territoriaux, (e) la pertinence des méthodes et techniques employées pour l'analyse et le traitement des données, et (f) la transdisciplinarité de la recherche, leurs confèrent une fiabilité scientifique certaine. Au regard de la montée des incertitudes environnementales, de la dépendance du développement territorial à des contraintes exogènes et de la demande en infrastructures et équipements, ces résultats ouvrent la perspective d'un programme global et interdisciplinaire de recherche. Ce programme doit s'inscrire dans l'optique d'un suivi écologique et socioéconomique du massif. Pour cela il doit viser une compatibilité durable entre la dynamique des systèmes social et économique et celle du système naturel. Tout en combinant, sous l'angle prospectif, la recherche expérimentale, la recherche participative et la recherche-action, il doit conjuguer l'environnement en termes d'interactions sociétés-milieux et l'environnement en tant que problème.
______________________________________________________________________________
MOTS-CLÉS DE L’AUTEUR : Environnement, Territoire, Incertitude environnementale, Incertitude territoriale, Prospective territoriale, Prospective environnementale, Massif du Fouta-Djalon.
|
113 |
Statistical methods for analysis and correction of high-throughput screening dataDragiev, Plamen 11 1900 (has links) (PDF)
Durant le criblage à haut débit (High-throughput screening, HTS), la première étape dans la découverte de médicaments, le niveau d'activité de milliers de composés chimiques est mesuré afin d'identifier parmi eux les candidats potentiels pour devenir futurs médicaments (i.e., hits). Un grand nombre de facteurs environnementaux et procéduraux peut affecter négativement le processus de criblage en introduisant des erreurs systématiques dans les mesures obtenues. Les erreurs systématiques ont le potentiel de modifier de manière significative les résultats de la sélection des hits, produisant ainsi un grand nombre de faux positifs et de faux négatifs. Des méthodes de correction des données HTS ont été développées afin de modifier les données reçues du criblage et compenser pour l'effet négatif que les erreurs systématiques ont sur ces données (Heyse 2002, Brideau et al. 2003, Heuer et al. 2005, Kevorkov and Makarenkov 2005, Makarenkov et al. 2006, Malo et al. 2006, Makarenkov et al. 2007). Dans cette thèse, nous évaluons d'abord l'applicabilité de plusieurs méthodes statistiques servant à détecter la présence d'erreurs systématiques dans les données HTS expérimentales, incluant le x2 goodness-of-fit test, le t-test et le test de Kolmogorov-Smirnov précédé par la méthode de Transformation de Fourier. Nous montrons premièrement que la détection d'erreurs systématiques dans les données HTS brutes est réalisable, de même qu'il est également possible de déterminer l'emplacement exact (lignes, colonnes et plateau) des erreurs systématiques de l'essai. Nous recommandons d'utiliser une version spécialisée du t-test pour détecter l'erreur systématique avant la sélection de hits afin de déterminer si une correction d'erreur est nécessaire ou non. Typiquement, les erreurs systématiques affectent seulement quelques lignes ou colonnes, sur certains, mais pas sur tous les plateaux de l'essai. Toutes les méthodes de correction d'erreur existantes ont été conçues pour modifier toutes les données du plateau sur lequel elles sont appliquées et, dans certains cas, même toutes les données de l'essai. Ainsi, lorsqu'elles sont appliquées, les méthodes existantes modifient non seulement les mesures expérimentales biaisées par l'erreur systématique, mais aussi de nombreuses données correctes. Dans ce contexte, nous proposons deux nouvelles méthodes de correction d'erreur systématique performantes qui sont conçues pour modifier seulement des lignes et des colonnes sélectionnées d'un plateau donné, i.e., celles où la présence d'une erreur systématique a été confirmée. Après la correction, les mesures corrigées restent comparables avec les valeurs non modifiées du plateau donné et celles de tout l'essai. Les deux nouvelles méthodes s'appuient sur les résultats d'un test de détection d'erreur pour déterminer quelles lignes et colonnes de chaque plateau de l'essai doivent être corrigées. Une procédure générale pour la correction des données de criblage à haut débit a aussi été suggérée. Les méthodes actuelles de sélection des hits en criblage à haut débit ne permettent généralement pas d'évaluer la fiabilité des résultats obtenus. Dans cette thèse, nous décrivons une méthodologie permettant d'estimer la probabilité de chaque composé chimique d'être un hit dans le cas où l'essai contient plus qu'un seul réplicat. En utilisant la nouvelle méthodologie, nous définissons une nouvelle procédure de sélection de hits basée sur la probabilité qui permet d'estimer un niveau de confiance caractérisant chaque hit. En plus, de nouvelles mesures servant à estimer des taux de changement de faux positifs et de faux négatifs, en fonction du nombre de réplications de l'essai, ont été proposées. En outre, nous étudions la possibilité de définir des modèles statistiques précis pour la prédiction informatique des mesures HTS. Remarquons que le processus de criblage expérimental est très coûteux. Un criblage virtuel, in silico, pourrait mener à une baisse importante de coûts. Nous nous sommes concentrés sur la recherche de relations entre les mesures HTS expérimentales et un groupe de descripteurs chimiques caractérisant les composés chimiques considérés. Nous avons effectué l'analyse de redondance polynomiale (Polynomial Redundancy Analysis) pour prouver l'existence de ces relations. En même temps, nous avons appliqué deux méthodes d'apprentissage machine, réseaux de neurones et arbres de décision, pour tester leur capacité de prédiction des résultats de criblage expérimentaux.
______________________________________________________________________________
MOTS-CLÉS DE L’AUTEUR : criblage à haut débit (HTS), modélisation statistique, modélisation prédictive, erreur systématique, méthodes de correction d'erreur, méthodes d'apprentissage automatique
|
114 |
Simulation et assimilation de données radar pour la prévision de la convection profonde à fine échelleCaumont, Olivier 04 December 2007 (has links) (PDF)
Le travail de thèse a porté sur l'utilisation des données radar dans les domaines de la validation et de l'initialisation des modèles atmosphériques à échelle kilométrique. Dans la première partie, un simulateur radar sophistiqué et modulaire est développé dans le modèle atmosphérique à haute résolution Méso-NH. Des tests de sensibilité sur les différentes formulations utilisées pour décrire chaque processus physique impliqué dans les mesures radar (réflectivités et vents radiaux Doppler) sont effectués. Ils permettent de préciser le niveau de complexité nécessaire pour la simulation de la donnée radar à des fins de validation et pour l'opérateur d'observation à des fins d'assimilation des données radar. Dans la seconde partie, une méthode originale est développée pour assimiler les réflectivités. Cette méthode en deux temps, appelée 1D+3DVar, restitue d'abord des profils verticaux d'humidité à partir de profils de réflectivité par le biais d'une technique bayésienne qui utilise des colonnes voisines d'humidité et de réflectivité cohérentes du modèle. Les pseudo-observations restituées sont à leur tour assimilées par un système d'assimilation 3DVar à la résolution de 2,5 km. La méthode est évaluée et réglée avec à la fois des données simulées et réelles. On montre notamment le bénéfice de l'assimilation des données de réflectivité pour les prévisions à courte échéance de la situation des inondations exceptionnelles de septembre 2002 dans le Gard.
|
115 |
Squelettes algorithmiques méta-programmés : implantations, performances et sémantiqueJaved, Noman 21 October 2011 (has links) (PDF)
Les approches de parallélisme structuré sont un compromis entre la parallélisation automatique et la programmation concurrentes et réparties telle qu'offerte par MPI ou les Pthreads. Le parallélisme à squelettes est l'une de ces approches. Un squelette algorithmique peut être vu comme une fonction d'ordre supérieur qui capture un algorithme parallèle classique tel qu'un pipeline ou une réduction parallèle. Souvent la sémantique des squelettes est simple et correspondant à celle de fonctions d'ordre supérieur similaire dans les langages de programmation fonctionnels. L'utilisation combine les squelettes disponibles pour construire son application parallèle. Lorsqu'un programme parallèle est conçu, les performances sont bien sûr importantes. Il est ainsi très intéressant pour le programmeur de disposer d'un modèle de performance, simple mais réaliste. Le parallélisme quasi-synchrone (BSP) offre un tel modèle. Le parallélisme étant présent maintenant dans toutes les machines, du téléphone au super-calculateur, il est important que les modèles de programmation s'appuient sur des sémantiques formelles pour permettre la vérification de programmes. Les travaux menés on conduit à la conception et au développement de la bibliothèque Orléans Skeleton Library ou OSL. OSL fournit un ensemble de squelettes algorithmiques data-parallèles quasi-synchrones. OSL est une bibliothèque pour le langage C++ et utilise des techniques de programmation avancées pour atteindre une bonne efficacité. Les communications se basent sur la bibliothèque MPI. OSL étant basée sur le modèle BSP, il est possible non seulement de prévoir les performances des programmes OSL mais également de fournir une portabilité des performances. Le modèle de programmation d'OSL a été formalisé dans l'assistant de preuve Coq. L'utilisation de cette sémantique pour la preuve de programmes est illustrée par un exemple.
|
116 |
Vers une approche intégrée de gestion de planification de la production et de la distribution : cas de l'industrie textileSafra, Imen 06 February 2013 (has links) (PDF)
A travers cette thèse, nous nous intéressons au secteur industriel du textile. Les acteurs de ce secteur, qui se caractérise souvent par des chaînes logistiques internationales, doivent s'adapter à une demande dynamique pour des produits de courte durée de vie. Ces spécificités renforcent la nécessité de s'imposer dans un environnement très concurrentiel par une maîtrise des coûts et des ressources de production et logistique ainsi que par une bonne connaissance du marché auquel il faut savoir sans cesse s'adapter. Dans cette thèse, en s'inspirant du contexte d'un industriel tunisien du textile, nous nous focalisons sur l'optimisation, par la programmation mathématique, de la planification de la production et de la distribution des produits. Ces décisions reviennent à l'industriel qui fournit des clients nationaux et internationaux. Il s'engage auprès d'eux à répondre à deux types de commandes : (i) des commandes de mise en place des collections à venir, souvent de délais longs et (ii) des commandes de réassort, souvent de délais très courts, pour les collections en cours de vente. Nous proposons une méthode de planification qui optimise, à la fois, les décisions de production et de distribution de produits. Cette méthode se caractérise par une anticipation d'une certaine flexibilité dans le plan de production tactique pour mieux absorber les commandes de réassort dans le plan opérationnel. Grâce aux données fournies par notre partenaire industriel, nous étions en mesure de démontrer qu'une telle approche permet des économies de coûts remarquables, allant jusqu'à 10% pour le cas étudié. Nous supposons dans un second temps qu'un accord de partenariat permettait à l'industriel d'avoir accès à l'information sur l'évolution de la demande pour les produits en cours de vente chez ses clients. Il peut alors mobiliser cette information pour établir des modèles de prévision et les utiliser pour anticiper au mieux la flexibilité a priori des plannings de production. Sous cette hypothèse, nous démontrons que l'industriel peut réaliser un gain sur les coûts totaux d'environ 15%. Le travail de cette thèse a trouvé une application et une validation grâce aux données fournies par un acteur de l'industrie du textile. Nous montrons néanmoins qu'il est largement valable pour des contextes industriels différents.
|
117 |
Modes de variabilité géomagnétiques et de météo spatiale à partir des données satellites / Geomagnetic and space weather variability modes in satellite dataRosa Domingos, João Miguel 27 March 2018 (has links)
Ce travail porte sur l’anomalie de l’Atlantique Sud (SAA anglais). Nous avons étudié cette anomalie du champ magnétique principal à partir de données satellitaires afin de mieux connaître les différentes sources de ses variations temporelles. Nous avons appliqué l’analyse en composantes principales (PCA) à des données de flux de particules, de bruit d’un lidar embarqué et à des séries temporelles d’observatoires magnétiques virtuels - séries construites à partir de mesures satellitaires du champ géomagnétique. Les données de flux de particules proviennent de trois satellites de la série POES de la NOAA (POES 10, 12 et 15) ainsi que du satellite Jason-2 du CNES et de la NASA. Nous utilisons aussi le bruit affectant le lidar CALIOP du mini-satellite CALIPSO (CNES/NASA) comme substitut au flux de particules chargées heurtant ce satellite. Pour l’information géomagnétique, deux jeux de données d’observatoires virtuels construits à partir d’enregistrements des satellites CHAMP et Swarm ont été utilisés. Ces deux ensembles différents de données apportent des éclairages complémentaires sur l’anomalie de l’Atlantique Sud. L’analyse en composantes principales des données de flux de particules a permis de distinguer différents modes de variabilité, dus au soleil d’une part et au champ magnétique principal d’autre part. Le cycle solaire de 11 ans affecte à la fois le flux total de particules énergétiques à l’aplomb de l’anomalie de l’Atlantique Sud et leur distribution dans les différentes ceintures de radiation internes. Le champ magnétique principal, qui provient du noyau liquide de la Terre, est responsable d’une lente dérive de l’anomalie de l’Atlantique Sud et par ricochet de la région où il y a un flux intense de particules énergétiques. Une fois déconvolué le rôle du champ magnétique principal, on distingue deux composantes que l’on peut associer sans ambiguïté au cycle solaire. Sur des temps plus longs, nous avons finalement pu mettre en évidence une tendance dans le flux total de particules dans la région de l’Atlantique Sud. Peu d’analyses globales des modes de variabilité du champ interne ont été entreprises. Notre étude vise aussi à combler ce manque. L’analyse en composantes principales permet d’extraire jusqu’à trois modes d’origine interne et un mode annuel combinant contributions interne et externe. Ce dernier mode a une géométrie principalement quadrupolaire et zonale. Le premier des modes purement internes explique l’essentiel de la variabilité du champ et correspond à la variation séculaire moyenne au cours de l’intervalle de temps étudié. Il s’interprète principalement comme la variation de la partie du champ géomagnétique représentée par un dipôle qui serait de plus en plus décalé par rapport au centre de la Terre en direction de l’Asie du Sud-Est et qui serait aussi incliné par rapport à l’axe de rotation. Ainsi, ce simple modèle nous a été utile à la fois pour rendre compte du flux de particule au dessus de l’anomalie de l’Atlantique Sud et pour interpréter la variation du champ géomagnétique à l’échelle globale. / This work focus on the study of the South Atlantic Anomaly (SAA) of the main magnetic field from satellite data, aiming at identifying different sources of variability. This is done by first applying the Principal Component Analysis (PCA) method to particle flux and dark noise data and then to Virtual Observatories (VOs) time series constructed from satellite magnetic records. Particle flux data are provided by three POES NOAA satellites (10, 12 and 15) and the Jason-2 satellite. Dark noise data, which can be interpreted as a proxy to particle flux, are provided by the CALIOP lidar onboard the CALIPSO satellite. The magnetic field information is used in the form of time series for VOs, which were computed from both CHAMP and Swarm data as two separate datasets. The two different groups of data provide different views of the South Atlantic Anomaly. Applying PCA to particle flux data on the SAA produces interesting modes that can be related with specific physical processes involved with the anomaly. The main sources that drive these modes are the Earth’s magnetic field and the Sun. The Sun’s 11-year cycle is a well-known quasi-period of solar activity. This work shows how it clearly affects the evolution of the energetic particles trapped in the inner Van Allen belt, by modulating both their total number and their distribution among different L-shells. The way particles become trapped and move near-Earth is also dictated by the main magnetic field geometry and intensity and so a good understanding of its variation allows for a better description of the evolution of these particles. The main magnetic field, with origin in the Earth’s liquid core, is responsible for a slow drift of the anomaly, associated to the Westward drift of several features of the main field. Changing the frame of reference to that of the eccentric dipole, we were able to identify two separate modes associated with the variability of the solar activity. On longer time-scales, we also observed a linear trend in the spatial evolution of the particle flux. A global analysis of variability modes of the Earth’s magnetic field has not been often addressed. This study also contributes to fill this gap. By decomposing satellite records of the magnetic field into PCA modes, we retrieved modes of internal origin and modes with large external contributions, with no a-priori considerations. An annual signal has been identified and associated with mainly external sources. It exhibits an interesting geometry dominated by a zonal quadrupolar geometry. As for the internal source, three separate modes were obtained from the longest time series analysed. The first of these modes explains most of the variability of the field and represents the mean secular variation. It is closely modelled by an eccentric tilted dipole moving away from the Earth’s center and toward under East Asia. As this study shows, this simple model turns out to be a useful tool that can be used both on regional studies of the SAA and on global studies of the geomagnetic field.
|
118 |
Squelettes algorithmiques méta-programmés : implantations, performances et sémantique / Metaprogrammed algorithmic skeletons : implementations, performances and semanticsJaved, Noman 21 October 2011 (has links)
Les approches de parallélisme structuré sont un compromis entre la parallélisation automatique et la programmation concurrentes et réparties telle qu'offerte par MPI ou les Pthreads. Le parallélisme à squelettes est l'une de ces approches. Un squelette algorithmique peut être vu comme une fonction d'ordre supérieur qui capture un algorithme parallèle classique tel qu'un pipeline ou une réduction parallèle. Souvent la sémantique des squelettes est simple et correspondant à celle de fonctions d'ordre supérieur similaire dans les langages de programmation fonctionnels. L'utilisation combine les squelettes disponibles pour construire son application parallèle. Lorsqu'un programme parallèle est conçu, les performances sont bien sûr importantes. Il est ainsi très intéressant pour le programmeur de disposer d'un modèle de performance, simple mais réaliste. Le parallélisme quasi-synchrone (BSP) offre un tel modèle. Le parallélisme étant présent maintenant dans toutes les machines, du téléphone au super-calculateur, il est important que les modèles de programmation s'appuient sur des sémantiques formelles pour permettre la vérification de programmes. Les travaux menés on conduit à la conception et au développement de la bibliothèque Orléans Skeleton Library ou OSL. OSL fournit un ensemble de squelettes algorithmiques data-parallèles quasi-synchrones. OSL est une bibliothèque pour le langage C++ et utilise des techniques de programmation avancées pour atteindre une bonne efficacité. Les communications se basent sur la bibliothèque MPI. OSL étant basée sur le modèle BSP, il est possible non seulement de prévoir les performances des programmes OSL mais également de fournir une portabilité des performances. Le modèle de programmation d'OSL a été formalisé dans l'assistant de preuve Coq. L'utilisation de cette sémantique pour la preuve de programmes est illustrée par un exemple. / Structured parallelism approaches are a trade-off between automatic parallelisation and concurrent and distributed programming such as Pthreads and MPI. Skeletal parallelism is one of the structured approaches. An algorithmic skeleton can be seen as higher-order function that captures a pattern of a parallel algorithm such as a pipeline, a parallel reduction, etc. Often the sequential semantics of the skeleton is quite simple and corresponds to the usual semantics of similar higher-order functions in functional programming languages. The user constructs a parallel program by combined calls to the available skeletons. When one is designing a parallel program, the parallel performance is of course important. It is thus very interesting for the programmer to rely on a simple yet realistic parallel performance model. Bulk Synchronous Parallelism (BSP) offers such a model. As the parallelism can now be found everywhere from smart-phones to the super computers, it becomes critical for the parallel programming models to support the proof of correctness of the programs developed with them. . The outcome of this work is the Orléans Skeleton Library or OSL. OSL provides a set of data parallel skeletons which follow the BSP model of parallel computation. OSL is a library for C++ currently implemented on top of MPI and using advanced C++ techniques to offer good efficiency. With OSL being based over the BSP performance model, it is possible not only to predict the performances of the application but also provides the portability of performance. The programming model of OSL is formalized using the big-step semantics in the Coq proof assistant. Based on this formal model the correctness of an OSL example is proved.
|
119 |
Aircraft trajectory prediction by local functional regression / Prévision de trajectoire de l'avion par régression fonctionnelle locale dans l'espace de SobolevTastambekov, Kairat 18 December 2012 (has links)
Les systèmes de contrôle aérien donneront, dans un avenir assez proche, une plus grande autonomie et liberté d’action aux pilotes (en particulier dans le cadre de la “planification 4D des trajectoires”), ce qui nécessite une prévision de trajectoire de qualité, afin d’une part d’éviter les « conflits » entre avions (avions trop proches, d’où un risque de collision), d’autre part de réguler efficacement les temps d’arrivée aux aéroports.Les trajectoires dépendent de facteurs extérieurs souvent pas, ou mal connus ; en particulier les vents ne sont pas connus avec la précision nécessaire pour une prévision de trajectoire de qualité. De sorte que la prévision de trajectoire ne peut être faite de façon utilisable qu’à court ou moyen terme, disons dans un horizon de moins de 10 minutes ou de l’ordre de 10 à 30 minutes.On appelle “trajectoire 4D” la trajectoire d’un avion, dans l’espace 4D constitué des trois dimensions d’espace, et de la dimension du temps. L’objet de cette thèse est d’établir des méthodes de prévision de trajectoires 4D à court et moyen terme (jusqu’à 10 à 30 minutes). Une telle prévision prend en compte (éventuellement implicitement) des facteurs importants tels que le type de l’appareil, les conditions atmosphériques (vent, température), de façon à pouvoir en déduire les actions précises pour résoudre les conflits potentiels, et/ou arriver à l’instant t voulu à l’aéroport.Dans ce travail, nous présentons une nouvelle approche pour la prédiction des trajectoires d’avion. Cette méthode est basée sur une régression fonctionnelle linéaire, et comprend en particulier un prétraitement des données (lissage, mais surtout synchronisation et cadencement régulier en temps), résolution de la régression par l’utilisation d’une décomposition en ondelettes. On commence par collecter un nombre important de données concernant les vols ayant existé entre deux aéroports ; ces données comportent en particulier les coordonnées, vitesses et projection de l’avion à différents temps. L’étape suivante, que nous appelons localisation, consiste à déterminer un certain nombre de trajectoires “logiquement proches”, c’est à dire, en particulier, concernant le même type d’appareil, et concernant les mêmes aéroports d’origine et de destination. Cet ensemble de trajectoires est ensuite utilisé pour construire un modèle type, qui se rapproche le plus possible de la partie connue de la trajectoire en cours, à prolonger ; ceci est réalisé grâce à une régression fonctionnelle linéaire. Le “modèle type” est alors utilisé comme prédicteur de la trajectoire en cours. Remarquons que cet algorithme n’utilise que des mesures radar, et ne prend pas en compte explicitement des données importantes physiques ou aéronautiques. Cependant les trajectoires ayant servi pour construire le modèle type dépendant elles aussi de ces données, ces dernières sont implicitement prises en compte par cette démarche.Nous avons appliqué cette méthode sur de nombreuses trajectoires entre plusieurs aéroports français, la base de données s’étendant sur plus d’un an. Près de trois millions de vols ont été pris en compte. Les résultats sont présentés en fin du manuscrit ; ils présentent en particulier l’erreur de prédiction, qui est la différence entre la prédiction de la trajectoire et la trajectoire effective (connue puisqu’il s’agit de trajectoires ayant existé, mais bien sûr non utilisée à partir de l’instant où démarre la prévision de trajectoire). Ces résultats montrent que l’erreur de prédiction relative (différence relative entre l’erreur de prédiction et la déviation standard) est de l’ordre de 2% à 16 %. Les résultats obtenus sont meilleurs que ceux obtenus avec la régression linéaire multivariée standard, comme présenté en fin du manuscrit. Rappelons que la méthode est intrinsèque, ne dépend en particulier pas de la structure de l’espace aérien / Air Traffic Management (ATM) heavily rely on the ability to predict where an aircraft will be located in a 10-minute time window. So it is clear that a controller’s workload can be reduced by an accurate and automated forecast of aircraft trajectories, since knowing whether conflicts are to be expected helps in prioritizing the actions to be taken.Despite the increasing autonomy in future air traffic management systems, especially 4D trajectory planning, the ability of trajectory prediction is still actual. As known, 4D trajectory planning implies aircraft will be properly located in a certain place at a certain time. However, such an approach is not realistic. Because, in particular, of the wind, Present Flight Management Systems are not able to predict precisely the position of an aircraft in a window larger than, say 15 minutes. For this reason, trajectory prediction problem can be stated as an actual issues at least for the near future. We consider the problem of short to mid-term aircraft trajectory prediction, that is, the estimation of where an aircraft will be located over a 10 to 30 minutes time horizon. Such a problem is central in the decision support tools, especially in conflict detection and resolution algorithms. It also appears when an air traffic controller observes traffic on the radar screen and tries to identify convergent aircraft, which may be in conflict in the near future, in order to apply maneuvers that will separate them. The problem is then to estimate where the aircraft will be located in the time horizon of 10 - 30 minutes. A 4-dimensional (4D) trajectory prediction contains data specifying the predicted horizontal and vertical position of an aircraft. The ability to accurately predict trajectories for different types of aircraft under different flight conditions, that involving external actions (pilot, ATC) and atmospheric influences (wind, temperature), is an important factor in determining the accuracy and effectiveness of ATM.In this work, we present an innovative approach for aircraft trajectory prediction in this work. It is based on local linear functional regression that considers data preprocessing, localizing and solving linear regression using wavelet decomposition. This approach starts from collecting the data set, consisting of a large enough amounts of aircraft trajectories between several airports, in order to make statistical procedures useful. It is necessary to note that ATC radar observations for a given aircraft are a discrete collection of aircraft coordinates, speed, projections, and other factors depending on the radar system. The next step, called localization, is to select a subset of trajectories of the same type of aircraft and connecting the same Origin-Destination as an aircraft trajectory to be predicted. Let us denote an aircraft trajectory to be predicted as a real trajectory. Then, the selected subset is taken as a learning data set to construct a model which is a linear functional regression model. The first part of real aircraft is also taken as a learning set to the model, and the second part is taken to compare it with the predicted part, which is a linear functional regression model. This algorithm takes into account only past radar tracks, and does not make use of any physical or aeronautical parameters.This approach has been successfully applied to aircraft trajectories between several airports on the data set (one year of air traffic over France). The data set consists of more than 2.9*10^6 flights. Several examples at the end of the manuscript show that the relative prediction error that is the difference between prediction error and standard deviation is about 2 to 16 per cents. The proposed algorithm shows better results compares to the standard multiple linear regressions that is shown from the figures at the end of the manuscript. The method is intrinsic and independent from airspace structure
|
120 |
Vers une approche intégrée de gestion de planification de la production et de la distribution : cas de l'industrie textile / Toward an integrated approach of production and distribution planning : case of the textile industrySafra, Imen 06 February 2013 (has links)
A travers cette thèse, nous nous intéressons au secteur industriel du textile. Les acteurs de ce secteur, qui se caractérise souvent par des chaînes logistiques internationales, doivent s’adapter à une demande dynamique pour des produits de courte durée de vie. Ces spécificités renforcent la nécessité de s’imposer dans un environnement très concurrentiel par une maîtrise des coûts et des ressources de production et logistique ainsi que par une bonne connaissance du marché auquel il faut savoir sans cesse s’adapter. Dans cette thèse, en s’inspirant du contexte d’un industriel tunisien du textile, nous nous focalisons sur l’optimisation, par la programmation mathématique, de la planification de la production et de la distribution des produits. Ces décisions reviennent à l’industriel qui fournit des clients nationaux et internationaux. Il s’engage auprès d’eux à répondre à deux types de commandes : (i) des commandes de mise en place des collections à venir, souvent de délais longs et (ii) des commandes de réassort, souvent de délais très courts, pour les collections en cours de vente. Nous proposons une méthode de planification qui optimise, à la fois, les décisions de production et de distribution de produits. Cette méthode se caractérise par une anticipation d’une certaine flexibilité dans le plan de production tactique pour mieux absorber les commandes de réassort dans le plan opérationnel. Grâce aux données fournies par notre partenaire industriel, nous étions en mesure de démontrer qu’une telle approche permet des économies de coûts remarquables, allant jusqu’à 10% pour le cas étudié. Nous supposons dans un second temps qu’un accord de partenariat permettait à l’industriel d’avoir accès à l’information sur l’évolution de la demande pour les produits en cours de vente chez ses clients. Il peut alors mobiliser cette information pour établir des modèles de prévision et les utiliser pour anticiper au mieux la flexibilité a priori des plannings de production. Sous cette hypothèse, nous démontrons que l’industriel peut réaliser un gain sur les coûts totaux d’environ 15%. Le travail de cette thèse a trouvé une application et une validation grâce aux données fournies par un acteur de l’industrie du textile. Nous montrons néanmoins qu’il est largement valable pour des contextes industriels différents. / Through this thesis, we are interested in the textile industry. The actors in this field of industry, which is often characterized by global supply chains, must adapt to a dynamic demand for short-life-cycle products. These characteristics reinforce the need to be imperative in a highly competitive environment by controlling costs and resources of production and logistics and by having a good knowledge of the market to which it is necessary to constantly know how to adapt. In this thesis, basing on the context of a Tunisian textile industry, we focus on production and distribution planning using mathematical programming. These decisions are made by the manufacturer who provides local and overseas retailers. He is fully committed to meet two types of orders: (i) pre-season orders of future collections, often with a large delivery lead time and (ii) replenishment orders, often with shorter due dates, occurring over the season to fill in stock outs or to replace unsold products. We propose an integrated planning method that optimizes both the production and distribution decisions. This method is characterized by an anticipation of some flexibility in the tactical production plan to better place the unplanned and urgent newly arrived demands at the operational level. Using the data provided by our industrial partner, we were able to demonstrate that such an approach allows remarkable cost savings, reaching 10% for the cases studied. Then, we assume that a partnership agreement has allowed the manufacturer to follow the evolution of demand information concerning the products being sold to their retailers. They can then use this information to build forecast model to anticipate at best the flexibility a priori of production plans. Under this assumption, we demonstrate that a cost cutting of 15% is attained. The work of this thesis was validated by data provided by a Tunisian textile-apparel company. We show, however, that it can be widely applied to different industrial contexts.
|
Page generated in 0.0664 seconds