51 |
Prévision du trafic Internet : modèles et applicationsZhani, Mohamed Faten 06 1900 (has links) (PDF)
Avec l'essor de la métrologie de l'Internet, la prévision du trafic s'est imposée comme une de ses branches les plus importantes. C'est un outil puissant qui permet d'aider à la conception, la mise en place et la gestion des réseaux ainsi qu'à l'ingénierie du trafic et le contrôle des paramètres de qualité de service. L'objectif de cette thèse est d'étudier les techniques de prévision et d'évaluer la performance des modèles de prévision et de les appliquer pour la gestion des files d'attente et le contrôle du taux de perte dans les réseaux à commutation de rafales. Ainsi, on analyse les différents paramètres qui permettent d'améliorer la performance de la prévision en termes d'erreur. Les paramètres étudiés sont : la quantité de données nécessaires pour définir les paramètres du modèle, leur granularité, le nombre d'entrées du modèle ainsi que les caractéristiques du trafic telles que sa variance et la distribution de la taille des paquets. Nous proposons aussi une technique d'échantillonnage baptisée échantillonnage basé sur le maximum (Max-Based Sampling - MBS). Nous prouvons son efficacité pour améliorer la performance de la prévision et préserver l'auto-similarité et la dépendance à long terme du trafic.
Le travail porte aussi sur l'exploitation de la prévision du trafic pour la gestion du trafic et le contrôle du taux de perte dans les réseaux à commutation de rafales. Ainsi, nous proposons un nouveau mécanisme de gestion de files d'attente, baptisé α_SNFAQM, qui est basé sur la prévision du trafic. Ce mécanisme permet de stabiliser la taille de la file d'attente et par suite, contrôler les délais d'attente des paquets. Nous proposons aussi une nouvelle technique qui permet de garantir la qualité de service dans les réseaux à commutation de rafales en termes de taux de perte. Elle combine entre la modélisation, la prévision du trafic et les systèmes asservis avec feedback. Elle permet de contrôler efficacement le taux de perte des rafales pour chaque classe de service. Le modèle est ensuite amélioré afin d'éviter les feedbacks du réseau en utilisant la prévision du taux de perte au niveau TCP.
______________________________________________________________________________
MOTS-CLÉS DE L’AUTEUR : Modélisation et prévision du trafic, techniques d'échantillonnage, gestion des files d'attente, réseaux à commutation de rafales, contrôle du taux de perte, qualité de service, l'automatique.
|
52 |
Étude des artefacts de flou, ringing et aliasing en imagerie numérique : application à la restaurationBlanchet, Gwendoline 17 November 2006 (has links) (PDF)
Cette thèse aborde les problèmes liés à la formation des images numériques. L'étape d'échantillonnage nécessaire à la formation d'une image discrète à partir d'une image continue peut introduire différents types d'artefacts qui constituent des dégradations majeures de la qualité de l'image. La motivation principale de cette thèse a été l'étude de ces artefacts que sont le flou, le ringing et l'aliasing. Dans la première partie, nous rappelons tout d'abord le processus de formation des images numériques puis nous proposons des définitions de ces artefacts. Dans la deuxième partie, nous définissons une mesure conjointe du flou et du ringing dans le cadre d'un filtrage passe bas précédant l'échantillonnage. La troisième partie est dédiée à la détection automatique de ces artefacts dans les images. Enfin, en quatrième partie, la détection automatique est testée dans des applications concrètes de la restauration d'images: la déconvolution aveugle et le débruitage.
|
53 |
Observations, avec les télescopes H.E.S.S., du rayonnement gamma émis par le Noyau Actif de Galaxie PKS 2155-304, au-delà de 100 GeVLeroy, Nicolas 03 June 2004 (has links) (PDF)
CELESTE est un échantillonneur Cerenkov basé sur la reconversion de la centrale solaire de Thémis, située dans les Pyrénées-Orientales : les miroirs de la centrale permettent de recueillir la lumière Cerenkov des gerbes atmosphériques initiées par les rayons.<br />Conçue dans le courant des années 90, cette expérience devait couvrir le domaine en énergie compris entre 30 et 300 GeV, permettant de faire le pont entre les satellites et les imageurs Cerenkov.<br />Depuis l'année 2000, ce fut chose faite avec la détection de la nébuleuse du Crabe, puis du noyau actif de galaxie Markarian 421.<br />Cette thèse présente le travail accompli depuis pour accroître la sensibilité de notre instrument tant par l'étude du détecteur que la conception d'une analyse originale. Malgré les conditions climatiques très difficiles pour l'observation, une nouvelle détection de la nébuleuse du Crabe est ici présentée, validant le principe de notre nouvelle analyse. Ce manuscrit se conclut sur l'étude des données provenant de deux noyaux actifs de galaxies, Markarian 421 et 1ES1426+428.
|
54 |
Commande à échantillonnage variable pour les systèmes LPV : application à un sous-marin autonomeRoche, Emilie 18 October 2011 (has links) (PDF)
L'utilisation de correcteur discret à période d'échantillonnage variable peut être intéressante dans plusieurs cas, par exemple lorsque la mesure, bien qu'envoyée de façon périodique, est reçue à intervalle variable. C'est le cas en milieu marin lorsque la mesure d'altitude est effectuée avec un capteur à ultrason (la durée du trajet du signal dans l'eau dépend de la distance par rapport au fond). Le délai variable entre deux réceptions de mesures, peut être vu comme une variation de période d'échantillonnage pour le contrôleur. La synthèse de lois de commande discrète à période d'échantillonnage variable a déjà été étudiée pour des systèmes stationnaires. On se propose ici d'étendre cette méthode pour des systèmes Linéaires à Paramètres Variants (LPV), qui permettent de conserver des paramètres importants d'un système non-linéaire en temps que paramètres d'un système linéaires. La synthèse de contrôleur repose sur le méthodologie H∞, appliquée aux systèmes LPV. En particulier, on s'intéressera à deux approches existantes dans la littérature : l'approche polytopique (où le paramètre variant évolue dans un volume convexe) et la Représentation Linéaire Fractionnelle (LFR). La méthode proposée est appliquée au contrôle d'un AUV (Autonomous Underwater Vehicle), qui est système difficile à contrôler du fait d'importantes non-linéarités. Des résultats de simulations permettront de montrer l'intérêt de la méthode pour le contrôle d'altitude d'un AUV, et notamment les améliorations apportées par l'ajout de paramètres issus du système non-linéaire au modèle utilisé pour la synthèse des régulateurs.
|
55 |
Échantillonnage d'importance des sources de lumière réalistesLu, Heqi 27 February 2014 (has links) (PDF)
Les images réalistes peuvent être obtenues en simulant le transport de lumière à l'aide de méthodes de type Monte-Carlo. La possibilité d'utiliser des sources de lumières réalistes pour synthétiser des images contribue grandement au réalisme physique des images obtenues. Parmi les modèles existants, ceux qui reposent sur les cartes d'environnements ou des champs lumineuse sont particulièrement intéressants parce qu'ils permettent d'une part, de capturer adéquatement les effets de champs proches et champs lointains et d'autre part, ils peuvent être mesurés de manière directe. Comme les sources de lumières mesurées peuvent contenir des hautes fréquences et peuvent être de haute dimensionnalité (4D), leur utilisation dans le contexte de la synthèse d'images temps-réel pose des problèmes de performance. Dans cette thèse, nous nous recherchons un compromis entre précision de la représentation et efficacité de la simulation. Le travail effectué repose sur un échantillonnage de haute qualité des sources de lumière pour les méthodes non-biaisées de Monte Carlo. Nous introduisons de nouvelles techniques d'échantillonnage pour le rendu physico-réaliste avec des cartes d'environnement qui varient temporellement ainsi que pour des sources de lumière des champs lumineuse. Les résultats obtenus montrent que l'on peut obtenir un rendu physiquement réaliste, précis et temps réel avec des sources lumière réalistes.
|
56 |
Échantillonnage des gisements kimberlitiques à partir des microdiamants : Application à l'estimation des ressources récupérablesFerreira, Johannes 12 December 2013 (has links) (PDF)
La prédiction des ressources récupérables d'un gisement kimberlitique passe par l'estimation de la loi en taille des diamants commercialisables qu'il contient. Cette estimation repose traditionnellement sur les pierres de plus de 0,5mm, sans tenir compte des petites pierres qui sont de loin les plus abondantes mais sans valeur économique. Le problème soulevé par cette approche est la taille des échantillons: ils doivent être d'autant plus volumineux que les grandes pierres sont rares. Une façon de réduire la taille des échantillons est d'abaisser le seuil de récupération à des pierres non commercialisables. A cette fin, des techniques spécifiques ont été développées (dissolution de la kimberlite à l'acide) pour récupérer toutes les pierres de plus de 75 microns (0,0000018carat). Une procédure itérative a été aussi mise au point pour estimer la loi des pierres commercialisables à partir des petites pierres. La solution proposée repose sur une hypothèse de lognormalité de la taille des pierres, hypothèse pertinente dans la totalité des gisements primaires de diamants étudiés. L'estimation des paramètres lognormaux tient compte du nombre limité des données et de leur biais, dû à la perte inévitable des pierres les plus petites au cours du traitement des échantillons. Elle permet la prise en compte simultanée de différents jeux de données prélevés à différents seuils de récupération correspondant à differents modes d'échantillonnage. Cette procédure met en jeu une représentation graphique comparée des lois expérimentale et simulée, mettant ainsi en évidence la quantité de pierres perdues.
|
57 |
Échantillonnage Non Uniforme : Application aux filtrages et aux conversions CAN/CNA (Convertisseurs Analogique-Numérique et Numérique/Analogique) dans les télécommunications par satellite / Non Uniform Sampling : Application to filtering and ADC/DAC conversions (Analog-to-Digital and Digital-to-Analog) in the telecommunications by satelliteVernhes, Jean-Adrien 25 January 2016 (has links)
La théorie de l'échantillonnage uniforme des signaux, développée en particulier par C. Shannon, est à l'origine du traitement numérique du signal. Depuis, de nombreux travaux ont été consacrés à l'échantillonnage non uniforme. Celui-ci permet, d'une part, de modéliser les imperfections des dispositifs d'échantillonnage uniforme. D'autre part, l'échantillonnage peut être effectué de manière délibérément non uniforme afin de bénéficier de propriétés particulières, notamment un assouplissement des conditions portant sur le choix de la fréquence moyenne d'échantillonnage. La plupart de ces travaux reste dans un cadre théorique en adoptant des schémas d'échantillonnage et des modèles de signaux simplifiés. Or, actuellement, dans de nombreux domaines d'application, tels que les communications par satellites, la conversion analogique-numérique s'effectue sous des contraintes fortes pour les largeurs de bande mises en jeu, en raison notamment des fréquences très élevées utilisées. Ces conditions opérationnelles accentuent les imperfections des dispositifs électroniques réalisant l'échantillonnage et induisent le choix de modèles de signaux et de schémas d'échantillonnage spécifiques. Cette thèse a pour objectif général d'identifier des modèles d'échantillonnage adaptés à ce cadre applicatif. Ceux-ci s'appliquent à des signaux aléatoires passe-bande, qui constituent un modèle classique en télécommunications. Ils doivent prendre en compte des facteurs technologiques, économiques ainsi que des contraintes bord de complexité et éventuellement intégrer des fonctionnalités propres aux télécommunications. La première contribution de cette thèse est de développer des formules d'échantillonnage non uniforme qui intègrent dans le domaine numérique des fonctionnalités délicates à implémenter dans le domaine analogique aux fréquences considérées. La deuxième contribution consiste à caractériser et à compenser les erreurs de synchronisation de dispositifs d'échantillonnage non uniforme particuliers, à savoir les convertisseurs analogique-numérique entrelacés temporellement, via des méthodes supervisées ou aveugles. / The theory of uniform sampling, developed among others by C. Shannon, is the foundation of today digital signal processing. Since then, numerous works have been dedicated to non uniform sampling schemes. On the one hand, these schemes model uniform sampling device imperfections. On the other hand, sampling can be intentionally performed in a non uniform way to benefit from specific properties, in particular simplifications concerning the choice of the mean sampling frequency. Most of these works have focused on theoretical approaches, adopting simplified models for signals and sampling devices. However, in many application domains, such as satellite communications, analog-to-digital conversion is submitted to strong constraints over the involved bandwidth due to the very high frequencies used. These operational conditions enhance the imperfections of the involved electronic devices and require the choice of particular signal models and sampling schemes. This thesis aims at proposing sampling models suitable for this context. These models apply to random band-pass signals, which are the classical models for telecommunication signals. They must take into account technological, economical factors and on-board complexity constraints and allow to integrate particular functionalities useful for telecommunication applications. This thesis first contribution is to develop non uniform sampling formulas that can digitally integrate functionalities that appear to be tricky in the analog domain at the considered frequencies. The thesis second contribution consists in applying non uniform sampling theory to the estimation and compensation of synchronization errors encountered in particular sampling devices, the timeinterleaved analog-to-digital converters. This estimation will be performed through supervised or blind methods.
|
58 |
Récepteur SDR par échantillonnage direct du signal RF / SDR receiver by direct sampling of RF signalBousseaud, Pierre 16 December 2013 (has links)
Mes travaux de thèse portent sur l'échantillonnage direct du signal RF en réception après l'antenne, dans un contexte d'applications radio-logicielle et radio-cognitive. Le but de cette technique est de pouvoir traiter le signal quelle que soit la modulation utilisée et dans une large gamme de fréquences, directement après l'antenne, en réduisant au maximum la partie analogique. Pour cela une architecture d'échantillonneur passif a été utilisée. L'originalité de cette architecture consiste en l'implémentation d'un système d'échantillonnage différentiel en quadrature purement passif, constitué d'un réseau de capacités commutées. En fixant la constante de temps du système à une valeur élevée devant la fréquence minimale du signal RF à démoduler, l'échantillonneur se comporte à la fois en tant que mélangeur et filtre en fréquence. Cela permet la réjection des brouilleurs hors de la bande de réception et contribue à améliorer sensiblement la dynamique du système de réception, le tout pour une consommation très faible. Aussi, le système est flexible en fréquence, permettant ainsi de recevoir le spectre RF sur une large bande et de recevoir différents types de signaux modulés. Celui-ci a été intégré dans un front-end de réception complet en technologie CMOS 130nm pour des applications dans les bandes ISM (433MHz et 868MHz) dont les débits de transmission sont limités à 1Mbits/s. L'architecture développée est adaptée à des applications de type radio-logicielle ou radio-cognitive, lorsqu'une agilité en fréquence, une grande dynamique et des contraintes de consommation très basse sont visées. / My thesis work is focusing on the RF signal direct sampling reception after the antenna in a software-defined radio applications and cognitive radio context. The purpose of this technique is to treat the signal whatever the modulation used and in a wide range of frequencies, directly after the antenna while minimizing at maximum the analog part. For this, a passive sampler architecture has been used. The originality of this architecture consists in the implementation of a passive differential sampling system working in quadrature, consisting of a switched capacitors network. By setting the time system constant to a high value compared to the minimum frequency of the RF signal to be demodulated , the sampler acts both as a filter and a frequency mixer. This allows the rejection of interferers outside the reception band and contributes to improve significantly the receiver system dynamic, for a very low consumption. Also, the system is flexible in frequency, which permits to receive the RF spectrum over a wide band of frequencies and detect different types of modulated transmitted signals. It has been integrated into a complete front-end 130nm CMOS technology receiver dedicated to ISM bands applications (433MHz and 868MHz bands) whose transmission data rates are limited to 1Mbit/s. The developed architecture is suitable for software-defined radio or cognitive radio applications where frequency agility, high dynamic and very low power constraints are targeted.
|
59 |
Commande à échantillonnage variable pour les systèmes LPV : application à un sous-marin autonome / Variable sampling control for LPV systems : application to AUVRoche, Emilie 18 October 2011 (has links)
L'utilisation de correcteur discret à période d'échantillonnage variable peut être intéressante dans plusieurs cas, par exemple lorsque la mesure, bien qu'envoyée de façon périodique, est reçue à intervalle variable. C'est le cas en milieu marin lorsque la mesure d'altitude est effectuée avec un capteur à ultrason (la durée du trajet du signal dans l'eau dépend de la distance par rapport au fond). Le délai variable entre deux réceptions de mesures, peut être vu comme une variation de période d'échantillonnage pour le contrôleur. La synthèse de lois de commande discrète à période d'échantillonnage variable a déjà été étudiée pour des systèmes stationnaires. On se propose ici d'étendre cette méthode pour des systèmes Linéaires à Paramètres Variants (LPV), qui permettent de conserver des paramètres importants d'un système non-linéaire en temps que paramètres d'un système linéaires. La synthèse de contrôleur repose sur le méthodologie H∞, appliquée aux systèmes LPV. En particulier, on s'intéressera à deux approches existantes dans la littérature : l'approche polytopique (où le paramètre variant évolue dans un volume convexe) et la Représentation Linéaire Fractionnelle (LFR). La méthode proposée est appliquée au contrôle d'un AUV (Autonomous Underwater Vehicle), qui est système difficile à contrôler du fait d'importantes non-linéarités. Des résultats de simulations permettront de montrer l'intérêt de la méthode pour le contrôle d'altitude d'un AUV, et notamment les améliorations apportées par l'ajout de paramètres issus du système non-linéaire au modèle utilisé pour la synthèse des régulateurs. / Discrete time controller using variable sampling can ba interesting in several cases, for axample when the measure, even if send periodically, is received with a variable interval. This is the case in submarine environement, when the altitude measurement is done using an ultrasonic sensor. Discrete control laws synthesis with variable sampling period have already been studied for LTI systems. The results are here extended to Linear Parameter Varying systems, that allow to keep some non-linearities as parameters of a linear system. In particular, two approaches are investigated : the polytopic and the LFR. The proposed method is applied for the altitude control of an autonomous underwater vehicle (AUV). Simulations results will show the interest of the method, in particular how results are improved by adding some parameters coming from the non linear model.
|
60 |
Le développement d'une méthode pour quantifier la distribution spatiale de la végétation en milieu forestier à l'aide du lidar terrestreBourge, Florentin January 2017 (has links)
La surface foliaire des arbres est un des paramètres majeurs pour comprendre l’écosystème forestier. Par ailleurs, les données du lidar terrestre peuvent être utilisées pour estimer la surface et la distribution spatiale fine du feuillage et du bois dans la forêt. Malheureusement, ces données sont affectées par des problèmes d’occlusion et d’échantillonnage inégal. C’est pourquoi, ce projet vise à développer une méthode de normalisation des données du lidar terrestre afin de permettre une évaluation juste de la distribution 3D du matériel végétatif. Dès lors, la voxélisation du nuage de points en petits cubes élémentaires complétés par une technique d’interpolation pour les voxels trop occlus a été mise en place pour corriger ces effets. Toutefois cet ensemble de méthodes n’a jamais été vérifié, car il est très difficile de procéder à des mesures fines de distribution de la végétation in situ. Dans un premier temps, quatre maquettes qui reproduisent finement des placettes forestières d’inventaire ont été générées de manière à les comparer avec les résultats du processus de correction. Les résultats de cette première approche démontrent, que ce processus de correction permet de retrouver les profils verticaux de végétation avec plus de 90 % d’exactitude sur tous les emplacements forestiers mis à l’essai. Dans un second temps et pour appuyer ces premiers résultats, une méthode de normalisation a été expérimentée sur des nuages de points issus de forêts réelles. Cette deuxième partie de l’étude a été réalisée sur six placettes d’inventaire situées dans l’est du Québec, principalement composées de sapins et d’érables. L’objectif de ce jeu de données était de voir à quel point la méthode précédemment développée permettait de retrouver le profil de végétation de l’arbre cible avant le dégagement de la végétation occultante dans les conditions réelles. Les résultats montrent des corrélations des profils verticaux en moyenne autour de 70 % et allant jusqu’à 85 % dans le meilleur pour les profils exprimés en indice de surface foliaire, c’est-à-dire avant leur conversion en densité de surface totale (DST). Pour conclure, cette étude montre qu’il est possible de corriger significativement les biais relatifs à l’occlusion et à un échantillonnage inégal pour en déduire des profils de densité de la végétation réalistes et réutilisables. En outre, plusieurs défis restent à relever dans la quantification du matériel végétal à partir de l’utilisation du lidar en forêt. Par exemple, en développant des algorithmes d’interpolation capables de compenser la perte d’information quand la végétation ne laisse passer aucun rayon du lidar ou en améliorant l’estimation du feuillage en fonction des différentes espèces d’arbres.
|
Page generated in 0.0783 seconds