• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 100
  • 75
  • 13
  • 1
  • Tagged with
  • 183
  • 183
  • 91
  • 76
  • 47
  • 40
  • 39
  • 36
  • 33
  • 32
  • 29
  • 29
  • 25
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Solveurs performants pour l'optimisation sous contraintes en identification de paramètres / Efficient solvers for constrained optimization in parameter identification problems

Nifa, Naoufal 24 November 2017 (has links)
Cette thèse vise à concevoir des solveurs efficaces pour résoudre des systèmes linéaires, résultant des problèmes d'optimisation sous contraintes dans certaines applications de dynamique des structures et vibration (la corrélation calcul-essai, la localisation d'erreur, le modèle hybride, l'évaluation des dommages, etc.). Ces applications reposent sur la résolution de problèmes inverses, exprimés sous la forme de la minimisation d'une fonctionnelle en énergie. Cette fonctionnelle implique à la fois, des données issues d'un modèle numérique éléments finis, et des essais expérimentaux. Ceci conduit à des modèles de haute qualité, mais les systèmes linéaires point-selle associés, sont coûteux à résoudre. Nous proposons deux classes différentes de méthodes pour traiter le système. La première classe repose sur une méthode de factorisation directe profitant de la topologie et des propriétés spéciales de la matrice point-selle. Après une première renumérotation pour regrouper les pivots en blocs d'ordre 2. L'élimination de Gauss est conduite à partir de ces pivots et en utilisant un ordre spécial d'élimination réduisant le remplissage. Les résultats numériques confirment des gains significatifs en terme de remplissage, jusqu'à deux fois meilleurs que la littérature pour la topologie étudiée. La seconde classe de solveurs propose une approche à double projection du système étudié sur le noyau des contraintes, en faisant une distinction entre les contraintes cinématiques et celles reliées aux capteurs sur la structure. La première projection est explicite en utilisant une base creuse du noyau. La deuxième est implicite. Elle est basée sur l'emploi d'un préconditionneur contraint avec des méthodes itératives de type Krylov. Différentes approximations des blocs du préconditionneur sont proposées. L'approche est implémentée dans un environnement distribué parallèle utilisant la bibliothèque PETSc. Des gains significatifs en terme de coût de calcul et de mémoire sont illustrés sur plusieurs applications industrielles. / This thesis aims at designing efficient numerical solution methods to solve linear systems, arising in constrained optimization problems in some structural dynamics and vibration applications (test-analysis correlation, model error localization,hybrid model, damage assessment, etc.). These applications rely on solving inverse problems, by means of minimization of an energy-based functional. This latter involves both data from a numerical finite element model and from experimental tests, which leads to high quality models, but the associated linear systems, that have a saddle-point coefficient matrices, are long and costly to solve. We propose two different classes of methods to deal with these problems. First, a direct factorization method that takes advantage of the special structures and properties of these saddle point matrices. The Gaussian elimination factorization is implemented in order to factorize the saddle point matrices block-wise with small blocks of orders 2 and using a fill-in reducing topological ordering. We obtain significant gains in memory cost (up to 50%) due to enhanced factors sparsity in comparison to literature. The second class is based on a double projection of the generated saddle point system onto the nullspace of the constraints. The first projection onto the kinematic constraints is proposed as an explicit process through the computation of a sparse null basis. Then, we detail the application of a constraint preconditioner within a Krylov subspace solver, as an implicit second projection of the system onto the nullspace of the sensors constraints. We further present and compare different approximations of the constraint preconditioner. The approach is implemented in a parallel distributed environment using the PETSc library. Significant gains in computational cost and memory are illustrated on several industrial applications.
52

Resolution improvement in fluorescence and phase optical microscopy

Mudry, Emeric 25 September 2012 (has links)
La microscopie optique est une technique essentielle pour de nombreuses disciplines des sciences expérimentales qui nécessitent des résolutions sans cesse plus petites. Dans ce travail de thèse sont présentés plusieurs travaux pour l'amélioration de la résolution en microscopie de fluorescence et en microscopie tomographique par diffraction (MTD), une récente technique de microscopie de phase. Dans un premier temps, il est montré que déposer l'échantillon sur un miroir permet d'augmenter la résolution axiale en MTD et en microscopie confocale de fluorescence. En microscopie confocale, il faut pour cela mettre en forme le faisceau incident grâce à un modulateur spatial de lumière. En MTD, il suffit d'adapter le programme de reconstruction. La deuxième partie présente des algorithmes pour reconstruire des images haute résolution à partir de mesures en éclairement structuré avec de champs d'illumination inconnus, à la fois en microscopie de fluorescence (algorithme blind-SIM) et en MTD. En microscopie de fluorescence, ces algorithmes permettent de simplifier drastiquement les montages expérimentaux produisant l'éclairement structuré et en MTD, d'obtenir des images d'échantillons à fort indice. / Various fields of experimental science are constantly requiring smaller resolution for optical microscopy. In this thesis are presented several works for improving resolution in fluorescence microscopy and in Tomographic Diffraction Microscopy (TDM), an emerging phase microscopy technique. In the first part it is shown that one can improve the axial resolution in depositing the sample on a mirror. In confocal fluorescence microscopy, this is done by shaping the illumination beam with a Spatial Light Modulator. In TDM this is done by adapting the reconstruction method. Then algorithms are proposed for reconstructing high-resolution images from structured illumination measurements with unknown illumination fields, both in fluorescence imaging (blind-SIM algorithm) and in TDM. This allows a dramatical simplification of the experimental set-ups in fluorescence structured illumination and the image reconstruction of high optical index samples in TDM.
53

Predictive numerical simulations for rebuilding freestream conditions in atmospheric entry flows / Simulations numériques prédictives pour la reconstruction des conditions en amont dans les écoulements de rentrée atmosphérique

Cortesi, Andrea Francesco 16 February 2018 (has links)
Une prédiction fidèle des écoulements hypersoniques à haute enthalpie est capitale pour les missions d'entrée atmosphérique. Cependant, la présence d'incertitudes est inévitable, sur les conditions de l'écoulement libre comme sur d'autres paramètres des modèles physico-chimiques. Pour cette raison, une quantification rigoureuse de l'effet de ces incertitudes est obligatoire pour évaluer la robustesse et la prédictivité des simulations numériques. De plus, une reconstruction correcte des paramètres incertains à partir des mesures en vol peut aider à réduire le niveau d'incertitude sur les sorties. Dans ce travail, nous utilisons un cadre statistique pour la propagation directe des incertitudes ainsi que pour la reconstruction inverse des conditions de l'écoulement libre dans le cas d'écoulements de rentrée atmosphérique. La possibilité d'exploiter les mesures de flux thermique au nez du véhicule pour la reconstruction des variables de l'écoulement libre et des paramètres incertains du modèle est évaluée pour les écoulements de rentrée hypersoniques. Cette reconstruction est réalisée dans un cadre bayésien, permettant la prise en compte des différentes sources d'incertitudes et des erreurs de mesure. Différentes techniques sont introduites pour améliorer les capacités de la stratégie statistique de quantification des incertitudes. Premièrement, une approche est proposée pour la génération d'un métamodèle amélioré, basée sur le couplage de Kriging et Sparse Polynomial Dimensional Decomposition. Ensuite, une méthode d'ajoute adaptatif de nouveaux points à un plan d'expériences existant est présentée dans le but d'améliorer la précision du métamodèle créé. Enfin, une manière d'exploiter les sous-espaces actifs dans les algorithmes de Markov Chain Monte Carlo pour les problèmes inverses bayésiens est également exposée. / Accurate prediction of hypersonic high-enthalpy flows is of main relevance for atmospheric entry missions. However, uncertainties are inevitable on freestream conditions and other parameters of the physico-chemical models. For this reason, a rigorous quantification of the effect of uncertainties is mandatory to assess the robustness and predictivity of numerical simulations. Furthermore, a proper reconstruction of uncertain parameters from in-flight measurements can help reducing the level of uncertainties of the output. In this work, we will use a statistical framework for direct propagation of uncertainties and inverse freestream reconstruction applied to atmospheric entry flows. We propose an assessment of the possibility of exploiting forebody heat flux measurements for the reconstruction of freestream variables and uncertain parameters of the model for hypersonic entry flows. This reconstruction is performed in a Bayesian framework, allowing to account for sources of uncertainties and measurement errors. Different techniques are introduced to enhance the capabilities of the statistical framework for quantification of uncertainties. First, an improved surrogate modeling technique is proposed, based on Kriging and Sparse Polynomial Dimensional Decomposition. Then a method is proposed to adaptively add new training points to an existing experimental design to improve the accuracy of the trained surrogate model. A way to exploit active subspaces in Markov Chain Monte Carlo algorithms for Bayesian inverse problems is also proposed.
54

Imagerie sans lentille 3D pour la culture cellulaire 3D / 3D lens-free imaging of 3D cell culture

Berdeu, Anthony 16 November 2017 (has links)
Ce travail de thèse se situe à l’interface de deux domaines : la culture cellulaire en trois dimensions et l’imagerie sans lentille.Fournissant un protocole de culture cellulaire plus réaliste sur le plan physiologique, le passage des cultures monocouches (2D) à des cultures tridimensionnelles (3D) - via l’utilisation de gels extracellulaires dans lesquels les cellules peuvent se développer dans les trois dimensions - permet de faire de grandes avancées dans de nombreux domaines en biologie tels que l’organogénèse, l’oncologie et la médecine régénérative. Ces nouveaux objets à étudier crée un besoin en matière d’imagerie 3D.De son côté, l’imagerie sans lentille 2D fournit un moyen robuste, peu cher, sans marquage et non toxique, d’étudier les cultures cellulaires en deux dimensions sur de grandes échelles et sur de longues périodes. Ce type de microscopie enregistre l’image des interférences produites par l’échantillon biologique traversé par une lumière cohérente. Connaissant la physique de la propagation de la lumière, ces hologrammes sont rétro-propagés numériquement pour reconstruire l’objet recherché. L’algorithme de reconstruction remplace les lentilles absentes dans le rôle de la formation de l’image.Le but de cette thèse est de montrer la possibilité d’adapter cette technologie sans lentille à l’imagerie des cultures cellulaires en 3D. De nouveaux prototypes de microscopes sans lentille sont conçus en parallèle du développement d’algorithmes de reconstructions tomographiques dédiés.Concernant les prototypes, plusieurs solutions sont testées pour converger vers un schéma alliant deux conditions. La première est le choix de la simplicité d’utilisation avec une culture cellulaire en boîte de Petri standard et ne nécessitant aucune préparation spécifique ou aucun changement de contenant. Cette condition entraînant de fortes contraintes géométriques sur l’architecture, la deuxième est de trouver la meilleure couverture angulaire possible des angles d’éclairage. Enfin, une version adaptée aux conditions en incubateur est développée et testée avec succès.Concernant les algorithmes, quatre types de solutions sont proposés, basées sur le théorème de diffraction de Fourier classiquement utilisé en tomographie diffractive optique. Toutes cherchent à corriger deux problèmes inhérents au microscope sans lentille : l’absence de l’information de phase, le capteur n’étant sensible qu’à l’intensité de l’onde reçue, et la couverture angulaire limitée. Le premier algorithme se limite à remplacer la phase inconnue par celle d’une onde incidente plane. Rapide, cette méthode est néanmoins source de nombreux artefacts. La deuxième solution, en approximant l’objet 3D inconnu par un plan moyen, utilise les outils de la microscopie sans lentille 2D pour retrouver cette phase manquante via une approche inverse. La troisième solution consiste à implémenter une approche inverse régularisée sur l’objet 3D à reconstruire. C’est la méthode la plus efficace pour compenser les deux problèmes mentionnés, mais elle est très lente. La quatrième et dernière solution est basée sur un algorithme de type Gerchberg-Saxton modifié avec une étape de régularisation sur l’objet.Toutes ces méthodes sont comparées et testées avec succès sur des simulations numériques et des données expérimentales. Des comparaisons avec des acquisitions au microscope classique montrent la validité des reconstructions en matière de tailles et de formes des objets reconstruits ainsi que la précision de leur positionnement tridimensionnel. Elles permettent de reconstruire des volumes de plusieurs dizaines de millimètres cubes de cultures cellulaires 3D, inaccessibles en microscopie standard.Par ailleurs, les données spatio-temporelles obtenues avec succès en incubateur montrent aussi la pertinence de ce type d’imagerie en mettant en évidence des interactions dynamiques sur de grandes échelles des cellules entres elles ainsi qu’avec leur environnement tridimensionnel. / This PhD work is at the interface of two fields: 3D cell culture and lens-free imaging.Providing a more realistic cell culture protocol on the physiological level, switching from single-layer (2D) cultures to three-dimensional (3D) cultures - via the use of extracellular gel in which cells can grow in three dimensions - is at the origin of several breakthroughs in several fields such as developmental biology, oncology and regenerative medicine. The study of these new 3D structures creates a need in terms of 3D imaging.On another side, 2D lens-free imaging provides a robust, inexpensive, non-labeling and non-toxic tool to study cell cultures in two dimensions over large scales and over long periods of time. This type of microscopy records the interferences produced by a coherent light scattered by the biological sample. Knowing the physics of the light propagation, these holograms are retro-propagated numerically to reconstruct the unknown object. The reconstruction algorithm replaces the absent lenses in the role of image formation.The aim of this PhD is to show the possibility of adapting this lens-free technology for imaging 3D cell culture. New lens-free microscopes are designed and built along with the development of dedicated tomographic reconstruction algorithms.Concerning the prototypes, several solutions are tested to finally converge to a scheme combining two conditions. The first requirement is the choice of simplicity of use with a cell culture in standard Petri dish and requiring no specific preparation or change of container. The second condition is to find the best possible angular coverage of lighting angles in regards of the geometric constraint imposed by the first requirement. Finally, an incubator-proof version is successfully built and tested.Regarding the algorithms, four major types of solutions are implemented, all based on the Fourier diffraction theorem, conventionally used in optical diffractive tomography. All methods aim to correct two inherent problems of a lens-free microscope: the absence of phase information, the sensor being sensitive only to the intensity of the incident wave, and the limited angular coverage. The first algorithm simply replaces the unknown phase with that of an incident plane wave. However, this method is fast but it is the source of many artifacts. The second solution tries to estimate the missing phase by approximating the unknown object by an average plane and uses the tools of the 2D lens-free microscopy to recover the missing phase in an inverse problem approach. The third solution consists in implementing a regularized inverse problem approach on the 3D object to reconstruct. This is the most effective method to deal with the two problems mentioned above but it is very slow. The fourth and last solution is based on a modified Gerchberg-Saxton algorithm with a regularization step on the object.All these methods are compared and tested successfully on numerical simulations and experimental data. Comparisons with conventional microscope acquisitions show the validity of the reconstructions in terms of shape and positioning of the retrieved objects as well as the accuracy of their three-dimensional positioning. Biological samples are reconstructed with volumes of several tens of cubic millimeters, inaccessible in standard microscopy.Moreover, 3D time-lapse data successfully obtained in incubators show the relevance of this type of imaging by highlighting large-scale interactions between cells or between cells and their three-dimensional environment.
55

Calibrations et méthodes d'inversion en imagerie à haute dynamique pour la détection directe d'exoplanètes

Sauvage, Jean-Francois 20 December 2007 (has links) (PDF)
La connaissance des exoplanètes est aujourd'hui une problématique majeure en astronomie. Leur observation directe depuis le sol est cependant rendue extrêmement délicate par le rapport de flux existant entre la planète et son étoile hôte mais également par la turbulence atmosphérique. Ce type d'observation implique donc l'utilisation d'instruments dédiés, alliant un grand télescope, un système d'optique adaptative extrême, un coronographe supprimant physiquement les photons issus de l'étoile,une instrumentation plan focale optimisée (imageur différentiel ou spectrographe à intégrale de champ par exemple), mais également uneméthodologie de traitement de données efficace. Le projet SPHERE regroupe ces différents points et fixe le cadre des études effectuées dans cette thèse. Mon travail de thèse a consisté à développer,mettre en oeuvre et à optimiser différentes méthodes permettant d'assurer une détectivité optimale. Ces méthodes ont porté dans un premier temps sur l'optimisation d'un système d'optique adaptative via la mesure et la compensation des aberrations non-vues. Ces aberrations constituent une des principales limitations actuelles des systèmes d'optique adaptative extrême. La méthode proposée, alliant une amélioration de la technique de diversité de phase et une nouvelle procédure de calibration appelée « pseudo closed-loop » a été validée par simulation et testée sur le banc d'optique adaptative de l'ONERA. Une précision ultime de moins de 0,4nm rms par mode a été démontrée, conduisant à un rapport de Strehl interne sur le banc supérieur à 98.0% à 0,6μm. Dans un deuxième temps, mon travail a consisté à proposer une méthode de traitement d'image a posteriori dans le cadre de l'imagerie différentielle sans coronographe, qui consiste à acquérir simultanément des images à différentes longueurs d'onde. Cette méthode, fondée sur une approche de Maximum A Posteriori, utilise l'information multi-longueur d'onde de l'imageur différentiel, pour estimer conjointement les résidus de turbulence ainsi que les paramètres de l'objet. En plus de l'imagerie différentielle spectrale, l'instrument SPHERE permet d'acquérir des images différentielles angulaires, c'est-à-dire avec rotation de champ. Une méthode fondée sur la théorie de la détection est proposée pour traiter de façon optimale ce type de données. Enfin, dans le contexte de l'imagerie coronographique, j'ai proposé dans un troisième temps un modèle novateur complet de formation d'image d'une longue pose avec coronographe. Ce modèle prend en compte un coronographe parfait, des aberrations statiques en amont et en aval du masque focal, et la fonction de structure de la turbulence après correction par OA. Ce modèle est utilisé dans une méthode d'inversion permettant d'estimer l'objet observé. Ces méthodesà fort potentiel devraient être implantées à terme sur l'instrument SPHERE, et devraient permettre la découverte de nouvelles exoplanètes à l'horizon 2011.
56

Constructions déterministes pour la régression parcimonieuse

De Castro, Yohann 03 December 2011 (has links) (PDF)
Dans cette thèse nous étudions certains designs déterministes pour la régression parcimonieuse. Notre problématique est largement inspirée du " Compressed Sensing " où l'on cherche à acquérir et compresser simultanément un signal de grande taille à partir d'un petit nombre de mesures linéaires. Plus précisément, nous faisons le lien entre l'erreur d'estimation et l'erreur de prédiction des estimateurs classiques (lasso, sélecteur Dantzig et basis pursuit) et la distorsion (qui mesure l'" écart " entre la norme 1 et la norme Euclidienne) du noyau du design considéré. Notre étude montre que toute construction de sous-espaces de faibles distorsions (appelés sous-espaces " presque "- Euclidiens) conduit à de " bons " designs. Dans un second temps, nous nous intéressons aux designs construits à partir de graphes expanseurs déséquilibrés. Nous en établissons de manière précise les performances en termes d'erreur d'estimation et d'erreur de prédiction. Enfin, nous traitons la reconstruction exacte de mesures signées sur la droite réelle. Nous démontrons que tout système de Vandermonde généralisé permet la reconstruction fidèle de n'importe quel vecteur parcimonieux à partir d'un très faible nombre d'observations. Dans une partie indépendante, nous étudions la stabilité de l'inégalité isopérimétrique sur la droite réelle pour des mesures log-concaves.
57

Problèmes inverses dans les modèles de spin

Sessak, Vitor 16 September 2010 (has links) (PDF)
Un bon nombre d'expériences récentes en biologie mesurent des systèmes composés de plusieurs composants en interactions, comme par exemple les réseaux de neurones. Normalement, on a expérimentalement accès qu'au comportement collectif du système, même si on s'intéresse souvent à la caractérisation des interactions entre ses différentes composants. Cette thèse a pour but d'extraire des informations sur les interactions microscopiques du système à partir de son comportement collectif dans deux cas distincts. Premièrement, on étudie un système décrit par un modèle d'Ising plus général. On trouve des formules explicites pour les couplages en fonction des corrélations et magnétisations. Ensuite, on s'intéresse à un système décrit par un modèle de Hopfield. Dans ce cas, on obtient non seulement une formule explicite pour inférer les patterns, mais aussi un résultat qui permet d'estimer le nombre de mesures nécessaires pour avoir une inférence précise.
58

Une approche de l'identification en dynamique des structures combinant l'erreur en relation de comportement et le filtrage de Kalman

Alarcon Cot, Albert 04 June 2012 (has links) (PDF)
Les méthodes d'erreur en relation de comportement (ERC) mesurent l'écart entre un modèle mathématique et des observations au moyen de fonctionnelles énergétiques qui sont, quant à elles, construites sur la base de champs admissibles. Ces méthodes présentent des excellentes capacités à localiser spatialement des défauts structuraux, une grande robustesse vis-à-vis des bruits de mesure, ou encore de bonnes propriétés de convexité des fonctions coût. Par ailleurs, les méthodes de filtrage de Kalman (KF) répondent au problème d'identification récursif dans une approche de type prédiction-correction. Elles s'avèrent tout particulièrement adaptées aux systèmes évolutifs dont les informations de modèle et d'observation peuvent être entachées d'erreurs. La partie centrale de ce travail est ainsi consacrée à la construction puis à la mise en oeuvre d'une stratégie d'utilisation combinée de l'ERC et du FK. Pour cela, l'ERC est utilisée comme une technique pour améliorer la connaissance a priori des défauts de modèle. Les fonctionnelles d'ERC sont ensuite introduites comme fonctions d'observation dans une description d'état du problème d'identification. Sa résolution est menée à bien avec le FK ''Unscented'' (UKF) présentant le double avantage d'avoir une excellente tout en évitant l'évaluation de Jacobiens et de Hessiens. Cette approche est testée et illustrée au moyen d'études numériques et appliqué à des cas complexes industriels tels que l'apparition et la progression de l'endommagement structurel au cours d'une sollicitation, la modification des conditions aux limites d'une structure entre différentes étapes de son exploitation, ou encore l'expansion de données expérimentales sur un modèle numérique.
59

Problèmes inverses et contrôlabilité avec applications en élasticité et IRM

Cindea, Nicolae 29 March 2010 (has links) (PDF)
Le but de cette thèse est d'étudier, du point de vue théorique, la contrôlabilité exacte de certaines équations aux dérivées partielles qui modélisent les vibrations élastiques, et d'appliquer les résultats ainsi obtenus à la résolution des problèmes inverses provenant de l'imagerie par résonance magnétique (IRM). Cette thèse comporte deux parties. La première partie, intitulée ''Contrôlabilité et observabilité de quelques équations des plaques'', discute la problématique de la contrôlabilité, respectivement de l'observabilité, de l'équation des plaques perturbées avec des termes linéaires ou non linéaires. Des résultats récents ont prouvé que l'observabilité exacte d'un système qui modélise les vibrations d'une structures élastique (équation des ondes ou des plaques) implique l'existence d'une solution du problème inverse de la récupération d'un terme source dans l'équation à partir de l'observation. Ainsi, dans le Chapitre 2 de cette thèse nous avons démontré l'observabilité interne exacte de l'équation des plaques perturbées par des termes linéaires d'ordre un et dans le Chapitre 3 la contrôlabilité exacte locale d'une équation des plaques non linéaire attribuée à Berger. Le Chapitre 4 introduit une méthode numérique pour l'approximation des contrôles exactes dans des systèmes d'ordre deux en temps. La deuxième partie de la thèse est dédiée à l'imagerie par résonance magnétique. Plus précisément, on s'intéresse aux méthodes de reconstruction des images pour des objets en mouvement, l'exemple typique étant l'imagerie cardiaque en respiration libre. Dans le Chapitre 6, nous avons formulé la reconstruction d'images cardiaques acquises en respiration libre comme un problème des moments dans un espace de Hilbert à noyau reproductif. L'existence d'une solution pour un tel problème des moments est prouvée par des outils bien connus dans la théorie du contrôle. Nous avons validé cette méthode en utilisant des images simulées numériquement et les images de cinq volontaires sains. La connexion entre les deux parties de la thèse est réalisée par le Chapitre 7 où l'on présente le problème inverse d'identification d'un terme source dans l'équation des ondes à partir d'une observation correspondante à un enregistrement IRM. En conclusion, nous avons montré qu'on peut utiliser les outils de la théorie de contrôle pour des problèmes inverses provenant de l'IRM des objets en mouvement, à la condition de connaître l'équation du mouvement.
60

Problèmes inverses dans les réseaux

Kauffmann, Bruno 24 March 2011 (has links) (PDF)
La croissance récente d'Internet lors deux dernières décennies a conduit à un besoin croissant de techniques permettant de mesurer la structure et la performance d'Internet. Les techniques de mesures de réseaux peuvent être classifiées en méthodes passives qui utilisent des données collectées au niveau des routeurs, et les méthodes actives, reposant sur l'injection active et l'observation de paquets-sondes. Les méthodes actives, qui sont la motivation principale de ce doctorat, sont particulièrement adaptées aux utilisateurs finaux, qui ne peuvent pas accéder aux données mesurées par les routeurs avec l'architecture actuelle d'Internet. Sur un autre plan, la théorie des réseaux se développe depuis un siècle, et de nombreux outils permettent de prédire la performance d'un système, en fonction de quelques paramètres clés. La théorie des files d'attentes émerge comme une solution particulièrement fructueuse, que ce soit pour les réseaux téléphoniques ou pour les réseaux filaires à commutation de paquet. Dans ce dernier cas, elle s'intéresse au mécanisme à l'échelle des paquets, et prédit des statistiques à ce niveau. À l'échelle des flots de paquets, la théorie des réseaux à partage de bande passante permet une abstraction de tout schéma d'allocation de bande passante, y compris le partage implicite résultant du protocole TCP. De nombreux travaux ont montré comment les résultats provenant de ces théories peuvent s'appliquer aux réseaux réels, et en particulier à Internet, et dans quels aspects le comportement de réseaux réels diffère des prédictions théoriques. Cependant, il y a eu peu de travaux établissant des liens entre le point de vue théorique d'un réseau et le problème pratique consistant à le mesurer. Le but de ce manuscrit est de bâtir quelques ponts entre le monde des méthodes de mesure par sondes actives et le monde de la théorie des réseaux. Nous adoptons l'approche des problèmes inverses, qui peuvent être vus en opposition aux problèmes directs. Un problème direct prédit l'évolution d'un système défini, en fonction des conditions initiales et d'une équation d'évolution connue. Un problème inverse observe une partie de la trajectoire d'un système défini, et cherche à estimer les conditions initiales ou paramètres pouvant conduire à cette trajectoire. Les données des méthodes de mesure par sondes actives sont les séries temporelles des pertes et délais des sondes, c'est-à-dire précisément une partie de la "trajectoire" d'un réseau. Ainsi, les méthodes de mesures par sondes actives peuvent être considérées comme des problèmes inverses pour une théorie des réseaux qui permettrait une prédiction exacte de l'évolution des réseaux. Nous montrons dans ce document comment les méthodes de mesures par sondes actives sont reliées aux problèmes inverses dans la théories des files d'attentes. Nous spécifions comment les contraintes de mesures peuvent être incluses dans les problèmes inverses, quels sont les observables, et détaillons les étapes successives pour un problème inverse dans la théorie des files d'attentes. Nous classifions les problèmes en trois catégories différentes, en fonction de la nature de leur résultat et de leur généralité, et donnons des exemples simples pour illustrer leurs différentes propriétés. Nous étudions en détail un problème inverse spécifique, où le réseau se comporte comme un réseau dit "de Kelly" avecK serveurs en tandem. Dans ce cas précis, nous calculons explicitement la distribution des délais de bout en bout des sondes, en fonction des capacités résiduelles des serveurs et de l'intensité des sondes. Nous montrons que l'ensemble des capacités résiduelles peut être estimé à partir du délai moyen des sondes pour K intensités de sondes différentes. Nous proposons une méthodes d'inversion alternative, à partir de la distribution des délais des sondes pour une seule intensité de sonde. Dans le cas à deux serveurs, nous donnons une caractérisation directe de l'estimateur du maximum de vraisemblance des capacités résiduelles. Dans le cas général, nous utilisons l'algorithme Espérance-Maximisation (E-M). Nous prouvons que dans le cas à deux serveurs, la suite des estimations de E-M converge vers une limite finie, qui est une solution de l'équation de vraisemblance. Nous proposons une formule explicite pour le calcul de l'itération quand K = 2 ou K = 3, et prouvons que la formule reste calculable quelque soit le nombre de serveurs. Nous évaluons ces techniques numériquement. À partir de simulations utilisant des traces d'un réseau réel, nous étudions indépendamment l'impact de chacune des hypothèses d'un réseau de Kelly sur les performances de l'estimateur, et proposons des facteurs de correction simples si besoin. Nous étendons l'exemple précédant au cas des réseaux en forme d'arbre. Les sondes sont multicast, envoyées depuis la racine et à destination des feuilles. À chaque noeud, elles attendent un temps aléatoire distribué de façon exponentielle. Nous montrons que ce modèle est relié au modèle des réseaux de Kelly sur une topologie d'arbre, avec du trafic transverse unicast et des sondes multicast, et calculons une formule explicite pour la vraisemblance des délais joints. Nous utilisons l'algorithme E-M pour calculer l'estimateur de vraisemblance du délai moyen à chaque noeud, et calculons une formule explicite pour la combinaison des étapes E et M. Des simulations numériques illustrent la convergence de l'estimateur et ses propriétés. Face à la complexité de l'algorithme, nous proposons une technique d'accélération de convergence, permettant ainsi de considérer des arbres beaucoup plus grands. Cette technique contient des aspects innovant dont l'intérêt peut dépasser le cadre de ces travaux. Finalement, nous explorons le cas des problèmes inverses dans la théorie des réseaux à partage de bande passante. À partir de deux exemples simples, nous montrons comment un sondeur peut mesurer le réseau en faisant varier le nombre de flots de sondes, et en mesurant le débit associé aux flots dans chaque cas. En particulier, si l'allocation de bande passante maximise une fonction d'utilité -équitable, l'ensemble des capacités des réseaux et leur nombre de connections associé peut être identifié de manière unique dans la plupart des cas. Nous proposons un algorithme pour effectuer cette inversion, avec des exemples illustrant ses propriétés numériques.

Page generated in 0.0736 seconds