• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 73
  • 36
  • 13
  • Tagged with
  • 122
  • 122
  • 39
  • 35
  • 35
  • 33
  • 27
  • 25
  • 23
  • 22
  • 20
  • 20
  • 18
  • 18
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

On models for performance evaluation and cache resources placement in multi-cache networks / Sur des modèles pour l'évaluation de performance et le placement des ressources de cache dans les réseaux multi-cache

Ben Ammar, Hamza 19 March 2019 (has links)
Au cours des dernières années, les fournisseurs de contenu ont connu une forte augmentation des demandes de contenus vidéo et de services riches en média. Compte tenu des limites de la mise à l'échelle du réseau et au-delà des réseaux de diffusion de contenu, les fournisseurs de services Internet développent leurs propres systèmes de mise en cache afin d'améliorer la performance du réseau. Ces facteurs expliquent l'enthousiasme à l'égard du concept de réseau centré sur le contenu et de sa fonction de mise en cache en réseau. La quantification analytique de la performance de la mise en cache n'est toutefois pas suffisamment explorée dans la littérature. De plus, la mise en place d'un système de caching efficace au sein d'une infrastructure réseau est très complexe et demeure une problématique ouverte. Pour traiter ces questions, nous présentons d'abord dans cette thèse un modèle générique et précis de cache nommé MACS (Markov chain-based Approximation of Caching Systems) qui peut être adapté très facilement pour représenter différents schémas de mise en cache et qui peut être utilisé pour calculer différentes mesures de performance des réseaux multi-cache. Nous avons ensuite abordé le problème de l'allocation des ressources de cache dans les réseaux avec capacité de caching. Moyennant notre outil analytique MACS, nous présentons une approche permettant de résoudre le compromis entre différentes mesures de performance en utilisant l'optimisation multi-objectif et nous proposons une adaptation de la métaheuristique GRASP pour résoudre le problème d'optimisation. / In the last few years, Content Providers (CPs) have experienced a high increase in requests for video contents and rich media services. In view of the network scaling limitations and beyond Content Delivery Networks (CDNs), Internet Service Providers (ISPs) are developing their own caching systems in order to improve the network performance. These factors explain the enthusiasm around the Content-Centric Networking (CCN) concept and its in-network caching feature. The analytical quantification of caching performance is, however, not sufficiently explored in the literature. Moreover, setting up an efficient caching system within a network infrastructure is very complex and remains an open problem. To address these issues, we provide first in this thesis a fairly generic and accurate model of caching nodes named MACS (Markov chain-based Approximation of Caching Systems) that can be adapted very easily to represent different caching schemes and which can be used to compute different performance metrics of multi-cache networks. We tackled after that the problem of cache resources allocation in cache-enabled networks. By means of our analytical tool MACS, we present an approach that solves the trade-off between different performance metrics using multi-objective optimization and we propose an adaptation of the metaheuristic GRASP to solve the optimization problem.
42

Phénoménologie et détection du rayonnement cosmique nucléaire

Putze, Antje 25 September 2009 (has links) (PDF)
Un siècle après la découverte du rayonnement cosmique – un flux de particules énergétiques chargées qui bombarde les couches supérieures de l'atmosphère terrestre –, beaucoup de questions restent encore ouvertes sur son origine, sa nature et son transport. La mesure précise du flux des ions du rayonnement cosmique a pour objectif d'étudier les processus d'accélération et de propagation. En particulier la mesure des rapports secondaire sur primaire permet de contraindre très efficacement les modèles de propagation car elle est directement liée au grammage vu par les particules durant leur transport. La connaissance et la caractérisation des processus liés à la propagation permet de reconstruire le spectre source du rayonnement cosmique et donc de contraindre les processus d'accélération, mais aussi de tester l'existence dans le rayonnement cosmique de contributions exotiques comme l'annihilation de particules de matière noire. Cette thèse traite deux aspects de la physique du rayonnement cosmique: la phénoménologie et la détection. Concernant l'aspect phénoménologique, le travail présenté consiste à évaluer et à étudier les contraintes que les mesures actuelles permettent d'apporter sur les modèles de propagation du rayonnement dans la Galaxie à l'aide d'un Monte Carlo par chaînes de Markov. L'aspect expérimental de ce travail porte sur la participation à la construction, la validation et l'analyse des données du sous-détecteur CherCam – un imageur Cherenkov mesurant la charge des ions du rayonnement cosmique pour l'expérience CREAM –, dont les résultats préliminaires sont présentés.
43

INVERSION DES MODELES STOCHASTIQUES DE MILIEUX HETEROGENES

Romary, Thomas 19 December 2008 (has links) (PDF)
La problématique du calage d'historique en ingénierie de réservoir, c'est-à-dire le calage des modèles géostatistiques aux données de production, est un problème inverse mal posé. Dans un cadre bayésien, sa résolution suppose l'inférence de la distribution de probabilité du modèle géostatistique conditionné aux données dynamiques, rendant compte à la fois de l'a priori géologique, exprimé dans le modèle géostatistique, et de l'adéquation aux données de production. Typiquement, la résolution de ce problème passe par la génération d'un ensemble de réalisations calées aux données, échantillon représentatif de cette distribution. Les modèles géostatistiques sont en général discrétisés sur des grilles de plusieurs centaines de milliers, voire des millions de blocs ; les approches classiques tentent de résoudre le problème inverse en considérant l'ensemble des blocs comme paramètres du modèle. Sa dimension est alors considérable et les méthodes d'échantillonnages deviennent impraticables sur un cas réel. Il convient alors de choisir une paramétrisation susceptible de réduire la dimension du problème. Dans la première partie de cette thèse, nous présentons une méthode de paramétrisation optimale des modèles géostatistiques basés sur les champs aléatoires gaussiens, à partir de leur décomposition de Karhunen-Loève (KL). Nous en décrivons les fondements théo- riques, puis, sur des applications aux modèles de champs aléatoires gaussiens courants en géostatistique, selon des critères d'abord statistiques puis hydrodynamiques, nous quantifions la réduction de la dimension du problème offerte par cette paramétrisation. Dans la seconde partie, nous présentons les principes des méthodes de Monte-Carlo par Chaînes de Markov (MCMC) et les défauts des méthodes classiques pour la résolution du problème inverse dans le cadre bayésien. Nous développons alors l'approche par chaînes de Markov en interaction dont nous exposons les avantages. Enfin, les résultats obtenus par l'emploi conjoint de ces deux méthodes sont présentés dans deux articles. Une approche différente, passant par l'emploi de méthodes d'analyse de sensibilité, est également décrite dans un troisième article.
44

Chaînes de Markov et processus de décision markoviens pour le contrôle de congestion et de puissance

Prabhu, Balakrishna J. 04 October 2005 (has links) (PDF)
Cette thèse contient quelques applications des chaînes de Markov et des processus de décision markoviens pour la contrôle de congestion et de puissance. D´abord nous étudions le comportement de la taille de la fenêtre d´une source qui utilise l´algorithme MIMD. Nous montrons que le logarithme de la taille de la fenêtre suit une récurrence stochastique additive, et est une chaîne de Markov. Nous montrons aussi que le débit obtenu par une source est proportionnel à l´inverse de la probabilité de perte d´un paquet. Ensuite, nous analysons le processus de la taille de la fenêtre d´un algorithme de contrôle de congestion en temps continu. Nous pourvoyons des conditions sous lesquelles deux algorithmes ont le même comportement. Puis, nous étudions le processus de rapport de deux sources qui utilisent l´algorithme MIMD et qui partagent la capacité d´un goulot d´étranglement. Pour les sources hétérogènes, nous montrons que l´intensité du processus de perte de paquet doit être supérieure à une constante qui dépend des paramètres des algorithmes pour que l´indice d´équité s´améliore. Ensuite, nous présentons un modèle stochastique pour obtenir la distribution jointe du nombre instantané de paquets et sa moyenne mobile. Ensuite, nous étudions un problème de commande optimale en temps discret. Un appareil mobile veut transmettre des paquets et conserver son énergie en même temps. Nous montrons que la politique optimale est un contrôle à seuil. Enfin, par simulations, nous étudions le délai des flots TCP sur la voie descendante de l´UMTS lorsque deux politiques différentes de commutation de canaux sont utilisées.
45

Étude et calcul de quelques distances en probabilités et statistique et applications : séparation asymptotique des chaînes de Markov

Garel, Bernard 28 June 1983 (has links) (PDF)
On étudie la distance de Prokhorov, la distance de Geffroy et la distance de Fortet-Mourier-Wasserstein. On résout en particulier le problème du calcul des distances. On traite quelques problèmes relatifs à l'estimation. Puis on donne une condition nécessaire et suffisante de non séparation asymptotique de deux chaines de Markov lorsque l'espace des états est de cardinal M
46

Propriétés d'ubiquité en analyse multifractale et séries aléatoires d'ondelettes à coefficients corrélés

Durand, Arnaud 25 June 2007 (has links) (PDF)
L'objectif principal de cette thèse est la description des propriétés de taille et de grande intersection des ensembles apparaissant lors de l'analyse multifractale de certains processus stochastiques. Dans ce but, nous introduisons de nouvelles classes d'ensembles à grande intersection associées à des fonctions de jauge générales et nous prouvons, à l'aide de techniques d'ubiquité, des résultats d'appartenance à ces classes pour certains ensembles limsup. Cela nous permet en particulier de décrire exhaustivement les propriétés de taille et de grande intersection des ensembles issus de la théorie classique de l'approximation diophantienne comme l'ensemble des points bien approchables par des rationnels ou l'ensemble des nombres de Liouville. Nous fournissons aussi des résultats du même type lorsque les rationnels intervenant dans l'approximation doivent vérifier certaines conditions, comme les conditions de Besicovitch. Nos techniques d'ubiquité nous permettent en outre de décrire complètement les propriétés de taille et de grande intersection des ensembles intervenant dans l'analyse multifractale des processus de Lévy et d'un modèle de séries lacunaires d'ondelettes. Nous obtenons des résultats similaires pour un nouveau modèle de séries aléatoires d'ondelettes dont les coefficients sont corrélés via une chaîne de Markov indexée par un arbre. Nous déterminons en particulier la loi du spectre de singularités de ce modèle. Pour mener cette étude, nous nous intéressons à une large classe de fractals aléatoires généralisant les constructions récursives aléatoires précédemment introduites par de nombreux auteurs.
47

Théorèmes limites fonctionnels pour des U-statistiques échantillonnéees par une marche aléatoire. Étude de modèles stochastiques de repliement des protéines

Ladret, Véronique 02 July 2004 (has links) (PDF)
Cette thèse se décompose en deux parties indépendantes. Notre objectif dans la première partie est d'étudier le comportement asymptotique des $U$-statistiques, basées sur des noyaux d'ordre 2, échantillonnées par une marche aléatoire. Plus précisément, on se donne $(S_n)_(n \in \N)$ une marche aléatoire sur $\Z^d$, $d \geq 1$ et $(\xi_x)_(x \in \Z^(d))$ une collection de variables aléatoires indépendantes, identiquement distribuées, indépendante de $(S_n)_(n \in \N)$. On note $\mu$ la loi de $\xi_0$ et l'on désigne par $h : \R^2\ra \R$, une fonction mesurable, symétrique, telle que $h \in L^2(\mu\otimes\mu)$. On s'intéresse au comportement asymptotique de la suite de processus, $$ \cU_n(t)=\sum_(i,j=0)^([nt])h(\xi_(S_i), \xi_(S_j)), \quad t\in[0,1], \quad n=0,1,\ldots, $$ à valeurs dans $\cD([0,1])$, l'espace des fonctions c.à.l.à.g. définies sur $[0,1]$, muni de la topologie de Skorohod. Cabus et Guillotin ont obtenu la distribution asymptotique de ces objets, dans le cas où la marche aléatoire, $(S_n)_(n \in \N)$, est récurrente sur $\Z^2$, ainsi que dans le cas où elle est transiente sur $\Z^d$, pour $d\geq3$. Elles ont également conjecturé la forme de la distribution limite, dans le cas de la marche aléatoire simple, symétrique, sur $\Z$. Dans le cas où $\Sn$ appartient au domaine d'attraction d'une loi stable d'indice $1<\alpha\leq2$, nous prouvons deux théorèmes limites fonctionnels, décrivant le comportement asymptotique de $\(\cU_n, n=1,2,\ldots\)$. Nous démontrons ainsi, la conjecture de Cabus et Guillotin. Par ailleurs, nous donnons une nouvelle preuve de leurs résultats.\\ Dans une seconde partie, nous étudions le comportement asymptotique du temps d'atteinte de deux versions d'un algorithme d'évolution simplifié, modélisant le repliement d'une protéine : le $(1+1)$-EA sur le problème LeadingOnes. Pour chaque algorithme nous donnons une loi des grands nombres, un théorème central limite et nous comparons la performance des deux modèles.\\
48

(Ré)annotation de génomes procaryotes complets - Exploration de groupes de gènes chez les bactéries

Bocs, Stéphanie 19 May 2004 (has links) (PDF)
La stratégie experte semi-automatique de prédiction de Séquences CoDantes (CDS) d'un chromosome procaryote est fondée sur le modèle statistique des chaînes de Markov. Elle est constituée des stratégies AMIMat pour l'apprentissage de l'hétérogénéité de composition des CDS d'un chromosome et AMIGene pour la reconnaissance et le filtrage des CDS les plus probables. AMIMat permet de construire k matrices de transition à partir de k classes de gènes définies selon l'usage des codons synonymes. La précision d' AMIGene dépend de la qualité des matrices et d'autres paramètres validés automatiquement par rapport à des annotations de référence. Autour de ces stratégies, un processus de réannotation de génome complet a été développé, en interaction avec notre base multigénome PkGDB, qui facilite l'homogénéisation des annotations des banques. Ce processus de (ré)annotation est utilisé dans de nombreux projets : Bacillus, Neisseria, Acinetobacter, Entérobactéries.
49

Localisation et Concentration de la Marche de Sinai

ANDREOLETTI, Pierre 05 December 2003 (has links) (PDF)
La marche de Sinai est un modèle élémentaire de marches aléatoires en milieu aléatoire unidimensionnelle effectuant des sauts unités sur ses plus proches voisins. On impose trois conditions sur le milieu aléatoire : deux hypothèses nécessaires pour obtenir un processus récurrent non réduit à un marche aléatoire simple et une hypothèse de régularité qui nous permet un bon contrôle des fluctuations du milieu aléatoire. Le comportement asymptotique de ce processus a été découvert par Y. Sinai en 1982 : il montre qu'il est sous diffusif et que pour instant n donné il est localisé dans le voisinage d'un point déterminé du réseau. Ce point est une variable aléatoire dépendant uniquement du milieu aléatoire et de n dont la distribution limite a été déterminée par H. Kesten et A. O. Golosov (indépendamment) en 1986. Une partie de cette thèse (partie II) a eu pour but de donner une preuve alternative au résultat de Y. Sinai . L'étude détaillée des résultats sur la localisation nous a permis de découvrir un nouvel aspect du comportement de la marche de Sinai que nous avons appelé concentration (partie III de la thèse). Nous avons montré que celle-ci était concentrée dans un voisinage restreint du point de localisation, c'est-à-dire que pour un intervalle de temps de longueur n la marche de Sinai passe la quasi-totalité de ce temps n dans un voisinage du point de localisation dont la taille est négligeable devant la distance parcourue. Nous avons également montré que le temps local de la marche de Sinai au point de localisation normalisé par n converge en probabilité vers une variable aléatoire dépendant uniquement du milieu et de n. Cette variable aléatoire est l'inverse de la moyenne du temps local dans la vallée où la marche de Sinai reste prisonnière, en un temps de retour au point de localisation. Les résultats que nous avons obtenus sont de type « trempé », c'est-à-dire que l'on travaille avec un milieu aléatoire appartenant à un sous-espace de probabilité du milieu aléatoire et on montre que ce sous-espace à une probabilité qui tend vers 1. De ces résultats est apparu des conséquences naturelles sur le maximum des temps locaux et le lieu favori de la marche de Sinai, notamment nous avons montré que la marche de Sinai et les lieux favoris de cette marche, correctement normalisés, ont même distribution limite.
50

Modélisation et analyse des systèmes de stockage fiable de données dans des réseaux pair-à-pair

Monteiro, Julian 16 November 2010 (has links) (PDF)
Les systèmes pair-à-pair à grande échelle ont été proposés comme un moyen fiable d'assurer un stockage de données à faible coût. Pour assurer la pérennité des données sur une période très longue, ces systèmes codent les données des utilisateurs comme un ensemble de fragments redondants qui sont distribués entre différents pairs du réseau. Un mécanisme de réparation est nécessaire pour faire face au comportement dynamique et non fiable des pairs. Ce mécanisme reconstruit en permanence les fragments de redondance manquants. Le système dépend de nombreux paramètres de configuration qui doivent être bien réglés, comme le facteur de redondance, sa politique de placement et la fréquence de réparation des données. Ces paramètres affectent la quantité de ressources, telles que la bande passante et l'espace de stockage, nécessaires pour obtenir un niveau souhaité de fiabilité, c'est-à-dire, une certaine probabilité de perdre des données. Cette thèse vise à fournir des outils permettant d'analyser et de prédire la performance de systèmes de stockage de données à grande échelle en général. Nous avons utilisé ces outils pour analyser l'impact de différents choix de conception du système sur différentes mesures de performance. Par exemple, la consommation de bande passante, l'espace de stockage et la probabilité de perdre des données, doivent être aussi faibles que possible. Différentes techniques sont étudiées et appliquées. Tout d'abord, nous décrivons un modèle simple par chaîne de Markov qui exploit la dynamique d'un système de stockage sous l'effet de défaillance des pairs et de réparation de données. Puis nous établissons des formules mathématiques closes qui donnent de bonnes approximations du modèle. Ces formules nous permettent de comprendre les interactions entre les paramètres du système. En effet, un mécanisme de réparation paresseux (lazy repair) est étudié et nous décrivons comment régler les paramètres du système pour obtenir une utilisation efficace de la bande passante. Nous confirmons en comparant à des simulations que ce modèle donne des approximations correctes du comportement moyen du système, mais ne parvient pas à capturer ses importantes variations au fil du temps. Nous proposons ensuite un nouveau modèle stochastique basé sur une approximation fluide pour saisir les écarts par rapport au comportement moyen. Ces variations qui sont généralement négligées par les travaux antérieurs, sont très im- portants pour faire une bonne estimation des ressources nécessaires au système. De plus, nous étudions plusieurs autres aspects d'un système de stockage distribué: nous utilisons un modèle de files d'attente pour calculer le temps de réparation pour un système avec bande passante limitée; nous étudions un système de codage hybride: en mixant les codes d'éffacement avec la simple réplication des données; enfin, nous étudions l'impact des différentes façons de distribuer des fragments de données entre les pairs, i.e., les stratégies des placements.

Page generated in 0.0511 seconds