• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 18
  • 9
  • Tagged with
  • 26
  • 26
  • 17
  • 16
  • 11
  • 10
  • 8
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Modeling and Performance Evaluation of Spatially-correlated Cellular Networks / Modélisation et évaluation de la performance de réseaux cellulaires à corrélation spatiale

Wang, Shanshan 14 March 2019 (has links)
Dans la modélisation et l'évaluation des performances de la communication cellulaire sans fil, la géométrie stochastique est largement appliquée afin de fournir des solutions plus efficaces et plus précises. Le processus ponctuel de Poisson homogène (H-PPP), est le processus ponctuel le plus largement utilisé pour modéliser les emplacements spatiaux des stations de base (BS) en raison de sa facilité de traitement mathématique et de sa simplicité. Pour les fortes corrélations spatiales entre les emplacements des stations de base, seuls les processus ponctuels (PP) avec inhibitions et attractions spatiales peuvent être utiles. Cependant, le temps de simulation long et la faible aptitude mathématique rendent les PP non-Poisson non adaptés à l'évaluation des performances au niveau du système. Par conséquent, pour surmonter les problèmes mentionnés, nous avons les contributions suivantes dans cette thèse: Premièrement, nous introduisons une nouvelle méthodologie de modélisation et d’analyse de réseaux cellulaires de liaison descendante, dans laquelle les stations de base constituent un processus ponctuel invariant par le mouvement qui présente un certain degré d’interaction entre les points. L'approche proposée est basée sur la théorie des PP inhomogènes de Poisson (I-PPP) et est appelée approche à double amincissement non homogène (IDT). L’approche proposée consiste à approximer le PP initial invariant par le mouvement avec un PP équivalent constitué de la superposition de deux I-PPP conditionnellement indépendants. Les inhomogénéités des deux PP sont créées du point de vue de l'utilisateur type ``centré sur l'utilisateur''. Des conditions suffisantes sur les paramètres des fonctions d'amincissement qui garantissent une couverture meilleure ou pire par rapport au modèle de PPP homogène de base sont identifiées. La précision de l'approche IDT est justifiée à l'aide de données empiriques sur la distribution spatiale des stations de base. Ensuite, sur la base de l’approche IDT, une nouvelle expression analytique traitable du rapport de brouillage moyen sur signal (MISR) des réseaux cellulaires où les stations de base présentent des corrélations spatiales est introduite. Pour les PP non-Poisson, nous appliquons l'approche IDT proposée pour estimer les performances des PP non-Poisson. En prenant comme exemple le processus de points β-Ginibre ( β -GPP), nous proposons de nouvelles fonctions d’approximation pour les paramètres clés dans l’approche IDT afin de modéliser différents degrés d’inhibition spatiale et de prouver que MISR est constant en densification de réseau. Nous prouvons que la performance MISR dans le cas β-GPP ne dépend que du degré de répulsion spatiale, c'est-à-dire β , quelles que soient les densités de BS. Les nouvelles fonctions d'approximation et les tendances sont validées par des simulations numériques.Troisièmement nous étudions plus avant la méta-distribution du SIR à l’aide de l’approche IDT. La méta-distribution est la distribution de la probabilité de réussite conditionnelle compte tenu du processus de points. Nous dérivons et comparons l'expression sous forme fermée pour le b-ème moment dans les cas PP H-PPP et non-Poisson. Le calcul direct de la fonction de distribution cumulative complémentaire (CCDF) pour la méta-distribution n'étant pas disponible, nous proposons une méthode numérique simple et précise basée sur l'inversion numérique des transformées de Laplace. L'approche proposée est plus efficace et stable que l'approche conventionnelle utilisant le théorème de Gil-Pelaez. La valeur asymptotique de la CCDF de la méta distribution est calculée dans la nouvelle définition de la probabilité de réussite. En outre, la méthode proposée est comparée à certaines autres approximations et limites, par exemple l’approximation bêta, les bornes de Markov et les liaisons de Paley-Zygmund. Cependant, les autres modèles et limites d'approximation sont comparés pour être moins précis que notre méthode proposée. / In the modeling and performance evaluation of wireless cellular communication, stochastic geometry is widely applied, in order to provide more efficient and accurate solutions. Homogeneous Poisson point process (H-PPP) with identically independently distributed variables, is the most widely used point process to model the spatial locations of base stations (BSs) due to its mathematical tractability and simplicity. For strong spatial correlations between locations of BSs, only point processes (PPs) with spatial inhibitions and attractions can help. However, the long simulation time and weak mathematical tractability make non-Poisson PPs not suitable for system level performance evaluation. Therefore, to overcome mentioned problems, we have the following contributions in this thesis: First, we introduce a new methodology for modeling and analyzing downlink cellular networks, where the base stations constitute a motion-invariant point process that exhibits some degree of interactions among the points. The proposed approach is based on the theory of inhomogeneous Poisson PPs (I-PPPs) and is referred to as inhomogeneous double thinning (IDT) approach. The proposed approach consists of approximating the original motion-invariant PP with an equivalent PP that is made of the superposition of two conditionally independent I-PPPs. The inhomogeneities of both PPs are created from the point of view of the typical user. The inhomogeneities are mathematically modeled through two distance-dependent thinning functions and a tractable expression of the coverage probability is obtained. Sufficient conditions on the parameters of the thinning functions that guarantee better or worse coverage compared with the baseline homogeneous PPP model are identified. The accuracy of the IDT approach is substantiated with the aid of empirical data for the spatial distribution of the BSs. Then, based on the IDT approach, a new tractable analytical expression of mean interference to signal ratio (MISR) of cellular networks where BSs exhibits spatial correlations is introduced.For non-Poisson PPs, we apply proposed IDT approach to approximate the performance of non-Poisson PPs. Taking β-Ginibre point process (β -GPP) as an example, we propose new approximation functions for key parameters in IDT approach to model different degree of spatial inhibition and we successfully prove that MISR for β -GPP is constant under network densification with our proposed approximation functions. We prove that of MISR performance under β-GPP case only depends on the degree of spatial repulsion, i.e., β , regardless of different BS densities. We also prove that with the increase of β or (given fixed γ or β respectively), the corresponding MISR for β-GPP decreases. The new approximation functions and the trends are validated by numerical simulations. Third, we further study meta distribution of the SIR with the help of the IDT approach. Meta distribution is the distribution of the conditional success probability given the point process. We derive and compare the closed-form expression for the b-th moment under H-PPP and non-Poisson PP case. Since the direct computation of the complementary cumulative distribution function (CCDF) for meta distribution is not available, we propose a simple and accurate numerical method based on numerical inversion of Laplace transforms. The proposed approach is more efficient and stable than the conventional approach using Gil-Pelaez theorem. The asymptotic value of CCDF of meta distribution is computed under new definition of success probability. Furthermore, the proposed method is compared with some other approximations and bounds, e.g., beta approximation, Markov bounds and Paley-Zygmund bound. However, the other approximation models and bounds are compared to be less accurate than our proposed method.
22

Task-based optimization of 3D breast x-ray imaging using mathematical observers / Optimisation de l'imagerie tridimensionnelle du sein, basée sur les tâches du radiologue, par l'utilisation d'observateurs mathématiques

Li, Zhijin 06 October 2017 (has links)
La mammographie, une modalité 2D d'imagerie du sein par rayons X, a montré son efficacité pour réduire la mortalité par cancer du sein. Aujourd'hui, la tomosynthèse numérique du sein, une modalité 3D d'imagerie du sein par rayons X, prend une place de plus en plus importante dans la pratique clinique, et est reconnue de plus en plus souvent comme ayant le potentiel de remplacer la mammographie dans un proche avenir. Pour évaluer plusieurs aspects de la tomosynthèse, des études cliniques sont nécessaires. Mais les études cliniques sont coûteuses et présentent des risques supplémentaires pour les patientes dus à l'utilisation de radiations ionisantes. Les études cliniques virtuelles ont pour objectif d'offrir une approche alternative en utilisant des simulations numériques. Dans cette thèse, nous nous intéressons à plusieurs éléments intervenants dans une telle étude clinique virtuelle. Dans un premier temps, nous analysons l'état de l'art sur la caractérisation analytique des champs aléatoires 3D pour la simulation de la texture du sein par rayons X. Nous nous intéressons aussi à l'estimation de caractéristiques statistiques des images du sein par rayons X (densité, indice spectral). Puis nous développons un nouveau modèle de texture 3D du sein basé sur la géométrie stochastique, et qui permet de simuler des images 2D et 3D réalistes du sein. Nous considérons le problème de l'inférence d'un tel modèle à partir d'une base d'images cliniques 3D. Ensuite, nous développons un observateur mathématique basé sur la théorie textit{a contrario} de la perception visuelle, pour modéliser la détection des microcalcifications par des radiologues dans des images 2D et 3D du sein. Tous ces composants sont utilisés pour implémenter une étude clinique entièrement numérique. La pertinence des résultats obtenus montre l'utilité de ces études cliniques virtuelles et nous incite à en développer de plus élaborées dans le futur. / Full field digital mammography, a 2D x-ray breast imaging modality has been proved to reduce the breast cancer mortality. Today, digital breast tomosynthesis, a 3D x-ray breast imaging modality, is being integrated in clinical practice and is believed to replace standard mammography in the near future. To assess the clinical performance of various aspects of tomosynthesis, clinical trials are needed. Clinical trials are burdensome, expensive and may impose increased risk to the patient due to additional radiation exposure. Virtual Clinical Trials aim to offer a more efficient alternative by using computational components. Today, active research is ongoing to develop computational components dedicated to 2D and 3D breast imaging, especially to 3D tomosynthesis. This thesis aims to advance several aspects in the development of Virtual Clinical Trials. First, we focused on analytical characterization of state-of-the-art 3D random field breast texture models. The estimation of statistical characteristics (breast density, spectral index) from clinical x-ray breast images was also studied. Next, we proposed a mathematically traceable 3D breast texture model based on stochastic geometry, that allows to simulate realistic 2D and 3D images. The statistical inference of the texture model parameters from a database of clinical 3D breast images was also tackled. We then developed a mathematical observer based on the textit{a contrario} theory, that allows to model the microcalcification detection process by radiologists in 2D and 3D breast images. Finally, these two proposed components were applied to implement a virtual clinical trial experiment, demonstrating their potential in the conduct of more advanced virtual clinical studies in the future.
23

Processus ponctuels et algorithmes de coupure minimal de graphe appliqués à l'extraction d'objets 2D et 3D

Gamal Eldin, Ahmed 24 October 2011 (has links) (PDF)
L'objectif de cette thèse est de développer une nouvelle approche de détection d'objets 3D à partir d'une image 2D, prenant en compte les occultations et les phénomènes de perspective. Cette approche est fondée sur la théorie des processus ponctuels marqués, qui a fait ses preuves dans la solution de plusieurs problèmes en imagerie haute résolution. Le travail de la thèse est structuré en deux parties. <br> En première partie : nous proposons une nouvelle méthode probabiliste pour gérer les occultations et les effets de perspective. Le modèle proposé est fondé sur la simulation d'une scène 3D utilisant OpenGL sur une carte graphique (GPU). C'est une méthode orientée objet, intégrée dans le cadre d'un processus ponctuel marqué. Nous l'appliquons pour l'estimation de la taille d'une colonie de manchots, là où nous modélisons une colonie de manchots comme un nombre inconnu d'objets 3D. L'idée principale de l'approche proposée consiste à échantillonner certaines configurations candidat composé d'objets 3D s'appuyant sur le plan réel. Une densité de Gibbs est définie sur l'espace des configurations, qui prend en compte des informations a priori et sur les données. Pour une configuration proposée, la scène est projetée sur le plan image, et les configurations sont modifiées jusqu'à convergence. Pour évaluer une configuration proposée, nous mesurons la similarité entre l'image projetée de la configuration proposée et l'image réelle, définissant ainsi le terme d'attache aux données et l'a priori pénalisant les recouvrements entre objets. Nous avons introduit des modifications dans l'algorithme d'optimisation pour prendre en compte les nouvelles dépendances qui existent dans notre modèle 3D. <br> En deuxième partie : nous proposons une nouvelle méthode d'optimisation appelée "Naissances et Coupe multiples" ("Multiple Births and Cut" (MBC) en Anglais). Cette méthode combine à la fois la nouvelle méthode d'optimisation "Naissance et Mort multiples" (MBD) et les "Graph-Cut". Les méthodes MBC et MBD sont utilisées pour l'optimisation d'un processus ponctuel marqué. Nous avons comparé les algorithmes MBC et MBD montrant que les principaux avantages de notre algorithme nouvellement proposé sont la réduction du nombre de paramètres, la vitesse de convergence et de la qualité des résultats obtenus. Nous avons validé notre algorithme sur le problème de dénombrement des flamants roses dans une colonie.
24

Promenade dans les cartes de villes - Phénoménologie mathématique et physique de la ville - une approche géométrique

Courtat, Thomas 31 January 2012 (has links) (PDF)
Nous nous intéressons à la phénoménologie des villes en nous limitant à la géométrie induite par le squelette de leur réseau de rues. C'est une étude à volonté synthétique, fonctionnelle et interdisciplinaire qui vient s'ajouter aux travaux qui ont été menés à grande cadence depuis le début du XXème siècle par des urbanistes, sociologues, géographes, statisticiens, physiciens. Nous cherchons à montrer que la rue, en tant qu'alignement cohérent de segments de rues peut être considérée comme structure élémentaire de la ville. Quelle quantité d'information est donnée par la géométrie du réseau routier ? Dans quelle mesure contraint-il nos échanges ? Comment le paysage urbain actuel est-il déterminé par son évolution le long d'axes de circulation et d'éléments structurants ? Nous présentons un cadre mathématique permettant de considérer la carte d'une ville comme un continuum géométrique défi ni par la topologie d'un graphe planaire. Nous superposons à ce graphe une structure d'hypergraphe pour manipuler aisément la notion d'axes ainsi qu'une représentation multi-échelles de la ville. En dépit d'une grande diversité apparente de formes, nous montrons que le réseau de rues d'une ville se soumet à un certain nombre de lois générales qui laissent des traces sur le plan de la ville. Nous proposons des modèles de croissance et de morphogénèse de la ville, implé- mentant l'idée que l'évolution de la ville suit une logique d'extension / division structurée de l'espace et reproduisant les signatures observées sur les plans de villes réelles. La compréhension des mécanismes régulateurs de la ville nous permet de proposer des algorithmes fonctionnels dont le temps de calcul est très intéressant. Ainsi nous présentons un algorithme reconstituant les rues à partir de segments de rues ; la notion de centralité simple dont le calcul sur une carte permet une analyse hiérarchique de celle-ci, met en valeur les axes de trafic principaux et en évidence les zones mal desservies ; un algorithme permettant d'approximer rapidement le plus court chemin entre deux points aléatoires ; un algorithme prenant appui sur le Spectral Clustering pour produire des segmentations morphologiques de cartes et retravaillons l'identi cation de modèles de mosaïques aléatoires pour les substituer à un réseau urbain particulier dans la résolution par équivalents statistiques de grands problèmes d'optimisation.
25

Optimisation de l'allocation de ressources dans les réseaux celluaires : une approche efficace en énergie

Hasan, Cengis 29 August 2013 (has links) (PDF)
Le terme "réseau vert" ou pour éviter une traduction directe, "réseau propre" repose sur la sélection de technologies et de produits réseaux économes en énergie, et grantissant un usage minimal des ressources (radio, bande passante,...) quand cela est possible. Cette thèse vise à étudier les problèmes d'allocation des ressources dans les petits réseaux de cellules dans un contexte de réseau propre. Nous développons des algorithmes pour différents paradigmes. Nos travaux reposent principalement sur le contexte de la théorie des jeux de coalition, mais également sur des outils de géométrie stochastique ainsi que d'un modèle de jeu de surpeuplement. Nous étudions tout d'abord le problème d'association de mobiles à des stations de base dans les applications de diffusion d'un flux commun, sous contrainte de minimisation de la consommation d'énergie totale: nos algorithmes suivent une approche préservant l'énergie. Nous examinons le problème d'association des mobiles sous le prisme des jeux de coalition. Ce jeu tend à former la grande coalition, qui se caractérise par le fait que tous les joueurs forment une coalition unique. En utilisant le théorème de Bondareva-Shapley, nous prouvons que ce jeu de coalition a un noyau non vide ce qui signifie que la grande coalition est stable. Ensuite, nous examinons la politique de répartition des coûts pour différentes méthodes. Dans une deuxième partie, nous analysons un problème important dans les réseaux propres qui consiste à étteindre les stations de base qui ne sont pas indispensables. Nous abordons ce problème de facon statistique, dans le cas de fournisseurs de services coopérant au moyen d'outils de jeux de coalition vus sous un angle de la géométrie stochastique. Le jeu coalitionnel considéré est joué par les fournisseurs de services qui collaborent à éteindre leurs stations de base. Nous avons analysé la stabilité de Nash qui est un concept utilisé pour les jeux de coalition hédoniques. Nous posons la question suivante: Existe-t-il une méthode de répartition de la fonction d'utilitè qui se traduit par un partitionnement Nash-stable? Nous répondons à cette question dans la thèse. Nous démontrons que le noyau Nash-stable, défini comme l'ensemble des méthodes de répartition des couts conduisant à un partitionnement stable au sens de la stabilité de Nash. Nous considérons finalement les jeux liés à l'association des mobiles à un point d'accès non plus dans le cas d'un broadcast, mais dans le cas général. Le jeu consiste à décider à quel point d'accès un mobile doit se connecter. Nous considérons le choix entre deux points d'accès ou plus. Les décisions d'association dépendent du nombre de mobiles connectés à chacun des points d'accès. Nous obtenons de nouveaux résultats en utilisant des outils élémen taires de jeux de congestion et déviction. Enfin, nous nous intéressons aux transmissions coopératives. Nous étudions le problème de la sélection de partenaires dans le cas de constitution de binomes gagnant-gagnant, ou chacun des partenaire s'appuie sur l'autre pour sa propre transmission. Nous proposons d'assimiler la sélection des partenaires au problème classique en théorie des jeux de recherche stable de colocataire où chaque joueur établi une liste de préférence parmi les partenaires possibles; Nous adaptons l'algorithme de Irving pour déterminer le partenaire de chaque joueur et nous introduisons une version décentralisée de l'algorithme de Irving.
26

Ultra-narrowband wireless sensor networks modeling and optimization / Modélisation d'un réseau sans fils en bande ultra étroite et optimisation du protocole de communication

Do, Minh-Tien 21 July 2015 (has links)
Cette thèse a pour but de modéliser les réseaux de capteurs sans fil à faible débit (WSN) basés sur la technique ultra bande étroite. Ce réseau a déjà été déployée par la société SIGFOX et a déjà démontré sa très grande efficacité pour les applications pour l’Internet des objets (IoTs) grâce à sa capacité de communication point à point efficace en terme de puissance consommée, et de sa connectivité de longue portée. Cette étude donne quelques aperçus sur le passage à l’échelle de la technique de l’UNB pour un réseau multipoint à point pour une liaison montante. L’accès au canal spécifique qui est basé sur l’accès multiple par répartition aléatoire de fréquence et de temps (R-FTDMA) est introduit et analysé. En outre, l’impact de l’interférence due à l’absence de stratégie d’ordonnancement à la couche MAC est étudié et modélisé. Notre modèle simplifié nous permet non seulement de décrire la puissance d’interférence agrégée, mais aussi d’évaluer les performances du système d’un tel réseau en matière de taux d’erreur et de probabilité de coupure. De même, la géométrie stochastique est utilisée pour modéliser la distribution spatiale des noeuds afin d’étendre le modèle simplifié dans le canal réaliste où les dégradations de canal sont prises en compte. De plus, le mécanisme de retransmission est considéré pour ce réseau. Cette étude permet de d’identifier le nombre optimal de retransmissions. Le réseau peut être configuré avec un paramètre global unique. Et enfin, cette thèse met en évidence le fait que le réseau de l’UNB Random-FTDMA est très pertinent dans un réseau réaliste, en particulier pour les applications à faible débit, car il allége le coût élevé du réseau, le coût de la synchronisation globale, mais sans perte de performance. / This thesis aims at modeling the low-throughput wireless sensor networks (WSNs) based on ultra-narrow-band technology. Such wireless network is already been deployed by Sigfox company and has proved to be ultra-efficient for the Internet of things (IoTs) applications thanks to its ability of point-to-point communication in terms of power efficiency and long range connectivity. In particular, this thesis gives some insights on the scalability of UNB technology for a multi-point-to-point network in an uplink scenario. The multiple access schemes based on random time and frequency selection are introduced and analyzed. Furthermore, the interference impact due to the lack of scheduling strategy at the MAC layer is studied and modeled. Our simplified model using rectangular function allows us not only to describe the aggregate interference power but also evaluate the system performance of such network in terms of the bit-error-rate and outage probability. Besides, the geometry stochastic is used for spatial node distribution in order to extend the simplified model in the realistic channel communication where the channel impairments are taken into account. Besides, the retransmission mechanism is considered for such network. This study argues an optimal number of retransmission. The network can be configured with a unique global parameter. Last but not least, this thesis highlights the fact that the UNB network using Random-FTDMA schemes is very relevant in a realistic network, especially for low-throughput applications, because it bypasses the high network cost, the cost of global synchronization but without loss of performance.

Page generated in 0.0878 seconds