• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 161
  • 89
  • 12
  • 2
  • Tagged with
  • 259
  • 119
  • 50
  • 39
  • 36
  • 36
  • 30
  • 29
  • 29
  • 29
  • 27
  • 25
  • 24
  • 24
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Modélisation hybride du canal de propagation dans un contexte industriel / A hybrid radio channel model for industrial environment

Hariri Essamlali, Kaoutar El 19 December 2014 (has links)
Ce travail de thèse concerne la modélisation du canal de propagation dans les milieux industriels. Dans ce contexte, le canal de propagation a un comportement différent de celui classiquement rencontré en indoor. Cela est dû à l'aménagement des bâtiments qui sont plus grand et ouverts ainsi qu'à la présence de machines, d'objets mobiles et d'autres matériaux métalliques rencontrés dans ces environnements. Ainsi, les modèles de canaux indoor existants ne sont plus valides. L'utilisation de modèles déterministes comme alternative est possible mais limitée en raison du temps de calcul qui en découle.Pour répondre à cette problématique, nous proposons un modèle hybride de canal s'inspirant d'une méthode à tracer de rayons 3D et du modèle WINNER. L'originalité de ce modèle repose sur son caractère hybride consistant, en prétraitement, à partitionner l'environnement en zones de visibilité ou de non-visibilité «faible» et «forte» sur des critères déterministes liés à la propagation des ondes. Un modèle statistique, type WINNER, reprenant le concept de cluster est ensuite "joué" au sein de chacune des ces zones reproduisant ainsi fidèlement l'évolution des paramètres caractéristiques des clusters identifiés. Nous avons validé notre modèle en le comparant d'abord à un modèle déterministe et ensuite à la mesure. Sa robustesse ainsi que celle de WINNER sont testées en les simulant dans trois environnements différents et en les comparant au modèle déterministe à tracer de rayons. / This thesis focuses on the modeling of the propagation channel in industrial environments. In this context, the propagation channel has a different behavior than typically encountered in indoor. This is due to the construction of buildings that are larger and open and the presence of machines, moving objects and metal materials encountered in these environments. Thus, the existing indoor channel models are not valid. Using deterministic models as an alternative is possible, but limited by the computing time.To address this problem, we propose a hybrid channel model for communications in industrial environments inspired by a ray tracing method and Winner model. The originality of this model is its hybrid nature consisting, in preprocessing, in partitionning the environment in areas of visibility or non-visibility «weak» and «strong» based on deterministic criteria related to the wave propagation. A statistical model, as WINNER , using the concept of cluster is then played in each of these areas and faithfully reproducing the evolution of the characteristic parameters of the identified clusters. We have validated our model by comparing it firstly to a deterministic model and then to measurement. Its robustness as well that of WINNER are tested by simulating them in three different environments and by comparing them with the deterministic model.
202

Contributions aux méthodes de branchement multi-niveaux pour les évènements rares, et applications au trafic aérien / Contributions to multilevel splitting for rare events, and applications to air traffic

Jacquemart, Damien 08 December 2014 (has links)
La thèse porte sur la conception et l'analyse mathématique de méthodes de Monte Carlo fiables et précises pour l'estimation de la (très petite) probabilité qu'un processus de Markov atteigne une région critique de l'espace d'état avant un instant final déterministe. L'idée sous-jacente aux méthodes de branchement multi-niveaux étudiées ici est de mettre en place une suite emboitée de régions intermédiaires de plus en plus critiques, de telle sorte qu'atteindre une région intermédiaire donnée sachant que la région intermédiaire précédente a déjà été atteinte, n'est pas si rare. En pratique, les trajectoires sont propagées, sélectionnées et répliquées dès que la région intermédiaire suivante est atteinte, et il est facile d'estimer avec précision la probabilité de transition entre deux régions intermédiaires successives. Le biais dû à la discrétisation temporelle des trajectoires du processus de Markov est corrigé en utilisant des régions intermédiaires perturbées, comme proposé par Gobet et Menozzi. Une version adaptative consiste à définir automatiquement les régions intermédiaires, à l’aide de quantiles empiriques. Néanmoins, une fois que le seuil a été fixé, il est souvent difficile voire impossible de se rappeler où (dans quel état) et quand (à quel instant) les trajectoires ont dépassé ce seuil pour la première fois, le cas échéant. La contribution de la thèse consiste à utiliser une première population de trajectoires pilotes pour définir le prochain seuil, à utiliser une deuxième population de trajectoires pour estimer la probabilité de dépassement du seuil ainsi fixé, et à itérer ces deux étapes (définition du prochain seuil, et évaluation de la probabilité de transition) jusqu'à ce que la région critique soit finalement atteinte. La convergence de cet algorithme adaptatif à deux étapes est analysée dans le cadre asymptotique d'un grand nombre de trajectoires. Idéalement, les régions intermédiaires doivent êtres définies en terme des variables spatiale et temporelle conjointement (par exemple, comme l'ensemble des états et des temps pour lesquels une fonction scalaire de l’état dépasse un niveau intermédiaire dépendant du temps). Le point de vue alternatif proposé dans la thèse est de conserver des régions intermédiaires simples, définies en terme de la variable spatiale seulement, et de faire en sorte que les trajectoires qui dépassent un seuil précocement sont davantage répliquées que les trajectoires qui dépassent ce même seuil plus tardivement. L'algorithme résultant combine les points de vue de l'échantillonnage pondéré et du branchement multi-niveaux. Sa performance est évaluée dans le cadre asymptotique d'un grand nombre de trajectoires, et en particulier un théorème central limite est obtenu pour l'erreur d'approximation relative. / The thesis deals with the design and mathematical analysis of reliable and accurate Monte Carlo methods in order to estimate the (very small) probability that a Markov process reaches a critical region of the state space before a deterministic final time. The underlying idea behind the multilevel splitting methods studied here is to design an embedded sequence of intermediate more and more critical regions, in such a way that reaching an intermediate region, given that the previous intermediate region has already been reached, is not so rare. In practice, trajectories are propagated, selected and replicated as soon as the next intermediate region is reached, and it is easy to accurately estimate the transition probability between two successive intermediate regions. The bias due to time discretization of the Markov process trajectories is corrected using perturbed intermediate regions as proposed by Gobet and Menozzi. An adaptive version would consist in the automatic design of the intermediate regions, using empirical quantiles. However, it is often difficult if not impossible to remember where (in which state) and when (at which time instant) did each successful trajectory reach the empirically defined intermediate region. The contribution of the thesis consists in using a first population of pilot trajectories to define the next threshold, in using a second population of trajectories to estimate the probability of exceeding this empirically defined threshold, and in iterating these two steps (definition of the next threshold, and evaluation of the transition probability) until the critical region is reached. The convergence of this adaptive two-step algorithm is studied in the asymptotic framework of a large number of trajectories. Ideally, the intermediate regions should be defined in terms of the spatial and temporal variables jointly (for example, as the set of states and times for which a scalar function of the state exceeds a time-dependent threshold). The alternate point of view proposed in the thesis is to keep intermediate regions as simple as possible, defined in terms of the spatial variable only, and to make sure that trajectories that manage to exceed a threshold at an early time instant are more replicated than trajectories that exceed the same threshold at a later time instant. The resulting algorithm combines importance sampling and multilevel splitting. Its preformance is evaluated in the asymptotic framework of a large number of trajectories, and in particular a central limit theorem is obtained for the relative approximation error.
203

Chance-Constrained Programming Approaches for Staffing and Shift-Scheduling Problems with Uncertain Forecasts : application to Call Centers / Approches de programmation en contraintes en probabilité pour les problèmes de dimensionnement et planification avec incertitude de la demande : application aux centres d'appels

Excoffier, Mathilde 30 September 2015 (has links)
Le problème de dimensionnement et planification d'agents en centre d'appels consiste à déterminer sur une période le nombre d'interlocuteurs requis afin d'atteindre la qualité de service exigée et minimiser les coûts induits. Ce sujet fait l'objet d'un intérêt croissant pour son intérêt théorique mais aussi pour l'impact applicatif qu'il peut avoir. Le but de cette thèse est d'établir des approches en contraintes en probabilités en considérant l'incertitude de la demande.Tout d'abord, la thèse présente un modèle en problème d'optimisation stochastique avec contrainte en probabilité jointe traitant la problématique complète en une étape afin d'obtenir un programme facile à résoudre. Une approche basée sur l'idée de continuité est proposée grâce à des lois de probabilité continues, une nouvelle relation entre les taux d'arrivées et les besoins théoriques et la linéarisation de contraintes. La répartition du risque global est faite pendant le processus d'optimisation, permettant une solution au coût réduit. Ces solutions résultantes respectent le niveau de risque tout en diminuant le coût par rapport à d'autres approches.De plus, le modèle en une étape est étendu pour améliorer sa représentation de la réalité. D'une part, le modèle de file d'attente est amélioré et inclus la patience limitée des clients. D'autre part, une nouvelle expression de l'incertitude est proposée pour prendre la dépendance des périodes en compte.Enfin, une nouvelle représentation de l'incertitude est considérée. L'approche distributionally robust permet de modéliser le problème sous l'hypothèse que la loi de probabilité adéquate est inconnue et fait partie d'un ensemble de lois, défini par une moyenne et une variance données. Le problème est modélisé par une contrainte en probabilité jointe. Le risque à chaque période est définie par une variable à optimiser.Un problème déterministe équivalent est proposé et des approximations linéaires permettent d'obtenir une formulation d'optimisation linéaire. / The staffing and shift-scheduling problems in call centers consist in deciding how many agents handling the calls should be assigned to work during a given period in order to reach the required Quality of Service and minimize the costs. These problems are subject to a growing interest, both for their interesting theoritical formulation and their possible applicative effects. This thesis aims at proposing chance-constrained approaches considering uncertainty on demand forecasts.First, this thesis proposes a model solving the problems in one step through a joint chance-constrained stochastic program, providing a cost-reducing solution. A continuous-based approach leading to an easily-tractable optimization program is formulated with random variables following continuous distributions, a new continuous relation between arrival rates and theoritical real agent numbers and constraint linearizations. The global risk level is dynamically shared among the periods during the optimization process, providing reduced-cost solution. The resulting solutions respect the targeted risk level while reducing the cost compared to other approaches.Moreover, this model is extended so that it provides a better representation of real situations. First, the queuing system model is improved and consider the limited patience of customers. Second, another formulation of uncertainty is proposed so that the period correlation is considered.Finally, another uncertainty representation is proposed. The distributionally robust approach provides a formulation while assuming that the correct probability distribution is unknown and belongs to a set of possible distributions defined by given mean and variance. The problem is formulated with a joint chance constraint. The risk at each period is a decision variable to be optimized. A deterministic equivalent problem is proposed. An easily-tractable mixed-integer linear formulation is obtained through piecewise linearizations.
204

Etude du comportement thermique et thermomécanique des récepteurs solaires sous haut flux radiatif / Study of the thermomechanical behavior of a ceramic solar absorber submitted to high solar flux

Leray, Cedric 21 February 2017 (has links)
Dans le contexte énergétique qui se profile, la production d’électricité par voie solaire thermodynamique s’avère une solution prometteuse, que ce soit pour des considérations économiques, d’échelle de production ou environnementales. Une voie d’amélioration du rendement des centrales solaires à tour consiste à utiliser des cycles thermodynamiques à haut rendement type cycles combinés. Cela nécessite de pouvoir fournir un fluide de travail pressurisé à très haute température (10bar et 1000°C minimum). Ce manuscrit présente les travaux menés afin de développer et de viabiliser un concept d’absorbeur solaire surfacique modulaire en céramique (carbure de silicium) capable de répondre à ces exigences. Le choix du carbure de silicium s’est imposé pour sa résistance aux hautes températures et aux problèmes d’oxydation. Cependant, l’utilisation d’une céramique comme matériau implique un risque de casse des modules. Les céramiques sont en effet fragiles lorsqu’elles sont soumises à des contraintes de traction. C’est la connaissance et la maitrise de ce risque qui fait l’objet de cette étude. L’approche adoptée combine le développement d’outils numériques et d’études expérimentales réalisées sur le site de la centrale solaire Thémis (Targassonne, 66, France). La méthodologie desimulation développée permet de prédire le comportement thermique et le comportement mécanique de l’absorbeur. Ceci permet de réduire les risques encourus par l’absorbeur et d’en connaitre les performances. Cette méthodologie a été éprouvée à l’aide des résultats expérimentaux. / For the future, using thermodynamical solar power plant seems to be a good solution to ensure electrical production. Solar tower plants are able to produce electricity in significant amount, are environmentally friendly and economically competitive. One way to increase the yield of these plants is using high efficiency thermodynamical cycles, like combined cycle. That requires to providing a working fluid at high temperature and high pressure (10bar and 1000°C at least). This PHD thesis presents the works performed to develop and enhance a concept of modular plate solar ceramic absorber that can ensure the required air production. We chose the silicon carbide as material due to its resistance to high temperatures and oxidation problems. The drawback is ceramic modules are weak to traction stresses. The study focuses on the knowledge and the control of this phenomenon. This work combines the developments of numerical tools and experimental studies performed at Thémis power plant (Targassonne, 66, FRANCE). The numerical method permits simulations to predict the thermal behavior and the mechanical behavior of a solar module absorber. It allows the reduction of the mechanical stresses undergone by solar receiver and the prediction of its performances. This methodology was tested using experimental results.
205

Estimation de régularité locale / Local regularity estimation

Servien, Rémi 12 March 2010 (has links)
L'objectif de cette thèse est d'étudier le comportement local d'une mesure de probabilité, notamment à l'aide d'un indice de régularité locale. Dans la première partie, nous établissons la normalité asymptotique de l'estimateur des kn plus proches voisins de la densité. Dans la deuxième, nous définissons un estimateur du mode sous des hypothèses affaiblies. Nous montrons que l'indice de régularité intervient dans ces deux problèmes. Enfin, nous construisons dans une troisième partie différents estimateurs pour l'indice de régularité à partir d'estimateurs de la fonction de répartition, dont nous réalisons une revue bibliographique. / The goal of this thesis is to study the local behavior of a probability measure, using a local regularity index. In the first part, we establish the asymptotic normality of the nearest neighbor density estimate. In the second, we define a mode estimator under weakened hypothesis. We show that the regularity index interferes in this two problems. Finally, we construct in a third part various estimators of the regularity index from estimators of the distribution function, which we achieve a review.
206

Staffing optimization with chance constraints in call centers

Ta, Thuy Anh 12 1900 (has links)
Les centres d’appels sont des éléments clés de presque n’importe quelle grande organisation. Le problème de gestion du travail a reçu beaucoup d’attention dans la littérature. Une formulation typique se base sur des mesures de performance sur un horizon infini, et le problème d’affectation d’agents est habituellement résolu en combinant des méthodes d’optimisation et de simulation. Dans cette thèse, nous considérons un problème d’affection d’agents pour des centres d’appels soumis a des contraintes en probabilité. Nous introduisons une formulation qui exige que les contraintes de qualité de service (QoS) soient satisfaites avec une forte probabilité, et définissons une approximation de ce problème par moyenne échantillonnale dans un cadre de compétences multiples. Nous établissons la convergence de la solution du problème approximatif vers celle du problème initial quand la taille de l’échantillon croit. Pour le cas particulier où tous les agents ont toutes les compétences (un seul groupe d’agents), nous concevons trois méthodes d’optimisation basées sur la simulation pour le problème de moyenne échantillonnale. Étant donné un niveau initial de personnel, nous augmentons le nombre d’agents pour les périodes où les contraintes sont violées, et nous diminuons le nombre d’agents pour les périodes telles que les contraintes soient toujours satisfaites après cette réduction. Des expériences numériques sont menées sur plusieurs modèles de centre d’appels à faible occupation, au cours desquelles les algorithmes donnent de bonnes solutions, i.e. la plupart des contraintes en probabilité sont satisfaites, et nous ne pouvons pas réduire le personnel dans une période donnée sont introduire de violation de contraintes. Un avantage de ces algorithmes, par rapport à d’autres méthodes, est la facilité d’implémentation. / Call centers are key components of almost any large organization. The problem of labor management has received a great deal of attention in the literature. A typical formulation of the staffing problem is in terms of infinite-horizon performance measures. The method of combining simulation and optimization is used to solve this staffing problem. In this thesis, we consider a problem of staffing call centers with respect to chance constraints. We introduce chance-constrained formulations of the scheduling problem which requires that the quality of service (QoS) constraints are met with high probability. We define a sample average approximation of this problem in a multiskill setting. We prove the convergence of the optimal solution of the sample-average problem to that of the original problem when the sample size increases. For the special case where we consider the staffing problem and all agents have all skills (a single group of agents), we design three simulation-based optimization methods for the sample problem. Given a starting solution, we increase the staffings in periods where the constraints are violated, and decrease the number of agents in several periods where decrease is acceptable, as much as possible, provided that the constraints are still satisfied. For the call center models in our numerical experiment, these algorithms give good solutions, i.e., most constraints are satisfied, and we cannot decrease any agent in any period to obtain better results. One advantage of these algorithms, compared with other methods, that they are very easy to implement.
207

Première évaluation de l’intégralité des propriétés synaptiques des terminaisons en compétition lors du développement de la jonction neuromusculaire

St-Pierre-See, Alexandre 04 1900 (has links)
No description available.
208

Side-channel and fault analysis in the presence of countermeasures : tools, theory, and practice / Canaux cachés et attaques par injection de fautes en présence de contre-mesures : outils, théorie et pratique

Korkikian, Roman 27 October 2016 (has links)
Dans cette thèse nous développons et améliorons des attaques de systèmes cryptographiques. Un nouvel algorithme de décomposition de signal appelé transformation de Hilbert-Huang a été adapté pour améliorer l’efficacité des attaques parcanaux auxiliaires. Cette technique permet de contrecarrer certaines contre-mesures telles que la permutation d’opérations ou l’ajout de bruit à la consommation de courant. La seconde contribution de ce travail est l’application de certaines distributions statistiques de poids de Hamming à l’attaque d’algorithmes de chiffrement par bloc tels que AES, DES ou LED. Ces distributions sont distinctes pour chaque valeur de sous-clef permettent donc de les utiliser comme modèles intrinsèques. Les poids de Hamming peuvent être découverts par des analyses de canaux auxiliaires sans que les clairs ni les chiffrés ne soient accessibles. Cette thèse montre que certaines contremesures peuvent parfois faciliter des attaques. Les contre-mesures contagieuses proposées pour RSA protègent contre les attaques par faute mais ce faisant et moyennant des calculs additionnels facilitent la découverte de la clef. Finalement, des contre-mesures à faible complexité calculatoire sont proposées. Elles sont basées sur le masquage antagoniste, c’est-à-dire, l’exécution d’une opération d’équilibrage sur des données sensibles pour masquer la consommation de courant. / The goal of the thesis is to develop and improve methods for defeating protected cryptosystems. A new signal decompositionalgorithm, called Hilbert Huang Transform, was adapted to increase the efficiency of side-channel attacks. This technique attempts to overcome hiding countermeasures, such as operation shuffling or the adding of noise to the power consumption. The second contribution of this work is the application of specific Hamming weight distributions of block cipher algorithms, including AES, DES, and LED. These distributions are distinct for each subkey value, thus they serve as intrinsic templates. Hamming weight data can be revealed by side-channel and fault attacks without plaintext and ciphertext. Therefore these distributions can be applied against implementations where plaintext and ciphertext are inaccessible. This thesis shows that some countermeasures serve for attacks. Certain infective RSA countermeasures should protect against single fault injection. However, additional computations facilitate key discovery. Finally, several lightweight countermeasures are proposed. The proposed countermeasures are based on the antagonist masking, which is an operation occurring when targeting data processing, to intelligently mask the overall power consumption.
209

New Analytical Methods for the Analysis and Optimization of Energy-Efficient Cellular Networks by Using Stochastic Geometry / Nouvelles méthodes d'analyse et d'optimisation des réseaux cellulaires à haute efficacité énergétique en utilisant la géométrie stochastique

Tu, Lam Thanh 18 June 2018 (has links)
L'analyse et l'optimisation au niveau de système sont indispensables pour la progression de performance des réseaux de communication. Ils sont nécessaires afin de faire fonctionner de façon optimale des réseaux actuels et de planifier des réseaux futurs. La modélisation et l'analyse au niveau de système des réseaux cellulaires ont été facilitées grâce à la maîtrise de l'outil mathématique de la géométrie stochastique et, plus précisément, la théorie des processus ponctuels spatiaux. Du point de vue de système, il a été empiriquement validé que les emplacements des stations cellulaires de base peuvent être considérés comme des points d'un processus ponctuel de Poisson homogène dont l'intensité coïncide avec le nombre moyen de stations par unité de surface. Dans ce contexte, des contributions de ce travail se trouvent dans le développement de nouvelles méthodologies analytiques pour l'analyse et l'optimisation des déploiements de réseaux cellulaires émergents.La première contribution consiste à introduire une approche pour évaluer la faisabilité de réseaux cellulaires multi-antennes, dans lesquels les dispositifs mobiles à faible énergie décodent les données et récupèrent l'énergie à partir d’un même signal reçu. Des outils de géométrie stochastique sont utilisés pour quantifier le taux d'information par rapport au compromis de puissance captée. Les conclusions montrent que les réseaux d'antennes à grande échelle et les déploiements ultra-denses de stations base sont tous les deux nécessaires pour capter une quantité d'énergie suffisamment élevée et fiable. En outre, la faisabilité de la diversité des récepteurs pour l'application aux réseaux cellulaires descendants est également étudiée. Diverses options basées sur la combinaison de sélection et la combinaison de taux maximal sont donc comparées. Notre analyse montre qu'aucun système n’est plus performant que les autres pour chaque configuration de système : les dispositifs à basse énergie doivent fonctionner de manière adaptative, en choisissant le schéma de diversité des récepteurs en fonction des exigences imposées.La deuxième contribution consiste à introduire une nouvelle approche pour la modélisation et l'optimisation de l'efficacité énergétique des réseaux cellulaires.Contrairement aux approches analytiques actuellement disponibles qui fournissent des expressions analytiques trop simples ou trop complexes de la probabilité de couverture et de l'efficacité spectrale des réseaux cellulaires, l'approche proposée est formulée par une solution de forme fermée qui se révèle en même temps simple et significative. Une nouvelle expression de l'efficacité énergétique du réseau cellulaire descendant est proposée à partir d’une nouvelle formule de l'efficacité spectrale. Cette expression est utilisée pour l’optimisation de la puissance d'émission et la densité des stations cellulaires de base. Il est prouvé mathématiquement que l'efficacité énergétique est une fonction uni-modale et strictement pseudo-concave de la puissance d'émission en fixant la densité des stations de base, et de la densité des stations de base en fixant la puissance d'émission. La puissance d'émission optimale et la densité des stations de base s'avèrent donc être la solution des équations non linéaires simples.La troisième contribution consiste à introduire une nouvelle approche pour analyser les performances des réseaux cellulaires hétérogènes équipés des sources d'énergie renouvelables, telles que les panneaux solaires. L'approche proposée permet de tenir compte de la distribution spatiale des stations de base en utilisant la théorie des processus ponctuels, ainsi que l'apparition aléatoire et la disponibilité de l'énergie en utilisant la théorie des chaînes de Markov. En utilisant l'approche proposée, l'efficacité énergétique des réseaux cellulaires peut être quantifiée et l'interaction entre la densité des stations de base et le taux d'énergie d'apparition peut être quantifiée et optimisée. / In communication networks, system-level analysis and optimization are useful when one is interested in optimizing the system performance across the entire network. System-level analysis and optimization, therefore, are relevant for optimally operating current networks, and for deploying and planning future networks. In the last few years, the system-level modeling and analysis of cellular networks have been facilitated by capitalizing on the mathematical tool of stochastic geometry and, more precisely, on the theory of spatial point processes. It has been empirically validated that, from the system-level standpoint, the locations of cellular base stations can be abstracted as points of a homogeneous Poisson point process whose intensity coincides with the average number of based stations per unit area.In this context, the contribution of the present Ph.D. thesis lies in developing new analytical methodologies for analyzing and optimizing emerging cellular network deployments. The present Ph.D. thesis, in particular, provides three main contributions to the analysis and optimization of energy-efficient cellular networks.The first contribution consists of introducing a tractable approach for assessing the feasibility of multiple-antenna cellular networks, where low-energy mobile devices decode data and harvest power from the same received signal. Tools from stochastic geometry are used to quantify the information rate vs. harvested power tradeoff. Our study unveils that large-scale antenna arrays and ultra-dense deployments of base stations are both necessary to harvest, with high reliability, a sufficiently high amount of power. Furthermore, the feasibility of receiver diversity for application to downlink cellular networks is investigated. Several options that are based on selection combining and maximum ratio combining are compared against each other. Our analysis shows that no scheme outperforms the others for every system setup. It suggests, on the other hand, that the low-energy devices need to operate in an adaptive fashion, by choosing the receiver diversity scheme as a function of the imposed requirements.The second contribution consists of introducing a new tractable approach for modeling and optimizing the energy efficiency of cellular networks. Unlike currently available analytical approaches that provide either simple but meaningless or meaningful but complex analytical expressions of the coverage probability and spectral efficiency of cellular networks, the proposed approach is conveniently formulated in a closed-form expression that is proved to be simple and meaningful at the same time. By relying on the new proposed formulation of the spectral efficiency, a new tractable closed-form expression of the energy efficiency of downlink cellular network is proposed, which is used for optimizing the transmit power and the density of cellular base stations. It is mathematically proved, in particular, that the energy efficiency is a unimodal and strictly pseudo-concave function in the transmit power, given the density of the base stations, and in the density of the base stations, given the transmit power. The optimal transmit power and density of base stations are proved to be the solution of simple non-linear equations.The third contribution consists of introducing a new tractable approach for analyzing the performance of multi-tier cellular networks equipped with renewable energy sources, such as solar panels. The proposed approach allows one to account for the spatial distribution of the base stations by using the theory of point processes, as well as for the random arrival and availability of energy by using Markov chain theory. By using the proposed approach, the energy efficiency of cellular networks can be quantified and the interplay between the density of base stations and energy arrival rate can be quantified and optimized.
210

L'information algorithmique en physique : émergence, sophistication et localité quantique

Bédard, Charles Alexandre 01 1900 (has links)
Cette thèse explore des aspects du monde naturel par la lentille de l'information algorithmique. La notion de l'émergence, intuitivement reliée à tant de phénomènes naturels, se voit offrir une définition cadrée dans le domaine plus spécifique des statistiques algorithmiques. Capturant toutes deux l'organisation non triviale d'un objet, la sophistication et la profondeur logique sont relativisées à un objet auxiliaire puis remises en relation. Enfin, des modèles proposant une description locale des systèmes quantiques sont démontrés équivalents, ont leur coût de description quantifié et sont généralisés aux systèmes continus. / This thesis explores aspects of the physical world through the lens of algorithmic information. The notion of emergence, intuitively linked to many natural phenomena, is offered a definition framed in the field of algorithmic statistics. Both capturing non-trivial organization of an object, sophistication and logical depth are compared once relativized to an auxiliary object. Finally, models proposing a local description of the quantum systems are shown equivalent, have their description cost quantified and are generalized to continuous systems.

Page generated in 0.1026 seconds