Spelling suggestions: "subject:"ampling bcheme"" "subject:"ampling ascheme""
1 |
A novel technique for phased array receivers based on an economic sampling schemeBlanco Moro, Rodrigo 04 September 2013 (has links)
Phased array systems present desirable antenna features like beam steering and high gain. However, due to their high cost, civilian applications cannot generally afford them, restricting their usage to military. Hardware involved in phased array systems is expensive and the number of devices is high, since there is usually one device of each kind (filter, amplifier, shifter..) for each individual antenna. Alternative techniques, mainly based on TDMA, have been developed looking for lowering the number of elements in the system. However, these approaches increase the system bandwidth, multiplying it by a factor of $N$ (Number of antennas), as they use redundant information.
In this thesis, a novel phased receiver, based on an economic sampling scheme is proposed. All the elements in an array receive a common information (signal amplitude) and a unique information (relative delay between elements). The idea is to sample only the information required to reconstruct the transmitted signal and discard the redundant one. This idea is achieved by sampling just one antenna during each RF cycle and then gathering all the information taking in account the relative delay between different antenna elements.
The proposed technique is mathematically proved and validated by simulation. As a first approach, the equation for the received signal in the frequency domain is derived for a linear array. The radiation pattern and the received signals are simulated for equally spaced planar and linear arrays. Bandwidth signal transmission is demonstrated and tapering effects are shown. After that, the proposed technique is expanded for arbitrary structures and the resulting system bandwidth is enhanced by using different sampling order sequences. / Master of Science
|
2 |
Echantillonnage aléatoire et estimation spectrale de processus et de champs stationnaires / Random sampling and spectral estimation of stationary processes and fieldsKouakou, Kouadio Simplice 14 June 2012 (has links)
Dans ce travail nous nous intéressons à l'estimation de la densité spectrale par la méthode du noyau pour des processus à temps continu et des champs aléatoires observés selon des schémas d'échantillonnage (ou plan d'expériences) discrets aléatoires. Deux types d'échantillonnage aléatoire sont ici considérés : schémas aléatoires dilatés, et schémas aléatoires poissonniens. Aucune condition de gaussiannité n'est imposée aux processus et champs étudiés, les hypothèses concerneront leurs cumulants.En premier nous examinons un échantillonnage aléatoire dilaté utilisé par Hall et Patil (1994) et plus récemment par Matsuda et Yajima (2009) pour l'estimation de la densité spectrale d'un champ gaussien. Nous établissons la convergence en moyenne quadratique dans un cadre plus large, ainsi que la vitesse de convergence de l'estimateur.Ensuite nous appliquons l'échantillonnage aléatoire poissonnien dans deux situations différentes : estimation spectrale d'un processus soumis à un changement de temps aléatoire (variation d'horloge ou gigue), et estimation spectrale d'un champ aléatoire sur R2. Le problème de l'estimation de la densité spectrale d'un processus soumis à un changement de temps est résolu par projection sur la base des vecteurs propres d'opérateurs intégraux définis à partir de la fonction caractéristique de l'accroissement du changement de temps aléatoire. Nous établissons la convergence en moyenne quadratique et le normalité asymptotique de deux estimateurs construits l'un à partir d'une observation continue, et l'autre à partir d'un échantillonnage poissonnien du processus résultant du changement de temps.La dernière partie de ce travail est consacrée au cas d'un champ aléatoire sur R2 observé selon un schéma basé sur deux processus de Poissons indépendants, un pour chaque axe de R2. Les résultats de convergence sont illustrés par des simulations / In this work, we are dealing in the kernel estimation of the spectral density for a continuous time process or random eld observed along random discrete sampling schemes. Here we consider two kind of sampling schemes : random dilated sampling schemes, and Poissonian sampling schemes. There is no gaussian condition for the process or the random eld, the hypotheses apply to their cumulants.First, we consider a dilated sampling scheme introduced by Hall and Patil (1994) and used more recently by Matsuda and Yajima (2009) for the estimation of the spectral density of a Gaussian random eld.We establish the quadratic mean convergence in our more general context, as well as the rate of convergence of the estimator.Next we apply the Poissonian sampling scheme to two different frameworks : to the spectral estimation for a process disturbed by a random clock change (or time jitter), and to the spectral estimation of a random field on R2.The problem of the estimatin of the spectral density of a process disturbed by a clock change is solved with projection on the basis of eigen-vectors of kernel integral operators defined from the characteristic function of the increment of the random clock change. We establish the convergence and the asymptotic normality of two estimators contructed, from a continuous time observation, and the other from a Poissonian sampling scheme observation of the clock changed process.The last part of this work is devoted to random fields on R2 observed along a sampling scheme based on two Poisson processes (one for each axis of R2). The convergence results are illustrated by some simulations
|
3 |
Multiscale soil carbon distribution in two Sub-Arctic landscapesWayolle, Audrey A. J. January 2011 (has links)
In recent years, concern has grown over the consequences of global warming. The arctic region is thought to be particularly vulnerable to increasing temperatures, and warming is occurring here substantially more rapidly than at lower latitudes. Consequently, assessments of the state of the Arctic are a focus of international efforts. For the terrestrial Arctic, large datasets are generated by remote sensing of above-ground variables, with an emphasis on vegetation properties, and, by association, carbon fluxes. However, the terrestrial component of the carbon (C) cycle remains poorly quantified and the below-ground distribution and stocks of soil C can not be quantified directly by remote sensing. Large areas of the Arctic are also difficult to access, limiting field surveys. The scientific community does know, however, that this region stores a massive proportion (although poorly quantified, soil C stocks for tundra soils vary from 96 to 192 Gt C) of the global reservoir of soil carbon, much of it in permafrost (900 Gt C), and these stocks may be very vulnerable to increased rates of decomposition due to rising temperatures. The consequences of this could be increasing source strength of the radiatively forcing gases carbon dioxide (CO2) and methane (CH4). The principal objective of this project is to provide a critical evaluation of methods used to link soil C stocks and fluxes at the usual scales spanned by the field surveys (centimetre to kilometre) and remote sensing surveys (kilometre to hundreds of kilometres). The soil C distribution of two sub-arctic sites in contrasting climatic, landscape/geomorphologic and vegetation settings has been described and analysed. The transition between birch forest and tundra heath in the Abisko (Swedish Lapland) field site, and the transition between mire and birch forest in the Kevo (Finnish Lapland) field site span several vegetation categories and landscape contexts. The natural variability of below-ground C stocks (excluding coarse roots > 2 mm diameter), at scales from the centimetre to the kilometre scale, is high: 0.01 to 18.8 kg C m-2 for the 0 - 4 cm depth in a 2.5 km2 area of Abisko. The depths of the soil profiles and the soil C stocks are not directly linked to either vegetation categories or Leaf Area Index (LAI), thus vegetation properties are not a straightforward proxy for soil C distribution. When mapping soil or vegetation categories over large areas, it is usually necessary to aggregate several vegetation or soil categories to simplify the output (both for mapping and for modelling). Using this approach, an average value of 2.3 kg C m-2 was derived both for soils beneath treeless areas and forest understorey. This aggregated value is potentially misleading, however, because there is significant skew resulting from the inclusion of exposed ridges (with very low soil C stocks) in the ‘treeless’ category. Furthermore, if birch trees colonise tundra heath and other ‘open’ plant communities in the coming decades, there will likely be substantial shifts in soil C stocks. This will be both due to direct climate effects on decomposition, but also due to changes in above- and below-ground C inputs (both in quantity and quality) and possibly changes in so-called root ‘priming’ effects on the decomposition of existing organic matter. A model of soil respiration using parameters from field surveys shows that soils of the birch forest are more sensitive to increases in mean annual temperature than soils under tundra heath. The heterogeneity of soil properties, moisture and temperature regimes and vegetation cover in ecotone areas means that responses to climate change will differ across these landscapes. Any exercise in upscaling results from field surveys has to indicate the heterogeneity of vegetation and soil categories to guide soil sampling and modelling of C cycle processes in the Arctic.
|
4 |
Échantillonnage préférentiel adaptatif et méthodes bayésiennes approchées appliquées à la génétique des populations. / Adaptive multiple importance sampling and approximate bayesian computation with applications in population genetics.Sedki, Mohammed Amechtoh 31 October 2012 (has links)
Dans cette thèse, on propose des techniques d'inférence bayésienne dans les modèles où la vraisemblance possède une composante latente. La vraisemblance d'un jeu de données observé est l'intégrale de la vraisemblance dite complète sur l'espace de la variable latente. On s'intéresse aux cas où l'espace de la variable latente est de très grande dimension et comportes des directions de différentes natures (discrètes et continues), ce qui rend cette intégrale incalculable. Le champs d'application privilégié de cette thèse est l'inférence dans les modèles de génétique des populations. Pour mener leurs études, les généticiens des populations se basent sur l'information génétique extraite des populations du présent et représente la variable observée. L'information incluant l'histoire spatiale et temporelle de l'espèce considérée est inaccessible en général et représente la composante latente. Notre première contribution dans cette thèse suppose que la vraisemblance peut être évaluée via une approximation numériquement coûteuse. Le schéma d'échantillonnage préférentiel adaptatif et multiple (AMIS pour Adaptive Multiple Importance Sampling) de Cornuet et al. [2012] nécessite peu d'appels au calcul de la vraisemblance et recycle ces évaluations. Cet algorithme approche la loi a posteriori par un système de particules pondérées. Cette technique est conçue pour pouvoir recycler les simulations obtenues par le processus itératif (la construction séquentielle d'une suite de lois d'importance). Dans les nombreux tests numériques effectués sur des modèles de génétique des populations, l'algorithme AMIS a montré des performances numériques très prometteuses en terme de stabilité. Ces propriétés numériques sont particulièrement adéquates pour notre contexte. Toutefois, la question de la convergence des estimateurs obtenus parcette technique reste largement ouverte. Dans cette thèse, nous montrons des résultats de convergence d'une version légèrement modifiée de cet algorithme. Sur des simulations, nous montrons que ses qualités numériques sont identiques à celles du schéma original. Dans la deuxième contribution de cette thèse, on renonce à l'approximation de la vraisemblance et onsupposera seulement que la simulation suivant le modèle (suivant la vraisemblance) est possible. Notre apport est un algorithme ABC séquentiel (Approximate Bayesian Computation). Sur les modèles de la génétique des populations, cette méthode peut se révéler lente lorsqu'on vise uneapproximation précise de la loi a posteriori. L'algorithme que nous proposons est une amélioration de l'algorithme ABC-SMC de DelMoral et al. [2012] que nous optimisons en nombre d'appels aux simulations suivant la vraisemblance, et que nous munissons d'un mécanisme de choix de niveauxd'acceptations auto-calibré. Nous implémentons notre algorithme pour inférer les paramètres d'un scénario évolutif réel et complexe de génétique des populations. Nous montrons que pour la même qualité d'approximation, notre algorithme nécessite deux fois moins de simulations par rapport à laméthode ABC avec acceptation couramment utilisée. / This thesis consists of two parts which can be read independently.The first part is about the Adaptive Multiple Importance Sampling (AMIS) algorithm presented in Cornuet et al.(2012) provides a significant improvement in stability and Effective Sample Size due to the introduction of the recycling procedure. These numerical properties are particularly adapted to the Bayesian paradigm in population genetics where the modelization involves a large number of parameters. However, the consistency of the AMIS estimator remains largely open. In this work, we provide a novel Adaptive Multiple Importance Sampling scheme corresponding to a slight modification of Cornuet et al. (2012) proposition that preserves the above-mentioned improvements. Finally, using limit theorems on triangular arrays of conditionally independant random variables, we give a consistensy result for the final particle system returned by our new scheme.The second part of this thesis lies in ABC paradigm. Approximate Bayesian Computation has been successfully used in population genetics models to bypass the calculation of the likelihood. These algorithms provide an accurate estimator by comparing the observed dataset to a sample of datasets simulated from the model. Although parallelization is easily achieved, computation times for assuring a suitable approximation quality of the posterior distribution are still long. To alleviate this issue, we propose a sequential algorithm adapted fromDel Moral et al. (2012) which runs twice as fast as traditional ABC algorithms. Itsparameters are calibrated to minimize the number of simulations from the model.
|
5 |
Méthode de discrétisation adaptée à une logique événementielle pour l'utra-faible consommation : application à la reconnaissance de signaux physiologiques / Discretization method adapted to an event-logic architecture for ultra-low power consumption : a physiological pattern recognition applicationLe Pelleter, Tugdual 13 May 2015 (has links)
Les systèmes embarqués mobiles font partis intégrante de notre quotidien. Afin de les rendre plus adaptésaux usages, ils ont été miniaturisés et leur autonomie a été augmentée, parfois de façon très considérable.Toutefois, les propositions d’amélioration butent désormais sur les possibilités de la technologie des circuitsintégrés. Pour aller plus loin, il faut donc envisager de repenser la chaîne de traitement du signal afin deréduire la consommation de ces dispositifs. Cette thèse développe une approche originale pour exploiterefficacement l’échantillonnage par traversée de niveaux d’une part et, d’autre part, associe cet échantillonnageà une logique évènementielle afin de réduire drastiquement la consommation d’énergie des systèmesintégrés autonomes. Une méthode de discrétisation adaptée à une application de reconnaissance de signauxphysiologiques, utilisée comme exemple dans cette thèse, y est présentée. Un premier prototype en logiqueévènementielle (asynchrone) sur circuit FPGA a permis de valider cette stratégie et de démontrer les bénéficesde cet échantillonnage dédié en termes de réduction de l’activité par rapport à un échantillonnage uniforme.Un second prototype en logique asynchrone et conçu en technologie CMOS AMS 0.35 μm a permis de validerpar simulation électrique un gain extrêmement important sur la consommation électrique du dispositif. / Our everyday life is highly dependent on mobile embedded systems. In order to make them suitable to differentapplications, they have underwent size reduction and lifetime extension. However, these improvementsare currently limited by the possibilities of the integrated circuits technologies. In order to push back theboundaries, it is necessary to reconsider the whole digital signal processing chain from scratch to sustain thepower consumption reduction in this kind of system. This work develops on the first hand a strategy thatsmartly uses the level-crossing sampling scheme and on the other combines this sampling method with eventlogicto highly reduce the power consumption in mobile embedded systems. A discretisation method adaptedto the recognition of physiological patterns application is described. A first event-logic (asynchronous) prototypeimplemented on FPGA proved the potential benefits that an adapted sampling scheme could offersto reduce activity compared to a uniform sampling scheme. Electrical simulations performed on a secondprototype, also designed in asynchronous logic, with CMOS AMS 0.35 μm technology, validated a high gainin power consumption.
|
Page generated in 0.0602 seconds