Spelling suggestions: "subject:"pairwise"" "subject:"fairwise""
101 |
Chaînes de Markov cachées et séparation non supervisée de sources / Hidden Markov chains and unsupervised source separationRafi, Selwa 11 June 2012 (has links)
Le problème de la restauration est rencontré dans domaines très variés notamment en traitement de signal et de l'image. Il correspond à la récupération des données originales à partir de données observées. Dans le cas de données multidimensionnelles, la résolution de ce problème peut se faire par différentes approches selon la nature des données, l'opérateur de transformation et la présence ou non de bruit. Dans ce travail, nous avons traité ce problème, d'une part, dans le cas des données discrètes en présence de bruit. Dans ce cas, le problème de restauration est analogue à celui de la segmentation. Nous avons alors exploité les modélisations dites chaînes de Markov couples et triplets qui généralisent les chaînes de Markov cachées. L'intérêt de ces modèles réside en la possibilité de généraliser la méthode de calcul de la probabilité à posteriori, ce qui permet une segmentation bayésienne. Nous avons considéré ces méthodes pour des observations bi-dimensionnelles et nous avons appliqué les algorithmes pour une séparation sur des documents issus de manuscrits scannés dans lesquels les textes des deux faces d'une feuille se mélangeaient. D'autre part, nous avons attaqué le problème de la restauration dans un contexte de séparation aveugle de sources. Une méthode classique en séparation aveugle de sources, connue sous l'appellation "Analyse en Composantes Indépendantes" (ACI), nécessite l'hypothèse d'indépendance statistique des sources. Dans des situations réelles, cette hypothèse n'est pas toujours vérifiée. Par conséquent, nous avons étudié une extension du modèle ACI dans le cas où les sources peuvent être statistiquement dépendantes. Pour ce faire, nous avons introduit un processus latent qui gouverne la dépendance et/ou l'indépendance des sources. Le modèle que nous proposons combine un modèle de mélange linéaire instantané tel que celui donné par ACI et un modèle probabiliste sur les sources avec variables cachées. Dans ce cadre, nous montrons comment la technique d'Estimation Conditionnelle Itérative permet d'affaiblir l'hypothèse usuelle d'indépendance en une hypothèse d'indépendance conditionnelle / The restoration problem is usually encountered in various domains and in particular in signal and image processing. It consists in retrieving original data from a set of observed ones. For multidimensional data, the problem can be solved using different approaches depending on the data structure, the transformation system and the noise. In this work, we have first tackled the problem in the case of discrete data and noisy model. In this context, the problem is similar to a segmentation problem. We have exploited Pairwise and Triplet Markov chain models, which generalize Hidden Markov chain models. The interest of these models consist in the possibility to generalize the computation procedure of the posterior probability, allowing one to perform bayesian segmentation. We have considered these methods for two-dimensional signals and we have applied the algorithms to retrieve of old hand-written document which have been scanned and are subject to show through effect. In the second part of this work, we have considered the restoration problem as a blind source separation problem. The well-known "Independent Component Analysis" (ICA) method requires the assumption that the sources be statistically independent. In practice, this condition is not always verified. Consequently, we have studied an extension of the ICA model in the case where the sources are not necessarily independent. We have introduced a latent process which controls the dependence and/or independence of the sources. The model that we propose combines a linear instantaneous mixing model similar to the one of ICA model and a probabilistic model on the sources with hidden variables. In this context, we show how the usual independence assumption can be weakened using the technique of Iterative Conditional Estimation to a conditional independence assumption
|
102 |
Algorithmes de restauration bayésienne mono- et multi-objets dans des modèles markoviens / Single and multiple object(s) Bayesian restoration algorithms for Markovian modelsPetetin, Yohan 27 November 2013 (has links)
Cette thèse est consacrée au problème d'estimation bayésienne pour le filtrage statistique, dont l'objectif est d'estimer récursivement des états inconnus à partir d'un historique d'observations, dans un modèle stochastique donné. Les modèles stochastiques considérés incluent principalement deux grandes classes de modèles : les modèles de Markov cachés et les modèles de Markov à sauts conditionnellement markoviens. Ici, le problème est abordé sous sa forme générale dans la mesure où nous considérons le problème du filtrage mono- et multi objet(s), ce dernier étant abordé sous l'angle de la théorie des ensembles statistiques finis et du filtre « Probability Hypothesis Density ». Tout d'abord, nous nous intéressons à l'importante classe d'approximations que constituent les algorithmes de Monte Carlo séquentiel, qui incluent les algorithmes d'échantillonnage d'importance séquentiel et de filtrage particulaire auxiliaire. Les boucles de propagation mises en jeux dans ces algorithmes sont étudiées et des algorithmes alternatifs sont proposés. Les algorithmes de filtrage particulaire dits « localement optimaux », c'est à dire les algorithmes d'échantillonnage d'importance avec densité d'importance conditionnelle optimale et de filtrage particulaire auxiliaire pleinement adapté sont comparés statistiquement, en fonction des paramètres du modèle donné. Ensuite, les méthodes de réduction de variance basées sur le théorème de Rao-Blackwell sont exploitées dans le contexte du filtrage mono- et multi-objet(s) Ces méthodes, utilisées principalement en filtrage mono-objet lorsque la dimension du vecteur d'état à estimer est grande, sont dans un premier temps étendues pour les approximations Monte Carlo du filtre Probability Hypothesis Density. D'autre part, des méthodes de réduction de variance alternatives sont proposées : bien que toujours basées sur le théorème de Rao-Blackwell, elles ne se focalisent plus sur le caractère spatial du problème mais plutôt sur son caractère temporel. Enfin, nous abordons l'extension des modèles probabilistes classiquement utilisés. Nous rappelons tout d'abord les modèles de Markov couple et triplet dont l'intérêt est illustré à travers plusieurs exemples pratiques. Ensuite, nous traitons le problème de filtrage multi-objets, dans le contexte des ensembles statistiques finis, pour ces modèles. De plus, les propriétés statistiques plus générales des modèles triplet sont exploitées afin d'obtenir de nouvelles approximations de l'estimateur bayésien optimal (au sens de l'erreur quadratique moyenne) dans les modèles à sauts classiquement utilisés; ces approximations peuvent produire des estimateurs de performances comparables à celles des approximations particulaires, mais ont l'avantage d'être moins coûteuses sur le plan calculatoire / This thesis focuses on the Bayesian estimation problem for statistical filtering which consists in estimating hidden states from an historic of observations over time in a given stochastic model. The considered models include the popular Hidden Markov Chain models and the Jump Markov State Space Systems; in addition, the filtering problem is addressed under a general form, that is to say we consider the mono- and multi-object filtering problems. The latter one is addressed in the Random Finite Sets and Probability Hypothesis Density contexts. First, we focus on the class of particle filtering algorithms, which include essentially the sequential importance sampling and auxiliary particle filter algorithms. We explore the recursive loops for computing the filtering probability density function, and alternative particle filtering algorithms are proposed. The ``locally optimal'' filtering algorithms, i.e. the sequential importance sampling with optimal conditional importance distribution and the fully adapted auxiliary particle filtering algorithms, are statistically compared in function of the parameters of a given stochastic model. Next, variance reduction methods based on the Rao-Blackwell theorem are exploited in the mono- and multi-object filtering contexts. More precisely, these methods are mainly used in mono-object filtering when the dimension of the hidden state is large; so we first extend them for Monte Carlo approximations of the Probabilty Hypothesis Density filter. In addition, alternative variance reduction methods are proposed. Although we still use the Rao-Blackwell decomposition, our methods no longer focus on the spatial aspect of the problem but rather on its temporal one. Finally, we discuss on the extension of the classical stochastic models. We first recall pairwise and triplet Markov models and we illustrate their interest through several practical examples. We next address the multi-object filtering problem for such models in the random finite sets context. Moreover, the statistical properties of the more general triplet Markov models are used to build new approximations of the optimal Bayesian estimate (in the sense of the mean square error) in Jump Markov State Space Systems. These new approximations can produce estimates with performances alike those given by particle filters but with lower computational cost
|
103 |
Modèles statistiques avancés pour la segmentation non supervisée des images dégradées de l'iris / Advanced statistical models for unsupervised segmentation of degraded iris imagesYahiaoui, Meriem 11 July 2017 (has links)
L'iris est considérée comme une des modalités les plus robustes et les plus performantes en biométrie à cause de ses faibles taux d'erreurs. Ces performances ont été observées dans des situations contrôlées, qui imposent des contraintes lors de l'acquisition pour l'obtention d'images de bonne qualité. Relâcher ces contraintes, au moins partiellement, implique des dégradations de la qualité des images acquises et par conséquent une réduction des performances de ces systèmes. Une des principales solutions proposées dans la littérature pour remédier à ces limites est d'améliorer l'étape de segmentation de l'iris. L'objectif principal de ce travail de thèse a été de proposer des méthodes originales pour la segmentation des images dégradées de l'iris. Les chaînes de Markov ont été déjà proposées dans la littérature pour résoudre des problèmes de segmentation d'images. Dans ce cadre, une étude de faisabilité d'une segmentation non supervisée des images dégradées d'iris en régions par les chaînes de Markov a été réalisée, en vue d'une future application en temps réel. Différentes transformations de l'image et différentes méthodes de segmentation grossière pour l'initialisation des paramètres ont été étudiées et comparées. Les modélisations optimales ont été introduites dans un système de reconnaissance de l'iris (avec des images en niveaux de gris) afin de produire une comparaison avec les méthodes existantes. Finalement une extension de la modélisation basée sur les chaînes de Markov cachées, pour une segmentation non supervisée des images d'iris acquises en visible, a été mise en place / Iris is considered as one of the most robust and efficient modalities in biometrics because of its low error rates. These performances were observed in controlled situations, which impose constraints during the acquisition in order to have good quality images. The renouncement of these constraints, at least partially, implies degradations in the quality of the acquired images and it is therefore a degradation of these systems’ performances. One of the main proposed solutions in the literature to take into account these limits is to propose a robust approach for iris segmentation. The main objective of this thesis is to propose original methods for the segmentation of degraded images of the iris. Markov chains have been well solicited to solve image segmentation problems. In this context, a feasibility study of unsupervised segmentation into regions of degraded iris images by Markov chains was performed. Different image transformations and different segmentation methods for parameters initialization have been studied and compared. Optimal modeling has been inserted in iris recognition system (with grayscale images) to produce a comparison with the existing methods. Finally, an extension of the modeling based on the hidden Markov chains has been developed in order to realize an unsupervised segmentation of the iris images acquired in visible light
|
104 |
Modèles graphiques évidentiels / Evidential graphical modelsBoudaren, Mohamed El Yazid 12 January 2014 (has links)
Les modélisations par chaînes de Markov cachées permettent de résoudre un grand nombre de problèmes inverses se posant en traitement d’images ou de signaux. En particulier, le problème de segmentation figure parmi les problèmes où ces modèles ont été le plus sollicités. Selon ces modèles, la donnée observable est considérée comme une version bruitée de la segmentation recherchée qui peut être modélisée à travers une chaîne de Markov à états finis. Des techniques bayésiennes permettent ensuite d’estimer cette segmentation même dans le contexte non-supervisé grâce à des algorithmes qui permettent d’estimer les paramètres du modèle à partir de l’observation seule. Les chaînes de Markov cachées ont été ultérieurement généralisées aux chaînes de Markov couples et triplets, lesquelles offrent plus de possibilités de modélisation tout en présentant des complexités de calcul comparables, permettant ainsi de relever certains défis que les modélisations classiques ne supportent pas. Un lien intéressant a également été établi entre les modèles de Markov triplets et la théorie de l’évidence de Dempster-Shafer, ce qui confère à ces modèles la possibilité de mieux modéliser les données multi-senseurs. Ainsi, dans cette thèse, nous abordons trois difficultés qui posent problèmes aux modèles classiques : la non-stationnarité du processus caché et/ou du bruit, la corrélation du bruit et la multitude de sources de données. Dans ce cadre, nous proposons des modélisations originales fondées sur la très riche théorie des chaînes de Markov triplets. Dans un premier temps, nous introduisons les chaînes de Markov à bruit M-stationnaires qui tiennent compte de l’aspect hétérogène des distributions de bruit s’inspirant des chaînes de Markov cachées M-stationnaires. Les chaînes de Markov cachée ML-stationnaires, quant à elles, considèrent à la fois la loi a priori et les densités de bruit non-stationnaires. Dans un second temps, nous définissons deux types de chaînes de Markov couples non-stationnaires. Dans le cadre bayésien, nous introduisons les chaînes de Markov couples M-stationnaires puis les chaînes de Markov couples MM-stationnaires qui considèrent la donnée stationnaire par morceau. Dans le cadre évidentiel, nous définissons les chaînes de Markov couples évidentielles modélisant l’hétérogénéité du processus caché par une fonction de masse. Enfin, nous présentons les chaînes de Markov multi-senseurs non-stationnaires où la fusion de Dempster-Shafer est employée à la fois pour modéliser la non-stationnarité des données (à l’instar des chaînes de Markov évidentielles cachées) et pour fusionner les informations provenant des différents senseurs (comme dans les champs de Markov multi-senseurs). Pour chacune des modélisations proposées, nous décrivons les techniques de segmentation et d’estimation des paramètres associées. L’intérêt de chacune des modélisations par rapport aux modélisations classiques est ensuite démontré à travers des expériences menées sur des données synthétiques et réelles / Hidden Markov chains (HMCs) based approaches have been shown to be efficient to resolve a wide range of inverse problems occurring in image and signal processing. In particular, unsupervised segmentation of data is one of these problems where HMCs have been extensively applied. According to such models, the observed data are considered as a noised version of the requested segmentation that can be modeled through a finite Markov chain. Then, Bayesian techniques such as MPM can be applied to estimate this segmentation even in unsupervised way thanks to some algorithms that make it possible to estimate the model parameters from the only observed data. HMCs have then been generalized to pairwise Markov chains (PMCs) and triplet Markov chains (TMCs), which offer more modeling possibilities while showing comparable computational complexities, and thus, allow to consider some challenging situations that the conventional HMCs cannot support. An interesting link has also been established between the Dempster-Shafer theory of evidence and TMCs, which give to these latter the ability to handle multisensor data. Hence, in this thesis, we deal with three challenging difficulties that conventional HMCs cannot handle: nonstationarity of the a priori and/or noise distributions, noise correlation, multisensor information fusion. For this purpose, we propose some original models in accordance with the rich theory of TMCs. First, we introduce the M-stationary noise- HMC (also called jumping noise- HMC) that takes into account the nonstationary aspect of the noise distributions in an analogous manner with the switching-HMCs. Afterward, ML-stationary HMC consider nonstationarity of both the a priori and/or noise distributions. Second, we tackle the problem of non-stationary PMCs in two ways. In the Bayesian context, we define the M-stationary PMC and the MM-stationary PMC (also called switching PMCs) that partition the data into M stationary segments. In the evidential context, we propose the evidential PMC in which the realization of the hidden process is modeled through a mass function. Finally, we introduce the multisensor nonstationary HMCs in which the Dempster-Shafer fusion has been used on one hand, to model the data nonstationarity (as done in the hidden evidential Markov chains) and on the other hand, to fuse the information provided by the different sensors (as in the multisensor hidden Markov fields context). For each of the proposed models, we describe the associated segmentation and parameters estimation procedures. The interest of each model is also assessed, with respect to the former ones, through experiments conducted on synthetic and real data
|
105 |
Reflection Symmetry Detection in Images : Application to Photography Analysis / Détection de symétrie réflexion dans les images : application à l'analyse photographiqueElsayed Elawady, Mohamed 29 March 2019 (has links)
La symétrie est une propriété géométrique importante en perception visuelle qui traduit notre perception des correspondances entre les différents objets ou formes présents dans une scène. Elle est utilisée comme élément caractéristique dans de nombreuses applications de la vision par ordinateur (comme par exemple la détection, la segmentation ou la reconnaissance d'objets) mais également comme une caractéristique formelle en sciences de l'art (ou en analyse esthétique). D’importants progrès ont été réalisés ces dernières décennies pour la détection de la symétrie dans les images mais il reste encore de nombreux verrous à lever. Dans cette thèse, nous nous intéressons à la détection des symétries de réflexion, dans des images réelles, à l'échelle globale. Nos principales contributions concernent les étapes d'extraction de caractéristiques et de représentation globale des axes de symétrie. Nous proposons d'abord une nouvelle méthode d'extraction de segments de contours à l'aide de bancs de filtres de Gabor logarithmiques et une mesure de symétrie intersegments basée sur des caractéristiques locales de forme, de texture et de couleur. Cette méthode a remporté la première place à la dernière compétition internationale de symétrie pour la détection mono- et multi-axes. Notre deuxième contribution concerne une nouvelle méthode de représentation des axes de symétrie dans un espace linéaire-directionnel. Les propriétés de symétrie sont représentées sous la forme d'une densité de probabilité qui peut être estimée, de manière non-paramétrique, par une méthode à noyauxbasée sur la distribution de Von Mises-Fisher. Nous montrons que la détection des axes dominants peut ensuite être réalisée à partir d'un algorithme de type "mean-shift” associé à une distance adaptée. Nous introduisons également une nouvelle base d'images pour la détection de symétrie mono-axe dans des photographies professionnelles issue de la base à grande échelle AVA (Aestetic Visual Analysis). Nos différentes contributions obtiennent des résultats meilleurs que les algorithmes de l'état de l'art, évalués sur toutes les bases disponibles publiquement, spécialement dans le cas multi-axes. Nous concluons que les propriétés de symétrie peuvent être utilisées comme des caractéristiques visuelles de niveau sémantique intermédiaire pour l'analyse et la compréhension de photographies. / Symmetry is a fundamental principle of the visual perception to feel the equally distributed weights within foreground objects inside an image. It is used as a significant visual feature through various computer vision applications (i.e. object detection and segmentation), plus as an important composition measure in art domain (i.e. aesthetic analysis). The development of symmetry detection has been improved rapidly since last century. In this thesis, we mainly aim to propose new approaches to detect reflection symmetry inside real-world images in a global scale. In particular, our main contributions concern feature extraction and globalrepresentation of symmetry axes. First, we propose a novel approach that detects global salient edges inside an image using Log-Gabor filter banks, and defines symmetry oriented similarity through textural and color around these edges. This method wins a recent symmetry competition worldwide in single and multiple cases.Second, we introduce a weighted kernel density estimator to represent linear and directional symmetrical candidates in a continuous way, then propose a joint Gaussian-vonMises distance inside the mean-shift algorithm, to select the relevant symmetry axis candidates along side with their symmetrical densities. In addition, we introduce a new challenging dataset of single symmetry axes inside artistic photographies extracted from the large-scale Aesthetic Visual Analysis (AVA) dataset. The proposed contributions obtain superior results against state-of-art algorithms among all public datasets, especially multiple cases in a global scale. We conclude that the spatial and context information of each candidate axis inside an image can be used as a local or global symmetry measure for further image analysis and scene understanding purposes.
|
106 |
Implementace algoritmu pro hledání podobností DNA řetězců v FPGA / Approximate String Matching Algorithm Implementation in FPGAPařenica, Martin January 2007 (has links)
This paper describes sequence alignment algorithms of nucleotide sequences. There are described pairwise alignment algorithms using database search or dynamic programming. Then in the paper is description of dynamic programming for multiple sequences and algorithm that builds phylogenetic trees. At the end of the first part of the paper is the description of technology FPGA. In the second part that is more practical is described implemntation of the choosen one algorithm. This part includes also examples of some multiple alignments.
|
107 |
Identifying factors that correlate with Enhanced Biological Phosphorus Removal upsets at Lundåkraverket / Undersökning av faktorer som påverkar biologisk fosforavskiljning vid LundåkraverketNiranjan, Rounak January 2021 (has links)
The Enhanced Biological Phosphorus Removal (EBPR) process is characterized as the most sustainable process to remove phosphorus from wastewater albeit with high variability in performance efficiency. Thus, unpredictable upsets in the EBPR system is the norm across several wastewater treatment plants throughout Sweden, forcing the hand of the operators to dose higher volume of chemicals to reach the effluent requirements. As future effluent requirements are getting stricter and since higher chemical usage is environmentally and economically unsustainable, this investigation was setup to evaluate which environmental, operational and/or wastewater characteristics correlate with EBPR upsets at full-scale wastewater treatment plant (WWTP), more specifically at Lundåkra WWTP operated by Nordvästra Skånes Vatten och Avlopp (NSVA). The data used in the investigation was collected between 1St January 2018 and 31St December 2020 for a vast number of parameters known to play a key role in biological phosphorus removal. Online sensors as well as external and internal analysis contributed to the data which included parameters such as ‘Total flow at the plant’, ‘pH of the incoming water’, ‘Temperature in aeration basins’, ‘Dissolved oxygen (DO) levels in aeration basins’, ‘Nitrate in aeration basins’, ‘Sludge content in aeration basins’, etc. Other relevant parameters such as ‘Hydraulic retention time (HRT) in the treatment units’, ‘Sludge retention time (SRT) in aeration basin’, ‘Organic loading rate (OLR)’, etc. were calculated. Before the start of this investigation, the two possible explanations were presumed and they can be classified as: (i) upsets as a result of unsuitable environmental conditions and/or error in the operational strategy at the plant and (ii) upsets as a result of toxicity from higher concentration of metals in the influent specifically. Traditional statistical methods such as the t-distributed Stochastic Neighbor Embedding (t-SNE), Spearman Rank Correlation and Principal Component Analysis were used for the purpose of this study to test the first presumed explanation. The t-SNE plot showed that the upsets did not cluster into one large group but instead clamped up into smaller groups scattered across the length of the scale in both dimensions. This points towards the multivariate dependency of the EBPR process and exhibits that upsets might occur even with an operational strategy that produces good results otherwise. This, in turn, eludes to the fact that a non-included parameter such as the ‘daily metal concentrations in the influent’ could be responsible for some or all of the upsets. The Principal Component Analysis (PCA) plot, although noisy, offered an improvement strategy built around the key variables namely ‘nitrate in aeration basin 1 & 2’, ‘sludge content in aeration basin’, ‘SRT in aeration basin’, ‘O2 in aeration basin 1 & 2’ and ‘pH of incoming water’. Therefore, it is recommended that an improvement strategy be devised around them. Multiple causal factors increase the complexity of the analysis by decreasing the correlation coefficients, however, incorporation of the scatterplots presents a clearer picture. The parameters ‘nitrate in aeration basin 1 & 2’ and ‘sludge content in aeration basin’ showed the strongest correlation with phosphate values at the end of biological treatment at -0.32 and 0.42 respectively. The results also open the door to future research and provide direction for further investigations. / Den förbättrade biologiska fosforborttagningsprocessen karakteriseras som den mest hållbara processen för att avlägsna fosfor från avloppsvatten om än med stor variation i prestandaeffektivitet. Således är oförutsägbara störningar i systemet för förbättrad biologisk fosforavskiljning (EBPR) normen bland flera avloppsreningsverk i hela Sverige, vilket tvingar operatörerna att dosera högre volymer kemikalier för att nå avloppskraven. Eftersom framtida avloppskrav blir allt strängare och eftersom högre kemikalieanvändning är miljömässigt och ekonomiskt ohållbar, gjordes denna undersökning för att utvärdera vilka miljö-, drifts- och/eller avloppsvattenegenskaper som korrelerar med EBPR- störningar vid fullskaligt avloppsreningsverk. Närmare bestämt vid Lundåkra reningsverk som drivs av Nordvästra Skånes Vatten och Avlopp. Datan som användes i undersökningen samlades in mellan 1:a januari 2018 och 31:a december 2020 för ett fast antal parametrar som är kända att spela en nyckelroll vid borttagning av biologiskt P. Onlinesensorer samt externa och interna analyser bidrog till datan vilken inkluderade parametrar som 'Totalt flöde vid anläggningen', 'pH för det inkommande vattnet', 'Temperatur i luftningsbassänger', nivåer av upplöst syre (DO) i luftningsbassänger ',' Nitrat i luftningsbassänger ',' Slamhalt i luftningsbassänger ', etc. Andra relevanta parametrar som 'Hydraulisk retentionstid (HRT) i behandlingsenheterna ',' Slamretentionstid (SRT) i luftningsbassäng ',' Organisk belastningshastighet (OLR) ', etc. beräknades. Innan denna undersökning påbjörades antogs de två möjliga förklaringarna och de kan klassificeras som: (i) störningar till följd av olämpliga miljöförhållanden och/eller fel i driftstrategin vid anläggningen och (ii) störningar till följd av toxicitet från högre koncentration av metaller i inflödet specifikt. Traditionella statistiska metoder såsom t- Distributed Stochastic Neighbor Embedding (t-SNE), Spearman Rank Correlation och Principal Component Analysis användes i denna studie för att testa den första förmodade förklaringen. t-SNE- diagrammet visade att störningarna inte samlades i en stor grupp utan istället klämdes ihop i mindre grupper utspridda över skalans längd i båda dimensionerna. Detta pekar mot EBPR-processens multivariata beroende och visar att störningar kan uppstå även med en operativ strategi som annars ger bra resultat. Detta i sin tur undviker det faktum att en icke-inkluderad parameter som "dagliga metallkoncentrationer i inflödet" kan vara orsaken för några eller alla störningar. Principal Component Analysis (PCA)-diagrammet, trots att det var bullrigt, möjliggjorde en förbättringsstrategi byggd kring nyckelvariablerna, nämligen 'nitrat i luftningsbassäng 1 & 2', 'slamhalt i luftningsbassäng', 'SRT i luftningsbassäng', 'O2 i luftningsbassäng 1 & 2' och 'pH av inkommande vatten'. Därför rekommenderas att en förbättringsstrategi utarbetas kring dem. Flera kausala faktorer ökar komplexiteten i analysen genom att minska korrelationskoefficienterna, men spridningsdiagrammen ger en tydligare bild. Parametrarna ‘nitrat i luftningsbassäng 1 & 2’ och ‘slamhalt i luftningsbassäng’ visade starkast samband med fosfatvärden vid slutet av biologisk behandling vid -0,32 respektive 0,42. Resultaten lämnar dörren öppen för framtida forskning och kan vägleda vidare undersökningar.
|
108 |
Signal design for multi-way relay channelsSharifian, Shaham 20 December 2016 (has links)
Today’s communication systems are in need of spectrally efficient and high throughput
techniques more than ever because of high data rate applications and the scarcity
and expense of bandwidth. To cope with increased data rate demands, more base
stations are needed which is not cost and energy efficient in cellular networks. It
has been shown that wireless relay networks can provide higher network throughput
and increase power efficiency with low complexity and cost. Furthermore, network
resources can be utilized more efficiently by using network coding in relay networks.
A wireless relay network in which multiple nodes exchange information with the
help of relay node(s) is called a multi-way relay channel (MWRC). MWRCs are
expected to be an integral part of next generation wireless standards. The main
focus of this dissertation is the investigation of transmission schemes in an MWRC to
improve the throughput and error performance. An MWRC with full data exchange
is assumed in which a half-duplex relay station (RS) is the enabler of communication.
One of the challenges with signal demodulation in MWRCs is the existence of
ambiguous points in the received constellation. The first part of this dissertation
investigates a transmission scheme for full data exchange in MWRC that benefits from
these points and improves its throughput by 33% compared to traditional relaying.
Then an MWRC is considered where a RS assists multiple nodes to exchange messages.
A different approach is taken to avoid ambiguous points in the superposition of
user symbols at the relay. This can be achieved by employing complex field network
coding (CFNC) which results in full data exchange in two communication phases.
CFNC may lead to small Euclidean distances between constellation points, resulting
in poor error performance. To improve this performance, the optimal user precoding
values are derived such that the power efficiency of the relay constellation is highest
when channel state information is available at the users. The error performance of
each user is then analyzed and compared with other relaying schemes.
Finally, focusing on the uplink of multi-way relay systems, the performance of an
MWRC is studied in which users can employ arbitrary modulation schemes and the
links between the users and the relay have different gains, e.g. Rayleigh fading. Analytical
expressions for the exact average pairwise error probability of these MWRCs
are derived. The probability density function (PDF) and the mean of the minimum
Euclidean distance of the relay constellation are closely approximated, and a tight
upper bound on the symbol error probability is developed. / Graduate
|
109 |
Individuální charakteristiky řečového rytmu ve čtených hlasatelstvích v ruštině / Personal characteristics of speech rhythm in Russian newsreadingČížková, Irena January 2015 (has links)
Personal characteristics of speech rhythm in Russian newsreading Bc. Irena Čížková Abstract An issue of individual rhythmic characteristics of particular 5 native speakers of the Russian language, newsreaders from the BBC, is described in this thesis. A research of the given 5 speech recordings was conducted based on the academic concepts created by Ramus, Mehler and Nespor, and by Low and Grabe and also by Dellwo, so through a speech rhythm research based on rhythm correlates that are related to vocalic and intervocalic intervals. The recordings were processed in an analyting program called Praat and the extracted results were then evaluated in a statistical processor called STATISTICA. These materials were used for further analysis. The recordings were analysed based on several parameters: %V (proportion of vocalic intervals in one breath group), ∆C and ∆V (standard deviation of the vocalic and consonantal interval duration), PVI-V, PVI-C (Pairwise Variability Index of the vocalic and consonantal interval duration), Varco V and Varco C (variation coefficient of the vocalic and consonantal interval duration) and the difference between duration of stressed and unstressed vowels. Three parameters that were the most successful from the speakers' ability to differentiate point of view were selected through an...
|
110 |
Limits to surprise of recommender systems / Limites de surpresa de Sistemas de RecomendaçãoLima, André Paulino de 15 March 2019 (has links)
Surprise is an important component of serendipity. In this research, we address the problem of measuring the capacity of a recommender system at embedding surprise in its recommendations. We show that changes in surprise of an item owing to the growth in user experience, as well as to the increase in the number of items in the repository, are not taken into account by the current metrics and evaluation methods. As a result, in so far as the time elapsed between two measurements grows, they become increasingly incommensurable. This poses as an additional challenge in the assessment of the degree to which a recommender is exposed to unfavourable conditions, such as over-specialisation or filter bubble. We argue that a) surprise is a finite resource in any recommender system, b) there are limits to the amount of surprise that can be embedded in a recommendation, and c) these limits allow us to create a scale up in which two measurements that were taken at different moments can be directly compared. By adopting these ideas as premises, we applied the deductive method to define the concepts of maximum and minimum potential surprises and designed a surprise metric called \"normalised surprise\" that employs these limits. Our main contribution is an evaluation method that estimates the normalised surprise of a system. Four experiments were conducted to test the proposed metrics. The aim of the first and the second experiments was to validate the quality of the estimates of minimum and maximum potential surprise values obtained by means of a greedy algorithm. The first experiment employed a synthetic dataset to explore the limits to surprise to a user, and the second one employed the Movielens-1M to explore the limits to surprise that can be embedded in a recommendation list. The third experiment also employed the Movielens-1M dataset and was designed to investigate the effect that changes in item representation and item comparison exert on surprise. Finally, the fourth experiment compares the proposed and the current state-of-the-art evaluation method in terms of their results and execution times. The results obtained from the experiments a) confirm that the quality of the estimates of potential surprise are adequate for the purpose of evaluating normalised surprise; b) show that the item representation and comparison model that is adopted has a strong effect on surprise; and c) indicate an association between high degrees of surprise and negatively skewed pairwise distance distributions, and also indicate a significant difference in the average normalised surprise of recommendations produced by a factorisation algorithm when the surprise employs the cosine or the Euclidean distance / A surpresa é um componente importante da serendipidade. Nesta pesquisa, abordamos o problema de medir a capacidade de um sistema de recomendação de incorporar surpresa em suas recomendações. Mostramos que as mudanças na surpresa de um item, devidas ao crescimento da experiência do usuário e ao aumento do número de itens no repositório, não são consideradas pelas métricas e métodos de avaliação atuais. Como resultado, na medida em que aumenta o tempo decorrido entre duas medições, essas se tornam cada vez mais incomensuráveis. Isso se apresenta como um desafio adicional na avaliação do grau em que um sistema de recomendação está exposto a condições desfavoráveis como superespecialização ou filtro invisível. Argumentamos que a) surpresa é um recurso finito em qualquer sistema de recomendação; b) há limites para a quantidade de surpresa que pode ser incorporada em uma recomendação; e c) esses limites nos permitem criar uma escala na qual duas medições que foram tomadas em momentos diferentes podem ser comparadas diretamente. Ao adotar essas ideias como premissas, aplicamos o método dedutivo para definir os conceitos de surpresa potencial máxima e mínima e projetar uma métrica denominada \"surpresa normalizada\", que emprega esses limites. Nossa principal contribuição é um método de avaliação que estima a surpresa normalizada de um sistema. Quatro experimentos foram realizados para testar as métricas propostas. O objetivo do primeiro e do segundo experimentos foi validar a qualidade das estimativas de surpresa potencial mínima e máxima obtidas por meio de um algoritmo guloso. O primeiro experimento empregou um conjunto de dados sintético para explorar os limites de surpresa para um usuário, e o segundo empregou o Movielens-1M para explorar os limites da surpresa que pode ser incorporada em uma lista de recomendações. O terceiro experimento também empregou o conjunto de dados Movielens-1M e foi desenvolvido para investigar o efeito que mudanças na representação de itens e na comparação de itens exercem sobre a surpresa. Finalmente, o quarto experimento compara os métodos de avaliação atual e proposto em termos de seus resultados e tempos de execução. Os resultados que foram obtidos dos experimentos a) confirmam que a qualidade das estimativas de surpresa potencial são adequadas para o propósito de avaliar surpresa normalizada; b) mostram que o modelo de representação e comparação de itens adotado exerce um forte efeito sobre a surpresa; e c) apontam uma associação entre graus de surpresa elevados e distribuições assimétricas negativas de distâncias, e também apontam diferenças significativas na surpresa normalizada média de recomendações produzidas por um algoritmo de fatoração quando a surpresa emprega a distância do cosseno ou a distância Euclidiana
|
Page generated in 0.0433 seconds