Spelling suggestions: "subject:"local metric"" "subject:"focal metric""
1 |
Priklausomų atsitiktinių dydžių sumų aproksimavimas puasono tipo matais / Poisson type approximations for sums of dependent variablesPetrauskienė, Jūratė 07 March 2011 (has links)
Disertacijoje tiriamas diskrečių m-priklausomų atsitiktinių dydžių aproksimavimo Puasono tipo matais tikslumas. Silpnai priklausomų atsitiktinių dydžių sumos yra natūralus nepriklausomų atsitiktinių dydžių sumų apibendrinimas. Vis dėlto atsitiktinių dydžių priklausomybė žymiai pasunkina tokių sumų tyrimą. Disertacijoje pagrindinis dėmesys skiriamas dviparametrėms ir triparametrėms diskrečiosioms aproksimacijoms.
Gautus rezultatus galima suskirstyti į keturias dalis. Pirmoje dalyje nagrinėjant dviejų narių serijų statistikos aproksimaciją Puasono ir sudėtiniais Puasono skirstiniais buvo nustatyta, kad dviparametrė sudėtinė Puasono aproksimacija yra tikslesnė už Puasono dėsnio asimptotinį skleidinį su vienu asimptotikos nariu. Aproksimacijos tikslumas įvertintas pilnosios variacijos ir lokalioje metrikoje. Specialiu atveju apskaičiuotos asimptotiškai tikslios konstantos. Taip pat nustatyta, kad gautieji įverčiai iš apačios yra tos pačios eilės, kaip ir įverčiai iš viršaus.
Antroje dalyje buvo gauta, kad sveikaskaičiai atsitiktiniai dydžiai, tenkinantys Frankeno sąlygos analogą, gali būti naudojami perėjimui nuo m-priklausomų prie 1-priklausomų atsitiktinių dydžių. Nustatyta, kad ženklą keičiančios sudėtinės Puasono aproksimacijos yra tokios pačios tikslumo eilės, kaip žinomi rezultatai nepriklausomų atsitiktinių dydžių sumoms.
Trečioje dalyje nustatyta, kad kai atsitiktiniai dydžiai yra simetriniai, tuomet sudėtinio Puasono aproksimacijos tikslumas yra daug geresnis nei... [toliau žr. visą tekstą] / Our aim is to investigate Poisson type approximations to the sums of dependent integer-valued random variables. In this thesis, only one type of dependence is considered, namely m-dependent random variables. The accuracy of approximation is measured in the total variation, local, uniform (Kolmogorov) and Wasserstein metrics.
Results can be divided into four parts. The first part is devoted to 2-runs, when pi=p. We generalize Theorem 5.2 from A.D. Barbour and A. Xia “Poisson perturbations” in two directions: by estimating the second order asymptotic expansion and asymptotic expansion in the exponent. Moreover, lower bound estimates are established, proving the optimality of upper bound estimates. Since, the method of proof does not allow to get small constants, in certain cases, we calculate asymptotically sharp constants.
In the second part, we consider sums of 1-dependent random variables, concentrated on nonnegative integers and satisfying analogue of Franken's condition. All results of this part are comparable to the known results for independent summands.
In the third part, we consider Poisson type approximations for sums of 1-dependent symmetric three-point distributions. We are unaware about any Poisson-type approximation result for dependent random variables, when symmetry of the distribution is taken into account.
In the last part, we consider 1-dependent non-identically distributed Bernoulli random variables. It is shown, that even for this simple... [to full text]
|
2 |
Apprentissage de représentations pour la reconnaissance visuelle / Learning representations for visual recognitionSaxena, Shreyas 12 December 2016 (has links)
Dans cette dissertation, nous proposons des méthodes d’apprentissage automa-tique aptes à bénéficier de la récente explosion des volumes de données digitales.Premièrement nous considérons l’amélioration de l’efficacité des méthodes derécupération d’image. Nous proposons une approche d’apprentissage de métriques locales coordonnées (Coordinated Local Metric Learning, CLML) qui apprends des métriques locales de Mahalanobis, puis les intègre dans une représentation globale où la distance l2 peut être utilisée. Ceci permet de visualiser les données avec une unique représentation 2D, et l’utilisation de méthodes de récupération efficaces basées sur la distance l2. Notre approche peut être interprétée comme l’apprentissage d’une projection linéaire de descripteurs donnés par une méthode a noyaux de grande dimension définie explictement. Cette interprétation permet d’appliquer des outils existants pour l’apprentissage de métriques de Mahalanobis à l’apprentissage de métriques locales coordonnées. Nos expériences montrent que la CLML amé-liore les résultats en matière de récupération de visage obtenues par les approches classiques d’apprentissage de métriques locales et globales.Deuxièmement, nous présentons une approche exploitant les modèles de ré-seaux neuronaux convolutionnels (CNN) pour la reconnaissance faciale dans lespectre visible. L’objectif est l’amélioration de la reconnaissance faciale hétérogène, c’est à dire la reconnaissance faciale à partir d’images infra-rouges avec des images d’entraînement dans le spectre visible. Nous explorerons différentes stratégies d’apprentissage de métriques locales à partir des couches intermédiaires d’un CNN, afin de faire le rapprochement entre des images de sources différentes. Dans nos expériences, la profondeur de la couche optimale pour une tâche donnée est positivement corrélée avec le changement entre le domaine source (données d’entraînement du CNN) et le domaine cible. Les résultats montrent que nous pouvons utiliser des CNN entraînés sur des images du spectre visible pour obtenir des résultats meilleurs que l’état de l’art pour la reconnaissance faciale hétérogène (images et dessins quasi-infrarouges).Troisièmement, nous présentons les "tissus de neurones convolutionnels" (Convolutional Neural Fabrics) permettant l’exploration de l’espace discret et exponentiellement large des architectures possibles de réseaux neuronaux, de manière efficiente et systématique. Au lieu de chercher à sélectionner une seule architecture optimale, nous proposons d’utiliser un "tissu" d’architectures combinant un nombre exponentiel d’architectures en une seule. Le tissu est une représentation 3D connectant les sorties de CNNs à différentes couches, échelles et canaux avec un motif de connectivité locale, homogène et creux. Les seuls hyper-paramètres du tissu (le nombre de canaux et de couches) ne sont pas critiques pour la performance. La nature acyclique du tissu nous permet d’utiliser la rétro-propagation du gradient durant la phase d’apprentissage. De manière automatique, nous pouvons donc configurer le tissu de manière à implémenter l’ensemble de toutes les architectures possibles (un nombre exponentiel) et, plus généralement, des ensembles (combinaisons) de ces modèles. La complexité de calcul et de taille mémoire du tissu évoluent de manière linéaire alors qu’il permet d’exploiter un nombre exponentiel d’architectures en parallèle, en partageant les paramètres entre architectures. Nous présentons des résultats à l’état de l’art pour la classification d’images sur le jeu de données MNIST et CIFAR10, et pour la segmentation sémantique sur le jeu de données Part Labels. / In this dissertation, we propose methods and data driven machine learning solutions which address and benefit from the recent overwhelming growth of digital media content.First, we consider the problem of improving the efficiency of image retrieval. We propose a coordinated local metric learning (CLML) approach which learns local Mahalanobis metrics, and integrates them in a global representation where the l2 distance can be used. This allows for data visualization in a single view, and use of efficient ` 2 -based retrieval methods. Our approach can be interpreted as learning a linear projection on top of an explicit high-dimensional embedding of a kernel. This interpretation allows for the use of existing frameworks for Mahalanobis metric learning for learning local metrics in a coordinated manner. Our experiments show that CLML improves over previous global and local metric learning approaches for the task of face retrieval.Second, we present an approach to leverage the success of CNN models forvisible spectrum face recognition to improve heterogeneous face recognition, e.g., recognition of near-infrared images from visible spectrum training images. We explore different metric learning strategies over features from the intermediate layers of the networks, to reduce the discrepancies between the different modalities. In our experiments we found that the depth of the optimal features for a given modality, is positively correlated with the domain shift between the source domain (CNN training data) and the target domain. Experimental results show the that we can use CNNs trained on visible spectrum images to obtain results that improve over the state-of-the art for heterogeneous face recognition with near-infrared images and sketches.Third, we present convolutional neural fabrics for exploring the discrete andexponentially large CNN architecture space in an efficient and systematic manner. Instead of aiming to select a single optimal architecture, we propose a “fabric” that embeds an exponentially large number of architectures. The fabric consists of a 3D trellis that connects response maps at different layers, scales, and channels with a sparse homogeneous local connectivity pattern. The only hyperparameters of the fabric (the number of channels and layers) are not critical for performance. The acyclic nature of the fabric allows us to use backpropagation for learning. Learning can thus efficiently configure the fabric to implement each one of exponentially many architectures and, more generally, ensembles of all of them. While scaling linearly in terms of computation and memory requirements, the fabric leverages exponentially many chain-structured architectures in parallel by massively sharing weights between them. We present benchmark results competitive with the state of the art for image classification on MNIST and CIFAR10, and for semantic segmentation on the Part Labels dataset
|
3 |
Poisson type approximations for sums of dependent variables / Priklausomų atsitiktinių dydžių sumų aproksimavimas Puasono tipo mataisPetrauskienė, Jūratė 07 March 2011 (has links)
Our aim is to investigate Poisson type approximations to the sums of dependent integer-valued random variables. In this thesis, only one type of dependence is considered, namely m-dependent random variables. The accuracy of approximation is measured in the total variation, local, uniform (Kolmogorov) and Wasserstein metrics.
Results can be divided into four parts. The first part is devoted to 2-runs, when pi=p. We generalize Theorem 5.2 from A.D. Barbour and A. Xia “Poisson perturbations” in two directions: by estimating the second order asymptotic expansion and asymptotic expansion in the exponent. Moreover, lower bound estimates are established, proving the optimality of upper bound estimates. Since, the method of proof does not allow to get small constants, in certain cases, we calculate asymptotically sharp constants.
In the second part, we consider sums of 1-dependent random variables, concentrated on nonnegative integers and satisfying analogue of Franken's condition. All results of this part are comparable to the known results for independent summands.
In the third part, we consider Poisson type approximations for sums of 1-dependent symmetric three-point distributions. We are unaware about any Poisson-type approximation result for dependent random variables, when symmetry of the distribution is taken into account.
In the last part, we consider 1-dependent non-identically distributed Bernoulli random variables. It is shown, that even for this simple... [to full text] / Disertacijoje tiriamas diskrečių m-priklausomų atsitiktinių dydžių aproksimavimo Puasono tipo matais tikslumas. Silpnai priklausomų atsitiktinių dydžių sumos yra natūralus nepriklausomų atsitiktinių dydžių sumų apibendrinimas. Vis dėlto atsitiktinių dydžių priklausomybė žymiai pasunkina tokių sumų tyrimą. Disertacijoje pagrindinis dėmesys skiriamas dviparametrėms ir triparametrėms diskrečiosioms aproksimacijoms.
Gautus rezultatus galima suskirstyti į keturias dalis. Pirmoje dalyje nagrinėjant dviejų narių serijų statistikos aproksimaciją Puasono ir sudėtiniais Puasono skirstiniais buvo nustatyta, kad dviparametrė sudėtinė Puasono aproksimacija yra tikslesnė už Puasono dėsnio asimptotinį skleidinį su vienu asimptotikos nariu. Aproksimacijos tikslumas įvertintas pilnosios variacijos ir lokalioje metrikoje. Specialiu atveju apskaičiuotos asimptotiškai tikslios konstantos. Taip pat nustatyta, kad gautieji įverčiai iš apačios yra tos pačios eilės, kaip ir įverčiai iš viršaus.
Antroje dalyje buvo gauta, kad sveikaskaičiai atsitiktiniai dydžiai, tenkinantys Frankeno sąlygos analogą, gali būti naudojami perėjimui nuo m-priklausomų prie 1-priklausomų atsitiktinių dydžių. Nustatyta, kad ženklą keičiančios sudėtinės Puasono aproksimacijos yra tokios pačios tikslumo eilės, kaip žinomi rezultatai nepriklausomų atsitiktinių dydžių sumoms.
Trečioje dalyje nustatyta, kad kai atsitiktiniai dydžiai yra simetriniai, tuomet sudėtinio Puasono aproksimacijos tikslumas yra daug geresnis nei... [toliau žr. visą tekstą]
|
Page generated in 0.057 seconds