• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 201
  • 79
  • 41
  • 30
  • 29
  • 10
  • 3
  • 3
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 456
  • 65
  • 48
  • 44
  • 40
  • 35
  • 34
  • 34
  • 30
  • 28
  • 28
  • 27
  • 27
  • 24
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
391

Apprentissage machine efficace : théorie et pratique

Delalleau, Olivier 03 1900 (has links)
Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponibles, les algorithmes d'apprentissage machine doivent se montrer efficaces dans l'utilisation de ces ressources. La minimisation des coûts est évidemment un facteur important, mais une autre motivation est la recherche de mécanismes d'apprentissage capables de reproduire le comportement d'êtres intelligents. Cette thèse aborde le problème de l'efficacité à travers plusieurs articles traitant d'algorithmes d'apprentissage variés : ce problème est vu non seulement du point de vue de l'efficacité computationnelle (temps de calcul et mémoire utilisés), mais aussi de celui de l'efficacité statistique (nombre d'exemples requis pour accomplir une tâche donnée). Une première contribution apportée par cette thèse est la mise en lumière d'inefficacités statistiques dans des algorithmes existants. Nous montrons ainsi que les arbres de décision généralisent mal pour certains types de tâches (chapitre 3), de même que les algorithmes classiques d'apprentissage semi-supervisé à base de graphe (chapitre 5), chacun étant affecté par une forme particulière de la malédiction de la dimensionalité. Pour une certaine classe de réseaux de neurones, appelés réseaux sommes-produits, nous montrons qu'il peut être exponentiellement moins efficace de représenter certaines fonctions par des réseaux à une seule couche cachée, comparé à des réseaux profonds (chapitre 4). Nos analyses permettent de mieux comprendre certains problèmes intrinsèques liés à ces algorithmes, et d'orienter la recherche dans des directions qui pourraient permettre de les résoudre. Nous identifions également des inefficacités computationnelles dans les algorithmes d'apprentissage semi-supervisé à base de graphe (chapitre 5), et dans l'apprentissage de mélanges de Gaussiennes en présence de valeurs manquantes (chapitre 6). Dans les deux cas, nous proposons de nouveaux algorithmes capables de traiter des ensembles de données significativement plus grands. Les deux derniers chapitres traitent de l'efficacité computationnelle sous un angle différent. Dans le chapitre 7, nous analysons de manière théorique un algorithme existant pour l'apprentissage efficace dans les machines de Boltzmann restreintes (la divergence contrastive), afin de mieux comprendre les raisons qui expliquent le succès de cet algorithme. Finalement, dans le chapitre 8 nous présentons une application de l'apprentissage machine dans le domaine des jeux vidéo, pour laquelle le problème de l'efficacité computationnelle est relié à des considérations d'ingénierie logicielle et matérielle, souvent ignorées en recherche mais ô combien importantes en pratique. / Despite constant progress in terms of available computational power, memory and amount of data, machine learning algorithms need to be efficient in how they use them. Although minimizing cost is an obvious major concern, another motivation is to attempt to design algorithms that can learn as efficiently as intelligent species. This thesis tackles the problem of efficient learning through various papers dealing with a wide range of machine learning algorithms: this topic is seen both from the point of view of computational efficiency (processing power and memory required by the algorithms) and of statistical efficiency (n umber of samples necessary to solve a given learning task).The first contribution of this thesis is in shedding light on various statistical inefficiencies in existing algorithms. Indeed, we show that decision trees do not generalize well on tasks with some particular properties (chapter 3), and that a similar flaw affects typical graph-based semi-supervised learning algorithms (chapter 5). This flaw is a form of curse of dimensionality that is specific to each of these algorithms. For a subclass of neural networks, called sum-product networks, we prove that using networks with a single hidden layer can be exponentially less efficient than when using deep networks (chapter 4). Our analyses help better understand some inherent flaws found in these algorithms, and steer research towards approaches that may potentially overcome them. We also exhibit computational inefficiencies in popular graph-based semi-supervised learning algorithms (chapter 5) as well as in the learning of mixtures of Gaussians with missing data (chapter 6). In both cases we propose new algorithms that make it possible to scale to much larger datasets. The last two chapters also deal with computational efficiency, but in different ways. Chapter 7 presents a new view on the contrastive divergence algorithm (which has been used for efficient training of restricted Boltzmann machines). It provides additional insight on the reasons why this algorithm has been so successful. Finally, in chapter 8 we describe an application of machine learning to video games, where computational efficiency is tied to software and hardware engineering constraints which, although often ignored in research papers, are ubiquitous in practice.
392

El español de los inmigrantes de los Andes bolivianos en el Norte Grande de Chile : convergencias y divergencias dialectales en el marco de una situación de contacto

Fernandez, Victor 12 1900 (has links)
Cette thèse a été financée par le Conseil de recherches en sciences humaines du Canada (numéro de référence 767-2010-1310) / Dans le cadre de la théorie de l’accommodation communicative, ce travail consiste à évaluer, avec la méthodologie de la sociolinguistique comparative, dans quelle mesure les immigrants hispanophones des Andes boliviennes qui se sont établis à San Pedro de Atacama (Chili) accommodent leur langage aux hispanophones de ce pays. Pour ce faire, quatre traits grammaticaux caractéristiques de l’espagnol andin ont été choisis pour être analysés : l’usage du double possessif (e. g., He ido a su casa de mi marido), l’utilisation des adverbes de lieu comme particule finale de la préposition en (e. g., Entonces he vivido en allá así como diez años), la préférence du passé composé sur le passé simple pour exprimer des actions qui ont été accomplies dans le passé (e. g., El año pasado he ido a visitar a mi madre) et l’usage exclusif de formes verbales standard pour exprimer la deuxième personne du singulier (e. g., Tú puedes estar comiendo tu hamburguesa). Les résultats obtenus après avoir analysé statistiquement la variation dans les données empiriques qui ont été recueillies au moyen d’entrevues révèlent que, tandis que ces immigrants conservent l’usage du double possessif et l’utilisation des adverbes de lieu comme particule finale de la préposition en de manière pratiquement inchangée par rapport à un groupe de contrôle de Boliviens non-immigrants (c’est ce que l’on entend par « divergence »), ils substituent graduellement la préférence du passé composé sur le passé simple pour exprimer des actions qui ont été accomplies dans le passé par une prédilection du passé simple sur le passé composé (e. g., Esta mañana fui a la playa) et intègrent progressivement l’alternance entre les formes verbales standard et les formes verbales vernaculaires du voseo pour exprimer la deuxième personne du singulier (e. g., Cuando tú flotái… y no te sumerges hacia adentro), à l’instar de ce qui se fait dans l’espagnol parlé au Chili (c’est ce que l’on entend par « convergence »). En d’autres termes, on peut affirmer qu’ils incorporent de nouvelles ressources linguistiques dans leur langage, en même temps qu’ils en conservent d’autres sans modifications significatives. On remarque donc que le contact dialectal provoqué par l’immigration bolivienne au Chili a des conséquences linguistiques indéniables qui font ressortir le dynamisme de la langue. En effet, le fait que ces immigrants adoptent de nouvelles ressources linguistiques tandis qu’ils en gardent d’autres sans changements notables met en évidence que les processus de convergence et divergence dialectales ne sont pas exclusifs, mais plutôt inclusifs, c’est-à-dire qu’ils peuvent avoir lieu simultanément au sein de la même communauté linguistique. Enfin, le fait que ces immigrants parlent désormais un dialecte qui n’est équivalent ni au dialecte d’origine ni au dialecte du lieu d’accueil permet d’avancer qu’ils parlent une sorte de dialecte nouveau. / Within the framework of the communication accommodation theory, the present study evaluates the extent to which Spanish-speaking migrants from the Bolivian Andes to San Pedro de Atacama (Chile) accommodate their speech to Chilean Spanish, using a comparative sociolinguistics methodology. Four distinctive grammatical features of Andean Spanish were selected for the analysis: the use of the double possessive adjectives (e.g. He ido a su casa de mi marido), the use of adverbs of place as adjuncts of the Spanish preposition en (e.g. Entonces he vivido en allá así como diez años), the preference for the present perfect over the simple past to express the perfective aspect (e.g. El año pasado he ido a visitar a mi madre), and the exclusive use of standard verbal forms to express the second person singular (e.g. Tú puedes estar comiendo tu hamburguesa). Results were obtained from a statistical analysis of variation in the empirical data, which were collected through interviews, and compared with a non-migrant Bolivian control group. The data reveal that, while these migrants maintain a practically unaltered use of both the double possessive adjectives and the adverbs of place as adjuncts of the Spanish preposition en (this is understood as “divergence”), they gradually develop a preference for the present perfect over the simple past to express the perfective aspect by a predilection for the simple past over the present perfect (e.g. Esta mañana fui a la playa), and they progressively adopt an alternation between standard forms and vernacular ones (i.e. voseo) to express the second person singular (e.g. Cuando tu flotái… y no te sumerges hacia adentro), as occurs in Chilean Spanish (this is understood as “convergence”). In other words, the migrants have incorporated new linguistic resources into their speech, while they have simultaneously maintained others without any significant change. The dialect contact situation caused by migrants from the Bolivian Andes to Chile, therefore, has undeniable linguistic consequences, which bring out the dynamic character of the language. Indeed, the fact that these migrants integrate new linguistic resources into their speech while simultaneously maintaining others without serious changes highlights that the processes of dialectal convergence and divergence are not exclusive, but rather inclusive. That is, they can occur simultaneously within the same linguistic community. In conclusion, the fact that these migrants henceforth speak a dialect that is equivalent neither to their original dialect nor to the host dialect supports the claim that they speak a kind of new dialect. / Dentro del marco de la teoría de la acomodación en la comunicación, este trabajo consiste en evaluar en qué medida los inmigrantes hispanohablantes de los Andes bolivianos establecidos en San Pedro de Atacama (Chile) acomodan su habla a la de los hispanohablantes de este país, recurriendo a la metodología de la sociolingüística comparativa. Para ello, se seleccionaron para análisis cuatro marcas gramaticales del español de los Andes: el uso del posesivo doblado (e. g., He ido a su casa de mi marido), la utilización de los adverbios demostrativos de lugar como términos de la preposición en (e. g., Entonces he vivido en allá así como diez años), la preferencia del pretérito perfecto sobre el pretérito indefinido para expresar el aspecto perfectivo (e. g., El año pasado he ido a visitar a mi madre) y el uso exclusivo de las formas verbales del tuteo para referir a la segunda persona del singular (e. g., Tú puedes estar comiendo tu hamburguesa). Los resultados, que se obtuvieron después de haber analizado estadísticamente la variación en los datos empíricos que se recogieron mediante entrevistas, revelan que mientras que estos inmigrantes mantienen el uso del posesivo doblado y la utilización de los adverbios demostrativos de lugar como términos de la preposición en sin cambios aparentes con respecto a un grupo de control constituido por bolivianos que no han emigrado de la zona andina (esto es lo que se entiende por “divergencia”), sustituyen gradualmente la preferencia por el pretérito perfecto frente al indefinido para expresar el aspecto perfectivo por una predilección del pretérito indefinido sobre el perfecto (e. g., Esta mañana fui a la playa), e integran progresivamente la alternancia entre las formas verbales tuteantes y las formas verbales del voseo para referir a la segunda persona del singular (e. g., Cuando tú flotái… y no te sumerges hacia adentro), a la manera de lo que se hace en el español chileno (esto es lo que se entiende por “convergencia”). En otras palabras, se puede afirmar que estos inmigrantes incorporan nuevos recursos lingüísticos en su habla al mismo tiempo que mantienen otros sin modificaciones significativas. Así, pues, se puede considerar que el contacto dialectal provocado por la inmigración boliviana en Chile tiene consecuencias lingüísticas innegables que resaltan el dinamismo de la lengua. Efectivamente, el hecho de que estos inmigrantes adopten nuevos recursos lingüísticos mientras que mantienen otros sin cambios notables pone de manifiesto que los procesos de convergencia y divergencia dialectales no son exclusivos, sino que son más bien inclusivos, es decir, pueden acaecer simultáneamente en el seno de una misma comunidad lingüística. Por último, el hecho de que estos inmigrantes hablen ahora un dialecto que no es equivalente ni al dialecto original ni al dialecto del lugar de acogida permite postular que utilizan una suerte de dialecto nuevo.
393

Quality strategy and method for transmission : application to image / Évaluation de la qualité des images dans un contexte de transmission

Xie, Xinwen 10 January 2019 (has links)
Cette thèse porte sur l’étude des stratégies d’amélioration de la qualité d’image dans les systèmes de communication sans fil et sur la conception de nouvelles métriques d’évaluation de la qualité. Tout d'abord, une nouvelle métrique de qualité d'image à référence réduite, basée sur un modèle statistique dans le domaine des ondelettes complexes, a été proposée. Les informations d’amplitude et de phase relatives des coefficients issues de la transformée en ondelettes complexes sont modélisées à l'aide de fonctions de densité de probabilité. Les paramètres associés à ces fonctions constituent la référence réduite qui sera transmise au récepteur. Ensuite, une approche basée sur les réseaux de neurones à régression généralisée est exploitée pour construire la relation de cartographie entre les caractéristiques de la référence réduite et le score objectif.Deuxièmement, avec la nouvelle métrique, une nouvelle stratégie de décodage est proposée pour la transmission d’image sur un canal de transmission sans fil réaliste. Ainsi, la qualité d’expérience (QoE) est améliorée tout en garantissant une bonne qualité de service (QoS). Pour cela, une nouvelle base d’images a été construite et des tests d’évaluation subjective de la qualité de ces images ont été effectués pour collecter les préférences visuelles des personnes lorsqu’elles sélectionnent les images avec différentes configurations de décodage. Un classificateur basé sur les algorithmes SVM et des k plus proches voisins sont utilisés pour la sélection automatique de la meilleure configuration de décodage.Enfin, une amélioration de la métrique a été proposée permettant de mieux prendre en compte les spécificités de la distorsion et la préférence des utilisateurs. Pour cela, nous avons combiné les caractéristiques globales et locales de l’image conduisant ainsi à une amélioration de la stratégie de décodage.Les résultats expérimentaux valident l'efficacité des métriques de qualité d'image et des stratégies de transmission d’images proposées. / This thesis focuses on the study of image quality strategies in wireless communication systems and the design of new quality evaluation metrics:Firstly, a new reduced-reference image quality metric, based on statistical model in complex wavelet domain, has been proposed. The magnitude and the relative phase information of the Dual-tree Complex Wavelet Transform coefficients are modelled by using probability density function and the parameters served as reduced-reference features which will be transmitted to the receiver. Then, a Generalized Regression Neural Network approach is exploited to construct the mapping relation between reduced-reference feature and the objective score.Secondly, with the new metric, a new decoding strategy is proposed for a realistic wireless transmission system, which can improve the quality of experience (QoE) while ensuring the quality of service (QoS). For this, a new database including large physiological vision tests has been constructed to collect the visual preference of people when they are selecting the images with different decoding configurations, and a classifier based on support vector machine or K-nearest neighboring is utilized to automatically select the decoding configuration.Finally, according to specific property of the distortion and people's preference, an improved metric has been proposed. It is the combination of global feature and local feature and has been demonstrated having a good performance in optimization of the decoding strategy.The experimental results validate the effectiveness of the proposed image quality metrics and the quality strategies.
394

Unsupervised 3D image clustering and extension to joint color and depth segmentation / Classification non supervisée d’images 3D et extension à la segmentation exploitant les informations de couleur et de profondeur

Hasnat, Md Abul 01 October 2014 (has links)
L'accès aux séquences d'images 3D s'est aujourd'hui démocratisé, grâce aux récentes avancées dans le développement des capteurs de profondeur ainsi que des méthodes permettant de manipuler des informations 3D à partir d'images 2D. De ce fait, il y a une attente importante de la part de la communauté scientifique de la vision par ordinateur dans l'intégration de l'information 3D. En effet, des travaux de recherche ont montré que les performances de certaines applications pouvaient être améliorées en intégrant l'information 3D. Cependant, il reste des problèmes à résoudre pour l'analyse et la segmentation de scènes intérieures comme (a) comment l'information 3D peut-elle être exploitée au mieux ? et (b) quelle est la meilleure manière de prendre en compte de manière conjointe les informations couleur et 3D ? Nous abordons ces deux questions dans cette thèse et nous proposons de nouvelles méthodes non supervisées pour la classification d'images 3D et la segmentation prenant en compte de manière conjointe les informations de couleur et de profondeur. A cet effet, nous formulons l'hypothèse que les normales aux surfaces dans les images 3D sont des éléments à prendre en compte pour leur analyse, et leurs distributions sont modélisables à l'aide de lois de mélange. Nous utilisons la méthode dite « Bregman Soft Clustering » afin d'être efficace d'un point de vue calculatoire. De plus, nous étudions plusieurs lois de probabilités permettant de modéliser les distributions de directions : la loi de von Mises-Fisher et la loi de Watson. Les méthodes de classification « basées modèles » proposées sont ensuite validées en utilisant des données de synthèse puis nous montrons leur intérêt pour l'analyse des images 3D (ou de profondeur). Une nouvelle méthode de segmentation d'images couleur et profondeur, appelées aussi images RGB-D, exploitant conjointement la couleur, la position 3D, et la normale locale est alors développée par extension des précédentes méthodes et en introduisant une méthode statistique de fusion de régions « planes » à l'aide d'un graphe. Les résultats montrent que la méthode proposée donne des résultats au moins comparables aux méthodes de l'état de l'art tout en demandant moins de temps de calcul. De plus, elle ouvre des perspectives nouvelles pour la fusion non supervisée des informations de couleur et de géométrie. Nous sommes convaincus que les méthodes proposées dans cette thèse pourront être utilisées pour la classification d'autres types de données comme la parole, les données d'expression en génétique, etc. Elles devraient aussi permettre la réalisation de tâches complexes comme l'analyse conjointe de données contenant des images et de la parole / Access to the 3D images at a reasonable frame rate is widespread now, thanks to the recent advances in low cost depth sensors as well as the efficient methods to compute 3D from 2D images. As a consequence, it is highly demanding to enhance the capability of existing computer vision applications by incorporating 3D information. Indeed, it has been demonstrated in numerous researches that the accuracy of different tasks increases by including 3D information as an additional feature. However, for the task of indoor scene analysis and segmentation, it remains several important issues, such as: (a) how the 3D information itself can be exploited? and (b) what is the best way to fuse color and 3D in an unsupervised manner? In this thesis, we address these issues and propose novel unsupervised methods for 3D image clustering and joint color and depth image segmentation. To this aim, we consider image normals as the prominent feature from 3D image and cluster them with methods based on finite statistical mixture models. We consider Bregman Soft Clustering method to ensure computationally efficient clustering. Moreover, we exploit several probability distributions from directional statistics, such as the von Mises-Fisher distribution and the Watson distribution. By combining these, we propose novel Model Based Clustering methods. We empirically validate these methods using synthetic data and then demonstrate their application for 3D/depth image analysis. Afterward, we extend these methods to segment synchronized 3D and color image, also called RGB-D image. To this aim, first we propose a statistical image generation model for RGB-D image. Then, we propose novel RGB-D segmentation method using a joint color-spatial-axial clustering and a statistical planar region merging method. Results show that, the proposed method is comparable with the state of the art methods and requires less computation time. Moreover, it opens interesting perspectives to fuse color and geometry in an unsupervised manner. We believe that the methods proposed in this thesis are equally applicable and extendable for clustering different types of data, such as speech, gene expressions, etc. Moreover, they can be used for complex tasks, such as joint image-speech data analysis
395

Apprentissage machine efficace : théorie et pratique

Delalleau, Olivier 03 1900 (has links)
Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponibles, les algorithmes d'apprentissage machine doivent se montrer efficaces dans l'utilisation de ces ressources. La minimisation des coûts est évidemment un facteur important, mais une autre motivation est la recherche de mécanismes d'apprentissage capables de reproduire le comportement d'êtres intelligents. Cette thèse aborde le problème de l'efficacité à travers plusieurs articles traitant d'algorithmes d'apprentissage variés : ce problème est vu non seulement du point de vue de l'efficacité computationnelle (temps de calcul et mémoire utilisés), mais aussi de celui de l'efficacité statistique (nombre d'exemples requis pour accomplir une tâche donnée). Une première contribution apportée par cette thèse est la mise en lumière d'inefficacités statistiques dans des algorithmes existants. Nous montrons ainsi que les arbres de décision généralisent mal pour certains types de tâches (chapitre 3), de même que les algorithmes classiques d'apprentissage semi-supervisé à base de graphe (chapitre 5), chacun étant affecté par une forme particulière de la malédiction de la dimensionalité. Pour une certaine classe de réseaux de neurones, appelés réseaux sommes-produits, nous montrons qu'il peut être exponentiellement moins efficace de représenter certaines fonctions par des réseaux à une seule couche cachée, comparé à des réseaux profonds (chapitre 4). Nos analyses permettent de mieux comprendre certains problèmes intrinsèques liés à ces algorithmes, et d'orienter la recherche dans des directions qui pourraient permettre de les résoudre. Nous identifions également des inefficacités computationnelles dans les algorithmes d'apprentissage semi-supervisé à base de graphe (chapitre 5), et dans l'apprentissage de mélanges de Gaussiennes en présence de valeurs manquantes (chapitre 6). Dans les deux cas, nous proposons de nouveaux algorithmes capables de traiter des ensembles de données significativement plus grands. Les deux derniers chapitres traitent de l'efficacité computationnelle sous un angle différent. Dans le chapitre 7, nous analysons de manière théorique un algorithme existant pour l'apprentissage efficace dans les machines de Boltzmann restreintes (la divergence contrastive), afin de mieux comprendre les raisons qui expliquent le succès de cet algorithme. Finalement, dans le chapitre 8 nous présentons une application de l'apprentissage machine dans le domaine des jeux vidéo, pour laquelle le problème de l'efficacité computationnelle est relié à des considérations d'ingénierie logicielle et matérielle, souvent ignorées en recherche mais ô combien importantes en pratique. / Despite constant progress in terms of available computational power, memory and amount of data, machine learning algorithms need to be efficient in how they use them. Although minimizing cost is an obvious major concern, another motivation is to attempt to design algorithms that can learn as efficiently as intelligent species. This thesis tackles the problem of efficient learning through various papers dealing with a wide range of machine learning algorithms: this topic is seen both from the point of view of computational efficiency (processing power and memory required by the algorithms) and of statistical efficiency (n umber of samples necessary to solve a given learning task).The first contribution of this thesis is in shedding light on various statistical inefficiencies in existing algorithms. Indeed, we show that decision trees do not generalize well on tasks with some particular properties (chapter 3), and that a similar flaw affects typical graph-based semi-supervised learning algorithms (chapter 5). This flaw is a form of curse of dimensionality that is specific to each of these algorithms. For a subclass of neural networks, called sum-product networks, we prove that using networks with a single hidden layer can be exponentially less efficient than when using deep networks (chapter 4). Our analyses help better understand some inherent flaws found in these algorithms, and steer research towards approaches that may potentially overcome them. We also exhibit computational inefficiencies in popular graph-based semi-supervised learning algorithms (chapter 5) as well as in the learning of mixtures of Gaussians with missing data (chapter 6). In both cases we propose new algorithms that make it possible to scale to much larger datasets. The last two chapters also deal with computational efficiency, but in different ways. Chapter 7 presents a new view on the contrastive divergence algorithm (which has been used for efficient training of restricted Boltzmann machines). It provides additional insight on the reasons why this algorithm has been so successful. Finally, in chapter 8 we describe an application of machine learning to video games, where computational efficiency is tied to software and hardware engineering constraints which, although often ignored in research papers, are ubiquitous in practice.
396

Segmenta??o Fuzzy de Texturas e V?deos

Santos, Tiago Souza dos 17 August 2012 (has links)
Made available in DSpace on 2014-12-17T15:48:04Z (GMT). No. of bitstreams: 1 TiagoSS_DISSERT.pdf: 2900373 bytes, checksum: ea7bd73351348f5c75a5bf4f337c599f (MD5) Previous issue date: 2012-08-17 / Conselho Nacional de Desenvolvimento Cient?fico e Tecnol?gico / The segmentation of an image aims to subdivide it into constituent regions or objects that have some relevant semantic content. This subdivision can also be applied to videos. However, in these cases, the objects appear in various frames that compose the videos. The task of segmenting an image becomes more complex when they are composed of objects that are defined by textural features, where the color information alone is not a good descriptor of the image. Fuzzy Segmentation is a region-growing segmentation algorithm that uses affinity functions in order to assign to each element in an image a grade of membership for each object (between 0 and 1). This work presents a modification of the Fuzzy Segmentation algorithm, for the purpose of improving the temporal and spatial complexity. The algorithm was adapted to segmenting color videos, treating them as 3D volume. In order to perform segmentation in videos, conventional color model or a hybrid model obtained by a method for choosing the best channels were used. The Fuzzy Segmentation algorithm was also applied to texture segmentation by using adaptive affinity functions defined for each object texture. Two types of affinity functions were used, one defined using the normal (or Gaussian) probability distribution and the other using the Skew Divergence. This latter, a Kullback-Leibler Divergence variation, is a measure of the difference between two probability distributions. Finally, the algorithm was tested in somes videos and also in texture mosaic images composed by images of the Brodatz album / A segmenta??o de uma imagem tem como objetivo subdividi-la em partes ou objetos constituintes que tenham algum conte?do sem?ntico relevante. Esta subdivis?o pode tamb?m ser aplicada a um v?deo, por?m, neste, os objetos est?o presentes nos diversos quadros que comp?em o v?deo. A tarefa de segmentar uma imagem torna-se mais complexa quando estas s?o compostas por objetos que contenham caracter?sticas texturais, com pouca ou nenhuma informa??o de cor. A segmenta??o difusa, do Ingl?s fuzzy, ? uma t?cnica de segmenta??o por crescimento de regi?es que determina para cada elemento da imagem um grau de pertin?ncia (entre zero e um) indicando a confian?a de que esse elemento perten?a a um determinado objeto ou regi?o existente na imagem, fazendo-se uso de fun??es de afinidade para obter esses valores de pertin?ncia. Neste trabalho ? apresentada uma modifica??o do algoritmo de segmenta??o fuzzy proposto por Carvalho [Carvalho et al. 2005], a fim de se obter melhorias na complexidade temporal e espacial. O algoritmo foi adaptado para segmentar v?deos coloridos tratando-os como volumes 3D. Para segmentar os v?deos, foram utilizadas informa??es provenientes de um modelo de cor convencional ou de um modelo h?brido obtido atrav?s de uma metodologia para a escolha dos melhores canais para realizar a segmenta??o. O algoritmo de segmenta??o fuzzy foi aplicado tamb?m na segmenta??o de texturas, fazendo-se uso de fun??es de afinidades adaptativas ?s texturas de cada objeto. Dois tipos de fun??es de afinidades foram utilizadas, uma utilizando a distribui??o normal de probabilidade, ou Gaussiana, e outra utilizando a diverg?ncia Skew. Esta ?ltima, uma varia??o da diverg?ncia de Kullback- Leibler, ? uma medida da diverg?ncia entre duas distribui??es de probabilidades. Por fim, o algoritmo foi testado com alguns v?deos e tamb?m com imagens de mosaicos de texturas criadas a partir do ?lbum de Brodatz e outros
397

Reconstrução em 3D de imagens DICOM cranio-facial com determinação de volumetria de muco nos seios paranasais

Lima, Rodrigo Freitas 05 August 2015 (has links)
Made available in DSpace on 2016-03-15T19:37:58Z (GMT). No. of bitstreams: 1 RODRIGO FREITAS LIMA.pdf: 13768169 bytes, checksum: 153d5257eed9a0961aaeaac94e224f89 (MD5) Previous issue date: 2015-08-05 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Paranasal sinus are important objects of study to rhinosinusitis diagnostic, having some papers related incidence between asthma and allergic rhinitis.Many applications can calculate to various parts of the human body, getting a CT scan or MRI input, and returning information about the region of interest observed as volume and area. The accumulated mucus in the sinuses is one of the areas of interest that have not yet been implemented methods for the calculation of volume and area. In the present scenario, the patient monitoring is done visually, depending largely on perception of the evaluator. Therefore, we seek to implement more accurate metrics to facilitate medical care to the patient and it can help prevent the worsening of rhinitis in a given patient, developing mechanisms of visual and numerical comparison, where it is possible observe the progress of treatment. This work contains a detailed study of how certain existing techniques, combined into one methodology can segment and calculate the accumulated mucus in the maxillary sinus. In addition to techniques such as Thresholding, Gaussian filter, Mathematical Morphology, Metallic Artifacts Reduction during processing and segmentation, MUNC and DTA to calculate the volume and area, and visualization techniques as the Marching Cubes, it was also necessary some adjustments in the algorithm for limit the region of interest where the thresholding combined with the gaussian filter has not been effective of retaining edges. The application will use two open source platforms, one for processing, ITK, and another for visualization, VTK. The results demonstrated that it is possible to perform segmentation and the calculation with the use of platforms as well as the methodology used is adequate to solve this problem. / Os seios paranasais são importantes objetos de estudo para o diagnóstico de rinossinusites, tendo alguns estudos relacionado a incidência de asma na fase adulta a quadros de rinite alérgica na infância. Muitas aplicações atendem a diversas partes do corpo humano, obtendo de entrada uma tomografia computadorizada ou ressonância magnética, e devolvendo, muitas vezes, números que dizem respeito ao objeto de interesse observado, como volume e área. O muco acumulado nos seios paranasais é uma das regiões de interesse que ainda não tiveram métodos implementados para o cálculo do volume e área. No cenário atual, o acompanhamento do paciente é feito de forma visual, dependendo muito da percepção do avaliador. Portanto, busca-se a implementação de métricas mais precisas para facilitar o acompanhamento médico ao paciente e ajudar na prevenção do agravamento de um quadro de rinite em um determinado paciente, criando mecanismos de comparação visual e numérica, onde é possível observar a evolução do tratamento. Este trabalho contém um estudo detalhado de como determinadas técnicas existentes, combinadas em uma metodologia, podem segmentar e calcular o muco acumulado nos seios paranasais maxilares. Além de técnicas como a Binarizacão, Filtro Gaussiano, Morfologia Matemática, Redução de Ruídos Metálico durante o processamento e segmentação, MUNC e DTA para o cálculo do volume e área, e técnicas de visualização como o Marching Cubes, foram necessários também ajustes no algoritmo para limitar a área segmentada onde a binarizacão combinada ao filtro não foi capaz de manter as bordas da região de interesse. A aplicação fará uso de duas plataformas de código livre, sendo uma para o processamento, ITK, e outra para visualização de imagens, VTK. Os resultados demonstraram que é possível realizar a segmentação e o cálculo com o uso das plataformas, bem como a metodologia empregada é adequada a resolução deste problema.
398

Role genetické variance ve speciaci / Role of genetic variance in speciation

Payne, Pavel January 2011 (has links)
Sympatric speciation has received much attention both empirically and theoretically. However, the contribution of sympatric speciation to biodiversity remains unclear. One piece missing from the speciation puzzle is the plausibility of sympatric ecological divergence of species through adaptation in polygenic traits. I consider an environment consisting of two niches, where one value of the trait is advantageous in only one niche, and vice versa. The selection regime is described by a trade-off in viabilities between the niches. These polygenic traits can, and often do, involve epistatic interactions among and between loci, so that the contribution of the alleles to viability deviates from additivity. Epistasis then also affects the curvature of the trade-offs: predominant less-than-additive epistasis turns the curve towards concavity and predominant more-than-additive towards convexity. The curvature of the trade-off plays a crucial role in the evolution of populations. With a convex trade- off, extreme values of the trait are favored and the population tends to diverge, but relatively stringent symmetry in strength of selection within the niches and the niche proportions is necessary to maintain polymorphism. In this study I use two and three- locus haploid versions of Levene's model to...
399

Profitability of Technical Trading Strategies in the Swedish Equity Market / Lönsamhet för tekniska handelsstrategier på den svenska aktiemarknaden

Alam, Azmain, Norrström, Gustav January 2021 (has links)
This study aims to see if it is possible to generate abnormal returns in the Swedishstock market through the use of three different trading strategies based on technicalindicators. As the indicators are based on historical price data only, the study assumesweak market efficiency according to the efficient market hypothesis. The study isconducted using daily prices for OMX Stockholm PI and STOXX 600 Europe from theperiod between 1 January 2010 and 31 December 2019. Trading positions has beentaken in the OMX Stockholm PI index while STOXX 600 Europe has been used torepresent the market portfolio. Abnormal returns has been defined as the Jensen’s αin a Fama French three factor model with Carhart ­extension. This period has beencharacterised by increasing prices (a bull market) which may have had an impact onthe results. Furthermore, a higher frequency of rebalancing for the Fama ­French andCarhart model could also increase the quality of the results. The results indicate thatall three strategies has generated abnormal returns during the period. / Denna studie syftar till att se om det är möjligt att generera överavkastning på densvenska aktiemarknaden genom att använda tre olika handelsstrategier baserade påtekniska indikatorer. Eftersom indikatorerna endast baseras på historiska prisdataantar studien svag marknadseffektivitet enligt den effektiva marknadshypotesen.Studien genomförs med hjälp av dagliga priser för OMX Stockholm PI och STOXX 600Europe från perioden 1 januari 2010 till 31 december 2019. Positionerna i studien hartagits i OMX Stockholm PI medan STOXX 600 Europe har använts för att representeramarknadsportföljen . Överavkastning har definierats som Jensens α i en Fama French trefaktormodell med Carhart-­utvidgning. Perioden som används i studien har präglatsav stigande priser (en bull market) som kan ha påverkat resultatet. Dessutom skulleen högre frekvens av ombalansering av Fama ­French och Carhart-­modellen ocksåkunna öka kvaliteten på resultaten. Resultaten visar att alla tre strategier har genereratonormal avkastning under perioden.
400

Optimization tools for non-asymptotic statistics in exponential families

Le Priol, Rémi 04 1900 (has links)
Les familles exponentielles sont une classe de modèles omniprésente en statistique. D'une part, elle peut modéliser n'importe quel type de données. En fait la plupart des distributions communes en font partie : Gaussiennes, variables catégoriques, Poisson, Gamma, Wishart, Dirichlet. D'autre part elle est à la base des modèles linéaires généralisés (GLM), une classe de modèles fondamentale en apprentissage automatique. Enfin les mathématiques qui les sous-tendent sont souvent magnifiques, grâce à leur lien avec la dualité convexe et la transformée de Laplace. L'auteur de cette thèse a fréquemment été motivé par cette beauté. Dans cette thèse, nous faisons trois contributions à l'intersection de l'optimisation et des statistiques, qui tournent toutes autour de la famille exponentielle. La première contribution adapte et améliore un algorithme d'optimisation à variance réduite appelé ascension des coordonnées duales stochastique (SDCA), pour entraîner une classe particulière de GLM appelée champ aléatoire conditionnel (CRF). Les CRF sont un des piliers de la prédiction structurée. Les CRF étaient connus pour être difficiles à entraîner jusqu'à la découverte des technique d'optimisation à variance réduite. Notre version améliorée de SDCA obtient des performances favorables comparées à l'état de l'art antérieur et actuel. La deuxième contribution s'intéresse à la découverte causale. Les familles exponentielles sont fréquemment utilisées dans les modèles graphiques, et en particulier dans les modèles graphique causaux. Cette contribution mène l'enquête sur une conjecture spécifique qui a attiré l'attention dans de précédents travaux : les modèles causaux s'adaptent plus rapidement aux perturbations de l'environnement. Nos résultats, obtenus à partir de théorèmes d'optimisation, soutiennent cette hypothèse sous certaines conditions. Mais sous d'autre conditions, nos résultats contredisent cette hypothèse. Cela appelle à une précision de cette hypothèse, ou à une sophistication de notre notion de modèle causal. La troisième contribution s'intéresse à une propriété fondamentale des familles exponentielles. L'une des propriétés les plus séduisantes des familles exponentielles est la forme close de l'estimateur du maximum de vraisemblance (MLE), ou maximum a posteriori (MAP) pour un choix naturel de prior conjugué. Ces deux estimateurs sont utilisés presque partout, souvent sans même y penser. (Combien de fois calcule-t-on une moyenne et une variance pour des données en cloche sans penser au modèle Gaussien sous-jacent ?) Pourtant la littérature actuelle manque de résultats sur la convergence de ces modèles pour des tailles d'échantillons finis, lorsque l'on mesure la qualité de ces modèles avec la divergence de Kullback-Leibler (KL). Pourtant cette divergence est la mesure de différence standard en théorie de l'information. En établissant un parallèle avec l'optimisation, nous faisons quelques pas vers un tel résultat, et nous relevons quelques directions pouvant mener à des progrès, tant en statistiques qu'en optimisation. Ces trois contributions mettent des outil d'optimisation au service des statistiques dans les familles exponentielles : améliorer la vitesse d'apprentissage de GLM de prédiction structurée, caractériser la vitesse d'adaptation de modèles causaux, estimer la vitesse d'apprentissage de modèles omniprésents. En traçant des ponts entre statistiques et optimisation, cette thèse fait progresser notre maîtrise de méthodes fondamentales d'apprentissage automatique. / Exponential families are a ubiquitous class of models in statistics. On the one hand, they can model any data type. Actually, the most common distributions are exponential families: Gaussians, categorical, Poisson, Gamma, Wishart, or Dirichlet. On the other hand, they sit at the core of generalized linear models (GLM), a foundational class of models in machine learning. They are also supported by beautiful mathematics thanks to their connection with convex duality and the Laplace transform. This beauty is definitely responsible for the existence of this thesis. In this manuscript, we make three contributions at the intersection of optimization and statistics, all revolving around exponential families. The first contribution adapts and improves a variance reduction optimization algorithm called stochastic dual coordinate ascent (SDCA) to train a particular class of GLM called conditional random fields (CRF). CRF are one of the cornerstones of structured prediction. CRF were notoriously hard to train until the advent of variance reduction techniques, and our improved version of SDCA performs favorably compared to the previous state-of-the-art. The second contribution focuses on causal discovery. Exponential families are widely used in graphical models, and in particular in causal graphical models. This contribution investigates a specific conjecture that gained some traction in previous work: causal models adapt faster to perturbations of the environment. Using results from optimization, we find strong support for this assumption when the perturbation is coming from an intervention on a cause, and support against this assumption when perturbation is coming from an intervention on an effect. These pieces of evidence are calling for a refinement of the conjecture. The third contribution addresses a fundamental property of exponential families. One of the most appealing properties of exponential families is its closed-form maximum likelihood estimate (MLE) and maximum a posteriori (MAP) for a natural choice of conjugate prior. These two estimators are used almost everywhere, often unknowingly -- how often are mean and variance computed for bell-shaped data without thinking about the Gaussian model they underly? Nevertheless, literature to date lacks results on the finite sample convergence property of the information (Kulback-Leibler) divergence between these estimators and the true distribution. Drawing on a parallel with optimization, we take some steps towards such a result, and we highlight directions for progress both in statistics and optimization. These three contributions are all using tools from optimization at the service of statistics in exponential families: improving upon an algorithm to learn GLM, characterizing the adaptation speed of causal models, and estimating the learning speed of ubiquitous models. By tying together optimization and statistics, this thesis is taking a step towards a better understanding of the fundamentals of machine learning.

Page generated in 0.099 seconds