Spelling suggestions: "subject:"bayesian codels"" "subject:"bayesian 2models""
31 |
Dynamique des espèces exploitées : le cas du fuligule milouin (Aythya ferina) dans le Paléarctique / Demography of exploited populations : the case of the Common Pochard (Aythya ferina) in PalearcticFolliot, Benjamin 17 December 2018 (has links)
Le fuligule milouin (Aythya ferina) est une espèce de canard plongeur répandue dans l’ensemble du Paléarctique. Montrant des signes de déclin de ses effectifs nicheurs en Europe depuis les années 2000, son statut de conservation IUCN a été réévalué de « Préoccupation Mineure » à « Vulnérable ». Etant une espèce chassée, la question du maintien de ces prélèvements cynégétiques est légitime. L’objectif de ce travail de thèse est donc de comprendre son fonctionnement démographique et les mécanismes sous-jacents à sa dynamique de population, pour proposer des mesures de gestion et de conservation. Pour cela, nous nous sommes attachés à estimer la tendance de ce déclin sur sa voie de migration nord-ouest européenne à partir des données de recensements de la mi-janvier. Puis, nous avons étudié la connectivité migratoire de cette voie de migration avec les autres voies préssuposées, afin de mieux comprendre l’origine de ce déclin. Enfin, nous avons estimé deux paramètres démographiques clés, la survie et le succès de nidification, pour les intégrer dans un cadre matriciel permettant d’estimer un taux de croissance asymptotique et comprendre quels sont les paramètres démographiques clés sur lesquels doivent reposer les actions de gestion. Il ressort de ce travail de thèse que le déclin du fuligule milouin est probalement dû surtout à une diminution de sa productivité en Europe de l’Est et en Russie. Le contrôle et la gestion de la productivité par l’Homme étant limités, uniquement des travaux de gestion autour des habitats liés à la nidification sont envisageables. Ces travaux pourraient être facilement menés en Europe mais beaucoup plus difficilement en Sibérie, principale aire de reproduction des milouins caractérisée par une vaste superficie et un fort isolement. Les taux de survie des oiseaux bagués en France sont plus faibles que pour les oiseaux bagués dans d’autres pays, potentiellement du fait d’une pression de chasse plus élevée. Amener le taux de survie en France au même niveau que dans les pays voisins (Suisse et Grande-Bretagne), par une modification de la réglementation sur la chasse, serait de nature à ramener le taux de croissance à l’équilibre. La mise en place de la gestion adaptative pourrait faciliter les objectifs de conservation fixés en adaptant annuellement ces prélèvements aux effectifs présents et aux connaissances dont on dispose. / The Common Pochard (Aythya ferina) is a regular diving duck species in the western Palearctic. However, a worrisome decline of its wintering population led to an up-listed IUCN status from “Least Concern” to “Vulnerable”. This species is still hunted in Europe despite this decline. Hence, one may wonder about the sustainability of its harvest. The aim of this work was to understand the population dynamics of this species, and the drivers of these mechanisms. For this purpose, we assessed the declining trend in northwestern Europe using the mid-january censuses. Then, we studied the migratory connectivity with the two others flyways, in order to better understand the origin of the decline. Finally, we assessed two main demographic parameters (survival rate and nesting success) and combined these into a matrix population model. This model allowed us to assess an asymptotic growth rate and to determine the key demographic parameters on which management actions should focus. The main results of this thesis indicate that the decrease in productivty in Europe and in Russia could have been the main reason of the decline. However, given the limited human action to improve Pochard productivity, only breeding habitat improvement could be considered. Such improvements could be easily considered in Europe, but not in Siberia, the main breeding region characterized by a large area and a strong geographic isolation. Survival rates were lower in France than in neighbouring countries, possibly owing to a greater hunting pressure. A more moderate hunting pressure could lead to higher survival rates, and a balanced growth rate. Setting up an adaptative harvest management scheme could help reaching defined management goals, by annually adapting hunting quotas to current knowledge and assessment of Pochard population size. Read more
|
32 |
Acoustic Space Mapping : A Machine Learning Approach to Sound Source Separation and Localization / Projection d'espaces acoustiques : Une approche par apprentissage automatisé de la séparation et de la localisation de sources sonoresDeleforge, Antoine 26 November 2013 (has links)
Dans cette thèse, nous abordons le problème longtemps étudié de la séparation et localisation binaurale (deux microphones) de sources sonores par l'apprentissage supervisé. Dans ce but, nous développons un nouveau paradigme dénommé projection d'espaces acoustiques, à la croisé des chemins entre la perception binaurale, de l'écoute robotisée, du traitement du signal audio, et de l'apprentissage automatisé. L'approche proposée consiste à apprendre un lien entre les indices auditifs perçus par le système et la position de la source sonore dans une autre modalité du système, comme l'espace visuelle ou l'espace moteur. Nous proposons de nouveaux protocoles expérimentaux permettant d'acquérir automatiquement de grands ensembles d'entraînement qui associent des telles données. Les jeux de données obtenus sont ensuite utilisés pour révéler certaines propriétés intrinsèques des espaces acoustiques, et conduisent au développement d'une famille générale de modèles probabilistes permettant la projection localement linéaire d'un espace de haute dimension vers un espace de basse dimension. Nous montrons que ces modèles unifient plusieurs méthodes de régression et de réduction de dimension existantes, tout en incluant un grand nombre de nouveaux modèles qui généralisent les précédents. Les popriétés et l'inférence de ces modèles sont détaillées en profondeur, et le net avantage des méthodes proposées par rapport à des techniques de l'état de l'art est établit sur différentes applications de projection d'espace, au delà du champs de l'analyse de scènes auditives. Nous montrons ensuite comment les méthodes proposées peuvent être étendues probabilistiquement pour s'attaquer au fameux problème de la soirée cocktail, c'est à dire localiser une ou plusieurs sources émettant simultanément dans un environnement réel, et reséparer les signaux mélangés. Nous montrons que les techniques qui en découlent accomplissent cette tâche avec une précision inégalée. Ceci démontre le rôle important de l'apprentissage et met en avant le paradigme de la projection d'espaces acoustiques comme un outil prometteur pour aborder de façon robuste les problèmes les plus difficiles de l'audition binaurale computationnelle. / In this thesis, we address the long-studied problem of binaural (two microphones) sound source separation and localization through supervised leaning. To achieve this, we develop a new paradigm referred as acoustic space mapping, at the crossroads of binaural perception, robot hearing, audio signal processing and machine learning. The proposed approach consists in learning a link between auditory cues perceived by the system and the emitting sound source position in another modality of the system, such as the visual space or the motor space. We propose new experimental protocols to automatically gather large training sets that associates such data. Obtained datasets are then used to reveal some fundamental intrinsic properties of acoustic spaces and lead to the development of a general family of probabilistic models for locally-linear high- to low-dimensional space mapping. We show that these models unify several existing regression and dimensionality reduction techniques, while encompassing a large number of new models that generalize previous ones. The properties and inference of these models are thoroughly detailed, and the prominent advantage of proposed methods with respect to state-of-the-art techniques is established on different space mapping applications, beyond the scope of auditory scene analysis. We then show how the proposed methods can be probabilistically extended to tackle the long-known cocktail party problem, i.e., accurately localizing one or several sound sources emitting at the same time in a real-word environment, and separate the mixed signals. We show that resulting techniques perform these tasks with an unequaled accuracy. This demonstrates the important role of learning and puts forwards the acoustic space mapping paradigm as a promising tool for robustly addressing the most challenging problems in computational binaural audition. Read more
|
33 |
Modelagem Bayesiana dos tempos entre extrapolações do número de internações hospitalares: associação entre queimadas de cana-de-açúcar e doenças respiratórias / Bayesian modelling of the times between peaks of hospital admissions: association between sugar cane plantation burning and respiratory diseasesMayara Piani Luna da Silva Sicchieri 19 December 2012 (has links)
As doenças respiratórias e a poluição do ar são temas de muitos trabalhos científicos, porém a relação entre doenças respiratórias e queimadas de cana-de-açúcar ainda é pouco estudada. A queima da palha da cana-de-açúcar é uma prática comum em grande parte do Estado de São Paulo, com especial destaque para os dados da região de Ribeirão Preto. Os focos de queimadas são detectados por satélites do CPTEC/INPE (Centro de Previsão de Tempo e Estudos Climáticos do Instituto Nacional de Pesquisas Espaciais) e neste trabalho consideramos o tempo entre dias de extrapolação do número de internações diárias. Neste trabalho introduzimos diferentes modelos estatísticos para analisar dados de focos de queimadas e suas relações com as internações por doenças respiratórias. Propomos novos modelos para analisar estes dados, na presença ou não da covariável, que representa o número de queimadas. Sob o enfoque Bayesiano, usando os diferentes modelos propostos, encontramos os sumários a posteriori de interesse utilizando métodos de simulação de Monte Carlo em Cadeias de Markov. Também usamos técnicas Bayesianas para discriminar os diferentes modelos. Para os dados da região de Ribeirão Preto, encontramos modelos que levam à obtenção das inferências a posteriori com grande precisão e vericamos que a presença da covariável nos traz um grande ganho na qualidade dos dados ajustados. Os resultados a posteriori nos sugerem evidências de uma relação entre as queimadas e o tempo entre as extrapolações do número de internações, ou seja, de que quando observamos um maior número de queimadas anteriores à extrapolação, também observamos que o tempo entre as extrapolações é menor. / Relations between respiratory diseases and air pollution has been the goals of many scientic works, but the relation between respiratory diseases and sugar cane burning still is not well studied in the literature. Pre-harvest burning of sugarcane elds used primarily to get rid of the dried leaves is common in most of São Paulo state, Southeast Brazil, especially in the Ribeirão Preto region. The locals of pre-harvest sugar cane burning are detected by surveillance satellites of the CPTEC/INPE (Center of Climate Prediction of the Space Research National Institute). In this work, we consider as our data of interest, the time in days, between peaks numbers of hospitalizations due to respiratory diseases. Dierent statistical models are assumed to analyze the data of pre-harvest burning of sugar cane elds and their relations with hospitalizations due to respiratory diseases. These new models are considered to analyze data sets in presence or not of covariates, representing the numbers of pre-harvest burning of sugar cane elds. Under a Bayesian approach, we get the posterior summaries of interest using MCMC (Markov Chain Monte Carlo) methods. We also use dierent existing Bayesian discrimination methods to choose the best model. In our case, considering the data of Ribeirão Preto region, we observed that the models in presence of covariates give accurate inferences and good t for the data. We concluded that there is evidence of a relationship between respiratory diseases and sugar cane burning, that is, larger numbers of pre-harvest sugar cane burning, implies in larger numbers of hospitalizations due to respiratory diseases. In this case, we also observe small times (days) between extra numbers of hospitalizations. Read more
|
34 |
Time Dynamic Topic ModelsJähnichen, Patrick 22 March 2016 (has links)
Information extraction from large corpora can be a useful tool for many applications in industry and academia. For instance, political communication science has just recently begun to use the opportunities that come with the availability of massive amounts of information available through the Internet and the computational tools that natural language processing can provide. We give a linguistically motivated interpretation of topic modeling, a state-of-the-art algorithm for extracting latent semantic sets of words from large text corpora, and extend this interpretation to cover issues and issue-cycles as theoretical constructs coming from political communication science. We build on a dynamic topic model, a model whose semantic sets of words are allowed to evolve over time governed by a Brownian motion stochastic process and apply a new form of analysis to its result. Generally this analysis is based on the notion of volatility as in the rate of change of stocks or derivatives known from econometrics. We claim that the rate of change of sets of semantically related words can be interpreted as issue-cycles, the word sets as describing the underlying issue. Generalizing over the existing work, we introduce dynamic topic models that are driven by general (Brownian motion is a special case of our model) Gaussian processes, a family of stochastic processes defined by the function that determines their covariance structure. We use the above assumption and apply a certain class of covariance functions to allow for an appropriate rate of change in word sets while preserving the semantic relatedness among words. Applying our findings to a large newspaper data set, the New York Times Annotated corpus (all articles between 1987 and 2007), we are able to identify sub-topics in time, \\\\textit{time-localized topics} and find patterns in their behavior over time. However, we have to drop the assumption of semantic relatedness over all available time for any one topic. Time-localized topics are consistent in themselves but do not necessarily share semantic meaning between each other. They can, however, be interpreted to capture the notion of issues and their behavior that of issue-cycles. Read more
|
35 |
Modélisation Bayésienne de planification motrice de la parole : variabilité, buts multisensoriels et intéraction perceptuo-motrices / Bayesian modeling of speech motor planning : variability, multisensory goals and perceptuo-motor interactionsPatri, Jean-François 14 June 2018 (has links)
Contexte et objectif:C’est presque une banalité que de dire qu’une des caractéristiques principales de la parole est sa variabilité : variabilité inter-sexe, inter-locuteur, mais aussi variabilité d’un contexte à un autre ou d’une répétition à une autre pour un même sujet. C’est cette variabilité qui fait à la fois la beauté de la parole mais aussi la complexité de son traitement par les technologies vocales, et la difficulté pour en comprendre les mécanismes. Dans cette thèse nous étudions certains aspects de cette variabilité, avec comme point de départ la variabilité observée chez un locuteur dans la répétition d’un même son dans les mêmes conditions, que nous appelons variabilité intrinsèque.Les modèles de contrôle moteur de la parole abordent principalement la variabilité contextuelle de la parole mais prennent rarement en compte sa variabilité intrinsèque, alors même que l’on sait que c’est cette variabilité qui donne à la parole tout son caractère naturel. Dans le contexte général du contrôle moteur, l’origine précise de la variabilité intrinsèque reste peu comprise et controversée. Cependant, une hypothèse courante est que la variabilité intrinsèque serait essentiellement due à du bruit neuronal dans la chaine d’exécution.L’objectif principal de cette thèse est d’aborder la variabilité intrinsèque et contextuelle de la production de la parole dans un cadre formel intégrateur. Pour cela nous faisons l’hypothèse que la variabilité intrinsèque n’est pas que le résultat d’un bruit d’exécution, mais qu’elle résulte aussi d’une stratégie de contrôle où la variabilité inter-répétition fait partie intégrante de la représentation de la tâche.Méthodologie:Nous formalisons cette idée dans un cadre computationnel probabiliste, la modélisation Bayésienne, où l’abondance de réalisations possibles d’un même item de parole est représentée naturellement sous la forme d’incertitudes, et où la variabilité est donc manipulée formellement. Nous illustrons la pertinence de cette approche à travers trois contributions.Résultats:Dans un premier temps, nous reformulons un modèle existant de contrôle optimal de la parole, le modèle GEPPETO, dans le formalisme probabiliste et démontrons que le modèle Bayésien contient GEPPETO comme un cas particulier. En particulier, nous illustrons comment l’approche Bayésienne permet de rendre compte de la variabilité intrinsèque tout en incluant les mêmes principes d’émergence et de structuration de la variabilité contextuelle proposés par GEPPETO.Dans un deuxième temps, le formalisme nous permet de dépasser le cadre de GEPPETO en y intégrant une composante somatosensorielle dans la représentation des buts. Cela permet d’introduire une variabilité interindividuelle sur la préférence sensorielle, c’est-à-dire la modulation des poids relatifs des cibles auditives et somatosensorielles, et permet d’expliquer la variabilité de compensation observée dans les études de perturbation sensorielle. Cette étape a nécessité l’élaboration d’hypothèses sur l’intégration des retours sensoriels dans la planification, dont nous avons cherché à évaluer la pertinence en concevant une expérience originale de production-perception de parole.Dans un troisième temps, nous exploitons le formalisme pour réinterpréter des données expérimentales récentes qui mettent en évidence un changement perceptif consécutif à un apprentissage moteur induit par une altération du retour auditif. Cela est rendu possible grâce à la représentation unifiée des connaissances dans le modèle, qui permet d’intégrer la production et la perception dans un cadre formel unique.L’ensemble de ces travaux illustre la capacité du formalisme Bayésien à proposer une démarche systématique et structurée pour la construction des modèles. Cette démarche facilite le développement des modèles et leur complexification progressive en précisant et explicitant les hypothèses formulées. / Context and goal:It is almost a truism to affirm that one of the main features of speech is its variability: variability inter-gender, inter-speaker, but also variability from one context to another, or from one repetition to another for a given subject. Variability underlies at the same time the beauty of speech, the complexity of its treatment by speech technologies, and the difficulty for understanding its mechanism. In this thesis we study certain aspects of speech variability, our starting point being the variability characterizing the repetitions of a given utterance by a given subject, in a given condition, which we call intrinsic variability.Models of speech motor control have mainly focused on the contextual aspects of speech variability, and have rarely considered its intrinsic component, even though it is this fundamental component of variability that gives speech it naturalness. In the general context of motor control, the precise origin of the intrinsic variability of our movements remains controversial and poorly understood, however, a common assumption is that intrinsic variability would mainly originate from neural and muscular noise in the execution chain.The main goal of this thesis is to address the contextual and intrinsic component of speech variability in an integrative computational framework . To this aim, we postulate that the main component of the intrinsic variability of speech is not just execution noise, but that it results from a control strategy where intrinsic variability characterizes the abundance of possible productions of the intended speech item.Methodology:We formalize this idea in a probabilistic computational framework, Bayesian modeling, where the abundance of possible realizations of a given speech item is naturally represented as uncertainty, and where variability is thus formally manipulated. We illustrate the pertinence of this approach with three main contributions.Results:Firstly, we reformulate in Bayesian terms an existing model of speech motor control, the GEPPETO model, and demonstrate that this Bayesian reformulation, which we call B-GEPPETO, contains GEPPETO as a particular case . In particular, we illustrate how the Bayesian approach enables to account for the intrinsic component of speech variability while including the same principles proposed by GEPPETO for the emergence and structuration of its contextual component.Secondly, the Bayesian framework enable us to go beyond and extend B-GEPPETO in order to include a multisensory characterization of speech motor goals, with auditory and somatosensory components. We apply this extension to explore variability in the context of compensations to sensory-motor perturbation in speech production. We account for differences in compensation as sensory preferences implemented by modulating the relative contribution of each sensory modality in the model . The somatosensory characterization of speech motor goals involved a certain number of hypotheses that we intended to evaluate with two experimental studies.Finally, in our third contribution we exploit the formalism for the reinterpretation of recent experimental observations concerning perceptual changes following speech motor adaptation to auditory perturbations. This original analysis is made possible thanks to the unified representation of knowledge in the model, which enables to account for production and perception processes in a single computational framework.Taken together, these contributions illustrate how the Bayesian framework offers a structured and systematic approach for the construction of models in cognitive sciences . The framework facilitates the development of models and their progressive complexification by specifying and clarifying underlying assumptions. Read more
|
36 |
Unsupervised word discovery for computational language documentation / Découverte non-supervisée de mots pour outiller la linguistique de terrainGodard, Pierre 16 April 2019 (has links)
La diversité linguistique est actuellement menacée : la moitié des langues connues dans le monde pourraient disparaître d'ici la fin du siècle. Cette prise de conscience a inspiré de nombreuses initiatives dans le domaine de la linguistique documentaire au cours des deux dernières décennies, et 2019 a été proclamée Année internationale des langues autochtones par les Nations Unies, pour sensibiliser le public à cette question et encourager les initiatives de documentation et de préservation. Néanmoins, ce travail est coûteux en temps, et le nombre de linguistes de terrain, limité. Par conséquent, le domaine émergent de la documentation linguistique computationnelle (CLD) vise à favoriser le travail des linguistes à l'aide d'outils de traitement automatique. Le projet Breaking the Unwritten Language Barrier (BULB), par exemple, constitue l'un des efforts qui définissent ce nouveau domaine, et réunit des linguistes et des informaticiens. Cette thèse examine le problème particulier de la découverte de mots dans un flot non segmenté de caractères, ou de phonèmes, transcrits à partir du signal de parole dans un contexte de langues très peu dotées. Il s'agit principalement d'une procédure de segmentation, qui peut également être couplée à une procédure d'alignement lorsqu'une traduction est disponible. En utilisant deux corpus en langues bantoues correspondant à un scénario réaliste pour la linguistique documentaire, l'un en Mboshi (République du Congo) et l'autre en Myene (Gabon), nous comparons diverses méthodes monolingues et bilingues de découverte de mots sans supervision. Nous montrons ensuite que l'utilisation de connaissances linguistiques expertes au sein du formalisme des Adaptor Grammars peut grandement améliorer les résultats de la segmentation, et nous indiquons également des façons d'utiliser ce formalisme comme outil de décision pour le linguiste. Nous proposons aussi une variante tonale pour un algorithme de segmentation bayésien non-paramétrique, qui utilise un schéma de repli modifié pour capturer la structure tonale. Pour tirer parti de la supervision faible d'une traduction, nous proposons et étendons, enfin, une méthode de segmentation neuronale basée sur l'attention, et améliorons significativement la performance d'une méthode bilingue existante. / Language diversity is under considerable pressure: half of the world’s languages could disappear by the end of this century. This realization has sparked many initiatives in documentary linguistics in the past two decades, and 2019 has been proclaimed the International Year of Indigenous Languages by the United Nations, to raise public awareness of the issue and foster initiatives for language documentation and preservation. Yet documentation and preservation are time-consuming processes, and the supply of field linguists is limited. Consequently, the emerging field of computational language documentation (CLD) seeks to assist linguists in providing them with automatic processing tools. The Breaking the Unwritten Language Barrier (BULB) project, for instance, constitutes one of the efforts defining this new field, bringing together linguists and computer scientists. This thesis examines the particular problem of discovering words in an unsegmented stream of characters, or phonemes, transcribed from speech in a very-low-resource setting. This primarily involves a segmentation procedure, which can also be paired with an alignment procedure when a translation is available. Using two realistic Bantu corpora for language documentation, one in Mboshi (Republic of the Congo) and the other in Myene (Gabon), we benchmark various monolingual and bilingual unsupervised word discovery methods. We then show that using expert knowledge in the Adaptor Grammar framework can vastly improve segmentation results, and we indicate ways to use this framework as a decision tool for the linguist. We also propose a tonal variant for a strong nonparametric Bayesian segmentation algorithm, making use of a modified backoff scheme designed to capture tonal structure. To leverage the weak supervision given by a translation, we finally propose and extend an attention-based neural segmentation method, improving significantly the segmentation performance of an existing bilingual method. Read more
|
37 |
Practical Cost-Conscious Active Learning for Data Annotation in Annotator-Initiated EnvironmentsHaertel, Robbie A. 12 August 2013 (has links) (PDF)
Many projects exist whose purpose is to augment raw data with annotations that increase the usefulness of the data. The number of these projects is rapidly growing and in the age of “big data” the amount of data to be annotated is likewise growing within each project. One common use of such data is in supervised machine learning, which requires labeled data to train a predictive model. Annotation is often a very expensive proposition, particularly for structured data. The purpose of this dissertation is to explore methods of reducing the cost of creating such data sets, including annotated text corpora.We focus on active learning to address the annotation problem. Active learning employs models trained using machine learning to identify instances in the data that are most informative and least costly. We introduce novel techniques for adapting vanilla active learning to situations wherein data instances are of varying benefit and cost, annotators request work “on-demand,” and there are multiple, fallible annotators of differing levels of accuracy and cost. In order to account for data instances of varying cost, we build a model of cost from real annotation data based on a user study. We also introduce a novel cost-conscious active learning algorithm which we call return-on-investment, that selects instances for annotation that contain the most benefit per unit cost. To address the issue of annotators that request instances “on-demand,” we develop a parallel, “no-wait” framework that performs computation while the annotator is annotating. As a result, annotators need not wait for the computer to determine the best instance for them to annotate—a common problem with existing approaches. Finally, we introduce a Bayesian model designed to simultaneously infer ground truth annotations from noisy annotations, infer each individual annotators accuracy, and predict its own accuracy on unseen data, without the use of a held-out set. We extend ROI-based active learning and our annotation framework to handle multiple annotators using this model. As a whole, our work shows that the techniques introduced in this dissertation reduce the cost of annotation in scenarios that are more true-to-life than previous research. Read more
|
38 |
Computational models of perceptual decision making using spatiotemporal dynamics of stochastic motion stimuliRafieifard, Pouyan 07 May 2024 (has links)
The study of neural and behavioural mechanisms of perceptual decision making is often done by experimental tasks involving the categorization of sensory stimuli. Among the key perceptual tasks that decision neuroscience researchers use are motion discrimination paradigms that include tracking and specifying the net direction of a single dot or a group of moving dots. These motion discrimination paradigms, such as the random-dot motion task, allow the measurement of the participant's perceptual decision making abilities in multiple task difficulty levels by varying the amount of noise in the sensory stimuli. Computational models of perceptual decision making, such as the drift-diffusion model, are widely used to analyze the behavioural measurements from these motion discrimination experiments. However, the standard drift-diffusion model can only analyze the average measures like reaction times or the proportion of correct decisions to explain the behavioural data. In the past decade, an emerging computational modeling approach was introduced to analyze the choice behaviour based on precise noise patterns in the sensory stimuli. These computational models that use spatiotemporal stimulus details have shown promise in the single-trial analysis of motion discrimination behaviour. In this thesis, I further develop the advanced computational models of perceptual decision making that use spatiotemporal dynamics of motion stimuli to provide detailed explanations of perceptual choice behaviour. First, I demonstrate the usefulness of equipping an extended Bayesian Model, equivalent to the extended drift-diffusion model, with trial-wise stimulus information leading to a significantly better explanation of behavioural data from a single-dot tracking experiment. Second, I show that the extended drift-diffusion model constrained by spatiotemporal stimulus details can explain the consistent biased choice behaviour in response to stochastic motion stimuli. Based on this model-based analysis, I provide evidence that the source of the observed biased choice behaviour is the presence of subtle motion information in the sensory stimuli. These results further emphasize the effectiveness of using spatiotemporal details of stochastic stimuli in detailed model-based analyses of the experimental data and provide computational interpretations of the data related to underlying mechanisms of perceptual decision making. Read more
|
39 |
以文件分類技術預測股價趨勢 / Predicting Trends of Stock Prices with Text Classification Techniques陳俊達, Chen, Jiun-da Unknown Date (has links)
股價的漲跌變化是由於證券市場中眾多不同投資人及其投資決策後所產生的結果。然而,影響股價變動的因素眾多且複雜,新聞也屬於其中一種,新聞事件不但是投資人用來得知該股票上市公司的相關營運資訊的主要媒介,同時也是影響投資人決定或變更其股票投資策略的主要因素之一。本研究提出以新聞文件做為股價漲跌預測系統的基礎架構,透過文字探勘技術及分類技術來建置出能預測當日個股收盤股價漲跌趨勢之系統。
本研究共提出三種分類模型,分別是簡易貝氏模型、k最近鄰居模型以及混合模型,並設計了三組實驗,分別是分類器效能的比較、新聞樣本資料深度的比較、以及新聞樣本資料廣度的比較來檢驗系統的預測效能。實驗結果顯示,本研究所提出的分類模型可以有效改善相關研究中整體正確率高但各個類別的預測效能卻差異甚大的情況。而對於影響投資人獲利與否的關鍵類別"漲"及類別"跌"的平均預測效能上,本研究所提出的這三種分類模型亦同時具有良好的成效,可以做為投資人進行投資決策時的有效參考依據。 / Stocks' closing price levels can provide hints about investors' aggregate demands and aggregate supplies in the stock trading markets. If the level of a stock's closing price is higher than its previous closing price, it indicates that the aggregate demand is stronger than the aggregate supply in this trading day. Otherwise, the aggregate demand is weaker than the aggregate supply. It would be profitable if we can predict the individual stock's closing price level. For example, in case that one stock's current price is lower than its previous closing price. We can do the proper strategies(buy or sell) to gain profit if we can predict the stock's closing price level correctly in advance.
In this thesis, we propose and evaluate three models for predicting individual stock's closing price in the Taiwan stock market. These models include a naïve Bayes model, a k-nearest neighbors model, and a hybrid model. Experimental results show the proposed methods perform better than the NewsCATS system for the "UP" and "DOWN" categories. Read more
|
40 |
Modelling software quality : a multidimensional approachVaucher, Stéphane 11 1900 (has links)
Les sociétés modernes dépendent de plus en plus sur les systèmes informatiques et ainsi, il y a de plus en plus de pression sur les équipes de développement pour produire des logiciels de bonne qualité. Plusieurs compagnies utilisent des modèles de qualité, des suites de programmes qui analysent et
évaluent la qualité d'autres programmes, mais la construction de modèles de qualité est difficile parce qu'il existe plusieurs questions qui n'ont pas été répondues dans la littérature. Nous avons étudié les pratiques de modélisation de la qualité auprès d'une grande entreprise et avons identifié les trois dimensions où une recherche additionnelle est désirable : Le support de la subjectivité de la qualité, les techniques pour faire le suivi de la qualité lors de l'évolution des logiciels, et la composition de la qualité entre différents niveaux d'abstraction.
Concernant la subjectivité, nous avons proposé l'utilisation de modèles bayésiens parce qu'ils sont capables de traiter des données ambiguës. Nous avons appliqué nos modèles au problème de la détection des défauts de conception. Dans une étude de deux logiciels libres, nous
avons trouvé que notre approche est supérieure aux techniques décrites dans l'état de l'art, qui sont basées sur des règles.
Pour supporter l'évolution des logiciels, nous avons considéré que les scores produits par un modèle de qualité sont des signaux qui peuvent être analysés en utilisant des techniques d'exploration de données pour identifier des patrons d'évolution de la qualité. Nous avons étudié comment les défauts de conception apparaissent et disparaissent des logiciels.
Un logiciel est typiquement conçu comme une hiérarchie de composants, mais les modèles de qualité ne tiennent pas compte de cette organisation. Dans la dernière partie de la dissertation, nous présentons un modèle de qualité à deux niveaux. Ces modèles ont trois parties: un modèle au niveau du composant, un modèle qui évalue l'importance de chacun des composants, et un autre qui évalue la qualité d'un composé en combinant la qualité de ses composants. L'approche a été testée sur la prédiction de classes à fort changement à partir de la qualité des méthodes. Nous avons trouvé que nos modèles à deux niveaux permettent une meilleure identification des classes à fort changement.
Pour terminer, nous avons appliqué nos modèles à deux niveaux pour l'évaluation de la navigabilité des sites web à partir de la qualité des pages. Nos modèles étaient capables de distinguer entre des sites de très bonne qualité et des sites choisis aléatoirement.
Au cours de la dissertation, nous présentons non seulement des problèmes théoriques et leurs solutions, mais nous avons également mené des expériences pour démontrer les avantages et les limitations de nos solutions. Nos résultats indiquent qu'on peut espérer améliorer l'état de l'art dans les trois dimensions présentées. En particulier, notre travail sur la composition de la qualité et la modélisation de l'importance est le premier à cibler ce problème. Nous croyons que nos modèles à deux niveaux sont un point de départ intéressant pour des travaux de recherche plus approfondis. / As society becomes ever more dependent on computer systems, there is more and more pressure on development teams to produce high-quality software. Many companies therefore rely on quality models, program suites that analyse and evaluate the quality of other programs, but building good quality models is hard as there are many questions concerning quality modelling that have yet to be adequately addressed in the literature. We analysed quality modelling practices in a large organisation and identified three dimensions where research is needed: proper support of the subjective notion of quality, techniques to track the quality of evolving software, and the composition of quality judgments from different abstraction levels.
To tackle subjectivity, we propose using Bayesian models as these can deal with uncertain data. We applied our models to the problem of anti-pattern detection. In a study of two open-source systems, we found that our approach was superior to state of the art rule-based techniques.
To support software evolution, we consider scores produced by quality models as signals and the use of signal data-mining techniques to identify patterns in the evolution of quality. We studied how anti-patterns are introduced and removed from systems.
Software is typically written using a hierarchy of components, yet quality models do not explicitly consider this hierarchy. As the last part of our dissertation, we present two level quality models. These are composed of three parts: a component-level model, a second model to evaluate the importance of each component, and a container-level model to combine the contribution of components with container attributes. This approach was tested on the prediction of class-level changes based on the quality and importance of its components: methods. It was shown to be more useful than single-level, traditional approaches.
To finish, we reapplied this two-level methodology to the problem of assessing web site navigability. Our models could successfully distinguish award-winning sites from average sites picked at random.
Throughout the dissertation, we present not only theoretical problems and solutions, but we performed experiments to illustrate the pros and cons of our solutions. Our results show that there are considerable improvements to be had in all three proposed dimensions. In particular, our work on quality composition and importance modelling is the first that focuses on this particular problem. We believe that our general two-level models are only a starting point for more in-depth research. Read more
|
Page generated in 0.0692 seconds