• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 17
  • 13
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 45
  • 45
  • 11
  • 9
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

On a continuous energy Monte Carlo simulator for neutron interactions in reactor core material considering up-scattering effects in the thermal energy region / Sobre um simulador Monte Carlo de energia contínua para interações neutrônicas no material do núcleo de reator considerando efeitos de up-scattering na região de energias térmicas

Barcellos, Luiz Felipe Fracasso Chaves January 2016 (has links)
Neste trabalho o transporte de nêutrons é simulado em materiais presentes no núcleo de reatores. O espectro de nêutrons é decomposto como uma soma de três distribuições de probabilidade. Duas das distribuições preservam sua forma com o tempo, mas não necessariamente sua integral. Uma das duas distribuições é devido ao espectro de fissão, isto é, altas energias de nêutrons, a outra é uma distribuição de Maxwell-Boltzmann para nêutrons de baixas energias (térmicos). A terceira distribuição tem uma forma a priori desconhecida e que pode variar com o tempo, sendo determinada a partir de uma simulação Monte Carlo com acompanhamento dos nêutrons e suas interações com dependência contínua de energia. Isto é obtido pela parametrização das seções de choque dos materiais do reator com funções contínuas, incluindo as regiões de ressonâncias resolvidas e não resolvidas. O objetivo deste trabalho é implementar efeitos de up-scattering através do tratamento estat ístico da população de nêutrons na distribuição térmica. O programa de simulação calcula apenas down-scattering, pois o cálculo do up-scattering microscópico aumenta signi_cativamente tempo de processamento computacional. Além de contornar esse problema, pode-se reconhecer que up-scattering é dominante na região de energia mais baixa do espectro, onde assume-se que as condições de equilíbrio térmico para nêutrons imersos em seu ambiente são válidas. A otimização pode, assim, ser atingida pela manutenção do espectro de Maxwell- Boltzmann, isto é, up-scattering é simulado por um tratamento estatístico da população de nêutrons. Esta simulação é realizada utilizando-se dependência energética contínua, e, como um primeiro caso a ser estudado assume-se um regime recorrente. As três distribuições calculadas são então utilizadas no código Monte Carlo para calcular os passos Monte Carlo subsequentes. / In this work the neutron transport is simulated in reactor core materials. The neutron spectrum is decomposed as a sum of three probability distributions. Two of the distributions preserve shape with time but not necessarily the integral. One of the two distributions is due to prompt ssion, i.e. high neutron energies and the second a Maxwell-Boltzmann distribution for low (thermal) neutron energies. The third distribution has an a priori unknown and possibly variable shape with time and is determined from a Monte Carlo simulation with tracking and interaction with continuous energy dependence. This is done by the parametrization of the material cross sections with continuous functions, including the resolved and unresolved resonances region. The objective of this work is to implement up-scattering e ects through the treatment of the neutron population in the thermal distribution. The simulation program only computes down-scattering, for the calculation of microscopic upscattering increases signi cantly computational processing time. In order to circumvent this problem, one may recognize that up-scattering is dominant towards the lower energy end of the spectrum, where we assume that thermal equilibrium conditions for neutrons immersed in their environment holds. The optimization may thus be achieved by the maintenance of the Maxwell-Boltzmann spectrum, i.e. up-scattering is simulated by a statistical treatment of the neutron population. This simulation is performed using continuous energy dependence, and as a rst case to be studied we assume a recurrent regime. The three calculated distributions are then used in the Monte Carlo code to compute the Monte Carlo steps with subsequent updates.
22

New trigonometric classes of probabilistic distributions

SOUZA, Luciano 13 November 2015 (has links)
Submitted by Mario BC (mario@bc.ufrpe.br) on 2016-08-01T12:46:49Z No. of bitstreams: 1 Luciano Souza.pdf: 1424173 bytes, checksum: 75d7ff2adb5077203e1371925327b71e (MD5) / Made available in DSpace on 2016-08-01T12:46:49Z (GMT). No. of bitstreams: 1 Luciano Souza.pdf: 1424173 bytes, checksum: 75d7ff2adb5077203e1371925327b71e (MD5) Previous issue date: 2015-11-13 / In this thesis, four new probabilistic distribution classes are presented and investigated: sine, cosine, tangent and secant. For each of which a new kind of distribution was created, which were used for modelling real life data.By having an exponential distribution to compare the biases, a numerical simulation was obtained, making it possible to verify that the bias tends to zero as the sample size is increased. In addition to that, some numerical results for checking maximum likelihood estimates, as well as the results for finite samples, were obtained, just as much as several class properties and their respective distributions were also obtained, along with the expansions, maximum likelihood estimates, Fisher information, the first four moments, average, variance, skewness, and kurtosis, the generating function of moments and Renyi’s entropy. It was evidenced that all distributions have shown good fit when applied to real life data, when in comparison to other models. In order to compare the models, the Akaike Information Criterion (AIC), the Corrected Akaike Information Criterion (CAIC), the Bayesian Information Criterion (BIC), the Hannan Quinn Information Criterion (HQIC) were used, along with two other main statistic sources: Cramer-Von Mises and Anderson-Darling. As a final step, the results of the analyses and the comparison of the results are brought up, as well as a few directions for future works. / Nesta tese apresentamos e investigamos quatro novas classes trigonométricas de distribuições probabilísticas. As classes seno, cosseno, tangente e secante. Para cada uma das novas classes foi criada uma nova distribuição. Estas quatro novas distribuições foram usadas na modelagem de dados reais. Obtivemos uma simulação numérica, usando como base a distribuição exponencial, para se comparar os vicios (bias) e verificamos que, a medida que aumentamos o tamanho da amostra, o bias tende a zero. Alguns resultados numéricos para ver estimativas de máxima verossimilhança e os resultados para amostras finitas foram obtidos. Várias propriedades das classes e as suas distribuições foram obtidos. Obtemos as expansões, as estimativas de máxima verossimilhança, informações de Fisher, os quatro primeiros momentos, média, variância, assimetria e curtose, a função geradora de momentos e a entropia Rényi. Mostramos que todas as distribuições têm proporcionado bons ajustes quando aplicadas a dados reais, em comparação com outros modelos. Na comparação dos modelos foram utilizados: o Akaike Information Criterion (AIC), o Akaike Information Criterion Corrigido (CAIC), a informação Bayesian Criterion (BIC), o critério de informação Hannan Quinn (HQIC) e duas das principais estatísticas também foram utilizadas: Cramer -von Mises e Anderson-Darling. Por fim, apresentamos os resultados da análise e comparação dos resultados, e orientações para trabalhos futuros.
23

Análise do comportamento da velocidade do vento na região Nordeste do Brasil utilizando dados da ERA-40

SANTANA, Lêda Valéria Ramos 17 February 2014 (has links)
Submitted by (ana.araujo@ufrpe.br) on 2016-08-01T19:24:52Z No. of bitstreams: 1 Leda Valeria Ramos Santana.pdf: 2437098 bytes, checksum: f1ab02f82d16ec8b95e0800f78ab7585 (MD5) / Made available in DSpace on 2016-08-01T19:26:38Z (GMT). No. of bitstreams: 1 Leda Valeria Ramos Santana.pdf: 2437098 bytes, checksum: f1ab02f82d16ec8b95e0800f78ab7585 (MD5) Previous issue date: 2014-02-17 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Wind speed distribution depends on relief of a certain region, in the case of Brazilian Northeast (NE) there are four subregions with different characteristics of relief: Atlantic Rainforest zone, Agreste, North-Eastern Backlands and Northeast Mid North. Among probability distributions that were proposed for wind data, Weibull, General-ized Gamma and Rayleigh distributions were found to be most appropriate to model wind speed variability in many locations. In this work we analyze ERA-40 data, during the period 1958-2001, to evaluate which probability distribution is most suitable to describe temporal variability of wind speed in NE. ERA-40 is a re-analysis of meteor-ological observations from September 1958 to August 2002 produced by the European Centre for Medium-Range Weather Forecasts (ECMWF) in collaboration with many institutions. The data were produced using different sources such as radiosondes, ocean buoys, satellites and meteorological stations, and have temporal resolution of 6h and spatial resolution of 2.5ox2.5º. The two parameter Weibull distribution is found to be the best for modeling frequency distribution of wind speed data for most of the NE. The coastal zone is characterized by strongest winds and smallest temporal variability. These results can be used to evaluate the wind energy potential at NE and the influence of wind on various environmental phenomena as soil erosion, rainfall, dune formation and dispersion of seeds and poluents. / A distribuição da velocidade do vento depende do relevo de uma determinada região, no caso do Nordeste brasileiro são quatro sub-regiões com características de relevo distintas: Meio Norte, Sertão, Agreste e Zona da Mata. Entre as distribuições de probabilidade que foram propostas para dados de vento, a distribuição Weibull, Gama Generalizada e a Rayleigh são consideradas as mais apropriadas para modelar a variabilidade da velocidade do vento em muitos locais. Neste trabalho foram analisados dados da ERA-40, durante o período 1958-2001, para verificar que distribuição de probabilidade é mais adequada para descrever a variabilidade temporal da velocidade do vento no NE. A ERA-40 é uma re-análise de observações meteoro-lógica de Setembro de 1958 a Agosto de 2002 produzida pelo European Centre for Medium-Range Weather Forecasts (ECMWF) em colaboração com muitas institui-ções. Os dados são produzidos usando diferentes fontes tais como radiossondas, boias oceânicas, satélites e estações meteorológicas. E tem resolução temporal é de 6 h e espacial de 2.5º x 2.5º. A distribuição Weibull de dois parâmetros é considera-da a melhor para modelar a distribuição de frequência dos dados da velocidade do vento para a maior parte do NE. A faixa litorânea é caracterizada por altas velocidades e baixa variabilidade temporal. Estes resultados podem ser usados para avaliar o potencial eólico do NE e, a influência do vento sobre vários fenômenos ambientais como erosão do solo, precipitação, formação de dunas, dispersão de sementes e poluentes.
24

Distribuição generalizadas de desvanecimento de curto prazo : medições de campo e validações / Generalized short term fading distributions : field measurements and validations

Barros Tercius, Hermano 12 May 2008 (has links)
Orientadores: Michel Daoud Yacoub, Jose Candido Silveira Santos Filho / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-12T20:13:16Z (GMT). No. of bitstreams: 1 BarrosTercius_Hermano_M.pdf: 3346341 bytes, checksum: 1398a699b8f875964e6bee207c3bf263 (MD5) Previous issue date: 2008 / Resumo: Esta dissertação provê uma comparação detalhada entre diversas distribuições de desvanecimento de curto prazo, que são trabalhadas de forma a propiciar seus melhores ajustes para dados obtidos a partir de medições de campo. Tais distribuições incluem aquelas já bem conhecidas na literatura - como Rayleigh, Rice, Nakagami, Hoyt e Weibull - bem como dois modelos propostos recentemente, especificamente k-µ e h-µ. Primeiramente, é apresentado um embasamento teórico sobre estas distribuições. Em seguida, são fornecidos todos os detalhes da construção e dos ajustes dos parâmetros do aparato de medições, bem como os procedimentos de coleta dos dados. Então, os diversos resultados das medições são analisados. As análises são baseadas em um vasto espaço amostral, englobando 300 ambientes investigados. Sob a óptica de uma de jornada de medição tão ampla, é possível recomendar o uso adequado destas distribuições recém-propostas, nomeadamente k-µ e h-µ. Pelos resultados obtidos, pode-se constatar que uma melhora significativa no processo de ajuste de curva é obtida com a utilização destas distribuições, as quais podem ser úteis para uma modelagem adequada do ambiente de propagação das comunicações sem fio / Abstract: This thesis provides a thorough comparison among the various short term fading distributions, which are handled so as to give their best fit over data obtained from field measurements. Such distributions include those already well known in the literature - namely Rayleigh, Rice, Nakagami, Hoyt e Weibull - as well as two recently proposed models, namely k-µ and h-µ. Firstly, some theoretical background concerning these distributions are given. Then, the details of the construction and required parameters adjustments of the measurement apparatus as well as the data collection procedures are shown. Then, the various results of the measurements are analysed. The analyses are based on an ample sample space, encompassing 300 surveying sites. In the view of such a vast measurement campaign, it may be possible to recommend the adequate use of those newly proposed distributions, namely k-µ e h-µ. From our results, it is possible to see that a significant improvement in the curve fitting process can be seen with the use of these distributions, which may be useful for the adequate modelling of the wireless communications propagation environement / Mestrado / Telecomunicações e Telemática / Mestre em Engenharia Elétrica
25

Statistical analysis software for the TRS-80 microcomputer

Isbell, Robert Paul 09 1900 (has links)
Approved for public release; distribution is unlimited. / This paper documents the development of a statistical analysis package for the TRS-80 microcoraputer. The package is comprised of six interactive programs which are generally divided into topical areas. The major emphasis is on exploratory data analysis and statistical inference, however, probability and inverse probability distributions are also included. The programming language is TRS-80 Level II BASIC enhanced by the input/output commands available through the ESF-80 (Exatron Stringy Floppy) mass storage subsystem. With the modification of these few commands, the package is compatible with most floppy disk operating systems designed for the TRS-80 Model I or Model III microcomputers. This statistical analysis capability implemented on a relatively inexpensive system provides a useful tool to the student or the trained analyst without ready access to a mainframe computer system. / Major, United States Marine Corps
26

On Steiner Symmetrizations of First Exit Time Distributions and Levy Processes

Timothy M Rolling (16642125) 25 July 2023 (has links)
<p>The goal of this thesis is to establish generalized isoperimetric inequalities on first exit time distributions as well as expectations of L\'evy processes.</p> <p>Firstly, we prove inequalities on first exit time distributions in the case that the L\'evy process is an $\alpha$-stable symmetric process $A_t$ on $\R^d$, $\alpha\in(0,2]$. Given $A_t$ and a bounded domain $D\subset\R^d$, we present a proof, based on the classical Brascamp-Lieb-Luttinger inequalities for multiple integrals, that the distribution of the first exit time of $A_t$ from $D$ increases under Steiner symmetrization. Further, it is shown that when a sequence of domains $\{D_m\}$ each contained in a ball $B\subset\R^d$ and satisfying the $\varepsilon$-cone property converges to a domain $D'$ with respect to the Hausdorff metric, the sequence of distributions of first exit times for Brownian motion from  $D_m$  converges to the distribution of the exit time of Brownian motion from $D'$. The second set of results in this thesis extends the theorems from \cite{BanMen} by proving generalized isoperimetric inequalities on expectations of L\'evy processes in the case of Steiner symmetrization.% using the Brascamp-Lieb-Luttinger inequalities used above. </p> <p>These results will then be used to establish inequalities involving distributions of first exit times of $\alpha$-stable symmetric processes $A_t$ from triangles and quadrilaterals. The primary application of these inequalities is verifying a conjecture from Ba\~nuelos for these planar domains. This extends a classical result of P\'olya and Szeg\"o to the fractional Laplacian with Dirichlet boundary conditions.</p>
27

Independência parcial no problema da satisfazibilidade probabilística / Partial Independence in the Probabilistic Satisfiability Problem

Morais, Eduardo Menezes de 20 April 2018 (has links)
O problema da Satisfazibilidade Probabilística, PSAT, apesar da sua flexibilidade, torna exponencialmente complexa a modelagem de variáveis estatisticamente independentes. Esta tese busca desenvolver algoritmos e propostas de relaxamento para permitir o tratamento eficiente de independência parcial pelo PSAT. Apresentamos uma aplicação do PSAT ao problema da etiquetagem morfossintática que serve tanto de motivação como de demonstração dos conceitos apresentados. / The Probabilistic Satisfiability Problem, PSAT, despite its flexibility, makes it exponentially complicated to model statistically independent variables. This thesis develops algorithms and relaxation proposals that allow an efficient treatment of partial independence with PSAT. We also present an application of PSAT on the Part-of-speech tagging problem to serve both as motivation and showcase of the presented concepts.
28

Modelo estocástico para estimação da produtividade de soja no Estado de São Paulo utilizando simulação normal bivariada / Sthocastic model to estimate the soybean productivity in the State of São Paulo through bivaried normal simulation

Martin, Thomas Newton 08 February 2007 (has links)
A disponibilidade de recursos, tanto de ordem financeira quanto de mão-de-obra, é escassa. Sendo assim, deve-se incentivar o planejamento regional que minimize a utilização de recursos. A previsão de safra por intermédio de técnicas de modelagem deve ser realizada anteriormente com base nas características regionais, indicando assim as diretrizes básicas da pesquisa, bem como o planejamento regional. Dessa forma, os objetivos deste trabalho são: (i) caracterizar as variáveis do clima por intermédio de diferentes distribuições de probabilidade; (ii) verificar a homogeneidade espacial e temporal para as variáveis do clima; (iii) utilizar a distribuição normal bivariada para simular parâmetros utilizados na estimação de produtividade da cultura de soja; e (iv) propor um modelo para estimar a ordem de magnitude da produtividade potencial (dependente da interação genótipo, temperatura, radiação fotossinteticamente ativa e fotoperíodo) e da produtividade deplecionada (dependente da podutividade potencial, da chuva e do armazenamento de água no solo) de grãos de soja, baseados nos valores diários de temperatura, insolação e chuva, para o estado de São Paulo. As variáveis utilizadas neste estudo foram: temperatura média, insolação, radiação solar fotossinteticamente ativa e precipitação pluvial, em escala diária, obtidas em 27 estações localizadas no Estado de São Paulo e seis estações localizadas em Estados vizinhos. Primeiramente, verificou-se a aderência das variáveis a cinco distribuições de probabilidade (normal, log-normal, exponencial, gama e weibull), por intermédio do teste de Kolmogorov-Smirnov. Verificou-se a homogeneidade espacial e temporal dos dados por intermédio da análise de agrupamento pelo método de Ward e estimou-se o tamanho de amostra (número de anos) para as variáveis. A geração de números aleatórios foi realizada por intermédio do método Monte Carlo. A simulação dos dados de radiação fotossinteticamente ativa e temperatura foram realizadas por intermédio de três casos (i) distribuição triangular assimétrica (ii) distribuição normal truncada a 1,96 desvio padrão da média e (iii) distribuição normal bivariada. Os dados simulados foram avaliados por intermédio do teste de homogeneidade de variância de Bartlett e do teste F, teste t, índice de concordância de Willmott, coeficiente angular da reta, o índice de desempenho de Camargo (C) e aderência à distribuição normal (univariada). O modelo utilizado para calcular a produtividade potencial da cultura de soja foi desenvolvido com base no modelo de De Wit, incluindo contribuições de Van Heenst, Driessen, Konijn, de Vries, dentre outros. O cálculo da produtividade deplecionada foi dependente da evapotranspiração potencial, da cultura e real e coeficiente de sensibilidade a deficiência hídrica. Os dados de precipitação pluvial foram amostrados por intermédio da distribuição normal. Sendo assim, a produção diária de carboidrato foi deplecionada em função do estresse hídrico e número de horas diárias de insolação. A interpolação dos dados, de modo a englobar todo o Estado de São Paulo, foi realizada por intermédio do método da Krigagem. Foi verificado que a maior parte das variáveis segue a distribuição normal de probabilidade. Além disso, as variáveis apresentam variabilidade espacial e temporal e o número de anos necessários (tamanho de amostra) para cada uma delas é bastante variável. A simulação utilizando a distribuição normal bivariada é a mais apropriada por representar melhor as variáveis do clima. E o modelo de estimação das produtividades potencial e deplecionada para a cultura de soja produz resultados coerentes com outros resultados obtidos na literatura. / The availability of resources, as much of financial order and human labor, is scarse. Therefore, it must stimulates the regional planning that minimizes the use of resources. Then, the forecast of harvests through modelling techniques must previously on the basis of be carried through the regional characteristics, thus indicating the routes of the research, as well as the regional planning. Then, the aims of this work are: (i) to characterize the climatic variables through different probability distributions; (ii) to verify the spatial and temporal homogeneity of the climatic variables; (iii) to verify the bivaried normal distribution to simulate parameters used to estimate soybean crop productivity; (iv) to propose a model of estimating the magnitud order of soybean crop potential productivity (it depends on the genotype, air temperature, photosynthetic active radiation; and photoperiod) and the depleted soybean crop productivity (it pedends on the potential productivity, rainfall and soil watter availability) based on daily values of temperature, insolation and rain, for the State of São Paulo. The variable used in this study had been the minimum, maximum and average air temperature, insolation, solar radiation, fotosynthetic active radiation and pluvial precipitation, in daily scale, gotten in 27 stations located in the State of São Paulo and six stations located in neighboring States. First, it was verified tack of seven variables in five probability distributions (normal, log-normal, exponential, gamma and weibull), through of Kolmogorov-Smirnov. The spatial and temporal verified through the analysis of grouping by Ward method and estimating the sample size (number of years) for the variable. The generation of random numbers was carried through the Monte Carlo Method. The simulation of the data of photosyntetic active radiation and temperature had been carried through three cases: (i) nonsymetric triangular distribution (ii) normal distribution truncated at 1.96 shunting line standard of the average and (iii) bivaried normal distribution. The simulated data had been evaluated through the test of homogeneity of variance of Bartlett and the F test, t test, agreement index of Willmott, angular coefficient of the straight line, the index of performance index of Camargo (C) and tack the normal distribution (univarieted). The proposed model to simulate the potential productivity of soybean crop was based on the de Wit concepts, including Van Heenst, Driessen, Konijn, Vries, and others researchers. The computation of the depleted productivity was dependent of the potential, crop and real evapotranspirations and the sensitivity hydric deficiency coefficient. The insolation and pluvial precipitation data had been showed through the normal distribution. Being thus, the daily production of carbohydrate was depleted as function of hydric stress and insolation. The interpolation of the data, in order to consider the whole State of Sao Paulo, was carried through the Kriging method. The results were gotten that most of the variable can follow the normal distribution. Moreover, the variable presents spatial and temporal variability and the number of necessary years (sample size) for each one of them is sufficiently changeable. The simulation using the bivaried normal distribution is most appropriate for better representation of climate variable. The model of estimating potential and depleted soybean crop productivities produces coherent values with the literature results.
29

Strukturelle Ansätze für die Stereorekonstruktion / Stuctural approaches for stereo-reconstruction

Shlezinger, Dmytro 15 August 2005 (has links) (PDF)
Die Dissertation beschäftigt sich mit Labeling Problemen. Dieses Forschungsgebiet bildet einen wichtigen Teil der strukturellen Mustererkennung, in der die Struktur des zu erkennenden Objektes explizit berücksichtigt wird. Die entwickelte Theorie wird auf die Aufgabe der Stereorekonstruktion angewendet. / The thesis studies the class of labeling problems. This theory contributes to the new stream in pattern recognition in which structure is explicitly taken into account. The developed theory is applied to practical problem of stereo reconstruction.
30

Mokslinės terminijos matematiniai modeliai ir jų taikymas leidinių klasifikavime / Mathematical models for scientific terminology and their applications in the classification of publications

Balys, Vaidas 11 November 2009 (has links)
Disertacijoje nagrinėjamas mokslo publikacijų automatinio klasifikavimo uždavinys. Šis uždavinys sprendžiamas taikant tikimybinius diskriminantinės analizės metodus. Pagrindinis darbo tikslas - sukurti konstruktyvius klasifikavimo metodus, kurie leistų atsižvelgti į mokslo publikacijų tekstų specifiką. Disertaciją sudaro įvadas, trys pagrindiniai skyriai, rezultatų apibendrinimas, naudotos literatūros ir autoriaus publikacijų disertacijos tema sąrašai ir vienas priedas. Įvadiniame skyriuje aptariama tiriamoji problema, darbo aktualumas, aprašomas tyrimų objektas, formuluojamas pagrindinis darbo tikslas bei uždaviniai, aprašoma tyrimų metodika, darbo mokslinis naujumas, pasiektų rezultatų praktinė reikšmė, ginamieji teiginiai. Įvado pabaigoje pristatomos disertacijos tema autoriaus paskelbtos publikacijos ir pranešimai konferencijose bei disertacijos struktūra. Pirmajame skyriuje matematiškai apibrėžtas ir detalizuotas sprendžiamas uždavinys, pateikta analitinė kitų autorių darbų apžvalga. Pasirinkti ir išanalizuoti keli populiarūs klasifikavimo algoritmai, kurie eksperimentinėje darbo dalyje lyginti su autoriaus pasiūlytaisiais. Antrajame skyriuje sudarytas mokslo terminijos pasiskirstymo tekstuose tikimybinis modelis, išskirti atskiri atvejai, galiojant įvestoms prielaidoms apie terminų tarpusavio sąryšių formas, pasiūlytos modelio identifikavimo procedūros bei suformuluoti konstruktyvūs mokslo publikacijų klasifikavimo algoritmai. Trečiajame skyriuje pateikti pagrindiniai... [toliau žr. visą tekstą] / The dissertation considers the problem of automatic classification of scientific publications. The problem is addressed by using probabilistic methods of the discriminant analysis. The main goal of the dissertation is to create constructive classification methods that would allow to take into consideration specificity of scientific publication text. The dissertation consists of Introduction, 3 chapters, Conclusions, References, list of author's publications, and one Appendix. The introduction reveals the investigated problem, importance of the thesis and the object of research and describes the purpose and tasks of the paper, research methodology, scientific novelty, the practical significance of results examined in the paper and defended statements. The introduction ends in presenting the author’s publications on the subject of the defended dissertation, offering the material of made presentations in conferences and defining the structure of the dissertation. Chapter 1 presents a detailed mathematical formulation of the considered problem, reviews scientific papers on the subject, and analyses a few popular classification algorithms that in Chapter 3 are compared to the ones proposed in this paper. Chapter 2 develops the probabilistic model for scientific terminology distribution over texts, discusses special cases of the model under specific assumptions on forms of terminology relations, suggests the model identification procedures, and formulates constructive scientific... [to full text]

Page generated in 0.1408 seconds