• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 60
  • 5
  • 3
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 68
  • 44
  • 26
  • 18
  • 16
  • 14
  • 13
  • 11
  • 8
  • 7
  • 7
  • 7
  • 7
  • 7
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Measuring inconsistency in probabilistic knowledge bases / Medindo inconsistência em bases de conhecimento probabilístico

Glauber De Bona 22 January 2016 (has links)
In terms of standard probabilistic reasoning, in order to perform inference from a knowledge base, it is normally necessary to guarantee the consistency of such base. When we come across an inconsistent set of probabilistic assessments, it interests us to know where the inconsistency is, how severe it is, and how to correct it. Inconsistency measures have recently been put forward as a tool to address these issues in the Artificial Intelligence community. This work investigates the problem of measuring inconsistency in probabilistic knowledge bases. Basic rationality postulates have driven the formulation of inconsistency measures within classical propositional logic. In the probabilistic case, the quantitative character of probabilities yielded an extra desirable property: that inconsistency measures should be continuous. To attend this requirement, inconsistency in probabilistic knowledge bases have been measured via distance minimisation. In this thesis, we prove that the continuity postulate is incompatible with basic desirable properties inherited from classical logic. Since minimal inconsistent sets are the basis for some desiderata, we look for more suitable ways of localising the inconsistency in probabilistic logic, while we analyse the underlying consolidation processes. The AGM theory of belief revision is extended to encompass consolidation via probabilities adjustment. The new forms of characterising the inconsistency we propose are employed to weaken some postulates, restoring the compatibility of the whole set of desirable properties. Investigations in Bayesian statistics and formal epistemology have been interested in measuring an agent\'s degree of incoherence. In these fields, probabilities are usually construed as an agent\'s degrees of belief, determining her gambling behaviour. Incoherent agents hold inconsistent degrees of beliefs, which expose them to disadvantageous bet transactions - also known as Dutch books. Statisticians and philosophers suggest measuring an agent\'s incoherence through the guaranteed loss she is vulnerable to. We prove that these incoherence measures via Dutch book are equivalent to inconsistency measures via distance minimisation from the AI community. / Em termos de raciocínio probabilístico clássico, para se realizar inferências de uma base de conhecimento, normalmente é necessário garantir a consistência de tal base. Quando nos deparamos com um conjunto de probabilidades que são inconsistentes entre si, interessa-nos saber onde está a inconsistência, quão grave esta é, e como corrigi-la. Medidas de inconsistência têm sido recentemente propostas como uma ferramenta para endereçar essas questões na comunidade de Inteligência Artificial. Este trabalho investiga o problema da medição de inconsistência em bases de conhecimento probabilístico. Postulados básicos de racionalidade têm guiado a formulação de medidas de inconsistência na lógica clássica proposicional. No caso probabilístico, o carácter quantitativo da probabilidade levou a uma propriedade desejável adicional: medidas de inconsistência devem ser contínuas. Para atender a essa exigência, a inconsistência em bases de conhecimento probabilístico tem sido medida através da minimização de distâncias. Nesta tese, demonstramos que o postulado da continuidade é incompatível com propriedades desejáveis herdadas da lógica clássica. Como algumas dessas propriedades são baseadas em conjuntos inconsistentes minimais, nós procuramos por maneiras mais adequadas de localizar a inconsistência em lógica probabilística, analisando os processos de consolidação subjacentes. A teoria AGM de revisão de crenças é estendida para englobar a consolidação pelo ajuste de probabilidades. As novas formas de caracterizar a inconsistência que propomos são empregadas para enfraquecer alguns postulados, restaurando a compatibilidade de todo o conjunto de propriedades desejáveis. Investigações em estatística Bayesiana e em epistemologia formal têm se interessado pela medição do grau de incoerência de um agente. Nesses campos, probabilidades são geralmente interpretadas como graus de crença de um agente, determinando seu comportamento em apostas. Agentes incoerentes possuem graus de crença inconsistentes, que o expõem a transações de apostas desvantajosas - conhecidas como Dutch books. Estatísticos e filósofos sugerem medir a incoerência de um agente através do prejuízo garantido a qual ele está vulnerável. Nós provamos que estas medidas de incoerência via Dutch books são equivalentes a medidas de inconsistência via minimização de distâncias da comunidade de IA.
32

Responsabilidade civil por dano ao meio ambiente: da probabilidade pela perda da chance à possibilidade pela aplicação da lógica fuzzy

Enzweiler, Romano José 09 December 2019 (has links)
La presente Tesis Doctoral se inserta en la línea de investigación Derecho Ambiental, Transnacionalidad y Sostenibilidad y arquitecta arreglos científico-legales para hacer frente a la incertidumbre en sociedades complejas. Su finalidad es ayudar en el cumplimiento adecuado del orden superior insertado en las Cartas Nacionales de Brasil y España. En ambos se determina la preservación del medio ambiente, valor fundamental. Con este fin, se propusieron dos lecturas sobre el tema ofrecidas por la responsabilidad civil: una preventiva y otra precaucional. El primero, tejido a partir del estudio de la teoría de la oportunidad perdida, analiza la aparición de un nuevo tipo de daño (la oportunidad desperdiciada en sí misma considerada) y una causalidad parcial o probabilística. El segundo promueve el cumplimiento del principio de precaución con la teoría de conjuntos fuzzy. De esto surgió una causalidad­ambiental-posibilística calificada por la lógica difusa, capaz de promover precauciones científicamente justificadas y, por lo tanto, sindicables. Finalmente, se promueve la resignificación del vínculo causal y se inserta la admisión de otro nivel de responsabilidad en los dominios del derecho de daños, ahora debido a la lógica fuzzy.
33

Answer set programming probabilístico / Probabilistic Answer Set Programming

Morais, Eduardo Menezes de 10 December 2012 (has links)
Este trabalho introduz uma técnica chamada Answer Set Programming Probabilístico (PASP), que permite a modelagem de teorias complexas e a verificação de sua consistência em relação a um conjunto de dados estatísticos. Propomos métodos de resolução baseados em uma redução para o problema da satisfazibilidade probabilística (PSAT) e um método de redução de Turing ao ASP. / This dissertation introduces a technique called Probabilistic Answer Set Programming (PASP), that allows modeling complex theories and check its consistence with respect to a set of statistical data. We propose a method of resolution based in the reduction to the probabilistic satisfiability problem (PSAT) and a Turing reduction method to ASP.
34

Answer set programming probabilístico / Probabilistic Answer Set Programming

Eduardo Menezes de Morais 10 December 2012 (has links)
Este trabalho introduz uma técnica chamada Answer Set Programming Probabilístico (PASP), que permite a modelagem de teorias complexas e a verificação de sua consistência em relação a um conjunto de dados estatísticos. Propomos métodos de resolução baseados em uma redução para o problema da satisfazibilidade probabilística (PSAT) e um método de redução de Turing ao ASP. / This dissertation introduces a technique called Probabilistic Answer Set Programming (PASP), that allows modeling complex theories and check its consistence with respect to a set of statistical data. We propose a method of resolution based in the reduction to the probabilistic satisfiability problem (PSAT) and a Turing reduction method to ASP.
35

APLICABILIDADE DE MEMÓRIA LÓGICA COMO FERRAMENTA COADJUVANTE NO DIAGNÓSTICO DAS DOENÇAS GENÉTICAS

Leite Filho, Hugo Pereira 25 August 2006 (has links)
Made available in DSpace on 2016-08-10T10:55:25Z (GMT). No. of bitstreams: 1 Hugo Pereira Leite Filho.pdf: 1747513 bytes, checksum: 1d5d4b0eff9478fb7f58eca6fa166bec (MD5) Previous issue date: 2006-08-25 / This study has involved the interaction among knowledge in very distinctive areas, or else: informatics, engineering e genetics, emphasizing the building of a taking decision backing system methodology. The aim of this study has been the development of a tool to help in the diagnosis of chromosomal aberrations, presenting like tutorial model the Turner Syndrome. So to do that there have been used classification techniques based in decision trees, probabilistic networks (Naïve Bayes, TAN e BAN) and neural MLP network (from English, Multi- Layer Perception) and training algorithm by error retro propagation. There has been chosen an algorithm and a tool able to propagate evidence and develop efficient inference techniques able to originate appropriate techniques to combine the expert knowledge with defined data in a databank. We have come to a conclusion about the best solution to work out the shown problem in this study that was the Naïve Bayes model, because this one presented the greatest accuracy. The decision - ID3, TAN e BAN tree models presented solutions to the indicated problem, but those were not as much satisfactory as the Naïve Bayes. However, the neural network did not promote a satisfactory solution. / O estudo envolveu a interação entre áreas de conhecimento bastante distintas, a saber: informática, engenharia e genética, com ênfase na metodologia da construção de um sistema de apoio à tomada de decisão. Este estudo tem como objetivo o desenvolvimento de uma ferramenta para o auxílio no diagnóstico de anomalias cromossômicas, apresentando como modelo tutorial a Síndrome de Turner. Para isso foram utilizadas técnicas de classificação baseadas em árvores de decisão, redes probabilísticas (Naïve Bayes, TAN e BAN) e rede neural MLP (do inglês, Multi- Layer Perceptron) com algoritmo de treinamento por retropropagação de erro. Foi escolhido um algoritmo e uma ferramenta capaz de propagar evidências e desenvolver as técnicas de inferência eficientes capazes de gerar técnicas apropriadas para combinar o conhecimento do especialista com dados definidos em uma base de dados. Chegamos a conclusão que a melhor solução para o domínio do problema apresentado neste estudo foi o modelo Naïve Bayes, pois este modelo apresentou maior acurácia. Os modelos árvore de decisão-ID3, TAN e BAN apresentaram soluções para o domínio do problema sugerido, mas as soluções não foram tão satisfatória quanto o Naïve Bayes. No entanto, a rede neural não promoveu solução satisfatória.
36

Estimativa do recurso contingente dos folhelhos oleígenos da Formação Tremembé, Bacia de Taubaté, na região de Tremembé-Pindamonhangaba, SP / Estimation of unconventional resource (oil shale) in Tremembé Formation, Taubaté basin, between Tremembé and Pindamonhangaba, SP

Leonardo Simões Pimentel 29 June 2012 (has links)
Esta dissertação tem como objetivo apresentar uma estimativa preliminar do volume de recurso contingente não-convencionais de folhelhos oleígenos (oil shale) na Formação Tremembé através de métodos probabilísticos aplicados à informações compiladas de bibliografias existentes sobre a bacia. Como base para esta estimativa utilizou-se informações obtidas através de sísmica 2D, poços existentes na área e perfis geoquímicos. Através da interpretação dos mesmos foram gerados os valores de inputs para os parâmetros utilizados no cálculo, como: espessura econômica, densidade do minério e valor de Ensaio Fisher (Litros de óleo por tonelada de rocha). Para a análise foi construída uma planilha Excel no qual já descrito cada parâmetro do cálculo. Foi utilizado o software @Risk, da Palisade Inc., que é capaz de atribuir distribuições estatísticas a parâmetros utilizados no cálculo obtendo, a partir do método Monte Carlo, distribuições dos possíveis resultados. A metodologia apresentada se demonstra mais adequada ao caso em estudo que o método determinístico, devido a restrição e ausência da precisão dos dados o que aumentaria as incertezas e as chances de erro no cálculo do volume, podendo impossibilitar uma avaliação, no caso do segundo. A metodologia probabilística ao mesmo tempo em que permite uma avaliação preliminar na ausência de dados precisos, ela gera cenários probabilísticos de resultados, possibilitando a antecipação da tomada de decisões em um projeto, permitindo sua continuação ou abandono. / This paper aims to present a preliminary estimate of the volume of unconventional resource (oil shale) in Tremembé Formation, with probabilistic methods applied to previous studies in the basin. The estimate was based on 2D seismic, well and geochemical profiles. The interpretation of these values were generated for the input parameters used in the calculation, such as economic thickness, density and value of the Fisher Assay (liters of oil per tonne of rock). The analysis was done in Excel with a description of each parameter used. The plug-in software @ Risk (Palisade Inc.) was used, enabling statistical distributions and the use of Monte Carlo simulation in the estimate. The methodology proved to be more appropriate to the case study than to the deterministic method, due to restriction and lack of accurate data which would increase the uncertainties and the chances of error in calculating the volume, allowing a preliminary assessment generating distributions probabilistic results, enabling the anticipation of the decision-making process.
37

Estimativa do recurso contingente dos folhelhos oleígenos da Formação Tremembé, Bacia de Taubaté, na região de Tremembé-Pindamonhangaba, SP / Estimation of unconventional resource (oil shale) in Tremembé Formation, Taubaté basin, between Tremembé and Pindamonhangaba, SP

Leonardo Simões Pimentel 29 June 2012 (has links)
Esta dissertação tem como objetivo apresentar uma estimativa preliminar do volume de recurso contingente não-convencionais de folhelhos oleígenos (oil shale) na Formação Tremembé através de métodos probabilísticos aplicados à informações compiladas de bibliografias existentes sobre a bacia. Como base para esta estimativa utilizou-se informações obtidas através de sísmica 2D, poços existentes na área e perfis geoquímicos. Através da interpretação dos mesmos foram gerados os valores de inputs para os parâmetros utilizados no cálculo, como: espessura econômica, densidade do minério e valor de Ensaio Fisher (Litros de óleo por tonelada de rocha). Para a análise foi construída uma planilha Excel no qual já descrito cada parâmetro do cálculo. Foi utilizado o software @Risk, da Palisade Inc., que é capaz de atribuir distribuições estatísticas a parâmetros utilizados no cálculo obtendo, a partir do método Monte Carlo, distribuições dos possíveis resultados. A metodologia apresentada se demonstra mais adequada ao caso em estudo que o método determinístico, devido a restrição e ausência da precisão dos dados o que aumentaria as incertezas e as chances de erro no cálculo do volume, podendo impossibilitar uma avaliação, no caso do segundo. A metodologia probabilística ao mesmo tempo em que permite uma avaliação preliminar na ausência de dados precisos, ela gera cenários probabilísticos de resultados, possibilitando a antecipação da tomada de decisões em um projeto, permitindo sua continuação ou abandono. / This paper aims to present a preliminary estimate of the volume of unconventional resource (oil shale) in Tremembé Formation, with probabilistic methods applied to previous studies in the basin. The estimate was based on 2D seismic, well and geochemical profiles. The interpretation of these values were generated for the input parameters used in the calculation, such as economic thickness, density and value of the Fisher Assay (liters of oil per tonne of rock). The analysis was done in Excel with a description of each parameter used. The plug-in software @ Risk (Palisade Inc.) was used, enabling statistical distributions and the use of Monte Carlo simulation in the estimate. The methodology proved to be more appropriate to the case study than to the deterministic method, due to restriction and lack of accurate data which would increase the uncertainties and the chances of error in calculating the volume, allowing a preliminary assessment generating distributions probabilistic results, enabling the anticipation of the decision-making process.
38

New trigonometric classes of probabilistic distributions

SOUZA, Luciano 13 November 2015 (has links)
Submitted by Mario BC (mario@bc.ufrpe.br) on 2016-08-01T12:46:49Z No. of bitstreams: 1 Luciano Souza.pdf: 1424173 bytes, checksum: 75d7ff2adb5077203e1371925327b71e (MD5) / Made available in DSpace on 2016-08-01T12:46:49Z (GMT). No. of bitstreams: 1 Luciano Souza.pdf: 1424173 bytes, checksum: 75d7ff2adb5077203e1371925327b71e (MD5) Previous issue date: 2015-11-13 / In this thesis, four new probabilistic distribution classes are presented and investigated: sine, cosine, tangent and secant. For each of which a new kind of distribution was created, which were used for modelling real life data.By having an exponential distribution to compare the biases, a numerical simulation was obtained, making it possible to verify that the bias tends to zero as the sample size is increased. In addition to that, some numerical results for checking maximum likelihood estimates, as well as the results for finite samples, were obtained, just as much as several class properties and their respective distributions were also obtained, along with the expansions, maximum likelihood estimates, Fisher information, the first four moments, average, variance, skewness, and kurtosis, the generating function of moments and Renyi’s entropy. It was evidenced that all distributions have shown good fit when applied to real life data, when in comparison to other models. In order to compare the models, the Akaike Information Criterion (AIC), the Corrected Akaike Information Criterion (CAIC), the Bayesian Information Criterion (BIC), the Hannan Quinn Information Criterion (HQIC) were used, along with two other main statistic sources: Cramer-Von Mises and Anderson-Darling. As a final step, the results of the analyses and the comparison of the results are brought up, as well as a few directions for future works. / Nesta tese apresentamos e investigamos quatro novas classes trigonométricas de distribuições probabilísticas. As classes seno, cosseno, tangente e secante. Para cada uma das novas classes foi criada uma nova distribuição. Estas quatro novas distribuições foram usadas na modelagem de dados reais. Obtivemos uma simulação numérica, usando como base a distribuição exponencial, para se comparar os vicios (bias) e verificamos que, a medida que aumentamos o tamanho da amostra, o bias tende a zero. Alguns resultados numéricos para ver estimativas de máxima verossimilhança e os resultados para amostras finitas foram obtidos. Várias propriedades das classes e as suas distribuições foram obtidos. Obtemos as expansões, as estimativas de máxima verossimilhança, informações de Fisher, os quatro primeiros momentos, média, variância, assimetria e curtose, a função geradora de momentos e a entropia Rényi. Mostramos que todas as distribuições têm proporcionado bons ajustes quando aplicadas a dados reais, em comparação com outros modelos. Na comparação dos modelos foram utilizados: o Akaike Information Criterion (AIC), o Akaike Information Criterion Corrigido (CAIC), a informação Bayesian Criterion (BIC), o critério de informação Hannan Quinn (HQIC) e duas das principais estatísticas também foram utilizadas: Cramer -von Mises e Anderson-Darling. Por fim, apresentamos os resultados da análise e comparação dos resultados, e orientações para trabalhos futuros.
39

Desenvolvimento de uma base de dados computacional para aplicação em Análise Probabilística de Segurança de reatores nucleares de pesquisa / Development of a computational database for application in Probabilistic Safety Analysis of nuclear research reactors

Vagner dos Santos Macedo 16 December 2016 (has links)
O objetivo deste trabalho é apresentar a base de dados que foi desenvolvida para armazenar dados técnicos e processar dados sobre operação, falha e manutenção de equipamentos dos reatores nucleares de pesquisa localizados no Instituto de Pesquisas Energéticas e Nucleares (IPEN), em São Paulo - SP. Os dados extraídos desta base poderão ser aplicados na Análise Probabilística de Segurança dos reatores de pesquisa ou em avaliações quantitativas menos complexas relacionadas à segurança, confiabilidade, disponibilidade e manutenibilidade destas instalações. Esta base de dados foi desenvolvida de modo a permitir que as informações nela contidas estejam disponíveis aos usuários da rede corporativa, que é a intranet do IPEN. Os profissionais interessados deverão ser devidamente cadastrados pelo administrador do sistema, para que possam efetuar a consulta e/ou o manuseio dos dados. O modelo lógico e físico da base de dados foi representado por um diagrama de entidades e relacionamento e está de acordo com os módulos de segurança instalados na intranet do IPEN. O sistema de gerenciamento da base de dados foi desenvolvido com o MySQL, o qual utiliza a linguagem SQL como interface. A linguagem de programação PHP foi usada para permitir o manuseio da base de dados pelo usuário. Ao final deste trabalho, foi gerado um sistema de gerenciamento de base de dados capaz de fornecer as informações de modo otimizado e com bom desempenho. / The objective of this work is to present the computational database that was developed to store technical information and process data on component operation, failure and maintenance for the nuclear research reactors located at the Nuclear and Energy Research Institute (Instituto de Pesquisas Energéticas e Nucleares, IPEN), in São Paulo, Brazil. Data extracted from this database may be applied in the Probabilistic Safety Analysis of these research reactors or in less complex quantitative assessments related to safety, reliability, availability and maintainability of these facilities. This database may be accessed by users of the corporate network, named IPEN intranet. Professionals who require the access to the database must be duly registered by the system administrator, so that they will be able to consult and handle the information. The logical model adopted to represent the database structure is an entity-relationship model, which is in accordance with the protocols installed in IPEN intranet. The open-source relational database management system called MySQL, which is based on the Structured Query Language (SQL), was used in the development of this work. The PHP programming language was adopted to allow users to handle the database. Finally, the main result of this work was the creation a web application for the component reliability database named PSADB, specifically developed for the research reactors of IPEN; furthermore, the database management system provides relevant information efficiently.
40

Desenvolvimento de uma base de dados computacional para aplicação em Análise Probabilística de Segurança de reatores nucleares de pesquisa / Development of a computational database for application in Probabilistic Safety Analysis of nuclear research reactors

Macedo, Vagner dos Santos 16 December 2016 (has links)
O objetivo deste trabalho é apresentar a base de dados que foi desenvolvida para armazenar dados técnicos e processar dados sobre operação, falha e manutenção de equipamentos dos reatores nucleares de pesquisa localizados no Instituto de Pesquisas Energéticas e Nucleares (IPEN), em São Paulo - SP. Os dados extraídos desta base poderão ser aplicados na Análise Probabilística de Segurança dos reatores de pesquisa ou em avaliações quantitativas menos complexas relacionadas à segurança, confiabilidade, disponibilidade e manutenibilidade destas instalações. Esta base de dados foi desenvolvida de modo a permitir que as informações nela contidas estejam disponíveis aos usuários da rede corporativa, que é a intranet do IPEN. Os profissionais interessados deverão ser devidamente cadastrados pelo administrador do sistema, para que possam efetuar a consulta e/ou o manuseio dos dados. O modelo lógico e físico da base de dados foi representado por um diagrama de entidades e relacionamento e está de acordo com os módulos de segurança instalados na intranet do IPEN. O sistema de gerenciamento da base de dados foi desenvolvido com o MySQL, o qual utiliza a linguagem SQL como interface. A linguagem de programação PHP foi usada para permitir o manuseio da base de dados pelo usuário. Ao final deste trabalho, foi gerado um sistema de gerenciamento de base de dados capaz de fornecer as informações de modo otimizado e com bom desempenho. / The objective of this work is to present the computational database that was developed to store technical information and process data on component operation, failure and maintenance for the nuclear research reactors located at the Nuclear and Energy Research Institute (Instituto de Pesquisas Energéticas e Nucleares, IPEN), in São Paulo, Brazil. Data extracted from this database may be applied in the Probabilistic Safety Analysis of these research reactors or in less complex quantitative assessments related to safety, reliability, availability and maintainability of these facilities. This database may be accessed by users of the corporate network, named IPEN intranet. Professionals who require the access to the database must be duly registered by the system administrator, so that they will be able to consult and handle the information. The logical model adopted to represent the database structure is an entity-relationship model, which is in accordance with the protocols installed in IPEN intranet. The open-source relational database management system called MySQL, which is based on the Structured Query Language (SQL), was used in the development of this work. The PHP programming language was adopted to allow users to handle the database. Finally, the main result of this work was the creation a web application for the component reliability database named PSADB, specifically developed for the research reactors of IPEN; furthermore, the database management system provides relevant information efficiently.

Page generated in 0.0621 seconds