• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 60
  • 5
  • 3
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 68
  • 44
  • 26
  • 18
  • 16
  • 14
  • 13
  • 11
  • 8
  • 7
  • 7
  • 7
  • 7
  • 7
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Escolhas aleatórias com categorias

Souza, Marcelo Cruz de 07 December 2015 (has links)
Dissertação (mestrado)—Universidade de Brasília, Departamento de Economia, Programa de Pós-Graduação em Economia, 2015. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2016-01-29T12:55:15Z No. of bitstreams: 1 2015_MarceloCruzSouza.pdf: 852640 bytes, checksum: 1eb027fa9f8c7aac2ddeb070ec9b84d7 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2016-01-29T19:06:50Z (GMT) No. of bitstreams: 1 2015_MarceloCruzSouza.pdf: 852640 bytes, checksum: 1eb027fa9f8c7aac2ddeb070ec9b84d7 (MD5) / Made available in DSpace on 2016-01-29T19:06:50Z (GMT). No. of bitstreams: 1 2015_MarceloCruzSouza.pdf: 852640 bytes, checksum: 1eb027fa9f8c7aac2ddeb070ec9b84d7 (MD5) / Caracterizamos um modelo de escolhas aleatórias em que o tomador de decisão classifica seu universo de opções em categorias e tem preferências completas e transitivas dentro de cada categoria. Em face de um problema de escolha, uma categoria é sorteada segundo uma função de probabildade, e ele maximiza sua preferência dentro da categoria considerada. O comportamento aleatório resulta do sorteio da cateogira a ser considerada. Este modelo estende a ideia central de Furtado et al (2015), focado em escolhas determinísticas, ao paradigma das escolhas aleatórias desenvolvido de forma pioneira por Luce (1959). É um caso particular do modelo geral de Maximização Randômica de Utilidade criado por Block e Marschak (1959) e Marshak (1960) e caracterizado por Falmagne (1978) e Barberá e Pattanaik (1986), e mais geral que o modelo de Manzini e Mariotti (2014). / We characterize a model of random choices in which the decision maker classifies her universe in categories and has complete and transitive preferences in each category. When faced with a decision problem, she sorts one category according to a probability function, and maximizes her preference in the sorted category. The random behavior results from the sorting of the category to be considered. This model extends the central idea of Furtado et al (2015), which is focused in deterministic, to the paradigm of the random choices pioneered by Luce (1959). It is a special case of the general model of Random Utility Maximization introduced into Economics by Block and Marschak (1959) and Marshack (1960) and characterized by Falmagne (1978) and Barberá and Pattanaik (1986), and is more general than Manzini and Mariotti (2014).
2

Caminho mínimo com restrição probabilística de atraso máximo / Probabilistic Delay Constrained Shortest Path

Araruna, Arthur Rodrigues January 2013 (has links)
ARARUNA, A. R. Caminho mínimo com restrição probabilística de atraso máximo. 2013. 88f. Dissertação (Mestrado em Ciência da Computação) - Departamento de Computação, Universidade Federal do Ceará, Fortaleza, 2013. / Submitted by Aline Mendes (alinemendes.ufc@gmail.com) on 2015-09-18T13:05:49Z No. of bitstreams: 1 2013_dis_arararuna.pdf: 2056638 bytes, checksum: f70ff44a38a60bdeaddc2fbf6e8fd0cf (MD5) / Approved for entry into archive by Aline Mendes(alinemendes.ufc@gmail.com) on 2015-09-18T13:06:28Z (GMT) No. of bitstreams: 1 2013_dis_arararuna.pdf: 2056638 bytes, checksum: f70ff44a38a60bdeaddc2fbf6e8fd0cf (MD5) / Made available in DSpace on 2015-09-18T13:06:28Z (GMT). No. of bitstreams: 1 2013_dis_arararuna.pdf: 2056638 bytes, checksum: f70ff44a38a60bdeaddc2fbf6e8fd0cf (MD5) Previous issue date: 2013 / In the Probabilistic Delay Constrained Shortest Path problem we aim to consider the time factor in the design of cargo routing paths in road networks at minimum cost, considering the increasing uncertainty in travel times of these routes in real networks, and keeping in mind strategies of quality of service, in order to obtain a compromise between the travel costs and the compliance of the arrival time at the destination. We conducted a study of related problems in the literature of transport networks optimization, in order to better understand the problem to be addressed, about which we are not aware of existing works. We developed a scheme for enumerating partitions of the solution space of this problem, which uses an L decomposition to select these partitions wisely, and is aided by solutions to relaxations of the problem to obtain bounds for the optimal cost. In addition, we developed some branching and pruning strategies for a Branch-and-Bound scheme, with a pre-processing phase, in order to try and solve the problem directly. The computational results show that we are competitive with the commercial tool used for comparison in the smaller instances. For the remaining instances, this tool is more efficient in the time required for solving the problem. / No problema do Caminho Mínimo com Restrição Probabilística de Atraso Máximo visamos considerar o fator tempo no projeto de rotas de transporte de cargas em malhas viárias a custo mínimo, atentando à crescente incerteza nos tempos de percurso dessas rotas em malhas reais, e observá-lo tendo em mente estratégias de qualidade de serviço, de forma a obtermos um compromisso entre o custo de percurso e a conformidade ao prazo de chegada ao destino. Realizamos um estudo de problemas relacionados na literatura da área de otimização em redes de transporte, de forma a tentarmos conhecer melhor o problema a ser estudado, sobre o qual não tomamos conhecimento de trabalhos existentes. Desenvolvemos um esquema para enumeração de partições do espaço de soluções do problema, que utiliza uma decomposição em L para selecionar partições de forma inteligente, e que é auxiliado por soluções de relaxações do problema de forma a obter cotas para o custo ótimo. Além disso, desenvolvemos algumas estratégias de ramificação e de poda para um esquema de Branch-and-Bound, com uma fase de pré-processamento, de forma a tentar resolver o problema diretamente. Os resultados computacionais obtidos demonstram que somos competitivos com a ferramenta comercial utilizada para comparação em instâncias de menor porte para o problema. Para as demais instâncias, essa ferramenta se mostrou mais eficiente quanto ao tempo necessário para a resolução.
3

Estudo de confiabilidade em reatores de pesquisa

ALBUQUERQUE, Tob Rodrigues de 02 1900 (has links)
Submitted by Almir Azevedo (barbio1313@gmail.com) on 2013-12-04T13:00:34Z No. of bitstreams: 1 dissertacao_mestrado_ien_2013_03.pdf: 2322842 bytes, checksum: f4ffcbcdb4825e97efaa0bba9f77f924 (MD5) / Made available in DSpace on 2013-12-04T13:00:34Z (GMT). No. of bitstreams: 1 dissertacao_mestrado_ien_2013_03.pdf: 2322842 bytes, checksum: f4ffcbcdb4825e97efaa0bba9f77f924 (MD5) Previous issue date: 2013 / Árvores de falhas e árvores de eventos são amplamente utilizadas nas indústrias para modelar e calcular a confiabilidade dos sistemas de segurança. Análises detalhadas nas instalações nucleares requerem a combinação dessas duas técnicas. O presente trabalho utiliza as metodologias de AF (Árvore de Falhas) e AE (Árvore de Eventos) para fazer um estudo sobre APS (Avaliação Probabilística de Segurança) em reatores de pesquisa. A APS segundo a AIEA (Agência Internacional de Energia Atômica) é dividida em Nível 1, Nível 2, e Nível 3. No Nível 1, conceitualmente os sistemas de segurança atuam para evitar a ocorrência de acidentes, no Nível 2, ocorrido o acidente, procura-se minimizar as consequências deste, sendo conhecido como fase de gerenciamento do acidente, e no Nível 3 são mensurados os impactos e desdobramentos do acidente. Esta dissertação concentra os estudos no Nível 1, e busca através da aquisição do conhecimento a consolidação das metodologias para futuros estudos de confiabilidade. O reator de pesquisa grego, GRR-1, foi utilizado como caso exemplo. O LOCA (Loss of Coolant Accident) foi escolhido como evento iniciador e a partir daí foram desenvolvidos os possíveis desdobramentos do acidente (sequência de eventos), utilizando AE, que poderiam causar danos ao núcleo. Além disso, para cada um dos sistemas afetados ou envolvidos no acidente, foram construídas AF e calculadas as probabilidades de cada evento topo das AF. Estimativas das medidas de importância dos eventos básicos estão presentes. Os estudos desta pesquisa foram conduzidos utilizando a ferramenta computacional comercial SAPHIRE. Os resultados assim obtidos, para atuação ou a falha dos sistemas analisados, foram considerados satisfatórios. / Fault trees and event trees are widely used in industry to model and to evaluate the reliability of safety systems. Detailed analyzes in nuclear installations require the combination of these two techniques. This study uses the methods of FT (Fault Tree) and ET (Event Tree) to accomplish the PSA (Probabilistic Safety Assessment) in research reactors. According to IAEA (International Atomic Energy Agency), the PSA is divided into Level 1, Level 2 and Level 3. At the Level 1, conceptually, the security systems perform to prevent the occurrence of accidents, At the Level 2, once accidents happened, this Level seeks to minimize consequences, known as stage management of accident, and at Level 3 accident impacts are determined. This study focuses on analyzing the Level 1, and searching through the acquisition of knowledge, the consolidation of methodologies for future reliability studies. The Greek Research Reactor, GRR-1, is a case example. The LOCA (Loss of Coolant Accident) was chosen as the initiating event and from it, using ET, possible accidental sequences were developed, which could lead damage to the core. Moreover, for each of affected systems, probabilities of each event top of FT were developed and evaluated in possible accidental sequences. Also, the estimates of importance measures for basic events are presented in this work. The studies of this research were conducted using a commercial computational tool SAPHIRE. Additionally, achieved results thus were considered satisfactory for the performance or the failure of analyzed systems. . Keywords:
4

Herramientas prácticas para argumentación estructurada probabilística con aplicación a ciberseguridad

Leiva, Mario Alejandro 27 June 2022 (has links)
El principal objetivo de estudio de esta tesis son los mecanismos eficaces y eficientes para computar respuestas en formalismos de argumentación estructurada probabilística, en particular, en el modelo DeLP3E. Dicho formalismo nos permite modelar y razonar sobre información inconsistente, incompleta, y asociada a eventos probabilísticos. En particular, el objetivo es estudiar y proponer mecanismos que nos permitan aproximar las respuestas por medio de algoritmos que se basen en toda la información disponible de cada componente del modelo. Nos enfocamos en investigar este aspecto dado que, dar una respuesta exacta a una consulta en DeLP3E no es aplicable en un tiempo razonable para instancias grandes. La principal contribución de esta tesis es la definición y estudio de algoritmos, junto con una guía para seleccionar cuál de ellos aplicar, que nos permitan aproximar el valor de una respuesta en base a toda la información disponible en el modelo DeLP3E. A su vez, y con la finalidad de poder evaluar el desempeño no de los algoritmos propuestos, otra importante contribución de esta tesis son tres generadores para crear modelos DeLP3E. Cada uno de estos generadores nos permite crear diferentes escenarios de complejidad de manera automática, y teniendo como principal característica que los valores de sus métricas son ajustables en base al valor de los parámetros de entrada que guían el proceso de generación. A su vez, y para mostrar un caso de uso de lo desarrollado en esta tesis, se presenta P-DAQAP, una plataforma web que facilita el análisis de los proceso llevados a cabo en el modelo DeLP3E y en la Programación Lógica Rebatible (DeLP, en inglés). Se mostró, a través de casos de uso y ejemplos prácticos, que una herramienta de este tipo puede ser de gran utilidad para usuarios que requieran analizar dominios complejos y que tengan eventos probabilísticos asociados. Además de esa utilidad en entornos reales, también puede ser usada con fines educativos, ya que ofrece un conjunto de herramientas gráficas para facilitar la lectura y entendimiento de los procesos argumentales llevados a cabo en el formalismo DeLP. P-DAQAP es una herramienta pública que consideramos de gran utilidad para la comunidad de argumentación estructurada. / The main objective of this thesis is the study of the effective and efficient mechanisms to compute answers in formalisms of probabilistic structured argumentation, in particular, in the DeLP3E model. This formalism allows us to model and reason on inconsistent and incomplete information, as well information associated with probabilistic events. In particular, the objective is to study and propose mechanisms that allow us to approximate the answers by algorithms that are based on all the available information of each component of the model. We focused on investigating this aspect since giving an exact answer to a query in DeLP3E is not applicable in a reasonable time for large instances. The main contribution of this thesis is the definition and study of algorithms, and a guide to select which of them to apply, which allow us to approximate the value of a response based on all the information available in the model DeLP3E. Also, and in order to be able to evaluate the performance of the proposed algorithms, another important contribution of this thesis is three generators to create DeLP3E models. Each of these generators allows us to create different complexity scenarios automatically, and having as main characteristic that the values of their metrics are adjustable based on the value ofthe input parameters that guide the generation process. Also, and to show a use case of what has been developed in this thesis, P-DAQAP is presented, a web platform that facilitates the analysis of the processes carried out in the DeLP3E model and in Defeasible Logic Programming (DeLP). It was shown, through use cases and practical examples, that a tool of this type can be very useful for users who need to analyze complex domains and have associated probabilistic events. In addition to this utility in real environments, it can also be used for educational purposes, since it offers a set of graphic tools to facilitate the reading and understanding of the argumentative processes carried out in the DeLP formalism. P-DAQAP is a public tool that we consider very useful for the structured argumentation community.
5

Abdução clássica e abdução probabilística: a busca pela explicação de dados reais / Classic and probabilistic abduction: the search for the explanation of real data

Arruda, Alexandre Matos 16 April 2014 (has links)
A busca por explicações de fatos ou fenômenos é algo que sempre permeou o raciocínio humano. Desde a antiguidade, o ser humano costuma observar fatos e, de acordo com eles e o conhecimento presente, criar hipóteses que possam explicá-los. Um exemplo clássico é quando temos consulta médica e o médico, após verificar todos os sintomas, descobre qual é a doença e os meios de tratá-la. Essa construção de explicações, dado um conjunto de evidências que o indiquem, chamamos de \\textit{abdução}. A abdução tradicional para a lógica clássica estabelece que o dado meta não é derivado da base de conhecimento, ou seja, dada uma base de conhecimento $\\Gamma$ e um dado meta $A$ temos $\\Gamma ot \\vdash A$. Métodos clássicos de abdução buscam gerar um novo dado $H$ que, juntamente com uma base de conhecimento $\\Gamma$, possamos inferir $A$ ($\\Gamma \\cup H \\vdash A$). Alguns métodos tradicionais utilizam o tableaux (como em \\cite) para a geração da fórmula $H$. Aqui, além de lidarmos com a abdução baseada em corte, através do KE-tableaux, que não necessita assumir que o dado meta não seja derivado da base de conhecimento, lidaremos também com a lógica probabilística, redescoberta por Nilsson, em \\cite, onde temos a atribuição de probabilidades a fórmulas. Dizemos que uma instância em lógica probabilística é consistente se existe uma distribuição probabilística consistente sobre as valorações. Determinar essa distribuição probabilística é que o chamamos de problema PSAT. O objetivo de nosso trabalho é definir e estabelecer o que é uma abdução em Lógica Probabilística (abdução em PSAT) e, além disso, fornecer métodos de abdução para PSAT: dada uma instância PSAT $\\left\\langle \\Gamma, \\Psi ightangle$ na forma normal atômica \\cite e uma fórmula $A$ tal que existe uma distribuição probabi bylística $\\pi$ que satisfaz $\\left\\langle \\Gamma, \\Psi ightangle$ e $\\pi(A) = 0$, cada método é capaz de gerar uma fórmula $H$ tal que $\\left\\langle \\Gamma \\cup H , \\Psi ightangle \\!\\!|\\!\\!\\!\\approx A$ onde $\\pi(A) > 0$ para toda distribuição $\\pi$ que satisfaça $\\left\\langle \\Gamma \\cup H , \\Psi ightangle$. Iremos também demonstrar que alguns dos métodos apresentados são corretos e completos na geração de fórmulas $H$ que satisfaçam as condições de abdução. / The search for explanations of facts or phenomena is something that has always permeated human reasoning. Since antiquity, the human being usually observes facts and, according to them and his knowledge, create hypotheses that can explain them. A classic example is when we have medical consultation and the doctor, after checking all the symptoms, discovers what is the disease and the ways to treat it. This construction of explanations, given a set of evidence, we call \\textit. In traditional abduction methods it is assumed that the goal data has not yet been explained, that is, given a background knowledge base $\\Gamma$ and a goal data $A$ we have $\\Gamma ot \\vdash A$. Classical methods want to generate a new datum $H$ in such way that with the background knowledge base $\\Gamma$, we can infer $A$ ($\\Gamma \\cup H \\vdash A$). Some traditional methods use the analytical tableaux (see \\cite) for the generation of $H$. Here we deal with a cut-based abduction, with the KE-tableaux, which do not need to assume that the goal data is not derived from the knowledge base, and, moreover, with probabilistic logic (PSAT), rediscovered in \\cite, where we have probabilistic assignments to logical formulas. A PSAT instance is consistent if there is a probabilistic distribution over the assignments. The aim of our work is to define and establish what is an abduction in Probabilistic Logic (abduction for PSAT) and, moreover, provide methods for PSAT abduction: given a PSAT instance $\\left\\langle \\Gamma, \\Psi ightangle$ in atomic normal form \\cite and a formula $A$ such that there is a probabilistic distribution $\\pi$ that satisfies $\\left\\langle \\Gamma, \\Psi ightangle$ and $\\pi(A)=0$, each method is able to generate a formula $H$ such that $\\left\\langle \\Gamma \\cup H , \\Psi ightangle \\!\\!|\\!\\!\\!\\approx A$ where $\\pi(A) > 0$ for all distribution $\\pi$ that satisfies $\\left\\langle \\Gamma \\cup H , \\Psi ightangle$. We demonstrated that some of the our methods, shown in this work, are correct and complete for the generation of $H$.
6

Estimativa da frequência de danos ao núcleo devido a perda de refrigerante primário e bloqueio de canal de refrigeração do Reator de Pesquisas IEA-R1 do IPEN -CNEN/SP -APS nível1 / ESTIMATIVE OF CORE DAMAGE FREQUENCY IN IPEN`S IEA-R1 RESEARCH REACTOR (PSA LEVEL 1) DUE TO THE INITIATING EVENT OF LOSS OF COOLANT CAUSED BY LARGE RUPTURE IN THE PIPE OF THE PRIMARY CIRCUIT

Hirata, Daniel Massami 18 November 2009 (has links)
Neste trabalho é aplicada a metodologia da Análise Probabilística de Segurança nível 1 ao reator IEA-R1. Inicialmente são descritos os eventos iniciadores de acidentes identificados no reator para duas categorias: perda de vazão e perda de refrigerante primário. Dentre eles foram escolhidos dois eventos iniciadores para análise mais detalhada do acidente e obtenção da estimativa da freqüência de danos ao núcleo devido a sua ocorrência. Foram selecionados os seguintes eventos iniciadores: bloqueio de canal de refrigeração (maior probabilidade) e perda de refrigerante por grande ruptura da tubulação do circuito primário (maiores consequências). Para modelar a evolução do acidente a partir da ocorrência do evento iniciador e da atuação ou não dos sistemas de segurança utilizou-se Árvore de Eventos. Através de Árvore de Falhas, também foi avaliada a confiabilidade dos seguintes sistemas: sistema de desligamento do reator, isolamento da piscina, sistema de resfriamento de emergência (SRE) e sistema elétrico. Como resultados foram obtidas as estimativas das frequências de danos ao núcleo do reator e as probabilidades de falha dos sistemas analisados. As freqüências de danos ao núcleo mostraram-se dentro das margens esperadas, sendo da mesma ordem de grandeza que os encontrados para reatores similares. As confiabilidades dos sistemas de desligamento do reator, de isolamento da piscina e do SRE foram satisfatórias para as condições em que estes sistemas foram exigidos. Todavia, para o sistema elétrico seria recomendável uma análise para verificar a possibilidade de modernização a fim de aumentar a sua confiabilidade. / This work applies the methodology of Probabilistic Safety Assessment Level 1 to the research reactor IEA-R1 IPEN-CNEN/SP. Two categories of identified initiating events of accidents in the reactor are studied: loss of flow and loss of primary coolant. Among the initiating events, blockage of flow channel and loss of cooling fluid by major pipe rupture in the primary circuit are chosen for a detailed analysis. The event tree technique is used to analyze the evolution of the accident, including the actuation or the fail of actuation of the safety systems and the reactor damages. Using the fault tree the reliability of the following reactor safety systems is evaluated: reactor shutdown system, isolation of the reactor pool, Emergency Core Cooling System (ECCS) and the electric system. Estimative for the frequency of damage to the reactor core and the probability of failure of the analyzed systems are calculated. The estimated values for the frequencies of core damage are within the expected margins and are of the same order of magnitude as those found for similar reactors. The reliability of the reactor shutdown system, isolation of the reactor pool and ECCS are satisfactory for the conditions these systems are required. However, for the electric system it is suggested an upgrade to increase its reliability. .
7

Estimativa da frequência de danos ao núcleo devido a perda de refrigerante primário e bloqueio de canal de refrigeração do Reator de Pesquisas IEA-R1 do IPEN -CNEN/SP -APS nível1 / ESTIMATIVE OF CORE DAMAGE FREQUENCY IN IPEN`S IEA-R1 RESEARCH REACTOR (PSA LEVEL 1) DUE TO THE INITIATING EVENT OF LOSS OF COOLANT CAUSED BY LARGE RUPTURE IN THE PIPE OF THE PRIMARY CIRCUIT

Daniel Massami Hirata 18 November 2009 (has links)
Neste trabalho é aplicada a metodologia da Análise Probabilística de Segurança nível 1 ao reator IEA-R1. Inicialmente são descritos os eventos iniciadores de acidentes identificados no reator para duas categorias: perda de vazão e perda de refrigerante primário. Dentre eles foram escolhidos dois eventos iniciadores para análise mais detalhada do acidente e obtenção da estimativa da freqüência de danos ao núcleo devido a sua ocorrência. Foram selecionados os seguintes eventos iniciadores: bloqueio de canal de refrigeração (maior probabilidade) e perda de refrigerante por grande ruptura da tubulação do circuito primário (maiores consequências). Para modelar a evolução do acidente a partir da ocorrência do evento iniciador e da atuação ou não dos sistemas de segurança utilizou-se Árvore de Eventos. Através de Árvore de Falhas, também foi avaliada a confiabilidade dos seguintes sistemas: sistema de desligamento do reator, isolamento da piscina, sistema de resfriamento de emergência (SRE) e sistema elétrico. Como resultados foram obtidas as estimativas das frequências de danos ao núcleo do reator e as probabilidades de falha dos sistemas analisados. As freqüências de danos ao núcleo mostraram-se dentro das margens esperadas, sendo da mesma ordem de grandeza que os encontrados para reatores similares. As confiabilidades dos sistemas de desligamento do reator, de isolamento da piscina e do SRE foram satisfatórias para as condições em que estes sistemas foram exigidos. Todavia, para o sistema elétrico seria recomendável uma análise para verificar a possibilidade de modernização a fim de aumentar a sua confiabilidade. / This work applies the methodology of Probabilistic Safety Assessment Level 1 to the research reactor IEA-R1 IPEN-CNEN/SP. Two categories of identified initiating events of accidents in the reactor are studied: loss of flow and loss of primary coolant. Among the initiating events, blockage of flow channel and loss of cooling fluid by major pipe rupture in the primary circuit are chosen for a detailed analysis. The event tree technique is used to analyze the evolution of the accident, including the actuation or the fail of actuation of the safety systems and the reactor damages. Using the fault tree the reliability of the following reactor safety systems is evaluated: reactor shutdown system, isolation of the reactor pool, Emergency Core Cooling System (ECCS) and the electric system. Estimative for the frequency of damage to the reactor core and the probability of failure of the analyzed systems are calculated. The estimated values for the frequencies of core damage are within the expected margins and are of the same order of magnitude as those found for similar reactors. The reliability of the reactor shutdown system, isolation of the reactor pool and ECCS are satisfactory for the conditions these systems are required. However, for the electric system it is suggested an upgrade to increase its reliability. .
8

Abdução clássica e abdução probabilística: a busca pela explicação de dados reais / Classic and probabilistic abduction: the search for the explanation of real data

Alexandre Matos Arruda 16 April 2014 (has links)
A busca por explicações de fatos ou fenômenos é algo que sempre permeou o raciocínio humano. Desde a antiguidade, o ser humano costuma observar fatos e, de acordo com eles e o conhecimento presente, criar hipóteses que possam explicá-los. Um exemplo clássico é quando temos consulta médica e o médico, após verificar todos os sintomas, descobre qual é a doença e os meios de tratá-la. Essa construção de explicações, dado um conjunto de evidências que o indiquem, chamamos de \\textit{abdução}. A abdução tradicional para a lógica clássica estabelece que o dado meta não é derivado da base de conhecimento, ou seja, dada uma base de conhecimento $\\Gamma$ e um dado meta $A$ temos $\\Gamma ot \\vdash A$. Métodos clássicos de abdução buscam gerar um novo dado $H$ que, juntamente com uma base de conhecimento $\\Gamma$, possamos inferir $A$ ($\\Gamma \\cup H \\vdash A$). Alguns métodos tradicionais utilizam o tableaux (como em \\cite) para a geração da fórmula $H$. Aqui, além de lidarmos com a abdução baseada em corte, através do KE-tableaux, que não necessita assumir que o dado meta não seja derivado da base de conhecimento, lidaremos também com a lógica probabilística, redescoberta por Nilsson, em \\cite, onde temos a atribuição de probabilidades a fórmulas. Dizemos que uma instância em lógica probabilística é consistente se existe uma distribuição probabilística consistente sobre as valorações. Determinar essa distribuição probabilística é que o chamamos de problema PSAT. O objetivo de nosso trabalho é definir e estabelecer o que é uma abdução em Lógica Probabilística (abdução em PSAT) e, além disso, fornecer métodos de abdução para PSAT: dada uma instância PSAT $\\left\\langle \\Gamma, \\Psi ightangle$ na forma normal atômica \\cite e uma fórmula $A$ tal que existe uma distribuição probabi bylística $\\pi$ que satisfaz $\\left\\langle \\Gamma, \\Psi ightangle$ e $\\pi(A) = 0$, cada método é capaz de gerar uma fórmula $H$ tal que $\\left\\langle \\Gamma \\cup H , \\Psi ightangle \\!\\!|\\!\\!\\!\\approx A$ onde $\\pi(A) > 0$ para toda distribuição $\\pi$ que satisfaça $\\left\\langle \\Gamma \\cup H , \\Psi ightangle$. Iremos também demonstrar que alguns dos métodos apresentados são corretos e completos na geração de fórmulas $H$ que satisfaçam as condições de abdução. / The search for explanations of facts or phenomena is something that has always permeated human reasoning. Since antiquity, the human being usually observes facts and, according to them and his knowledge, create hypotheses that can explain them. A classic example is when we have medical consultation and the doctor, after checking all the symptoms, discovers what is the disease and the ways to treat it. This construction of explanations, given a set of evidence, we call \\textit. In traditional abduction methods it is assumed that the goal data has not yet been explained, that is, given a background knowledge base $\\Gamma$ and a goal data $A$ we have $\\Gamma ot \\vdash A$. Classical methods want to generate a new datum $H$ in such way that with the background knowledge base $\\Gamma$, we can infer $A$ ($\\Gamma \\cup H \\vdash A$). Some traditional methods use the analytical tableaux (see \\cite) for the generation of $H$. Here we deal with a cut-based abduction, with the KE-tableaux, which do not need to assume that the goal data is not derived from the knowledge base, and, moreover, with probabilistic logic (PSAT), rediscovered in \\cite, where we have probabilistic assignments to logical formulas. A PSAT instance is consistent if there is a probabilistic distribution over the assignments. The aim of our work is to define and establish what is an abduction in Probabilistic Logic (abduction for PSAT) and, moreover, provide methods for PSAT abduction: given a PSAT instance $\\left\\langle \\Gamma, \\Psi ightangle$ in atomic normal form \\cite and a formula $A$ such that there is a probabilistic distribution $\\pi$ that satisfies $\\left\\langle \\Gamma, \\Psi ightangle$ and $\\pi(A)=0$, each method is able to generate a formula $H$ such that $\\left\\langle \\Gamma \\cup H , \\Psi ightangle \\!\\!|\\!\\!\\!\\approx A$ where $\\pi(A) > 0$ for all distribution $\\pi$ that satisfies $\\left\\langle \\Gamma \\cup H , \\Psi ightangle$. We demonstrated that some of the our methods, shown in this work, are correct and complete for the generation of $H$.
9

Elección en turismo: aplicación probabilística al turista español

Nicolau, Juan Luis 18 December 2002 (has links)
No description available.
10

Otimização robusta de estruturas utilizando o método da base reduzida

de Siqueira Motta, Renato 31 January 2009 (has links)
Made available in DSpace on 2014-06-12T17:38:07Z (GMT). No. of bitstreams: 2 arquivo2435_1.pdf: 3502745 bytes, checksum: 4d9345dea9759878dee2a393aa22325a (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2009 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Com o rápido aumento da capacidade computacional, o tema otimização avançou de maneira notável nos últimos anos. Atualmente inúmeras aplicações de projetos ótimos em diferentes especialidades, como mecânica estrutural, custos de produção, escoamento de fluidos, acústica, etc. têm sido descritas na literatura. Entretanto, na maioria das aplicações da engenharia, a abordagem tradicional é considerar modelos e parâmetros determinísticos. Infelizmente a abordagem determinística pode levar a soluções cujo desempenho pode cair significativamente devido às perturbações decorrentes das incertezas. Nestas circunstâncias, um objetivo melhor seria um projeto ótimo que tenha um alto grau de robustez. O processo de encontrar este ótimo é chamado Otimização Robusta (OR). Aqui, abordaremos duas técnicas para a análise de propagação de incerteza, não intrusivas, que utiliza modelos computacionais determinísticos: o método de Monte Carlo (MC) e o método da Colocação Probabilística ( Probabilistic Collocation Method ) (PCM). A análise de propagação de incerteza essencialmente envolve o cálculo de momentos estatísticos da função de interesse. Várias medidas de robustez têm sido propostas na literatura, em particular, o valor médio e o desvio padrão da função envolvida no problema de otimização serão considerados aqui. Quando estas medidas de robustez são usadas combinadas, a procura de projetos ótimos robustos surge como um problema de Otimização Multiobjetivo Robusta (OMR). Técnicas de Otimização Multiobjetiva permitem o projetista modelar um problema específico considerando um comportamento mais realista, o qual comumente envolve o atendimento de vários objetivos simultaneamente. O procedimento adequado, quando um problema multiobjetivo precisa ser resolvido, é determinar a fronteira de Pareto. Nos últimos 15 anos, distribuições eficientes de pontos de Pareto têm sido obtidas através de novos algoritmos como o NBI (Normal-Boundary Intersection) e o NNC (Normalized Normal-Constraint). Estas estratégias são implementadas aqui, junto com outras abordagens comumente utilizadas na literatura, como o método da soma ponderada e o método Min-Max. Como a geração de pontos de Pareto e a análise de incerteza podem ser muito custosas, técnicas de aproximação, baseada no uso do Método da Base Reduzida (MBR), são incorporadas ao nosso procedimento. O propósito do método é obter um modelo de alta fidelidade com custo computacional aceitável. Além disto, uma estratégia de separabilidade com uma decomposição afim, permite o desenvolvimento de uma estratégia eficiente de cálculo off-line/on-line , para a implementação computacional do MBR. Problemas contínuos em duas dimensões submetidos a carregamentos estáticos e térmicos são as aplicações consideradas neste trabalho, os desempenhos das diferentes estratégias examinadas são comparadas. A combinação das várias técnicas de aproximação descritas permitiu a obtenção das soluções OMR em pouco tempo computacional

Page generated in 0.0802 seconds