• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2184
  • 64
  • 54
  • 29
  • 28
  • 28
  • 27
  • 15
  • 12
  • 12
  • 11
  • 11
  • 2
  • 1
  • 1
  • Tagged with
  • 2317
  • 1219
  • 993
  • 588
  • 390
  • 341
  • 323
  • 271
  • 253
  • 231
  • 221
  • 207
  • 206
  • 205
  • 201
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

Modelos de decisão multicritério e de portfólio com aplicação na construção de políticas energéticas sustentáveis

DUARTE, Marina Dantas de Oliveira 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T17:40:15Z (GMT). No. of bitstreams: 2 arquivo6398_1.pdf: 866719 bytes, checksum: cb7207bec9edae49cefbe9b17bf38c39 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2011 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / A elaboração de políticas energéticas é uma questão que envolve aspectos de naturezas diferentes e está relacionada a um amplo contexto. A introdução da sustentabilidade como um objetivo a ser atingido para manter o suprimento energético e permitir o desenvolvimento econômico e social de um país aumenta a complexidade das decisões a serem tomadas. Eficiência Energética e Energia Renovável são dois aspectos essenciais para a construção de uma política energética sustentável. Este trabalho propõe a utilização de métodos multicritério para abordar dois problemas pertinentes ao contexto político em energia: a seleção de um portfólio de políticas energéticas sustentáveis e o subproblema de seleção das fontes de energia alternativas a serem incluídas em uma matriz energética. No que tange ao problema de portfólio, a consideração de sinergias é um aspecto relevante e a sua análise permitiu a proposição de um modelo para a elicitação de tais valores. A elicitação de sinergias é uma tarefa muito dependente do conjunto de alternativas consideradas e da percepção do especialista entrevistado. O modelo desenvolvido permite elicitar sinergias para pares de alternativas, sem exigir que estes valores sejam dissociados na contribuição de uma alternativa para outra. Comparado ao modelo de sinergia individual o modelo proposto exige menos informação ao especialista, o que torna o questionário de elicitação menos exaustivo
302

Avaliação multicritério de riscos em gasodutos de gás natural: uma abordagem de classificação com o electre tri

Jorge de Melo Brito, Anderson January 2007 (has links)
Made available in DSpace on 2014-06-12T17:40:55Z (GMT). No. of bitstreams: 2 arquivo7270_1.pdf: 2829718 bytes, checksum: ebd270926860b8d10707c7c617afa2d4 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2007 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Acidentes em gasodutos de gás natural, conforme apontam registros históricos internacionais, apresentam com freqüência conseqüências de diversas dimensões, implicando em riscos que devem ser estimados e para os quais medidas mitigadoras devem ser tomadas. Nesse contexto, assumem especial importância metodologias para avaliação quantitativa de riscos, através das quais são estimadas as probabilidades de eventos indesejáveis e as conseqüências desses possíveis eventos. Entretanto, pode-se perceber, além de ambigüidades nos conceitos de risco, uma limitação das metodologias difundidas no que tange à consideração das múltiplas dimensões que os impactos de acidentes com vazamentos de gás natural podem assumir, bem como no que diz respeito ao apoio a processos decisórios subseqüentes envolvendo planejamento, prevenção, supervisão e manutenção de atividades mitigadoras de riscos em gasodutos. Nesse sentido, o presente trabalho propõe um modelo multicritério de apoio a decisão avaliação de riscos e para classificação de trechos de gasodutos segundo níveis hierárquicos de risco. O modelo procura ajustar-se à existência de múltiplas dimensões ou critérios nos quais riscos devem ser avaliados, e a uma racionalidade não-compensatória do decisor. A metodologia desenvolvida baseou-se na aplicação dos conceitos da Teoria da Utilidade, Teoria da Decisão e do método ELECTRE TRI, através do qual foi possível designar trechos de gasodutos a classes pré-estabelecidas de riscos, favorecendo com que ações específicas sejam direcionadas a estas categorias a fim de reduzir ao máximo possível os riscos associados aos gasodutos de gás natural
303

Metodologia para identificação, caracterização e remoção de erros em mapas de produtividade. / Methodology for identification, characterization and removal of errors on yield maps.

Leonardo Afonso Angeli Menegatti 30 April 2002 (has links)
A agricultura de precisão é um conjunto de tecnologias que prevê o manejo espacializado dos fatores de produção, baseado em informações coletadas e georeferenciadas. O mapa de produtividade é uma informação importante, pois materializa a resposta da cultura a todos os fatores. Diversos monitores de produtividade comerciais estão disponíveis no mercado para a coleta de informações de produtividade de forma bastante adensada. Devido à automação e à alta quantidade de informações, diversos erros ocorrem no processo de coleta e a retirada destes erros é um fator de qualidade da informação. A proposta do trabalho é desenvolver uma rotina de filtragem de dados brutos que elimine erros presentes em mapas de produtividade. Como primeira etapa do desenvolvimento do processo de filtragem, foi realizada a análise e caracterização dos erros presentes em seis mapas de produtividade provenientes de seis diferentes monitores de produtividade comerciais. Erros de posicionamento foram encontrados, representados por pontos fora do talhão, sendo que pequenos erros de posicionamento não podem ser detectados pela metodologia desenvolvida. Foram encontrados pontos com produtividade nula, umidade de grãos nula ou ausente e pontos com posição repetida. Pontos coletados com largura de plataforma de corte diferente da total foram considerados erros de medição de área, pois carregam a influência do operador na definição da largura da plataforma de corte efetivamente utilizada. Para a caracterização do erro de intervalo de enchimento foi desenvolvida uma metodologia para identificar o sentido de deslocamento da colhedora, possibilitando assim, a medição do espaço necessário para que o monitor esteja sensível às variações naturais da produtividade. A distância percorrida durante o intervalo de enchimento variou de 0 a 44m. Foram estabelecidos limites estatísticos para discrepância de valores de produtividade, sendo que foram encontrados pontos com valores de produtividade fora dos limites estabelecidos. Com base nas características de cada tipo de erro, foi desenvolvida uma rotina de filtragem de dados brutos. A rotina consistiu de 7 etapas, sendo que cada uma age sobre determinado tipo de erro de acordo com suas características. Na primeira etapa são retirados do conjunto pontos com erro grosseiro de posicionamento, representados por pontos fora dos limites do talhão. As etapas de número 2 a 5 consistem na retirada de pontos com produtividade nula ou ausente, pontos com largura de plataforma de corte diferente da total, pontos com umidade nula ou ausente e com distância nula entre pontos. A sexta, age sobre pontos gravados durante o intervalo de enchimento, tendo por base a distância referente ao erro e o número de pontos gravados durante tal distância. Foi desenvolvido um algoritmo de busca, identificação e eliminação dos pontos gravados durante o intervalo de enchimento. A sétima etapa estabelece limites estatísticos para discrepância de valores de produtividade e elimina pontos fora destes limites. De maneira geral, a filtragem de dados melhorou a modelagem da dependência espacial e elevou a qualidade final dos mapas de produtividade. / Precision farming is a set of technologies that provide the capacity to manage the yield based on spacialized information. Yield map is an important information as it describes the answer of the crop to the inputs and soil conditions. There are several yield monitors in the market to collect yield information automatically. Due to the automation of the collection, some errors may be collected together with good data, and the elimination of those errors from the data set represents information quality. This work proposes the development a filtering routine of raw data to eliminate errors. The first step is the analysis and characterization of the errors present on data from six different commercial yield monitors. The errors found are positioning errors, represented by points outside the field. Small positioning errors cannot be detected by this methodology. It was found points with null or no yield, null or no grain moisture and points with the same position. Points with swath width different from the total swath width were considered as area measuring errors because they take account the interpretation of the operator about the actual swath width. For the characterization of the combine filling time it was developed a methodology to identify the running direction of the machine, allowing the estimation of the distance required to fill the threshing mechanism of the combine. The distance during the filling time was found to be between 0 and 44m. Yield outlier limits were established, and values over and under the limits were found in the data. Based on the characteristics of each error, a filtering routine was developed. The routine has seven steps, each one acting over different errors. At the first step, positioning errors are eliminated from the data set. The steps from 2 to 5 eliminate points with null or no yield, null or no grain moisture, points with swath width different from the total swath width and points with null distance. The sixth step acts over the filling time error, eliminating all points recorded during the space required for filling up the threshing mechanism of the combine. A search algorithm was developed to identify and eliminate these errors. The seventh step state outlier limits and remove from the data set the values outside of the limits. The filtering process improved the semivariance analysis and the final quality of yield maps.
304

FBST seqüencial / Sequential FBST

Marcelo Leme de Arruda 04 June 2012 (has links)
O FBST (Full Bayesian Significance Test) é um instrumento desenvolvido por Pereira e Stern (1999) com o objetivo de apresentar uma alternativa bayesiana aos testes de hipóteses precisas. Desde sua introdução, o FBST se mostrou uma ferramenta muito útil para a solução de problemas para os quais não havia soluções freqüentistas. Esse teste, contudo, depende de que a amostra seja coletada uma única vez, após o que a distribuição a posteriori dos parâmetros é obtida e a medida de evidência, calculada. Ensejadas por esse aspecto, são apresentadas abordagens analíticas e computacionais para a extensão do FBST ao contexto de decisão seqüencial (DeGroot, 2004). É apresentado e analisado um algoritmo para a execução do FBST Seqüencial, bem como o código-fonte de um software baseado nesse algoritmo. / FBST (Full Bayesian Significance Test) is a tool developed by Pereira and Stern (1999), to show a bayesian alternative to the tests of precise hypotheses. Since its introduction, FBST has shown to be a very useful tool to solve problems to which there were no frequentist solutions. This test, however, needs that the sample be collected just one time and, after this, the parameters posterior distribution is obtained and the evidence measure, computed. Suggested by this feature, there are presented analytic and computational approaches to the extension of the FBST to the sequential decision context (DeGroot, 2004). It is presented and analyzed an algorithm to execute the Sequential FBST, as well as the source code of a software based on this algorithm.
305

Dynamic bayesian statistical models for the estimation of the origin-destination matrix / Dynamic bayesian statistical models for the estimation of the origin-destination matrix / Dynamic bayesian statistical models for the estimation of the origin-destination matrix

Anselmo Ramalho Pitombeira Neto 29 June 2015 (has links)
In transportation planning, one of the first steps is to estimate the travel demand. A product of the estimation process is the so-called origin-destination matrix (OD matrix), whose entries correspond to the number of trips between pairs of zones in a geographic region in a reference time period. Traditionally, the OD matrix has been estimated through direct methods, such as home-based surveys, road-side interviews and license plate automatic recognition. These direct methods require large samples to achieve a target statistical error, which may be technically or economically infeasible. Alternatively, one can use a statistical model to indirectly estimate the OD matrix from observed traffic volumes on links of the transportation network. The first estimation models proposed in the literature assume that traffic volumes in a sequence of days are independent and identically distributed samples of a static probability distribution. Moreover, static estimation models do not allow for variations in mean OD flows or non-constant variability over time. In contrast, day-to-day dynamic models are in theory more capable of capturing underlying changes of system parameters which are only indirectly observed through variations in traffic volumes. Even so, there is still a dearth of statistical models in the literature which account for the day-today dynamic evolution of transportation systems. In this thesis, our objective is to assess the potential gains and limitations of day-to-day dynamic models for the estimation of the OD matrix based on link volumes. First, we review the main static and dynamic models available in the literature. We then describe our proposed day-to-day dynamic Bayesian model based on the theory of linear dynamic models. The proposed model is tested by means of computational experiments and compared with a static estimation model and with the generalized least squares (GLS) model. The results show some advantage in favor of dynamic models in informative scenarios, while in non-informative scenarios the performance of the models were equivalent. The experiments also indicate a significant dependence of the estimation errors on the assignment matrices. / In transportation planning, one of the first steps is to estimate the travel demand. A product of the estimation process is the so-called origin-destination matrix (OD matrix), whose entries correspond to the number of trips between pairs of zones in a geographic region in a reference time period. Traditionally, the OD matrix has been estimated through direct methods, such as home-based surveys, road-side interviews and license plate automatic recognition. These direct methods require large samples to achieve a target statistical error, which may be technically or economically infeasible. Alternatively, one can use a statistical model to indirectly estimate the OD matrix from observed traffic volumes on links of the transportation network. The first estimation models proposed in the literature assume that traffic volumes in a sequence of days are independent and identically distributed samples of a static probability distribution. Moreover, static estimation models do not allow for variations in mean OD flows or non-constant variability over time. In contrast, day-to-day dynamic models are in theory more capable of capturing underlying changes of system parameters which are only indirectly observed through variations in traffic volumes. Even so, there is still a dearth of statistical models in the literature which account for the day-today dynamic evolution of transportation systems. In this thesis, our objective is to assess the potential gains and limitations of day-to-day dynamic models for the estimation of the OD matrix based on link volumes. First, we review the main static and dynamic models available in the literature. We then describe our proposed day-to-day dynamic Bayesian model based on the theory of linear dynamic models. The proposed model is tested by means of computational experiments and compared with a static estimation model and with the generalized least squares (GLS) model. The results show some advantage in favor of dynamic models in informative scenarios, while in non-informative scenarios the performance of the models were equivalent. The experiments also indicate a significant dependence of the estimation errors on the assignment matrices. / In transportation planning, one of the first steps is to estimate the travel demand. A product of the estimation process is the so-called origin-destination matrix (OD matrix), whose entries correspond to the number of trips between pairs of zones in a geographic region in a reference time period. Traditionally, the OD matrix has been estimated through direct methods, such as home-based surveys, road-side interviews and license plate automatic recognition. These direct methods require large samples to achieve a target statistical error, which may be technically or economically infeasible. Alternatively, one can use a statistical model to indirectly estimate the OD matrix from observed traffic volumes on links of the transportation network. The first estimation models proposed in the literature assume that traffic volumes in a sequence of days are independent and identically distributed samples of a static probability distribution. Moreover, static estimation models do not allow for variations in mean OD flows or non-constant variability over time. In contrast, day-to-day dynamic models are in theory more capable of capturing underlying changes of system parameters which are only indirectly observed through variations in traffic volumes. Even so, there is still a dearth of statistical models in the literature which account for the day-today dynamic evolution of transportation systems. In this thesis, our objective is to assess the potential gains and limitations of day-to-day dynamic models for the estimation of the OD matrix based on link volumes. First, we review the main static and dynamic models available in the literature. We then describe our proposed day-to-day dynamic Bayesian model based on the theory of linear dynamic models. The proposed model is tested by means of computational experiments and compared with a static estimation model and with the generalized least squares (GLS) model. The results show some advantage in favor of dynamic models in informative scenarios, while in non-informative scenarios the performance of the models were equivalent. The experiments also indicate a significant dependence of the estimation errors on the assignment matrices.
306

Ponderação e critérios racionais de decidibilidade na argumentação judicial / Balancing and national standards of decisions in judicial argumentation

Paula Fernanda Alves da Cunha Gorzoni 28 November 2011 (has links)
O objeto de estudo da presente dissertação corresponde ao sopesamento ou ponderação, método que vem sendo aplicado de modo freqüente em vários países para a resolução de colisões entre direitos fundamentais. Por ser altamente difundido atualmente, muitas vezes o cenário é caracterizado por uma aplicação irrefletida, ou seja, sem maiores questionamentos sobre o método em si. No entanto, existe grande discussão sobre o tema, principalmente sobre se é possível aplicar o sopesamento de forma racional. Neste trabalho, o foco da pesquisa constitui exatamente analisar detalhadamente os problemas de aplicação do método, relacionados à possibilidade do desenvolvimento de critérios racionais de decidibilidade. Em outras palavras, procura-se examinar se é possível considerar o sopesamento um método racional na decisão de colisões entre direitos fundamentais, no intuito de se investigar as possibilidades de fundamentação dos juízos ponderativos, assim como as pretensões de racionalidade, correção ou objetividade que se podem relacionar à técnica. Para isso, a pesquisa examinou o debate teórico sobre sopesamento e, tendo em mente as críticas analisadas, foi realizada análise sobre o conceito de racionalidade possível no direito e sobre a estrutura e modelos de ponderação. / The purpose of this paper is to analyze balancing or weighing rights, method that is frequently used worldwide in judicial decisions when principles collide. As its central position in the argumentation of many judicial decisions, the method is often used without a special reflection on its meaning and structure. Notwithstanding, there is a debate about the theme, mainly about if it is possible to use balancing rationally. In this paper, the focus is to analyze the problems related to the method and to the possibility of developing rational criteria. In other words, I seek to examine whether it is possible to consider balancing as a rational method in judicial decisions involving collisions between fundamental rights, in order to investigate the possibilities of reasoning, as well as the claims of rationality, objectivity, or the structure that may relate to the procedure. For this, the research examined the theoretical debate on weighing rights and, after that, studied the concept of rationality possible in law and the structure of weighting models.
307

Indicadores para tomada de decisão para a calagem no sistema plantio direto

Nicolodi, Margarete January 2003 (has links)
As recomendações de calagem utilizadas no sistema plantio direto (SPD) foram desenvolvidas no sistema convencional (SC), tendo como base o pH do solo. No SPD ocorrem alterações nas características do solo, como dinâmica diferenciada do alumínio e aumento dos teores de fósforo e cálcio na camada superficial, que provocam uma menor resposta à calagem. A Comissão de Química e Fertilidade do Solo NRS/SBCS alterou, em 2000, o valor do pH do solo de 6,0 para 5,5 e acrescentou a saturação por bases de 60 % para a tomada de decisão para a aplicação de calcário no SPD. Há, ainda, a necessidade de sua validação em áreas de lavoura. O objetivo deste trabalho foi avaliar alguns indicadores para a tomada de decisão para a aplicação de calcário no SPD em áreas de lavoura. Foram utilizados 7 cultivos em 6 lavouras no SPD consolidado em Latossolo Vermelho distrófico, sem adição de tratamentos, onde foram coletadas amostras de solo e de tecido vegetal e avaliado o rendimento de grãos. Os coeficientes de determinação, entre o rendimento de grãos e os indicadores de acidez foram superiores com alumínio trocável, a saturação por alumínio e Al/Ca+Mg comparado ao pH em água e a saturação por bases, sendo estes os indicadores de tomada de decisão adotados pela Comissão... a partir de 2000. Os valores de referência de 0,3 cmolc dm-3 de alumínio trocável ou 5 % de saturação por alumínio podem ser utilizados como critérios adicionais ao pH em água de 5,5 e/ou saturação por bases de 65 %, para a tomada de decisão para a calagem no sistema plantio direto consolidado. A combinação de um grupo de indicadores de acidez e de fertilidade do solo não contribuiu para a melhoria do processo de tomada de decisão.
308

Os valores pessoais na decisão pela escola dos filhos

Carvalho, Luiz Fernando Fiatte January 2001 (has links)
O presente trabalho busca demonstrar quais os valores que mais influenciam os pais, na escolha da escola de ensino médio para os filhos. Tais valores, não apontam apenas para as escolas particulares, mas se referem a toda e qualquer escola da rede educacional urbana. Por se tratar de serviços, implica também em marketing. Por isso, busca-se trazer à tona, a necessidade da adoção de pesquisa em marketing pelas escolas, como instituto hábil à garantia da clientela. Nesse contexto, apresenta-se os pais dos alunos como decisores dos serviços educacionais, já que são eles que fazem as opções, bem como, os processos pelos quais eles passam antes de se decidirem pela escola. Outro aspecto abordado relaciona-se ao conhecimento do cliente pela empresa prestadora de serviço, de modo a caracterizar a forma pela qual ela deve se posicionar em relação a esse cliente. Uma pesquisa de campo relacionada ao tema foi desenvolvida, envolvendo 400 famílias da cidade de Curitiba, utilizando-se um teste de valores formulado por ROKEACH, e que contribuiu para fazer uma distinção entre as teorias existentes e a subjetividade do consumidor, oportunizando assim, o conhecimento dos valores potencialmente capazes de levar à opção da escola. Por fim, faz-se uma análise estatística das questões levantadas, procurando dar uma visão ampla e clara dos aspectos relacionados aos motivos que induzem os pais à escolha da escola de ensino médio para os filhos.
309

O efeito da memória sobre a percepção de atributos ausentes/

AGUIAR, F. H. O. January 2016 (has links) (PDF)
Tese (Doutorado em Administração de Empresas) - Centro Universitário FEI, São Paulo, 2016.
310

Programação em lógica não-monotônica aplicada à redução do espaço de planos em processos de decisão de Markov/

Ferreira, L. A. January 2016 (has links)
Tese (Doutorado em Engenharia Elétrica) - Centro Universitário FEI, São Bernardo do Campo, 2016.

Page generated in 0.0234 seconds