Spelling suggestions: "subject:"probabilístico."" "subject:"probabilística.""
11 |
Estimativa da evapotranspiração mensal no Estado do Paraná / Estimate of the monthly evapotranspiration in paraná stateAbumanssur, Calil 25 July 2006 (has links)
Made available in DSpace on 2017-07-10T19:25:05Z (GMT). No. of bitstreams: 1
Calil Abumanssur.pdf: 713592 bytes, checksum: 8bf0b3044a8980a927948637dc210303 (MD5)
Previous issue date: 2006-07-25 / A set of measurements of daily average temperatures of 22 agrometeorológicas
stations of the Agronomic Institute of the Paraná-IAPAR in operation, were
compiled originating monthly storms series matrices of temperature that
permitted to calculate to evapotranspiration by the Method of Camargo from
which were obtained values of the evapotranspiration month to month for each
one of the distinct stations. It applied the models of the gama distribution
functions, log-normal and generalized of extreme value was utilizing the results
of the monthly evapotranspiration for calculate the probable value with 75% of
occurrence probability. For verification of adjustment of the curves of variation
of the functions distribution of the models log-normal end gamma the method of
Kolmogorov-Smirnov was used, for the generalized model of extreme values the
verification of the adjustment was used of the method of Wang. As they turned
out was observed the monthly variation of the values of evapotranspiration to the
long one of the months in the State, where the tendency of regions more to the
north will have the biggest values estimated of sheet of evapotranspiration and in
the stations situated in areas of bigger relative altitudes will present sheets values
minors. As regards the models range, log-normal and generalized extreme value,
utilized for estimate of the evapotranspiration potential, if adjusted satisfactorily.
With the values of each month, considering the probability of 75% of occurrence,
in each one of the stations, was mounted the map of the isolines that represent the
variability of the evapotranspiration potential, according to model gama, on the
cartographic base of the State of the Paraná/Brazil. / Um conjunto de medições de temperaturas médias diárias de 22 estações
agrometeorológicas do Instituto Agronômico do Paraná - IAPAR em operação,
foram compiladas originando matrizes de séries temporais mensais de
temperatura que permitiram calcular a evapotranspiração pelo Método de
Camargo, a partir do qual foram obtidos valores da evapotranspiração mês a mês
para cada uma das estações distintas. Aplicando-se os modelos das funções de
distribuição gama, log-normal e generalizada de valores extremos, foram
utilizados os resultados da evapotranspiração mensal para calcular o valor
provável, com 75% de probabilidade de ocorrência. Para verificação de ajuste
das curvas de variação das funções distribuição dos modelos gama e log-normal
foi utilizado o método de Kolmogorov-Smirnov, para o modelo generalizado de
valores extremos a verificação do ajuste utilizou-se do método de Wang. Como
resultado, foi observada a variação mensal dos valores de evapotranspiração no
Estado, ao longo dos meses. Verificou-se a tendência de regiões mais ao norte
apresentarem os maiores valores estimados de lâmina de evapotranspiração e nas
estações situadas em áreas de maiores altitudes relativas apresentarem menores
valores de lâminas. Quanto aos modelos gama, log-normal e generalizada de
valores extremos, utilizados para estimativa da evapotranspiração potencial,
ajustaram se satisfatoriamente. Com os valores de cada mês, considerando a
probabilidade de 75% de ocorrência, em cada uma das estações, foi montado o
mapa das isolinhas que representa a variabilidade da evapotranspiração potencial,
segundo o modelo gama, sobre a base cartográfica do estado do Paraná.
|
12 |
Estimativa da evapotranspiração mensal no Estado do Paraná / Estimate of the monthly evapotranspiration in paraná stateAbumanssur, Calil 25 July 2006 (has links)
Made available in DSpace on 2017-05-12T14:48:27Z (GMT). No. of bitstreams: 1
Calil Abumanssur.pdf: 713592 bytes, checksum: 8bf0b3044a8980a927948637dc210303 (MD5)
Previous issue date: 2006-07-25 / A set of measurements of daily average temperatures of 22 agrometeorológicas
stations of the Agronomic Institute of the Paraná-IAPAR in operation, were
compiled originating monthly storms series matrices of temperature that
permitted to calculate to evapotranspiration by the Method of Camargo from
which were obtained values of the evapotranspiration month to month for each
one of the distinct stations. It applied the models of the gama distribution
functions, log-normal and generalized of extreme value was utilizing the results
of the monthly evapotranspiration for calculate the probable value with 75% of
occurrence probability. For verification of adjustment of the curves of variation
of the functions distribution of the models log-normal end gamma the method of
Kolmogorov-Smirnov was used, for the generalized model of extreme values the
verification of the adjustment was used of the method of Wang. As they turned
out was observed the monthly variation of the values of evapotranspiration to the
long one of the months in the State, where the tendency of regions more to the
north will have the biggest values estimated of sheet of evapotranspiration and in
the stations situated in areas of bigger relative altitudes will present sheets values
minors. As regards the models range, log-normal and generalized extreme value,
utilized for estimate of the evapotranspiration potential, if adjusted satisfactorily.
With the values of each month, considering the probability of 75% of occurrence,
in each one of the stations, was mounted the map of the isolines that represent the
variability of the evapotranspiration potential, according to model gama, on the
cartographic base of the State of the Paraná/Brazil. / Um conjunto de medições de temperaturas médias diárias de 22 estações
agrometeorológicas do Instituto Agronômico do Paraná - IAPAR em operação,
foram compiladas originando matrizes de séries temporais mensais de
temperatura que permitiram calcular a evapotranspiração pelo Método de
Camargo, a partir do qual foram obtidos valores da evapotranspiração mês a mês
para cada uma das estações distintas. Aplicando-se os modelos das funções de
distribuição gama, log-normal e generalizada de valores extremos, foram
utilizados os resultados da evapotranspiração mensal para calcular o valor
provável, com 75% de probabilidade de ocorrência. Para verificação de ajuste
das curvas de variação das funções distribuição dos modelos gama e log-normal
foi utilizado o método de Kolmogorov-Smirnov, para o modelo generalizado de
valores extremos a verificação do ajuste utilizou-se do método de Wang. Como
resultado, foi observada a variação mensal dos valores de evapotranspiração no
Estado, ao longo dos meses. Verificou-se a tendência de regiões mais ao norte
apresentarem os maiores valores estimados de lâmina de evapotranspiração e nas
estações situadas em áreas de maiores altitudes relativas apresentarem menores
valores de lâminas. Quanto aos modelos gama, log-normal e generalizada de
valores extremos, utilizados para estimativa da evapotranspiração potencial,
ajustaram se satisfatoriamente. Com os valores de cada mês, considerando a
probabilidade de 75% de ocorrência, em cada uma das estações, foi montado o
mapa das isolinhas que representa a variabilidade da evapotranspiração potencial,
segundo o modelo gama, sobre a base cartográfica do estado do Paraná.
|
13 |
Extremal and probabilistic problems in order types / Problemas extremais e probabilísticos em o-tiposSales, Marcelo Tadeu de Sá Oliveira 15 June 2018 (has links)
A configuration is a finite set of points in the plane. Two configurations have the same order type if there exists a bijection between them that preserves the orientation of every ordered triple. A configuration A contains a copy of a configuration B if some subset of A has the same order type of B and we denote this by B \\subset A. For a configuration B and a integer N, the extremal number ex(N,B)=max{|A|: B ot \\subset A \\subset [N]^2} is the maximum size of a subset of [N]^2 without a copy of B. We give an upper bound for general and convex cases. A random N-set is a set obtained by randomly choosing N points uniformly and independently in the unit square. A configuration is n-universal if contains all order types in general position of size n. We obtain the threshold for the n-universal property up to a log log factor, that is, we obtain integers N_0 and N_1 with log log N_1=O(log log N_0) such that if N >> N_1 (N << N_0), then a random N-set is n-universal with probability tending to 1 (tending to 0). We also determine a bound for the probability of obtaining a random set without a copy of a fixed configuration. / Uma configuração é um conjunto finito de pontos no plano. Duas configurações possuem o mesmo o-tipo se existe uma bijeção entre elas que preserva a orientação de toda tripla orientada. Uma configuração A contém uma cópia da configuração B se algum subconjunto de A possui o mesmo o-tipo que B e denotamos este fato por B \\subset A. Para uma configuração B e um inteiro N, o número extremal ex(N,B)=max{|A|: B ot \\subset A \\subset [N]^2} é o maior tamanho de um subconjunto de [N]^2 sem uma cópia de B. Neste trabalho, determinamos cotas superiores para o caso geral e para o caso convexo. Um N-conjunto aleatório é um conjunto obtido escolhendo N pontos uniformemente e independentemente ao acaso do quadrado unitário. Uma configuração é n-universal se contém todos os o-tipos de tamanho n. Determinamos o limiar da propriedade de um N-conjunto aleatório ser n-universal a menos de erros da ordem de log log, isto é, determinamos inteiros N_0 e N_1 com log log N_0=O(log log N_1) tais que se N >> N_1 (N << N_0), então o N-conjunto aleatório é n-universal com probabilidade tendendo a 1 (tendendo a 0). Também obtivemos cotas para a probabilidade de um conjunto aleatório não possuir determinado o-tipo.
|
14 |
Modelo para previsão de itens sobressalentes baseado em confiabilidade industrial: estudo desenvolvido em uma do setor petrolífero / Model for prevision of spare items based on industrial reliability: developed study in a industrial sector companyCavalcante, Danilo Gonçalves 06 October 2015 (has links)
Submitted by Automação e Estatística (sst@bczm.ufrn.br) on 2018-08-01T21:35:07Z
No. of bitstreams: 1
DaniloGoncalvesCavalcante_DISSERT.pdf: 4765469 bytes, checksum: df72ae5db05a9abc7fd0cd1468d9283c (MD5) / Approved for entry into archive by Arlan Eloi Leite Silva (eloihistoriador@yahoo.com.br) on 2018-08-03T19:59:59Z (GMT) No. of bitstreams: 1
DaniloGoncalvesCavalcante_DISSERT.pdf: 4765469 bytes, checksum: df72ae5db05a9abc7fd0cd1468d9283c (MD5) / Made available in DSpace on 2018-08-03T19:59:59Z (GMT). No. of bitstreams: 1
DaniloGoncalvesCavalcante_DISSERT.pdf: 4765469 bytes, checksum: df72ae5db05a9abc7fd0cd1468d9283c (MD5)
Previous issue date: 2015-10-06 / A capacidade de competir em mercados globalizados é um qualificador presente nas
organizações atuais. A gestão dos gastos produtivos (custos e investimentos) exerce influência
direta nas decisões empresariais de curto e longo prazo. Nesse sentido, a busca pela otimização
dos recursos, mediante redução do capital imobilizado, é um fator competitivo buscado por
diversas empresas. A gestão de estoques envolve conflitos de interesses que podem conduzir o
gestor a decisões incompatíveis: os estoques podem absorver grandes somas de recursos ou
representar enormes perdas de produção (lucro cessante). Dentre os diversos tipos de estoques,
a imobilização de itens sobressalentes aplicados à manutenção destaca-se por apresentar
algumas características importantes: a demanda é irregular (lumpy), o investimento para
aquisição das partes sobressalentes é elevado e o tempo de entrega é longo. Este trabalho
objetiva aplicar um método para gestão de estoque sobressalente baseado em confiabilidade
industrial com uso de covariáveis. O modelo aplica técnicas relacionadas a modelagem
probabilística e processo de renovação, com objetivo de quantificar os itens sobressalentes. A
análise faz uso de programas computacionais para manipulação dos parâmetros de
confiabilidade (software Weibull® e BlockSim® - ReliaSoft) e do software R, necessário à
definição das covariáveis. O dimensionamento dos sobressalentes é consolidado mediante
programa desenvolvido em linguagem C++, que visa analisar as sobreposições das falhas ao
longo do tempo. O estudo é aplicado ao dimensionamento de bombas centrífugas submersas
(BCS) utilizadas na produção de petróleo em unidades marítimas. A ferramenta busca estruturar
o processo de alocação de sobressalentes a serem imobilizados no setor petrolífero, auxiliando
a tomada de decisão. / The ability to compete in global markets is a present qualifying in the current organizations.
The management of productive spending (costs and investments) has a direct influence on the
business decisions of term short and long. In this sense, the search for optimization of the
resources, through reductions in the fixed capital, is a competitive factor sought by various
companies. The inventory management involves conflicts of interests that can lead the manager
to inconsistent decisions: stocks can absorb large amounts of resources or represent massive
production losses (profit loss). Among the various types of stocks, immobilization of spare
items applied to maintenance stands out for have some important features: the demand is
irregular (lumpy), the investment for the acquisition of spare parts is high and the delivery time
is long. This work aims to apply a method for spare inventory management based on industrial
reliability with use of covariates. The model applies techniques related to probabilistic
modeling and renewal process, in order to quantify the spare items. The analysis makes use of
computer programs to manipulate of the reliability parameters (Weibull® and BlockSim®
software - ReliaSoft) and R® software, necessary to define the covariates. The dimensioning of
the spares is consolidated through the program developed in c ++ language, which aims to
analyze the failures overlapping over time. The study is applied to the sizing of centrifugal
pumps (BCS) used in the production of oil in offshore units. The tool search to structure the
process of allocation of spare parts to be fixed in the oil sector, aiding decision making.
|
15 |
Mortalidade como preditor de morbidade / Not availableMaria do Rosario Dias de Oliveira Latorre 07 April 1992 (has links)
As doenças crônicas mostram-se como um desafio para o epidemiologista pela dificuldade de se conhecer a sua história natural, os agentes etiológicos, os suscetíveis e outras informações importantes para a sua prevenção, controle e tratamento. Dentre as doenças crônicas interessa, particularmente, o câncer devido à sua importância no obituário geral e pelos altos custos requeridos no seu tratamento. Porém as estatísticas oficiais rotineiras dão pouca ou nenhuma informação sobre a sua incidência e/ou prevalência. Neste sentido, tendo em vista a parcialidade e a precariedade das estatísticas de morbidade, muitos estudos têm sido realizados com o objetivo de elaborar medidas indiretas de estimativas de incidência e prevalência. O presente trabalho verifica a adequação de dois modelos matemáticos existentes na literatura que utilizam dados de população, mortalidade e sobrevivência para estimar a incidência de câncer de estômago, pulmão e mama feminina, utilizando dados do Município de São Paulo, para o ano de 1978. Além disso apresenta um modelo probabilístico que utiliza as mesmas informações dos modelos de literatura para estimar a incidência de doenças de caráter irreversível, com incidência, mortalidade e taxas de sobrevivência constantes por, pelo menos, um ano. Os resultados mostraram que o modelo proposto por este trabalho apresentou as melhores estimativas dos coeficientes de incidência de câncer de estômago, pulmão e mama feminina, quando comparado com os modelos de literatura. Os bons resultados obtidos incentivam a que se continue o aprimoramento de modelos matemáticos que utilizem dados de mortalidade para estimar a incidência de câncer. / Cronic diseases seem like a challenge for the epidemiologists, because it is difficult to know their natural history, etiologic agents, susceptibles and other importante information for their prevention, control and treatment. Among cronic diseàses, there is a special interest in cancer, because it is an important cause of death and the costs for its treatment are high. However, the routine official statistics give little or no information at all about its incidence and/or prevalence. In relation to these lines, having in mind the partiality and the precariousness of the morbidity statistics, many studies have been carried out with the objective of elaborating indirect measures of estimations of incidence and prevalence. This study checks the application of two mathematical models from the current literature that use population, mortality and survival data to estimate the incidence of stomach, lung and female breast cancer, using date from São Paulo City, for 1978. It was created a probabilistic model which uses the same informations of the literature models to forecast the incidence of the irreversible diseases, supposing that the rates of incidence, mortality and also survival are constants for at least one year. The results have demonstrated that the proposed model of this study showed the best estimative for the cancer incidence rate for stomach, lung and female breast when compared to the literature models. The good results obtained by this proposed model encourage the continuation of the development of mathematical models using mortality date to forecast cancer incidence rates.
|
16 |
Análise e otimização estocásticas de concepções de estruturas de concreto armado utilizando modelos de seleçãoANDRADE, Nilma Fontes de Araujo 29 November 2013 (has links)
Submitted by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-04-10T14:18:22Z
No. of bitstreams: 2
Nilma_Andrade_Tese_UFPE_Orientador_Prof_Ezio.pdf: 7196685 bytes, checksum: 80134428156debbb0730554fb05ac9ae (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-04-10T14:18:22Z (GMT). No. of bitstreams: 2
Nilma_Andrade_Tese_UFPE_Orientador_Prof_Ezio.pdf: 7196685 bytes, checksum: 80134428156debbb0730554fb05ac9ae (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Previous issue date: 2013-11-29 / CAPES / Esta tese desenvolve e codifica uma metodologia que permite avaliar e selecionar concepções alternativas para estruturas de concreto armado, considerando as variáveis estruturais como estocásticas, os efeitos da propagação das incertezas e a otimização estocástica dos custos das alternativas de projeto, como uma ferramenta para mitigar riscos e realçar as oportunidades de ganho.
Tradicionalmente, a prática da engenharia sempre objetiva encontrar ―a solução ótima‖ sob hipóteses determinísticas, tanto na fase de estudos conceituais, fase esta sob a qual o trabalho pretende concentrar-se, quanto nas soluções específicas para os elementos estruturais no projeto final.
Esta tese é parte de um projeto de pesquisa e desenvolvimento na área de flexibilidade em sistemas de engenharia, como os envolvidos na exploração e na produção de petróleo em alto mar, ou na implantação de centenas de quilômetros de linhas de transmissão, ou de infraestrutura rodoviária, ou mesmo na construção de grandes edifícios, ou conjuntos deles. Geralmente esses projetos necessitam de investimentos de grande capital, submetidos a diversas incertezas técnicas e mercadológicas, e implementados ao longo de um grande intervalo de tempo.
As variáveis de projeto são descritas por funções de densidade de probabilidade apropriadas, e sua propagação é feita através da técnica de Monte Carlo. A otimização sob incerteza das variáveis de projeto é efetuada sobre medidas estocásticas das funções-objetivo, usando algoritmos de otimização que não requerem o cálculo de derivadas. Desta forma, uma gama enorme de funções-objetivo estocásticas (ou não) pode ser codificada, de acordo com as necessidades do projeto. Tais algoritmos de otimização, trabalhando conjuntamente com amostragens das distribuições, permitem uma generalidade suficiente para a avaliação e a otimização de alternativas de projeto sob diversos critérios.
A generalidade acima descrita não pode ser conseguida senão com uma análise de centenas de milhares de análises e dimensionamentos estruturais. Esse desafio computacional é enfrentado com o desenvolvimento de modelos de seleção para o dimensionamento dos elementos estruturais. A esses modelos, de média fidelidade, são acoplados regras de decisão normativas, modelos de análise estrutural e modelos econômicos.
|
17 |
Probabilistic analysis applied to robotsARAÚJO, Rafael Pereira de 15 September 2016 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2017-08-23T12:48:01Z
No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
dissertacao_mestrado_rafael_araujo.pdf: 1319314 bytes, checksum: 15854b595d618c609a911b95573a01ad (MD5) / Made available in DSpace on 2017-08-23T12:48:01Z (GMT). No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
dissertacao_mestrado_rafael_araujo.pdf: 1319314 bytes, checksum: 15854b595d618c609a911b95573a01ad (MD5)
Previous issue date: 2016-09-15 / Robots are increasingly being used in industry and starting their way to our homes as
well. Nonetheless, the most frequently used techniques to analyze robots motion are based
on simulations or statistical experiments made from filming robots’ movements. In this
work we propose an alternative way of performing such analysis by using Probabilistic
Model Checking with the language and tool PRISM. With PRISM we can perform
simulations as well as check exhaustively whether a robot motion planning satisfies specific
Probabilistic Temporal formulas. Therefore we can measure energy consumption, time to
complete missions, etc., and all of these in terms of specific motion planning algorithms.
As consequence we can also determine if an algorithm is superior to another in certain
metrics. Furthermore, to ease the use of our work, we hide the PRISM syntax by proposing
a more user-friendly DSL. As a consequence, we created a translator from the DSL to
PRISM by implementing the translation rules and also, a preliminary investigation about
its relative completeness by using the grammatical elements generation tool LGen. We
illustrate those ideas with motion planning algorithms for home cleaning robots. / Robôs estão sendo cada vez mais utilizados na indústria e entrando em nossas casas também.
No entanto, as técnicas mais frequentemente utilizadas para analisar a movimentação
dos robôs são baseadas em simulações ou experimentos estatísticos realizados a partir da
filmagem do movimento dos robôs. Neste trabalho, nós propomos uma maneira alternativa
de realizar tais análises com a utilização da técnica de Verificação de Modelos Probabilísticos
com a linguagem e ferramenta PRISM. Com PRISM, podemos, tanto realizar simulações
quanto verificar exaustivamente se um planejamento de movimentação do robô satisfaz
fórmulas Probabilísticas Temporais específicas. Portanto, podemos medir o consumo de
energia, tempo necessário para completar missões, etc. e tudo isso em termos de algoritmos
específicos de planejamento de movimentação. Como consequência, podemos, também,
determinar se um algoritmo é superior a outro em relação a certas métricas. Além disso,
para facilitar o uso do nosso trabalho, escondemos a sintaxe do PRISM propondo uma
DSL amigável ao usuário. Em consequência, criamos um tradutor da DSL em PRISM
através da implementação de regras de tradução bem como fizemos uma investigação
preliminar sobre sua completude relativa usando a ferramenta de geração de elementos
gramaticais LGen. Ilustramos as idéias com algoritmos de planejamento de movimentação
para robôs de limpeza de casas.
|
18 |
Mapas auto-organizáveis probabilísticos para categorização de lugares baseada em objetosSILVA JÚNIOR, Marcondes Ricarte da 30 August 2016 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2017-08-31T12:45:41Z
No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
Dissertação - Marcondes Ricarte - Biblioteca Central.pdf: 3319680 bytes, checksum: 77eec2a6b32ef702f943780f9e487924 (MD5) / Made available in DSpace on 2017-08-31T12:45:41Z (GMT). No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
Dissertação - Marcondes Ricarte - Biblioteca Central.pdf: 3319680 bytes, checksum: 77eec2a6b32ef702f943780f9e487924 (MD5)
Previous issue date: 2016-08-30 / CAPES / Os robôs móveis estão cada vez mais inclusos na sociedade moderna podendo se locomover
usando “coordenadas cartográficas”. No entanto, com o intuito de aperfeiçoar a interação
homem-robô e a navegação das máquinas nos ambientes, os robôs podem dispor da habilidade
de criar um Mapa Semântico realizando Categorização dos Lugares. Este é o nome da área
de estudo que busca replicar a habilidade humana de aprender, identificar e inferir os rótulos
conceituais dos lugares através de sensores, em geral, câmeras.
Esta pesquisa busca realizar a Categorização de Lugares baseada em objetos existentes
no ambiente. Os objetos são importantes descritores de informação para ambientes fechados.
Desse modo as imagens podem ser representadas por um vetor de frequência de objetos contidos
naquele lugar. No entanto, a quantidade de todos possíveis tipos de objetos existentes é alta e os
lugares possuem poucos destes, fazendo com que a representação vetorial de um lugar através de
objetos contidos nele seja esparsa.
Os métodos propostos por este trabalho possuem duas etapas: Redutor de Dimensionalidade
e Categorizador. A primeira se baseia em conceitos de Compressão de Sinais, de Aprendizagem
Profunda e Mapas Auto-Organizáveis (SOMs), a fim de realizar o pré-processamento dos
dados de frequência de objetos para a redução da dimensionalidade e minimização da esparsidade
dos dados. Para segunda etapa foi proposto o uso de múltiplos Mapas Auto-Organizáveis
Probabilísticos (PSOMs). Os experimentos foram realizados para os métodos propostos por
esse trabalho e comparados com o Filtro Bayesiano, existente na literatura para solução desse
problema. Os experimentos foram realizados com quatro diferentes bases de dados que variam
em ordem crescente de quantidade de amostras e categorias. As taxas de acerto dos métodos
propostos demonstraram ser superiores à literatura quando o número de categorias das bases
de dados é alta. Os resultados para o Filtro Bayesiano degeneram para as bases com maiores
quantidade de categorias, enquanto para os métodos propostos por essa pesquisa as taxas de
acerto caem mais lentamente. / Mobile Robots are currently included in modern society routine in which they may move
around often using "cartographic coordinates". However, in order to improve human-robot
interaction and navigation of the robots in the environment, they can have the ability to create
a Semantic Map by Categorization of Places. The computing area of study that searches to
replicate the human ability to learn, identify and infer conceptual labels for places through sensor
data, in general, cameras is the Place Categorization.
These methods aim to categorize places based on existing objects in the environment
which constitute important information descriptors for indoors. Thus, each image can be
represented by the frequency of the objects present in a particular place. However, the number
of all possible types of objects is high and the places do have few of them, hence, the vector
representation of the objects in a place is usually sparse.
The methods proposed by this dissertation have two stages: Dimensionality reduction
and categorization. The first stage relies on Signal Compression concepts, Deep Learning
and Self-Organizing Maps (SOMs), aiming at preprocessing the data on object frequencies
for dimensionality reduction and minimization of data sparsity. The second stage employs
Probabilistic Self-Organizing Maps (PSOMs). The experiments were performed for the two
proposed methods and compared with the Bayesian filter previously proposed in the literature.
The experiments were performed with four different databases ranging considering different
number of samples and categories. The accuracy of the proposed methods was higher than the
previous models when the number of categories of the database is high. The results for the
Bayesian filter tends to degrade with higher number of categories, so do the proposed methods,
however, in a slower rate.
|
19 |
Análisis probabilístico de riesgo geotécnico en excavaciones profundas utilizando anclajes post-tensados en edificaciones de Lima Metropolitana / Probabilistic analysis of geotechnical risk in deep excavations using post-tensioned anchors in buildings of Metropolitan LimaAgreda Principe, Santos Oliver, Avila Ascencio, Erick Andrés 30 July 2020 (has links)
La presente investigación tuvo como objetivo principal, determinar el riesgo geotécnico de excavaciones profundas utilizando anclajes post-tensados en edificaciones de Lima Metropolitana, aplicando métodos probabilísticos a partir de un abordaje estadístico simple, basado en la hipótesis fundamental de la distribución normal gaussiana de las variables envueltas.En primer lugar, se utilizó el parámetro fundamental de los anclajes post-tensados, la capacidad última de adherencia en la interacción suelo-lechada de cemento τult, (resistencia en la ruptura). Este parámetro se obtuvo de dieciséis (16) ensayos de arrancamiento a escala natural de anclajes post-tensados cimentados en el conglomerado de Lima Metropolitana, obtenidos de la tesis de maestría de Puelles (2011).
En segundo lugar, se realizó un diseño de anclajes post-tensados de edificaciones en Lima Metropolitana de 3, 4 y 5 anillos de 10.50, 13.50 y 16.50 m de profundidad respectivamente. Para ello, se utilizó la metodología FHWA con el objetivo de obtener la capacidad de carga de diseño (TD) de anclajes post-tensados. Además, se ejecutó modelos y modelamientos en el software Slide v6.0 (método equilibrio límite), para realizar el análisis de estabilidad de los mismos. Para ello, se tuvo en cuenta las siguientes variables: los parámetros geotécnicos representativos de Lima Metropolitana, la profundidad de estudio (10.50 a 16.50 m.) y la sobrecarga de edificaciones colindantes. Por último, con los parámetros obtenidos (τult y TD) se definió las curvas estadísticas de distribución de solicitación y resistencia. Luego, se aplicó los métodos probabilísticos e interpretación respectiva, determinado así el riesgo geotécnico para cada caso de estudio. / The main objective of this research was to determine the geotechnical risk of deep excavations using post-tensioned anchors in buildings in Metropolitan Lima, applying probabilistic methods based on a simple statistical approach, based on the fundamental hypothesis of the Gaussian normal distribution of the variables wrapped.
Firstly, the fundamental parameter of the post-tensioned anchors was used, the ultimate capacity of adhesion in the soil-cement grout interaction τult, (resistance to rupture). This parameter was obtained from sixteen (16) natural scale pull-out tests of post-tensioned anchorages cemented in the conglomerate of Metropolitan Lima, obtained from the master's thesis of Puelles (2011).
Secondly, a design of post-tensioned anchorages of buildings in Metropolitan Lima of 3, 4 and 5 rings of 10.50, 13.50 and 16.50 m depth, respectively, was carried out. For this, the FHWA methodology was used with the objective of obtaining the design load capacity (TD) of post-tensioned anchors. In addition, models and modeling were executed in the Slide v6.0 software (limit equilibrium method), to perform their stability analysis. For this, the following variables were taken into account: the representative geotechnical parameters of Metropolitan Lima, the study depth (10.50 to 16.50 m.) And the overload of neighboring buildings.
Finally, with the obtained parameters (τult and TD) the statistical curves of the distribution of stress and resistance were defined. Then, the probabilistic methods and respective interpretation were applied, thus determining the geotechnical risk for each case study. / Tesis
|
20 |
Desarrollo y análisis de algoritmos probabilísticos para la reconstrucción de modelos metabólicos a escala genómicaReyes Chirino, Raymari 09 December 2013 (has links)
This doctoral project is focused on the development and analysis of algorithms for the reconstruction of genome-scale metabolic models, such algorithms include decision-making based on probabilistic criteria. As a fundamental result of the doctoral research, the web application Computational Platform to Access Biological Information (COPABI), which can reconstruct genome-scale metabolic models of biological systems, has been developed. During its computational implementation, it was followed the methodology used for the reconstruction of the first genome-scale metabolic model of a photosynthetic microorganism, the Synechocystis sp. PCC6803. Different mathematical algorithms were applied to compare the models that were automatically generated by COPABI with those published in the literature for different species. / El presente proyecto doctoral se ha centrado en el desarrollo y análisis de algoritmos para la reconstrucción de modelos metabólicos a escala genómica; tales algoritmos incluyen la toma de decisiones a partir de criterios probabilísticos. Como resultado fundamental de la investigación doctoral cabe destacar que se ha desarrollado la aplicación web Computational Platform to Access Biological Information (COPABI) que permite reconstruir modelos metabólicos a escala genómica de sistemas biológicos. Durante su implementación computacional, se ha seguido la metodología usada para la reconstrucción del primer modelo metabólico a escala genómica de un microorganismo fotosintético, la Synechocystis sp. PCC6803. Se aplicaron diferentes algoritmos matemáticos para comparar los modelos generados automáticamente por COPABI con los publicados en la literatura para diferentes especies. / Reyes Chirino, R. (2013). Desarrollo y análisis de algoritmos probabilísticos para la reconstrucción de modelos metabólicos a escala genómica [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/34344
|
Page generated in 0.054 seconds