361 |
Uso de habitat e comportamento do boto-cinza sotalia guianensis em uma zona estuarina do estado de Sergipe, nordeste do Brasil a biotecnologia vegetal como alternativa para a cotonicuLima, Maisa de Souza 13 December 2010 (has links)
Made available in DSpace on 2014-12-17T15:37:03Z (GMT). No. of bitstreams: 1
MaisaSL_DISSERT.pdf: 2026475 bytes, checksum: e8193d7fef1558e71f648e1ff98597f9 (MD5)
Previous issue date: 2010-12-13 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior / To clarify the functional mechanisms of habitat use is necessary to analyze it in
conjunction with the conduct performed by animals. The occurrence, distribution and
use of space are characteristic of a species resulting from habitat selection that is in
search of conditions favorable to its survival. One can relate the physical and biological
factors of the environment with the ecological characteristics of the species, since these
factors act by regulating the ecological success of organisms, and from there you can
get important information about the habitat use and behavior of individuals. This study
aimed to characterize the use of habitat and diurnal activity expressed by the Guiana
dolphin, Sotalia guianensis in an estuarine area of Sergipe state, Brazil, analyzing the
influence of tide and time days on the occurrence of animals and behavior s state, and
group s size and composition in this cetacean species. From March 2009 to February
2010, focal groups observations of dolphins were made from fixed - point and records
snapshots of data taken every 5 min. in the interval from 6 a.m to 6 p.m, in alternating
shifts. The results showed that the constant presence of animals in the area of the
Sergipe River estuary indicates that this is an important area of occurrence of S.
guianensis, which use the region mainly in the morning, at low tide and as a feeding. As
in other regions of northeastern Brazil, small groups formed 2-12 individuals were most
common, with adults and immatures. The high frequency of immature animals may
indicate that this area of the estuary is used as brood area and parental care of pups and
young animals, since the immature animals were very associated with adults and
monitoring the activities of foraging / feeding may be related to a form of learning or
training of such behavior / Para esclarecer os mecanismos funcionais do uso do habitat ? preciso analis?-lo
conjuntamente ao comportamento realizado pelos animais. A ocorr?ncia, distribui??o e
uso do espa?o s?o caracter?sticas de uma esp?cie decorrentes da sele??o do habitat que
esta faz em busca das condi??es favor?veis ? sua sobreviv?ncia. Podem-se relacionar os
fatores f?sicos e biol?gicos do ambiente com as caracter?sticas ecol?gicas da esp?cie, j?
que estes fatores atuam regulando o sucesso ecol?gico dos organismos, e a partir disso ?
poss?vel obter importantes informa??es sobre o uso de habitat e do comportamento dos
indiv?duos. Assim, este estudo objetivou caracterizar o uso de habitat e o
comportamento diurno expresso pelo boto-cinza, Sotalia guianensis, na zona estuarina
do Rio Sergipe, nordeste do Brasil, analisando a influ?ncia do estado da mar? e hora do
dia sobre a ocorr?ncia dos animais e dos estados de comportamento, bem como verificar
o tamanho e composi??o dos agrupamentos nesta esp?cie de cet?ceo. Para isso, de
Mar?o de 2009 a Fevereiro de 2010, observa??es focais dos agrupamentos de botos
foram feitas a partir de ponto - fixo e os registros instant?neos dos dados efetuados a
cada 5 min., no intervalo das 6:00h as 18:00h, em turnos alternados. Os resultados
mostraram que a constante presen?a dos animais na zona estuarina do Rio Sergipe
indica que esta ? uma importante ?rea de ocorr?ncia de S. guianensis, os quais usam a
regi?o principalmente no turno da manh?, em n?veis baixos de mar? e como ?rea de
alimenta??o. Como em outras regi?es do nordeste do Brasil, pequenos agrupamentos
foram mais comuns, formados por 2 a 12 indiv?duos de ambas as classes de idade,
adultos e imaturos. A alta freq??ncia de animais imaturos pode indicar que esta ?rea do
estu?rio seja utilizada como ?rea de cria e cuidado parental dos filhotes e animais
jovens, j? que os imaturos estiveram bastante associados aos adultos e o
acompanhamento nas atividades de forrageio/ alimenta??o pode estar relacionado a uma
forma de aprendizagem ou treinamento desse comportamento
|
362 |
Um modelo de localização-roteirização de instalações de transferência para distribuição de carga urbana baseado no método de cluster-first route-second. / A location-routing model for urban distribution centers based on the cluster -first route- second method.Fabiana Takebayashi 17 November 2014 (has links)
O trabalho apresenta o desenvolvimento e a aplicação de um modelo de localização de centros intermediários de consolidação e redistribuição de cargas em um ambiente urbano brasileiro. O método integra o TransCAD e o OpenSolver e é aplicado à cidade de Curitiba, uma das dez mais populosas do Brasil. O método proposto é caracterizado como um modelo de localização-roteirização baseado em agrupamento e subsequente roteirização, identificado na literatura por cluster-first routesecond; a adoção deste ordenamento permite tratar o problema para o atendimento de muitos estabelecimentos, como os até 65 mil em alguns dos cenários no estudo de caso de Curitiba. Cada agrupamento representa os pontos a serem visitados em uma única viagem e o processo inicial tenta minimizar as distâncias entre os estabelecimentos de cada grupo; na fase seguinte o melhor roteiro é computado para cada grupo; a terceira etapa consiste em calcular, para cada grupo e candidato, a distância total percorrida na viagem; por fim, a implantação ou não dos candidatos a centros de distribuição é obtida com a minimização em um modelo de programação linear inteira dos custos de aquisição e de operação dos centros de distribuição e dos custos de transportes. A dissertação também aborda a crescente percepção da importância da logística urbana à qualidade de vida nas cidades onde o adensamento populacional acirra a disputa pelo espaço viário e o conceito de City Logistics, que delineia entre outras medidas o ambiente cooperativo no qual implantação de centros de distribuição urbanos deve ocorrer. / This work presents the development and application of a model for the location of intermediary consolidation and redistribution freight centers in Brazilian cities. The method integrates TransCad and OpenSolver, and its use was evaluated with data from the City of Curitiba one of the ten largest in Brazil. The proposed method is characterized as a location-routing model based on clustering and subsequent tour building known as cluster-first route-second. This enables dealing with problem instances containing as many as 65 thousand customers. Each cluster comprehends the points visited on a single trip and the initial process minimizes the distances between customers; the routes are calculated in the next phase and the third step consists in computing the total distance covered in each trip for every cluster and every candidate; finally, the implementation of each distribution center candidate is decided by minimizing the costs of acquisition, operation and distribution, using an integer linear programming model. The dissertation also highlights the growing realization of the importance of urban freight transport to quality of life, especially in cities where increasing population density intensifies the competition for road space, and City Logistics concepts, that outline among other measures the cooperative environment where implementation of urban distribution centers should occur.
|
363 |
Aplicação de método Monte Carlo para cálculos de dose em folículos tiroideanosSILVA, Frank Sinatra Gomes da 25 February 2008 (has links)
Submitted by (ana.araujo@ufrpe.br) on 2016-07-05T19:39:13Z
No. of bitstreams: 1
Frank Sinatra Gomes da Silva.pdf: 1131089 bytes, checksum: 2c4bf5cf9af313b266e2630e4726c0c9 (MD5) / Made available in DSpace on 2016-07-05T19:39:13Z (GMT). No. of bitstreams: 1
Frank Sinatra Gomes da Silva.pdf: 1131089 bytes, checksum: 2c4bf5cf9af313b266e2630e4726c0c9 (MD5)
Previous issue date: 2008-02-25 / The Monte Carlo method is an important tool to simulate radioactive particles interaction with biologic medium. The principal advantage of the method when compared with deterministic methods is the ability to simulate a complex geometry. Several computational codes use the Monte Carlo method to simulate the particles transport and they have the capacity to simulate energy deposition in models of organs and/or tissues, as well models of cells of human body. Thus, the calculation of the absorbed dose to thyroid’s follicles (compound of colloid and follicles’ cells) have a fundamental importance to dosimetry, because these cells are radiosensitive due to ionizing radiation exposition, in particular, exposition due to radioisotopes of iodine, because a great amount of radioiodine may be released into the environment in case of a nuclear accidents. In this case, the goal of this work was use the code of particles transport MNCP4C to calculate absorbed doses in models of thyroid’s follicles, for Auger electrons, internal conversion electrons and beta particles, by iodine-131 and short-lived iodines (131, 132, 133, 134 e 135), with diameters varying from 30 to 500 μm. The results obtained from simulation with the MCNP4C code shown an average percentage of the 25% of total absorbed dose by colloid to iodine- 131 and 75% to short-lived iodine’s. For follicular cells, this percentage was of 13% toiodine-131 and 87% to short-lived iodine’s. The contributions from particles with low energies, like Auger and internal conversion electrons should not be neglected, to assessment the absorbed dose in cellular level. Agglomerative hierarchical clustering was used to compare doses obtained by codes MCNP4C, EPOTRAN, EGS4 and by deterministic methods. / O método Monte Carlo é uma poderosa ferramenta para simular a interação de partículas radioativas com a matéria biológica. A principal vantagem do método, quando comparado com métodos determinísticos, tem sido a habilidade de adequarse de forma precisa a qualquer geometria complexa. Vários códigos computacionais simulam o transporte de partículas via método Monte Carlo, com capacidade para simular o depósito de energia em modelos geométricos que vão desde órgãos e/ou tecidos do corpo, como em modelos de células pertencentes a órgãos do corpo humano. Nesse sentido, o cálculo da dose absorvida pelos folículos tiroideanos (composto de colóide e células foliculares) tem sido de fundamental importância na dosimetria, uma vez que essas células são bastante radiosensíveis à exposição pela radiação ionizante, em particular exposição essa devido aos radioisótopos de iodo, que são resultados de produtos de fissão em casos de acidentes nucleares. Dessa forma, o objetivo desse trabalho foi o de utilizar o código para transporte de partículas MCNP4C para calcular doses absorvidas em modelos de folículos tiroideanos, devido aos elétrons Auger, elétrons de conversão interna e partículas beta, do iodo-131 e dos isótopos de meia-vida curta (iodos 132, 133, 134 e 135),para folículos com diâmetros que variaram de 30 até 500 μm. Os resultados obtidos pela simulação com o MCNP4C apresentaram um percentual médio de 25% da dose total absorvida pelo colóide para o iodo-131 e de 75% para os iodos de meia-vida curta. Para as células foliculares, esse percentual foi em média de 13% para o iodo- 131 e de 87% para os iodos de meia-vida curta, ressaltando assim a importância de simular partículas de baixa energia, como os elétrons Auger e elétrons de conversão interna, para a avaliação da dose absorvida a nível celular. Técnicas hierárquicas de análise de agrupamento foram usadas para comparações entre doses obtidas pelos códigos MCNP4C, EPOTRAN, EGS4 e doses calculadas por métodos determinísticos.
|
364 |
MCAC - Monte Carlo Ant Colony: um novo algoritmo estocástico de agrupamento de dadosAGUIAR, José Domingos Albuquerque 29 February 2008 (has links)
Submitted by (ana.araujo@ufrpe.br) on 2016-07-06T19:39:45Z
No. of bitstreams: 1
Jose Domingos Albuquerque Aguiar.pdf: 818824 bytes, checksum: 7c15525f356ca47ab36ddd8ac61ebd31 (MD5) / Made available in DSpace on 2016-07-06T19:39:45Z (GMT). No. of bitstreams: 1
Jose Domingos Albuquerque Aguiar.pdf: 818824 bytes, checksum: 7c15525f356ca47ab36ddd8ac61ebd31 (MD5)
Previous issue date: 2008-02-29 / In this work we present a new data cluster algorithm based on social behavior of ants which applies Monte Carlo simulations in selecting the maximum path length of the ants. We compare the performance of the new method with the popular k-means and another algorithm also inspired by the social ant behavior. For the comparative study we employed three data sets from the real world, three deterministic artificial data sets and two random generated data sets, yielding a total of eight data sets. We find that the new algorithm outperforms the others in all studied cases but one. We also address the issue concerning about the right number of groups in a particular data set. Our results show that the proposed algorithm yields a good estimate for the right number of groups present in the data set. / Esta dissertação apresenta um algoritmo inédito de agrupamento de dados que têm como fundamentos o método de Monte Carlo e uma heurística que se baseia no comportamento social das formigas, conhecida como Otimização por Colônias de Formigas. Neste trabalho realizou-se um estudo comparativo do novo algoritmo com outros dois algoritmos de agrupamentos de dados. O primeiro algoritmo é o KMédias que é muito conhecido entre os pesquisadores. O segundo é um algoritmo que utiliza a Otimização por Colônias de Formigas juntamente com um híbrido de outros métodos de otimização. Para implementação desse estudo comparativo utilizaram-se oito conjuntos de dados sendo três conjuntos de dados reais, dois artificiais gerados deterministicamente e três artificiais gerados aleatoriamente. Os resultados do estudo comparativo demonstram que o novo algoritmo identifica padrões nas massas de dados, com desempenho igual ou superior aos outros dois algoritmos avaliados. Neste trabalho investigou-se também a capacidade do novo algoritmo em identificar o número de grupos existentes nos conjuntos dados. Os resultados dessa investigação mostram que o novo algoritmo é capaz de identificar o de número provável de grupos existentes dentro do conjunto de dados.
|
365 |
Algoritmo Wang-Landau e agrupamento de dados superparamagnéticoRAMEH, Leila Milfont 26 August 2010 (has links)
Submitted by (ana.araujo@ufrpe.br) on 2016-08-02T14:20:48Z
No. of bitstreams: 1
Leila Milfont Rameh.pdf: 1805419 bytes, checksum: 3c0a871188e0dc9ff8282000ec45fc1c (MD5) / Made available in DSpace on 2016-08-02T14:20:48Z (GMT). No. of bitstreams: 1
Leila Milfont Rameh.pdf: 1805419 bytes, checksum: 3c0a871188e0dc9ff8282000ec45fc1c (MD5)
Previous issue date: 2010-08-26 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / The method of unsupervised data classification proposed by Domany and coworkers is based on mapping the problem onto an inhomogeneous granular magnetic system whose properties can be investigated through some Monte Carlo Method. The array containing the data consists of n numeric attributes corresponding to points in an n-dimensional Euclidean space. Each data item is associated with a Potts spin. The interaction between such spins decays exponentially with the distance. This favors the alignment of the spins associated with similar objects. The physical system corresponds to a disordered ferromagnet which, in turn, is described by a Hamiltonian of a q-states Potts model. It is expected that the magnetic system exhibits three temperature-dependent regimes. For very low temperatures the system is completely ordered. At the other extreme, high temperatures, the system shows no magnetic order. In an intermediate range of temperatures, the spins within certain regions remain tightly coupled, forming grains. However, a grain does not influence the behavior of another grain. That is, the grains are non-correlated and this intermediate state is named a superparamagnetic phase. The transition from one regime to another can be identified by peaks in the specific heat versus temperature curve. We apply the method to several artificial and real-life data sets, such as classification of flowers, summary medical data and identification of images. We measure the spin-spin correlation at several temperatures to classify the data. In disagreement with the Domany and coworkers claims we found that the best classification of the data occurred outside the superparagnetic phase. / O método de agrupamento de dados não supervisionado proposto por Domany e colaboradores baseia-se no mapeamento do problema em um sistema magnético granular não homogêneo, cujas propriedades são investigadas através de algum método de Monte Carlo. A matriz que contém os dados é composta por n atributos de valor numérico e corresponde a um ponto em um espaço euclidiano n-dimensional. A cada item de dado é associado um spin de Potts. A interação entre tais spins decai exponencialmente com o aumento da distância entre eles. Isto favorece o alinhamento dos spins associados a objetos similares. O sistema físico corresponde a um ferromagneto desordenado que, por sua vez, é descrito por um hamiltoniano de Potts de q estados. Espera-se que o sistema magnético exiba três regimes quando sua temperatura seja variada. Para temperaturas muito baixas o sistema está completamente ordenado. No outro extremo, em altas temperaturas, o sistema não apresenta qualquer ordem magnética. Numa faixa intermediária de temperaturas, spins dentro de certas regiões permanecem fortemente acoplados, formando grãos. Porém, um grão não influencie o comportamento de outro grão. Ou seja, os grãos estão não correlacionados. Este estado intermediário caracteriza um estado superparamagnético. A transição de um regime para outro pode ser identificada por picos na curva de calor específico versus temperatura. Aplicamos o método aos conjuntos de dados reais da planta íris e de dados médicos, conhecido por BUPA, aos dados sintéticos conhecidos por Ruspini e a um conjunto de dados, gerado por nós, que consiste de duas figuras tridimensionais sobrepostas, um esfera e um toro. Procedemos a classificação dos dados através da correlação spin-spin em diversas temperaturas. O principal resultado foi a verificação que nem sempre o agrupamento realizado na fase superparamagnética é o ideal.
|
366 |
Utilização de técnicas multivariadas na classificação de fases de crescimento da leucena / The use of multivariate analysis on classification in leucena (Leucaena leucocephala (Lam.) de Wit.) growth fasesLIMA JÚNIOR, Leonardo Mendes de 30 May 2006 (has links)
Submitted by (ana.araujo@ufrpe.br) on 2016-08-02T14:44:31Z
No. of bitstreams: 1
Leonardo Mendes de Lima Junior.pdf: 503116 bytes, checksum: b90ee3eab94955ade9a3cdf620bfdf26 (MD5) / Made available in DSpace on 2016-08-02T14:44:31Z (GMT). No. of bitstreams: 1
Leonardo Mendes de Lima Junior.pdf: 503116 bytes, checksum: b90ee3eab94955ade9a3cdf620bfdf26 (MD5)
Previous issue date: 2006-05-30 / The aim of this work was to identify the growth phases of leucena (Leucaena leucocephala (Lam.) of Wit.), as a function of time, by using of the multivariate analysis techniques. The data set was obtained through an experiment performed at the Experimental Station of Caruaru-PE of the Institute of Agricultural Research - IPA. Besides 20 actual measures of height along time, additional 17 values were used, obtained by interpolation of best fit curves to the Weibull Model, as well as by linear type interpolation, for two distinct treatments groups: according to presence or absence of organic compound residue. The factor analysis was used to reduce the dimensionality of measured data to three factors with eigenvalues higher than unity, explaining 94.60% and 94.30% of the total variation for the treatments with and without organic compound, respectively, using the varimax rotation. The resulting factor scores were subjected to k-means cluster analysis, using previously selected, number of groups k from 3 to 10. The discriminant analysis was then employed to verify the efficiency of clustering of the best classification groups, which was found to be 95.2% and 95.1% of correct classification for the two treatments. The study it showed that the leucena trees which has received with treatment with organic on average attained greater height. The graphical analysis allowed the comparison among the data treatment with and without organic compound treatment, according to groups, in growth phase. / O objetivo deste trabalho foi identificar as fases de crescimento da leucena (Leucaena leucocephala (Lam.) de Wit.), ao longo do tempo, por meio da utilização das técnicas multivariadas. Os dados foram obtidos de um experimento, localizado na Estação Experimental de Caruaru-PE, que pertence à Empresa Pernambucana de Pesquisa Agropecuária – IPA. Nesse estudo, consideraram-se além das 20 medições em altura (em m) ao longo do tempo, outras mais 17 medições, interpoladas através do Modelo de Weibull e também por interpolação do tipo linear, dividido em 2 grupos distintos de tratamentos: segundo a presença ou não de composto de resíduo orgânico. A análise fatorial permitiu a redução da dimensionalidade das medições, em função de 3 fatores, com autovalores superiores a uma unidade e percentual do total da variação explicada de 94,60% e 94,30%, nos tratamentos sem e com composto orgânico, respectivamente, usando a rotação varimax. Dos fatores retidos, foram obtidos os escores e submetidos à análise de agrupamento do tipo k-médias, sendo o número de grupos escolhidos previamente, para de k de 3 a 10. Os grupos de melhor classificação foram verificados na análise discriminante, que avaliou a eficiência destes agrupamentos, em 95,2% e 95,1% de percentual de classificação correta. O estudo mostrou que as plantas que receberam o composto orgânico tiveram as maiores alturas, em média. A análise gráfica permitiu a comparação entre os dados que tiveram tratamento com composto orgânico e sem composto orgânico, conforme os grupos, em sua fase de crescimento.
|
367 |
Estabilidade em análise de agrupamento (cluster analysis) / Stability in cluster analysisALBUQUERQUE, Mácio Augusto de 23 February 2005 (has links)
Submitted by (ana.araujo@ufrpe.br) on 2016-08-03T17:35:12Z
No. of bitstreams: 1
Macio Augusto de Albuquerque.pdf: 1005283 bytes, checksum: b9e55eee4b0b853629358e6b2158ba81 (MD5) / Made available in DSpace on 2016-08-03T17:35:12Z (GMT). No. of bitstreams: 1
Macio Augusto de Albuquerque.pdf: 1005283 bytes, checksum: b9e55eee4b0b853629358e6b2158ba81 (MD5)
Previous issue date: 2005-02-23 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / The main objective of this research was to propose a systematic to the study and interpretation of the stability of methods in cluster analysis through many cluster algorithms in vegetation data. The data set used came from a survey in the Silviculture Forest at Federal University of Viçosa – MG. To perform the cluster analysis the matrices of Mahalanobis distance were estimated based on the original data and by “bootstrap” resampling. Also the methods of single linkageage, complete linkageage, the average of the distances, the centroid, the medium and the Ward were used. For the detection of the association among the methods it was applied the chi-square test. For the various methods of clustering it was obtained a cofenetical correlation. The results of the associations of methods were very similar, indicating, in principle, that any algorithm of cluster studied is stabilized and exist, in fact, groups among the individuals analyzed. However, it was concluded that themethods coincide with themselves, except the methods of centroid and Ward. Also the centroid methods and average when compared to the Ward, respectively, based on the matrices of Mahalanobis starting from the original data set and “bootstrap”. The methodology proposed is promising to the study and interpretation of the stabilityof methods concerning the cluster analysis in vegetation data. / Objetivou-se propor uma sistemática para o estudo e a interpretação da estabilidade dos métodos em análise de agrupamento, através de vários algoritmos de agrupamento em dados de vegetação. Utilizou-se dados provenientes de um levantamento na Mata da Silvicultura, da Universidade Federal de Viçosa-MG. Para análise de agrupamento foram estimadas as matrizes de distância de Mahalanobis com base nos dados originais e via reamostragem “bootstrap” e aplicados os métodos da ligação simples, ligação completa, médias das distâncias, do centróide, da mediana e do Ward. Para a detecção de associação entre os métodos foi aplicado o teste qui-quadrado. Para os diversos métodos de agrupamento foi obtida a correlação cofenética. Os resultados de associação dos métodos foram semelhantes, indicando em princípio que qualquer algoritmo de agrupamento estudado está estabilizado e existem, de fato, grupos entre os indivíduos observados. No entanto, observou-se que os métodos são coincidentes, exceto osmétodos do centróide e Ward e os métodos do centróide e mediana quando comparados com o de Ward, respectivamente, com base nas matrizes de Mahalanobis a partir dos dados originais e “bootstrap”. A sistemática proposta é promissora para o estudo e a interpretação da estabilidade dos métodos de análise de agrupamento em dados de vegetação.
|
368 |
Finanças comportamentais : um estudo sobre o perfil do investidor, o senso de autocontrole e o grau de confiança nas decisões de investimentos no mercado de açõesDiniz, Fabrício Bernardes 29 August 2013 (has links)
Made available in DSpace on 2018-08-01T23:40:33Z (GMT). No. of bitstreams: 1
tese_6823_Finanças Comportamentais Um Estudo Sobre o Perfil do Investidor2013.pdf: 1832085 bytes, checksum: d0e659b02801917799cad972b20eacc2 (MD5)
Previous issue date: 2013-08-29 / Nas mais diversas áreas de negócios, é comum que um gestor busque conhecer o perfil
de seus clientes para oferecer produtos e serviços mais adequados às necessidades
desses clientes. Os gestores que atuam no mercado financeiro utilizam um instrumento
para identificar o perfil do investidor e ao mesmo tempo adequar a oferta de produtos e
serviços financeiros em conformidade com a capacidade e a propensão de assumir
riscos desse investidor, sobretudo daquele inserido no contexto do mercado de ações.
Esse instrumento, apesar de não ser padrão, segue recomendações de órgãos reguladores
e de associações de entidades do mercado de capitais (no Brasil, a Anbima - Associação
Brasileira das Entidades dos Mercados Financeiro e de Capitais). Esses instrumentos
utilizam, para a avaliação do perfil de risco, fatores como situação financeira do
investidor, objetivo do investimento, horizonte de tempo para obtenção de resultados,
tolerância ao risco e experiência em investimentos de risco. Não consideram fatores
comportamentais que segundo a teoria, podem afetar a propensão a assumir riscos.
Dentre esses fatores estão o senso de autocontrole, que ocasiona uma percepção
distorcida de controle sobre os resultados esperados, e o grau de autoconfiança que no
extremo pode levar ao excesso de confiança ou excesso de otimismo quanto a resultados
esperados. Sendo assim, por meio de uma pesquisa realizada com 59 clientes de uma
corretora de ações, o presente estudo se propôs a avaliar se o perfil de risco do
investidor calculado segundo recomendações de órgãos reguladores do mercado
financeiro, afeta o senso de autocontrole e o grau de confiança dos investidores em suas
decisões de investimentos no mercado de ações. E avaliar se é possível segmentar os
investidores de acordo com características pessoais e fatores que compõem o seu perfil
de risco de forma a mais bem caracterizá-los quanto a riscos assumidos e retornos
obtidos em seus investimentos em mercados de risco. Buscou identificar quais fatores
que compõem a avaliação do perfil de risco são mais relevantes para discriminar os
investidores segundo suas características pessoais e sua propensão a assumir riscos. A
partir de uma análise de conglomerados (cluster analysis) o estudo identificou três
grupos distintos de investidores com diferentes níveis de conhecimento e experiência de
investimentos no mercado de ações e relacionou esses grupos a riscos assumidos e
retornos alcançados em seus investimentos. / In several areas of business, it is common that a manager seeks to know the profile of
their customers to offer products and services best suited to the needs of these
customers. The managers who work in the financial market using a tool to identify the
profile of the investor and at the same time adjust the supply of financial products and
services in accordance with the capacity and willingness to take risks that investors,
especially from that seen in the context of the stock market . This instrument, although
not standard, following recommendations of regulatory bodies and associations of the
capital market (in Brazil, Anbima - Brazilian Association of Financial and Capital).
These instruments use for the evaluation of the risk profile, factors such as the investor's
financial situation, investment objective, time horizon for achieving results, risk
tolerance and investment experience of risk. Do not consider behavioral factors which
according to theory, may affect the propensity to take risks. These factors include the
sense of self, which leads to a distorted perception of control over outcomes, and the
degree of confidence that in the end can lead to overconfidence or over-optimism about
the expected results. Thus, through a survey of 59 customers of a stockbroker, the
present study was to evaluate whether the risk profile of the investor calculated
according to recommendations from regulatory agencies in the financial market, affects
the sense of self and the degree of confidence of investors in their investment decisions
in the stock market. And assess whether it is possible to target investors according to
personal characteristics and factors that comprise its risk profile in order to better
characterize them as the risks taken and returns from their investments in risky markets.
Sought to identify factors that make up the assessment of the risk profile are most
relevant for discriminating investors according to their personal characteristics and their
propensity to take risks. From a cluster analysis (cluster analysis) the study identified
three distinct groups of investors with different levels of knowledge and investment
experience in the stock market and related groups such the risks assumed and achieved
returns on their investments.
|
369 |
Curva de crescimento de codornas ajustadas por modelos não lineares / Growth curve of quail setting for nonlinear modelsRibeiro, Marta Jeidjane Borges 25 February 2014 (has links)
This study aims to compare non-linear models fitted to the growth curves of quail in order to determine which model best describes the growth , to verify the similarity of the models by analyzing estimates of the parameters and to apply the model identity in different groups of strains and Treatments . We used the weight and age data from European quails (Coturnix coturnix coturnix) from three strains, in a 2x4 factorial design, housed in a completely randomized design with two levels of energy and four levels of crude protein, with six replications. Non-linear models were used: Brody, Von Bertalanffy, Richards, Logistic and Gompertz. To choose the best model we used the adjusted coefficient of determination, the percentage of convergence, the Mean Square Residue, the Durbin - Watson test, the Akaike information criteria and the Bayesian information criteria as evaluators of the quality of fit. We used cluster analysis to verify, based on average estimates of the parameters, the similarities between the models. We tested the identity of the models in order to verify whether the curve parameters for the eight treatments and for the three strains, would be equal. Among the models studied, the Logistic was the most appropriate to describe the growth curves. The Logistic and Richards models were similar in the analyzes irrespective of strain, so the analysis of Lineage 1, 2 and 3. There was no significant difference for the chosen parameters between treatments within each strain, however, there was significant difference, except for treatment 5, for the parameters of strains within each treatment, caused by the adult weight. / Objetivaram-se, neste estudo, comparar modelos não lineares ajustados às curvas de crescimento de codornas para determinar qual modelo que melhor descreve o crescimento, verificar a similaridade dos modelos analisando as estimativas dos parâmetros e, aplicar a identidade de modelos em diferentes grupos de Linhagens e Tratamentos. Para a análise, foram utilizados os dados peso e idade de codornas européias de corte (Coturnix coturnix coturnix) proveniente de três linhagens, em um esquema fatorial 2x4, instalado em um delineamento inteiramente casualizado, com dois níveis de energia metabolizável e quatro níveis de proteína bruta, com seis repetições. Os modelos não lineares utilizados foram: Brody, Von Bertalanffy, Richards, Logístico e Gompertz. Para a escolha do melhor modelo utilizou-se o coeficiente de determinação ajustado, o Percentual de convergência, o Quadrado Médio do Resíduo, o Teste de Durbin-Watson, o Critério de informação Akaike e o Critério de informação Bayesiano como avaliadores da qualidade do ajuste. Utilizou-se a análise de agrupamento para verificar, baseado nas estimativas médias dos parâmetros, a similaridades entre os modelos. Testou-se a identidade de modelos para verificar se os parâmetros das curvas, para os oito tratamentos e para as três linhagens, seriam iguais. Entre os modelos estudados, o Logístico foi o mais adequado para descrever as curvas de crescimento. Os modelos Logístico e Richards foram considerados similares nas análises sem distinção de linhagem, assim também nas análises das Linhagem 1, 2 e 3. Não houve diferença significativa para os parâmetros do modelo escolhido entre tratamentos dentro de cada linhagem, contudo, houve diferença significativa, exceto para o Tratamento 5, para os parâmetros entre linhagens dentro de cada tratamento, ocasionada pelo peso adulto.
|
370 |
Uma metodologia para síntese de circuitos digitais em FPGAs baseada em otimização multiobjetivoSOUZA, Viviane Lucy Santos de 20 August 2015 (has links)
Submitted by Irene Nascimento (irene.kessia@ufpe.br) on 2016-07-12T18:32:53Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Tese_Final_bib.pdf: 4325542 bytes, checksum: 5cafa644d256b743ce0f06490e4d5920 (MD5) / Made available in DSpace on 2016-07-12T18:32:53Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Tese_Final_bib.pdf: 4325542 bytes, checksum: 5cafa644d256b743ce0f06490e4d5920 (MD5)
Previous issue date: 2015-08-20 / Atualmente, a evolução na arquitetura dos FPGAs (Field programable gate
arrays) permite que os mesmos sejam empregados em aplicações que vão desde a
prototipação rápida de circuitos digitais simples a coprocessadores para computação de
alto desempenho. Entretanto, a utilização eficiente dessas arquiteturas é fortemente
dependente, entre outros fatores, da ferramenta de síntese empregada.
O desafio das ferramentas de síntese está em converter a lógica do projetista em
circuitos que utilizem de maneira efetiva a área do chip, não degradem a frequência de
operação e que, sobretudo, sejam eficientes em reduzir o consumo de energia. Nesse
sentido, pesquisadores e grandes fabricantes de FPGA estão, frequentemente,
desenvolvendo novas ferramentas com vistas a esses objetivos, que se caracterizam por
serem conflitantes. O fluxo de síntese de projetos baseados em FPGAs engloba as
etapas de otimização lógica, mapeamento, agrupamento, posicionamento e roteamento.
Essas fases são dependentes, de forma que, otimizações nas etapas iniciais produzem
impactos positivos nas etapas posteriores. No âmbito deste trabalho de doutorado,
estamos propondo uma metodologia para otimização do fluxo de síntese,
especificamente, nas etapas de mapeamento e agrupamento.
Classicamente, a etapa de mapeamento é realizada mediante heurísticas que
determinam uma solução para o problema, mas que, não permitem a busca por soluções
ótimas, ou que beneficiam um objetivo em detrimento de outros. Desta forma, estamos
propondo a utilização de uma abordagem multiobjetivo baseada em algoritmo genético
e de uma abordagem multiobjetivo baseada em colônia artificial de abelhas que,
associadas a heurísticas específicas do problema, permitem que sejam obtidas soluções
de melhor qualidade e que resultam em circuitos finais com área reduzida, ganhos na
frequência de operação e com menor consumo de potência dinâmica.
Além disso, propomos uma nova abordagem de agrupamento multiobjetivo que
se diferencia do estado da arte, por utilizar uma técnica de predição e por considerar
características dinâmicas do problema, produzindo circuitos mais eficientes e que
facilitam a tarefa das etapas de posicionamento e roteamento.
Toda a metodologia proposta foi integrada ao fluxo acadêmico do VTR (Verilog
to routing), um projeto código aberto e colaborativo que conta com múltiplos grupos de
pesquisa, conduzindo trabalhos nas áreas de desenvolvimento de arquitetura de FPGAs
e de novas ferramentas de síntese. Além disso, utilizamos como benchmark, um
conjunto dos 20 maiores circuitos do MCNC (Microelectronics Center of North
Carolina) que são frequentemente utilizados em pesquisas da área.
O resultado do emprego integrado das ferramentas frutos da metodologia
proposta permite a redução de importantes aspectos pós-roteamento avaliados. Em
comparação ao estado da arte, são obtidas, em média, redução na área dos circuitos de
até 19%, além da redução do caminho crítico em até 10%, associada à diminuição na
potência dinâmica total estimada de até 18%.
Os experimentos também mostram que as metodologias de mapeamento
propostas são computacionalmente mais custosas em comparação aos métodos
presentes no estado da arte, podendo ser até 4,7x mais lento. Já a metodologia de
agrupamento apresentou pouco ou nenhum overhead em comparação ao metodo
presente no VTR. Apesar do overhead presente no mapeamento, os métodos propostos,
quando integrados ao fluxo completo, podem reduzir o tempo de execução da síntese
em cerca de 40%, isto é o resultado da produção de circuitos mais simples e que,
consequentemente, favorecem as etapas de posicionamento e roteamento. / Nowadays, the evolution of FPGAs (Field Programmable Gate Arrays) allows
them to be employed in applications from rapid prototyping of digital circuits to
coprocessor of high performance computing. However, the efficient use of these
architectures is heavily dependent, among other factors, on the employed synthesis tool.
The synthesis tools challenge is in converting the designer logic into circuits
using effectively the chip area, while, do not degrade the operating frequency and,
especially, are efficient in reducing power consumption. In this sense, researchers and
major FPGA manufacturers are often developing new tools to achieve those goals,
which are characterized by being conflicting. The synthesis flow of projects based on
FPGAs comprises the steps of logic optimization, mapping, packing, placement and
routing. These steps are dependent, such that, optimizations in the early stages bring
positive results in later steps. As part of this doctoral work, we propose a methodology
for optimizing the synthesis flow, specifically, on the steps of mapping and grouping.
Classically, the mapping step is performed by heuristics which determine a
solution to the problem, but do not allow the search for optimal solutions, or that benefit
a goal at the expense of others. Thus, we propose the use of a multi-objective approach
based on genetic algorithm and a multi-objective approach based on artificial bee
colony that, combined with problem specific heuristics, allows a better quality of
solutions are obtained, yielding circuits with reduced area, operating frequency gains
and lower dynamic power consumption.
In addition, we propose a new multi-objective clustering approach that differs
from the state-of-the-art, by using a prediction technique and by considering dynamic
characteristics of the problem, producing more efficient circuits and that facilitate the
tasks of placement and routing steps .
The proposal methodology was integrated into the VTR (Verilog to routing)
academic flow, an open source and collaborative project that has multiple research
groups, conducting work in the areas of FPGA architecture development and new
synthesis tools. Furthermore, we used a set of the 20 largest MCNC (Microelectronics
Center of North Carolina) benchmark circuits that are often used in research area.
The results of the integrated use of tools based on the proposed methodology
allow the reduction of important post-routing aspects evaluated. Compared to the stateof-
the-art, are achieved, on average, 19% reduction in circuit area, besides 10%
reduction in critical path, associated with 18% decrease in the total dynamic estimated
power.
The experiments also reveal that proposed mapping methods are
computationally more expensive in comparison to methods in the state-of-the-art, and
may even be 4.7x slower. However, the packing methodology presented little or no
overhead compared to the method in VTR. Although the present overhead mapping, the
proposed methods, when integrated into the complete flow, can reduce the running time
of the synthesis by approximately 40%, which is the result of more simple circuits and
which, consequently, favor the steps of placement and routing.
|
Page generated in 0.0531 seconds