311 |
Aprendizado relacional por um modelo neuralHernandez, Juliana Delgado Santos January 2001 (has links)
As técnicas que formam o campo da Descoberta de Conhecimento em Bases de Dados (DCBD) surgiram devido à necessidade de se tratar grandes volumes de dados. O processo completo de DCBD envolve um elevado grau de subjetividade e de trabalho não totalmente automatizado. Podemos dizer que a fase mais automatizada é a de Mineração de Dados (MD). Uma importante técnica para extração de conhecimentosa partir de dados é a Programação Lógica Indutiva (PLI), que se aplica a tarefas de classificação, induzindo conhecimento na forma da lógica de primeira ordem. A PLI tem demonstrado as vantagens de seu aparato de aprendizado em relação a outras abordagens, como por exemplo, aquelas baseadas em aprendizado proposicional Os seus algorítmos de aprendizado apresentam alta expressividade, porém sofrem com a grande complexidade de seus processos, principalmente o teste de corbertura das variáveis. Por outro lado, as Redes Neurais Artificiais (RNs) introduzem um ótimo desempenho devido à sua natureza paralela. às RNs é que geralmente são "caixas pretas", o que torna difícil a obtenção de um interpretação razoável da estrutura geral da rede na forma de construções lógicas de fácil compreensão Várias abordagens híbridas simbólico-conexionistas (por exemplo, o MNC MAC 890 , KBANN SHA 94 , TOW 94 e o sistema INSS OSO 98 têm sido apresentadas para lidar com este problema, permitindo o aprendizado de conhecimento simbólico através d euma RN. Entretanto, estas abordagens ainda lidam com representações atributo-valor. Neste trabalho é apresentado um modelo que combina a expressividade obtida pela PLI com o desempenho de uma rede neural: A FOLONET (First Order Neural Network).
|
312 |
Um método para detectar falhas incipientes em máquinas rotativas baseado em análise de vibração e lógica FuzzyMarcal, Rui Francisco Martins January 2000 (has links)
Este trabalho apresenta um método para detectar falhas no funcionamento de máquinas rotativas baseado em alterações no padrão de vibração do sistema e no diagnóstico da condição de operação, por Lógica Fuzzy. As modificações ocorridas são analisadas e servem como parâmetros para predizer falhas incipientes bem como a evolução destas na condição de operação, possibilitando tarefas de manutenção preditiva. Utiliza-se uma estrutura mecânica denominada de Sistema Rotativo (Figura 1), apropriada para as simulações das falhas. Faz-se a aquisição de dados de vibração da máquina usando-se um acelerômetro em chip biaxial de baixa potência. As saídas são lidas diretamente por um contador microprocessador não requerendo um conversor A/D. Um sistema de desenvolvimento para processamento digital de sinais, baseado no microprocessador TMS320C25, o Psi25, é empregado na aquisição dos sinais de vibração (*.dat), do Sistema Rotativo. Os arquivos *.dat são processados através da ferramenta matemática computacional Matlab 5 e do programa SPTOOL. Estabelece-se o padrão de vibração, denominado assinatura espectral do Sistema Rotativo (Figura 2) Os dados são analisados pelo sistema especialista Fuzzy, devidamente calibrado para o processo em questão. São considerados, como parâmetros para a diferenciação e tomada de decisão no diagnóstico do estado de funcionamento pelo sistema especialista, a freqüência de rotação do eixo-volante e as amplitudes de vibração inerentes a cada situação de avaria. As falhas inseridas neste trabalho são desbalanceamentos no eixovolante (Figura 1), através da inserção de elementos desbalanceadores. A relação de massa entre o volante e o menor elemento desbalanceador é de 1:10000. Tomando-se como alusão o conhecimento de especialistas no que se refere a situações normais de funcionamento e conseqüências danosas, utilizam-se elementos de diferentes massas para inserir falhas e diagnosticar o estado de funcionamento pelo sistema fuzzy, que apresenta o diagnóstico de formas qualitativa: normal; falha incipiente; manutenção e perigo e quantitativa, sendo desta maneira possível a detecção e o acompanhamento da evolução da falha.
|
313 |
Análise regional de freqüências aplicada à precipitação pluvialCarvalho, Teresa Luisa Lima de January 2007 (has links)
O conhecimento da probabilidade de ocorrência de precipitações é de grande importância para o planejamento de atividades como produção agrícola, sistemas de abastecimento de água e geração de energia. Neste sentido, a análise regional de freqüências se apresenta como uma ferramenta para a redução de incertezas na estimativa das probabilidades, podendo também diminuir a dimensionalidade das informações. Desta forma, esta pesquisa tem por objetivo estudar uma metodologia para análise regional de freqüências, aplicada à precipitação, na qual se admite que as séries que formam uma região homogênea seguem uma mesma distribuição, que dispensa a utilização de fatores de escala locais, e que seus parâmetros podem ser satisfatoriamente estimados pela média dos parâmetros de ajuste das séries locais. Para compor a metodologia foi construído um teste de homogeneidade regional e um teste para avaliar a qualidade do agrupamento, que leva em consideração os objetivos da análise. Os dois testes citados e a verificação da qualidade da obtenção da distribuição regional pela média dos parâmetros locais foram baseados na medida da máxima diferença de probabilidades entre duas séries e no teste de aderência de Kolmogorov-Smirnov (KS), auxiliando, então, numa melhor compreensão dos resultados, já que esse teste é referência na avaliação da qualidade do ajuste de funções probabilísticas. Como estudo de caso, a metodologia foi aplicada na análise de precipitações totais mensais e anuais no Rio Grande do Sul e em Santa Catarina, utilizando-se o método de agrupamento difuso Fuzzy CMeans para identificação das regiões. Verificou-se que o modelo de obtenção da distribuição regional proposto é satisfatório, embora necessite de um fator de correção para a distribuição Gama. O teste de aderência regional mostrou-se bastante útil para orientar a ponderação das variáveis e para auxiliar na determinação do melhor número de regiões, o que foi comprovado pelo alto grau de homogeneidade verificado, mesmo antes de serem aplicados ajustes nas regiões resultantes do agrupamento. Constatou-se ainda que a utilização dos graus de pertinência não produziu resultados satisfatórios para fazer estimativas pontuais e pouco contribuiu para a realização de ajustes no agrupamento. Todavia, o ajuste do modelo de alocação para novos pontos, através da matriz de pertinência, apresentou bons resultados, embora ainda seja necessária sua verificação em situação real. A análise regional da área de estudo resultou em nove regiões, que foram consideradas heterogêneas em apenas dois dos 117 períodos avaliados. Além disso, a partir do teste KS ( = 20%), verificou-se que as distribuições regionais se mostraram válidas para 97,8% das séries, confirmando a possibilidade de utilizar a distribuição regional, sem a necessidade dos fatores de escala locais. / Information on rainfall probability are helpful for some activities planning including agriculture, water supply and hydropower generation. For such purpose, the regional frequency analysis is a powerful tool to reduce uncertainties in probabilities estimation and also information’s dimension. This research evaluates the possibility of taking rainfall regional frequency analysis considering that in a homogeneous region the site frequency distributions are identical, setting aside local scaling factors, and that its parameters may satisfactorily be estimated by average parameters of local series fitting. To address such goals, the methodology consisted of elaborating a regional homogeneity test and a test to assess the cluster quality. Both tests and the assessment over the regional distribution quality were based on the maximum probability differences between two series and on the Kolmogorov-Smirnov test (KS). As a case study, the methodology was applied on Rio Grande do Sul and Santa Catarina States monthly and annual precipitation data, using clustering method Fuzzy CMeans for identification of regions. It was verified that the regional distribution model is satisfactory, although it needs a correction factor for Gamma distribution. The test of regional adherence was useful to guide the variables weighting and to help on the determination of the optimum number of regions, once a high degree of homogeneity was obtained, even before the application of adjustments on the resultant regions from the cluster analysis. The use of membership degrees was not satisfactory on estimating at-site features and resulted on low contribution for cluster adjustments. However, the allocation model fitting for new points presented good results, though a real case assessment is still required. The regional analysis resulted in nine regions, which were heterogeneous in only two of the 117 evaluated periods. Moreover, from the KS test ( = 20%), it was verified that the regional distributions were valid for 97.8% of the series, confirming the possibility to use regional distribution, without any local scaling factor.
|
314 |
O papel demonstrativo dos diagramas na geometria euclidianaJesus, Douglas Lisboa Santos de 23 September 2017 (has links)
Submitted by Douglas De Jesus (douglas.lisboasj@gmail.com) on 2017-12-28T19:54:55Z
No. of bitstreams: 1
De Jesus (2017) - O papel demonstrativo dos diagramas na geometria euclidiana (Dissertação).pdf: 1380214 bytes, checksum: c54e315d51423c3db9da71096989f547 (MD5) / Approved for entry into archive by Biblioteca Isaías Alves (reposiufbat@hotmail.com) on 2018-01-08T13:01:12Z (GMT) No. of bitstreams: 1
De Jesus (2017) - O papel demonstrativo dos diagramas na geometria euclidiana (Dissertação).pdf: 1380214 bytes, checksum: c54e315d51423c3db9da71096989f547 (MD5) / Made available in DSpace on 2018-01-08T13:01:12Z (GMT). No. of bitstreams: 1
De Jesus (2017) - O papel demonstrativo dos diagramas na geometria euclidiana (Dissertação).pdf: 1380214 bytes, checksum: c54e315d51423c3db9da71096989f547 (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / A recente literatura em historiografia e filosofia da prática matemática apresenta um novo cenário sobre o estatuto epistemológico dos diagramas. Resgatam-se aí algumas das principais discussões sobre a maneira como um sujeito pode obter conhecimento através de justificativas diagramáticas. Dentro deste quadro intelectual, apresenta-se nesta investigação uma defesa dum modelo de prova matemática parcialmente baseado em diagramas. Como caso de estudo paradigmático, adota-se aqui os Elementos de Euclides sob a perspectiva metodológica da análise retórica. O principal argumento apresentado pretende demonstrar a seguinte tese: uma correta análise das provas euclidianas deve reconsiderar a prática matemática prescrita pelos Elementos num modelo de justificativa que incorpore não apenas a análise lógica de estruturas dedutivas, como também sua dimensão normativa, dependente, portanto, da audiência. Uma objeção frequente às provas euclidianas decorre da correta observação que o diagrama é uma instância física imperfeita, donde se seguiria que também uma prova diagramática é, de um ponto de vista lógico, imperfeita. É comum entre comentadores e filósofos a alegação de que as provas euclidianas possuem “lacunas” inferenciais, cuja correção deveria ser feita mediante novos axiomas dentro duma concepção formal de prova. Assim, cada passo em uma prova seria autorizado se, e somente se, é uma fórmula bem formada que, ou é um axioma, ou segue-se da aplicação duma regra de inferência. Em réplica, fica demonstrado que a principal deficiência deste argumento reside numa significativa negligência da prática matemática euclidiana. Mais ainda: não oferece uma explicação satisfatória para a estabilidade da teoria engendrada pelos Elementos. Isso é verificado a partir dum estudo mais detalhado acerca do Postulado 2. Através duma aclaração sobre o seu suposto uso não uniforme nos Livros I-VI pode-se constatar que a geometria euclidiana, no tocante às suas provas, é estável e racionalmente controlada. Para além da geometria de Euclides, mostra-se como a análise retórica poderia ser pensada como um método investigativo na filosofia da ciência. / The recent literature on historiography and philosophy of mathematical practice
presents a new scenario about the epistemological status of diagrams. Some of the
main discussions about the way a subject can obtain knowledge through diagrammatic
justifications are rescued. Within this intellectual framework, it is presented here a
defense of a mathematical proof model partially based on diagrams. As a paradigmatic
case study, Euclid’s Elements are adopted here from the methodological perspective
of the rhetorical analysis. The main argument through this text tries to prove
the follow thesis: a correct analysis of the Euclidean proofs should reconsider the
mathematical practice prescribed by the Elements in a justification model that
incorporates not only the logical analysis of deductive structures, but also their
normative dimension, therefore, dependent on the audience. A frequent objection
to the Euclidean proofs stems from the correct observation that the diagram is an
imperfect physical instance, from which it would follow that a diagrammatic proof,
from a logical point of view, is also imperfect. It is common among commentators
and philosophers the claim that the Euclidean proofs have inferential “gaps”, which
should be corrected by new axioms within a formal conception of proof. Thus, each
step in a proof would be allowed if, and only if, it is a well-formed formula which
is either an axiom or follows from the application of an inference rule. In reply,
it is demonstrated that the main deficiency of this argument lies in a significant
neglect of Euclidean mathematical practice. Moreover, it does not offer a satisfactory
explanation for the stability of the theory engendered by Elements. This is verified
from a more detailed study of Postulate 2. Through a clarification on its supposed
non-uniform use in Books I-VI it can be seen that Euclidean geometry, in relation
to its proofs, is stable and rationally controlled. Beyond the geometry of Euclid, it is
shown how rhetorical analysis could be thought of as an investigative method in the
philosophy of science.
|
315 |
Entre o normativo e o descritivo: o lugar do ético em Moritz SchlickNossa Júnior, Serafim 15 December 2017 (has links)
Submitted by Serafim Nossa Junior (serafimnossa@gmail.com) on 2018-01-30T20:15:41Z
No. of bitstreams: 1
Tese_Filosofia_FFCH_Serafim_Nossa.pdf: 1135304 bytes, checksum: cf65651410007a07397511e91fa6606b (MD5) / Made available in DSpace on 2018-01-30T20:15:41Z (GMT). No. of bitstreams: 1
Tese_Filosofia_FFCH_Serafim_Nossa.pdf: 1135304 bytes, checksum: cf65651410007a07397511e91fa6606b (MD5) / Programa de Aperfeiçoamento e Capacitação da Universidade do Estado da Bahia / Embora Moritz Schlick seja notoriamente reconhecido como um autor vinculado à pauta verificacionista do Círculo de Viena, grupo do qual foi, inclusive, um dos seus principais expoentes, seus escritos sobre ética compõem, por outro lado, uma parte importante de sua obra, notadamente dedicada ao estabelecimento da felicidade como o verdadeiro sentido da vida. A ética schlickiana segue, assim, marcada por uma visão hedonista da existência associada a uma concepção naturalista da ação humana. Esta relação entre hedonismo e naturalismo motiva o estabelecimento da tese de que todo instinto humano busca a prevalência do prazer do indivíduo e, por conseguinte, motiva ações que o conduzem sempre em direção à felicidade. A visão de que todo homem age de acordo com seus instintos e marcha inexoravelmente rumo à sua felicidade individual serve como base para a elaboração de princípio morais universais que expressariam o que determinada sociedade concebe como moralmente aceitável ou não. Tais regras de conduta, expressas nestes princípios, variam de cultura para cultura, de comunidade para comunidade, embora partilhem, radicalmente, a mesma tendência ou finalidade de estabelecer uma vida de prazer e felicidade para os membros da sociedade. Esta dimensão ética do pensamento schlickiano, via de regra, tem sido considerada como uma incursão filosófica sem relações estreitas com a perspectiva de seu empirismo consistente, influenciado, sobretudo, pelo Tractatus Logico-Philosophicus de Ludwig Wittgenstein. Este distanciamento, ou mesmo estranhamento, entre as ideias sobre ética e o normativismo lógico de Schlick encontra suas razões, muitas vezes, em argumentos que pressupõem o debate sobre o significado das proposições éticas como algo impróprio ou mero contrassenso – portanto em aparente rota de colisão com a postura logicista do próprio Círculo de Viena; e em argumentos que fazem acreditar que os escritos éticos de Schlick compõem uma dimensão à margem do seu pensamento verificacionista, uma vez que seriam, no geral, produtos de suas tendências pessoais e políticas. Não obstante existam posições teóricas que ofertam argumentos razoáveis de justificação do distanciamento da ética schlickiana em relação ao núcleo lógico-empirista de seu pensamento, este nosso trabalho propõe estabelecer algum tipo de relação entre estas duas pontas deste espectro. Sendo assim, propomos reconhecer a ética schlickiana como uma instância filosófica em conexão com os princípios fundamentais do empirismo consistente de Schlick, apresentando, principalmente, a possibilidade de relacionar o método analítico de exame do sentido proposicional – a verificabilidade, descrita, principalmente, em Sentido e verificação – com a abordagem descritivista de inspeção do significado dos enunciados da ética, apresentada, especialmente, em Questões de ética. Para tanto, a noção de princípio moral segue fundamental para nossa reflexão, uma vez que o sentido particular de cada proposição ética pode, segundo Schlick, ser reduzido ao sentido expresso por tal princípio. Se nossa empreitada segue viável, esperamos poder, ao fim dela, estabelecer uma continuidade filosófica entre as ideias sobre lógica e ética de Schlick, propondo, ao cabo, que tanto o analítico quanto o descritivo constituem aspectos de uma mesma atitude filosófica schlickiana, qual seja: aclarar os pensamentos, dissolver pseudoproblemas, criar condições para que a ciência finalmente passe a operar livre de enigmas insolúveis e de sentenças carentes de sentido. / Although Moritz Schlick is markedly recognized as an author linked to the verificationist topic of Vienna Circle, the group from which he was, indeed, one of the main exponents, by the other side, his writings about Ethics composes an important part of his work, clearly dedicated to setting the happiness as a true meaning of life. Schlick’s Ethics therefore follows, marked by a hedonistic vision of existence associated to a naturalistic conception of human action. That relation between hedonism and naturalism motivates the establishment of the thesis that all human instinct seeks the prevalence of individual pleasure and so, it motives actions that always conduct them to happiness. The perspective that all humankind acts according with one’s instincts and inexorably marches towards one’s individual happiness serves as basis to elaborate the universal Moral Principles that would express what is morally acceptable or not for a specific society. Such roles of conduction, expressed in these principles, change from one culture to another, from one community to another, although they radically partake the same tendency or finality to establish a life of pleasure and happiness to all the society members. That ethical dimension of Schlick’s thought, as a matter of course, has been considered as a philosophical incursion with no narrow relations with a perspective from his consistent empiricism, that is mainly influenced by the Tractatus Logico-Philosophicus of Ludwig Wittgenstein. This distance or even strangeness between the ideas about ethics and the logical normativism of Schlick, often find its reasons in arguments that presuppose the debate about the ethical propositions meaning as an inappropriate thing or just nonsense, and so, apparently in a collision course with the typical logicist posture of Vienna Circle; and also in arguments that make believe the ethical writings of Schlick are part of a dimension apart from his verificationist thought, once they would be, in general, products from his personal and political tendencies. There are, notwithstanding, theoretical positions that offer reasonable arguments to justify the detachment of Schlick’s ethics from the center of his logical - empirical thought, our work here presented proposes to establish some kind of relation between these two parts of the spectrum. We therefore propose to recognize Schlick’s ethics as a philosophical instance connected with the fundamental principles of the consistent empiricism from Schlick, mostly presenting the possibility to relate the analytical method of exam the propositional meanings – the verifiability principally specified in Sense and Verification – with the descriptive approach to inspect the meaning of ethical formulations that are specially presented in Ethical Questions. The concept of moral principle is, therefore, fundamental to our reflections, since the particular sense of each ethical proposition, according to Schlick, can be reduced to the expressed sense by such principle. If our undertaking is viable, in the end of it we hope to be able to establish a philosophical continuity between Schlick’s ideas of logic and ethic, and propose that both the analytic and the descriptive are aspects from the same Schlick’s philosophical attitude, namely: to clarify the thoughts, to dissolve pseudo-problems, to create conditions for the science to finally operate free from insoluble puzzles and meaningless sentences.
|
316 |
Análise espacial como ferramenta para definição de áreas de risco de emergência de surtos de doença de Chagas aguda no estado do ParáXavier, Samanta Cristina das Chagas January 2013 (has links)
Made available in DSpace on 2014-03-18T17:17:54Z (GMT). No. of bitstreams: 2
samanta_xavier_ioc_dout_2013.pdf: 10283235 bytes, checksum: 159d2a0096921c251fd5eff48ab974d1 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2013-11-21 / Fundação Oswaldo Cruz. Instituto Oswaldo Cruz. Rio de Janeiro, RJ, Brasil / Atualmente, os casos de doença de Chagas aguda (DCA) vêm sendo devidos à ingestão de alimento contaminado por formas infectivas do vetor, as formas metacíclicas, e/ou devido à invasão de domicílios por triatomíneos silvestres infectados atraídos pela luz. O novo perfil epidemiológico que a doença de Chagas vem adquirindo, exige um novo olhar e o delineamento de novas ferramentas na definição de medidas de vigilância e controle. O carater recorrente dos surtos de DCA demonstra que ainda não se encontrou medidas de controle efetivas dentro deste novo perfil epidemiológico. Trypanosoma cruzi é um táxon extremamente heterogêneo, inclui 6 genótipos que infectam centenas de espécies de mamíferos e vetores em ciclos de transmissão complexos com características e particularidades locais e temporais. Nosso objetivo foi avaliar a aplicação da análise geoespacial por Lógica Fuzzy, como ferramenta a ser utilizada para reconhecer áreas de risco e fornecer elementos para definição de ações sustentáveis de vigilância epidemiológica na região Amazônica. Para tanto, inicialmente geramos dados referentes à distribuição das DTUs TcIII e TcIV, descritas como típicas da Amazônia, nos biomas brasileiros
Observamos que estas DTUs não estão restritas à Amazônia e sim estão amplamente dispersas na natureza tendo sido encontradas infectando seis ordens de mamíferos e distribuidas por cinco biomas. Em seguida geramos dados sobre as variáveis envolvidas no ciclo enzóotico de T. cruzi em três localidades de Abaetetuba/Pará, onde são registrados casos recorrentes de DCA. Este estudo mostrou distintos perfis enzóoticos em cada localidade sendo a infecção de cães por T. cruzi a única característica comum às áreas e sinalizadora da existência de um ciclo silvestre de transmissão em áreas de atividade humana. Esses dados nos levaram a avaliar e validar o uso de cães como sentinela de áreas de risco e a sua detecção como medida de vigilância epidemiológica. Assim, concluímos como ponto de corte para definir uma área de risco epidemiológico e a implementação de programas de sensibilização e educação a soroprevalência de cães deve ser >=30%. O conjunto destes resultados nos permitiu concluir que o ciclo enzóotico de transmissão de T. cruzi é dinâmico, sazonal, multifatorial e modifica-se conforme as condições ambientais naturais e conseqüentemente com a utilização da paisagem pelo homem
Com o conjunto de variáveis gerados por nós e obtidos referentes as variáveis entomológicas, ambientais, meteorológicos (CEPETEC) e dados de casos de doença de Chagas (SINAN e SESPA). Após iniciou-se a construção de mapas protótipos de áreas de risco como forma de consolidar critérios de definição de áreas estratégicas de ação e assim prevenir novos casos de DCA. Foi testada a abordagem geoespacial por interpolação e álgebra de mapas como uma ferramenta do diagnóstico ambiental das variáveis reguladoras da transmissão de T. cruzi na natureza. O conjunto das variáveis primárias e secundárias foi tratado pelo método fuzzy de inferência espacial na construção de um modelo de integração. O modelo demonstrou a possibilidade de usar essa nova abordagem na identificação de áreas com diferentes graus de risco, permitindo uma representação contínua e integrada das variáveis envolvidas na transmissão de T. cruzi na natureza / Currently, cases of Acute Chagas Disease (ACD) have occurred due to the ingestion of food contaminated with infective forms of the vector, me tacyclic forms, and or due to the household invasion by infected triatomines attracte d by artificial light. This new Chagas disease epidemiological profile, requires a new loo k and the design of new tools for the definition of surveillance and control strategies. The character recurrent ACD outbreaks demonstrate that we still haven ́t found effective c ontrol measures for this new epidemiological profile. Trypanosoma cruzi is an extremely heterogeneous taxon that includes 6 genotypes, which infect hundreds of mamm als and vectors species within complex transmission cycles with local and temporal peculiarities.. Our objective was to evaluate the application of geospatial analysis by Fuzzy Logic as a tool to be used to recognize risk areas and provide elements for defin ing sustainable epidemiological surveillance in the Amazon region. Therefore, we in itially generated data regarding the distribution of DTUs TcIII and TcIV, described as t ypical of the Amazon, throughout other Brazilian biomes. We observed that these DTUs are n ot restricted to the Amazon but they are widely dispersed in nature as they were found i nfecting six mammalian orders and were distributed in five biomes. Then, we generated data on the variables involved in the T. cruzi enzootic cycles in three different localities of th e municipality of Abaetetuba, Pará State, where recurrent cases of ACD are registered. This s tudy revealed distinct enzootic profiles in each location. Dogs’ infection by T. cruzi was the only common feature among those areas, thus they signaling the existence of a sylvatic tra nsmission cycle in areas of human activity. These results led us to evaluate and validate the u se of dogs as sentinel of risk areas and its use as a surveillance tool. We defined that dogs’ s eroprevalence of ≥ 30% is the cut off to define an area of epidemiological risk and thus can didate to the implementation of surveillance and education programs. Altogether, th ese results allowed us to conclude that the T. cruzi enzootic transmission cycle is dynamic, seasonal, multifunctional and modifies itself according to the environmental conditions an d, consequently, with the human landscape modification. Putting together the set of variables generated by us, the assembled entomological, environmental and meteorological (CE PETEC) variables, and the data on Chagas disease cases (SINAN and SESPA), we began to build prototypes of risk maps as an approach to consolidate criteria for the demarca tion of strategic areas for the implementation of actions to prevent further ACD ca ses. We tested the geospatial interpolation and map algebra approach as a diagnos tic tool of the environmental variables which regulate the T. cruzi transmission in nature. The set of primary and sec ondary variables were treated by the fuzzy method of spati al inference in order to build an integrated model. This model demonstrated the possibility to u se this novel approach in order to identify areas with different degrees of risk, thus allowing a continuous and integrated representation of the variables involved in the T. cruzi transmission in nature
|
317 |
Uma abordagem híbrida Fuzzy-bayesiana para modelagem de incertezasTibiriçá, Carlos Augusto Gonçalves January 2005 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2013-07-16T01:40:09Z (GMT). No. of bitstreams: 0 / As incertezas existentes no mundo real sao tratadas pela mente humana de maneira que seja poss´ývel alguma tomada de decisao baseada em fatos que nao representem uma verdade absoluta.
|
318 |
Análise da rentabilidade de empresasDill, Rodrigo Prante January 2005 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Sócio-Econômico. Programa de Pós-Graduação em Administração. / Made available in DSpace on 2013-07-16T02:53:17Z (GMT). No. of bitstreams: 1
223997.pdf: 754261 bytes, checksum: ba2471b60e650b87fa3cf7a2f90d6ea8 (MD5) / O propósito deste estudo consiste em propor um modelo que utiliza a lógica nebulosa para a análise da rentabilidade de empresas. Neste estudo, entrevistou-se uma amostra de vinte analistas financeiros para identificar junto aos mesmos os principais índices que revelam a rentabilidade de empresas do setor de alimentos, utilizando-se dados de sessenta e três empresas do setor de alimentos publicados pelo Valor1000 do Jornal Valor Econômico, edição 2004. De acordo com a escala de Matarazzo (2003), os dados coletados foram analisados e classificados e a cada índice de rentabilidade foi atribuída uma variável qualitativa conforme sua posição em relação ao decil. Utilizando-se um software específico (Matlab®) definiram-se as funções de pertinência e implementaram-se 2401 regras de inferência para implementação do sistema. Os resultados obtidos pelo sistema nebuloso, utilizando diferentes métodos de defuzzificação, foram confrontados com a avaliação de analistas financeiros do Banco de Desenvolvimento do Extremo Sul - BRDE. Os resultados dessa pesquisa demonstram que modelos nebulosos podem ser utilizados como ferramentas eficazes no auxílio e na validação dos pareceres de especialistas na análise de rentabilidade das empresas.
|
319 |
Modelos de aprendizagem para sistemas neuro-difusosCarvalho, Lucimar Maria Fossatti de January 2007 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Elétrica. / Made available in DSpace on 2013-07-16T03:16:38Z (GMT). No. of bitstreams: 1
265729.pdf: 7445141 bytes, checksum: 4c73116489d06d272a5ed3a703bc6788 (MD5)
|
320 |
Seleção de recursos baseada nas características das aplicações em ambientes de grade de multi-agregadosSilva, Rodrigo Grumiche 26 October 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2011 / Made available in DSpace on 2012-10-26T07:41:58Z (GMT). No. of bitstreams: 0Bitstream added on 2013-07-16T20:48:33Z : No. of bitstreams: 1
293086.pdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Grades computacionais são uma estrutura complexa constituída com hardware e software e que provê acesso confiável, pervasivo e de baixo custo a recursos computacionais de alto desempenho. Middlewares de grade fazem parte desta infraestrutura e são responsáveis por esconder a complexidade deste ambiente aos seus usuários, permitindo que estes usem os recursos disponíveis para a execução de aplicações e armazenamento de dados de maneira facilitada. Os meta-escalonadores fornecem serviços para submissão de aplicação a serem executadas em recursos computacionais de uma grade. Usualmente o mecanismo de seleção de recursos do meta-escalonador é baseado numa descrição sintática ou semântica dos requisitos de hardware e software necessários para executar a aplicação, que é informado pelo usuário. O problema é que esta abordagem requer que o usuário tenha um bom conhecimento sobre as características que recursos computacionais podem ter e como estes afetam a execução da aplicação do usuário. Isto ocorre porque as aplicações possuem características estruturais e comportamentais que restringem quais recursos são capazes de executá-la. E tais características também podem afetar o desempenho da aplicação, dependendo das características do recurso. Nesta dissertação é proposta uma alternativa heurística para a seleção de recursos computacionais num ambiente de grade de múltiplos agregados, onde o usuário descreve as características das aplicações e o mecanismo de seleção de recursos avalia o nível de adequação dos recursos computacionais disponíveis no ambiente de grade. Tal mecanismo se utiliza de descrição ontológica das características da aplicação para seleção e de um sistema de controle difuso para obter os níveis de adequação de cada um dos recursos computacionais. Para validação da proposta, o simulador de ambientes de grade GridSim foi utilizado e foram verificadas melhorias em alguns cenários de simulação.
|
Page generated in 0.0472 seconds