Spelling suggestions: "subject:"[een] SIMILARITY"" "subject:"[enn] SIMILARITY""
501 |
O teorema de pitágoras em uma abordagem experimental / The pythagorean theorem in an experimental approachCupaioli, Marcos Eder [UNESP] 19 August 2016 (has links)
Submitted by MARCOS EDER CUPAIOLI (marcoscupaioli@hotmail.com) on 2016-09-13T14:53:52Z
No. of bitstreams: 1
Dissertação-MARCOS-EDER-CUPAIOLI-Matemática-Final Repositório.pdf: 3030917 bytes, checksum: 5fee5216541ccf70c5a9acb075b9976f (MD5) / Rejected by Felipe Augusto Arakaki (arakaki@reitoria.unesp.br), reason: Solicitamos que realize uma nova submissão seguindo as orientações abaixo:
No campo “Versão a ser disponibilizada online imediatamente” foi informado que seria disponibilizado o texto completo porém no campo “Data para a disponibilização do texto completo” foi informado que o texto completo deverá ser disponibilizado apenas 6 meses após a defesa.
Caso opte pela disponibilização do texto completo apenas 6 meses após a defesa selecione no campo “Versão a ser disponibilizada online imediatamente” a opção “Texto parcial”. Esta opção é utilizada caso você tenha planos de publicar seu trabalho em periódicos científicos ou em formato de livro, por exemplo e fará com que apenas as páginas pré-textuais, introdução, considerações e referências sejam disponibilizadas.
Se optar por disponibilizar o texto completo de seu trabalho imediatamente selecione no campo “Data para a disponibilização do texto completo” a opção “Não se aplica (texto completo)”. Isso fará com que seu trabalho seja disponibilizado na íntegra no Repositório Institucional UNESP.
Por favor, corrija esta informação realizando uma nova submissão.
Agradecemos a compreensão.
on 2016-09-14T21:55:41Z (GMT) / Submitted by MARCOS EDER CUPAIOLI (marcoscupaioli@hotmail.com) on 2016-09-15T01:47:57Z
No. of bitstreams: 1
Dissertação-MARCOS-EDER-CUPAIOLI-Matemática-Final Repositório.pdf: 3030917 bytes, checksum: 5fee5216541ccf70c5a9acb075b9976f (MD5) / Approved for entry into archive by Juliano Benedito Ferreira (julianoferreira@reitoria.unesp.br) on 2016-09-15T18:14:38Z (GMT) No. of bitstreams: 1
cupaioli_me_me_sjrp.pdf: 3030917 bytes, checksum: 5fee5216541ccf70c5a9acb075b9976f (MD5) / Made available in DSpace on 2016-09-15T18:14:38Z (GMT). No. of bitstreams: 1
cupaioli_me_me_sjrp.pdf: 3030917 bytes, checksum: 5fee5216541ccf70c5a9acb075b9976f (MD5)
Previous issue date: 2016-08-19 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Este trabalho aborda um conjunto de atividades experimentais com a finalidade de demonstrar um dos mais belos e importantes teoremas da Matemática: o Teorema de Pitágoras. São conhecidas mais de 400 demonstrações, aqui optamos por utilizar uma demonstração devido a Rudolf Wolf, por possibilitar uma abordagem geométrica lúdica através da dissecção de figuras planas. Inicialmente apresentamos o conceito geral de semelhança e áreas das figuras planas que utilizam propriedades e áreas de polígonos equidecomponíveis. Posteriormente, realizamos um breve resgate histórico sobre diversas demonstrações do Teorema e da vida de Pitágoras. Destacamos, também, uma maneira de achar algumas ternas pitagóricas, utilizando a sequência de Fibonacci. Por fim, foram propostas e desenvolvidas atividades experimentais em sala de aula com a utilização de moldes em EVA, explorando o Teorema de Pitágoras e algumas de suas aplicações. / This work contains a set of experimental activities in order to prove one of the most beautiful and important theorems in Mathematics: the Pythagorean Theorem. There are known more than 400 proofs, here we chose to use a proof due to Rudolf Wolf, by allowing a playful geometric approach by dissection of plane figures. Initially we present the general concept of similarity and areas of plane figures using properties and areas of equidecomposable polygons. Later, we do a brief historical review of some proofs of Theorem and Pythagoras's life. We also highlight a way to find some Pythagorean triples using the Fibonacci sequence. Finally, it was proposed and developed experimental activities in the classroom with the use of molds EVA, exploring the Pythagorean theorem and some of its applications.
|
502 |
Influência da Motilidade Gastrintestinal no processo de desintegração de comprimidosPires, Deivid William. January 2016 (has links)
Orientador: José Ricardo de Arruda Miranda / Resumo: A via oral de administração de fármacos é seguramente a mais empregada, não apenas pela facilidade de administração, mas também pela adesão do paciente ao tratamento. Dentre as formas de apresentação oral, os comprimidos são os mais utilizados, uma vez que são apresentações bastante seguras e estáveis. Para o desenvolvimento de novas formulações é essencial o conhecimento de parâmetros fisiológicos que possam influenciar no desempenho da forma farmacêutica. É possível supor que parâmetros da atividade motora do trato gastrintestinal podem trazer implicações significativas na biodisponibilidade de fármacos administrados por via oral. A Prucaloprida é um agonista do receptor 4-serotonina com conhecidos efeitos colocinéticos e possíveis efeitos procinéticos, acelerando a propulsão do conteúdo lumial. Assim, estudar o efeito da Prucaloprida no trânsito gastrintestinal se torna importante, já que pode influenciar no processo de desintegração de comprimidos e na biodisponibilidade de um fármaco. O objetivo desse trabalho foi avaliar o efeito da Prucaloprida no Trânsito Gastrintestinal e como esse efeito influi nos processos de desintegração de um comprimido e na biodisponibilidade do Metronidazol (marcador farmacocinético). Foram produzidos lotes de comprimidos contendo 100 mg de metronidazol, com e sem adição de ferrita na formulação, para estudar os fatores de correlação entre os perfis de dissolução, in vitro, e verificar a influência da ferrita no processo de dissolução do fárm... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The oral route of drugs administration is surely the most used, not only for being easily employed, but also due to the patient adhesion. Among them, tablets are the most common, since they present safe and stable features. In order to develop new formulations, it is essential to acknowledge some physiological parameters and their influence on the pharmaceutical form performance. It is possible to speculate that motor activity parameters of the gastrointestinal tract might interfere in the drug availability after oral administration. Prucalopride is a 4-serotonine receptor agonist with known colonkinetic and possible prokinetic effects, which accelerates the luminal content propulsion. Therefore, it is important to study its effects on the gastrointestinal transit, since it might influence the tablet disintegration process and bioavailability. The objective of this study was to assess the Prucalopride effect on the gastrointestinal transit and how it affects the tablet disintegration process and the Metronidazol (pharmacokinetic marker) bioavailability. Tablet batches were produced, 100 mg of Metronidazol, with and without ferrite, in order to study correlation factors between the in vitro dissolution process for each batch. The influence of the ferrite in the drug dissolution process was also evaluated. Each batch was assessed by pharmacokinetic tests and by their dissolution profile. On regards to the in vivo experiment, each volunteer was submitted to a two phase study, in... (Complete abstract click electronic access below) / Mestre
|
503 |
Descoberta de cross-language links ausentes na wikipédia / Identifying missing cross-language links in wikipediaMoreira, Carlos Eduardo Manzoni January 2014 (has links)
A Wikipédia é uma enciclopédia pública composta por milhões de artigos editados diariamente por uma comunidade de autores de diferentes regiões do mundo. Os artigos que constituem a Wikipédia possuem um tipo de link chamado de Cross-language Link que relaciona artigos correspondentes em idiomas diferentes. O objetivo principal dessa estrutura é permitir a navegação dos usuários por diferentes versões de um mesmo artigo em busca da informação desejada. Além disso, por permitir a obtenção de corpora comparáveis, os Cross-language Links são extremamente importantes para aplicações que trabalham com tradução automática e recuperação de informações multilíngues. Visto que os Cross-language Links são inseridos manualmente pelos autores dos artigos, quando o autor não reconhece o seu correspondente em determinado idioma ocorre uma situação de Cross-language Links ausente. Sendo assim, é importante o desenvolvimento de uma abordagem que realize a descoberta de Cross-language Links entre artigos que são correspondentes, porém, não estão conectados por esse tipo link. Nesta dissertação, é apresentado o CLLFinder, uma abordagem para a descoberta de Cross-language Links ausentes. A nossa abordagem utiliza o relacionamento entre as categorias e a indexação e consulta do conteúdo dos artigos para realizar a seleção do conjunto de candidatos. Para a identificação do artigo correspondente, são utilizados atributos que exploram a transitividade de Cross-language Links entre outros idiomas bem como características textuais dos artigos. Os resultados demonstram a criação de um conjunto de candidatos com 84,3% de presença do artigo correspondente, superando o trabalho utilizado como baseline. A avaliação experimental com mais de dois milhões de pares de artigos aponta uma precisão de 99,2% e uma revocação geral de 78,9%, superando, também, o baseline. Uma inspeção manual dos resultados do CLLFinder aplicado em um cenário real indica que 73,6% dos novos Cross-language Links sugeridos pela nossa abordagem eram de fato correspondentes. / Wikipedia is a public encyclopedia composed of millions of articles written daily by volunteer authors from different regions of the world. The articles contain links called Cross-language Links which relate corresponding articles across different languages. This feature is extremely useful for applications that work with automatic translation and multilingual information retrieval as it allows the assembly of comparable corpora. Since these links are created manually, in many occasions, the authors fail to do so. Thus, it is important to have a mechanism that automatically creates such links. This has been motivating the development of techniques to identify missing cross-language links. In this work, we present CLLFinder, an approach for finding missing cross-language links. The approach makes use of the links between categories and an index of the content of the articles to select candidates. In order to identify corresponding articles, the method uses the transitivity between existing cross-language links in other languages as well as textual features extracted from the articles. Experiments on over two million pairs of articles from the English and Portuguese Wikipedias show that our approach has a recall of 78.9% and a precision of 99.2%, outperforming the baseline system.A manual inspection of the results of CLLFinder applied to a real situation indicates that our approach was able to identify the Cross-language Link correctly 73.6% of the time.
|
504 |
Similarity, structure and spaces : representation of part-whole relations in conceptual spaces / Similaridade, estruturas e espaços: representação de relações de parte-todo em espaços conceituaisFiorini, Sandro Rama January 2014 (has links)
Um dos principais desafios remanescentes em Inteligência Artificial é como fazer sistemas inteligentes ancorar abstrações de alto nível na realidade. Pelo menos parte do problema vai em direção da questão de qual arcabouço de representação é mais apropriado de maneira que facilite o reconhecimento de objetos. A cognição em animais, particularmente em humanos, pode dar pistas de como tal arcabouço de representação se parece. Estudos na cognição do reconhecimento de objetos sugere que o problema da representação na cognição incorpora informações a respeito de similaridade e informação holística-estrutural (i.e. todo-parte) a respeito de conceitos. Temos a visão de que sistemas computacionais que lidam com relações de todo-parte deveriam representar informações holístico-estruturais e similaridade. No entanto, não existe arcabouço de representação que permite tais informações serem representadas de forma integrada. Esta tese propõe um arcabouço de representação de informação de similaridade entre estruturas de todo-parte. Nossa proposta é baseada na teoria dos espaços conceituais. Estes são espaços matemáticos onde regiões e pontos representam conceitos e objetos respectivamente, tal que a distância entre estas entidades denota a sua similaridade. Na nossa proposta, todos e partes são representados em espaços conceituais distintos, chamados espaços holísticos e estruturais. Espaços holísticos permitem o julgamento de similaridade sistemático entre todos. Por outro lado, espaços estruturais permitem o julgamento de similaridade sistemático entre estrutura de partes. Um ponto em um espaço estrutural denota uma estrutura particular de partes; regiões neste espaço representam diferentes tipos de estruturas de parte. Através da redefinição de espaços conceituais como um produto de espaços holísticos e estruturais, nosso objetivo é permitir a representação de informações de similaridade entre diferentes todos, levando em consideração a similaridade entre partes compartilhadas e suas configurações. Esta tese tem três contribuições principais: uma teoria geral sobre espaços holísticos e estruturais; uma formalização da teoria fundada em produto de espaços métricos; e um algoritmo genérico para reconhecimento de objetos, implementando processamento holístico-estrutural. / One of main remaining challenges in Artificial Intelligence is how to make intelligent systems to ground high-level abstractions in reality. At least part of this problem comes down to the question of what representation framework is best suited in a way that facilitates object recognition. Animal cognition, particularly in humans, can give a clue of how such representation framework looks like. Studies on the cognition of object recognition suggests that representation in cognition incorporates similarity and holistic-structural (i.e. whole-part) information about concepts. We hold the view that computer systems dealing with part-whole relations should be able to represent similarity and holistic-structural information. However, there exists no representation framework that allows such information to be represented in an integrated way. This thesis proposes a concept representation framework for representing information about similarity between part-whole structures. We base our proposal on the theory of conceptual spaces, which are mathematical spaces where regions and points represent concepts and objects respectively, such that their distance denotes their similarity. In our proposal, parts and wholes are represented in distinct conceptual spaces called holistic and structure spaces. Holistic spaces allow for systematic similarity judgements between wholes. On the other hand, structure spaces allow for systematic similarity judgement between structures of parts. A point in the structure space denotes a particular part structure; regions in the space represent different general types of part structures. By redefining conceptual spaces as a product of holistic and structure spaces, our goal is to allow one to represent similarity information between different wholes, taking into consideration the similarity between shared parts and their configurations. This thesis has three main contributions: a general theory about holistic and structure spaces; a formulation of the theory founded on products of metric spaces; and a generic algorithm for object recognition implementing holistic-structural processing.
|
505 |
PhenoVis : a visual analysis tool to phenological phenomena / PhenoVis : uma ferramenta de análise visual para fenômenos fenológicosLeite, Roger Almeida January 2015 (has links)
Phenology studies recurrent periodic phenomena of plants and their relationship to environmental conditions. Monitoring forest ecosystems using digital cameras allows the study of several phenological events, such as leaf expansion or leaf fall. Since phenological phenomena are cyclic, the comparative analysis of successive years is capable of identifying interesting variation on annual patterns. However, the number of images collected rapidly gets significant since the goal is to compare data from several years. Instead of performing the analysis over images, experts prefer to use derived statistics (such as average values). We propose PhenoVis, a visual analytics tool that provides insightful ways to analyze phenological data. The main idea behind PhenoVis is the Chronological Percentage Maps (CPMs), a visual mapping that offers a summary view of one year of phenological data. CPMs are highly customizable, encoding more information about the images using a pre-defined histogram, a mapping function that translates histogram values into colors, and a normalized stacked bar chart to display the results. PhenoVis supports different color encodings, visual pattern analysis over CPMs, and similarity searches that rank vegetation patterns found at various time periods. Results for datasets comprising data of up to nine consecutive years show that PhenoVis is capable of finding relevant phenological patterns along time. Fenologia estuda os fenômenos recorrentes e periódicos que ocorrem com as plantas. Estes podem vir a ser relacionados com as condições ambientais. O monitoramento de florestas, através de câmeras, permite o estudo de eventos fenológicos como o crescimento e queda de folhas. Uma vez que os fenômenos fenológicos são cíclicos, análises comparativas de anos sucessivos podem identificar variações interessantes no comportamento destes. No entanto, o número de imagens cresce rapidamente para que sejam comparadas lado a lado. PhenoVis é uma ferramenta para análise visual que apresenta formas para analisar dados fenológicos através de comparações estatísticas (preferência dos especialistas) derivadas dos valores dos pixels destas imagens. A principal ideia por trás de PhenoVis são os mapas percentuais cronológicos (CPMs), um mapeamento visual com uma visão resumida de um período de um ano de dados fenológicos. CPMs são personalizáveis e conseguem representar mais informações sobre as imagens do que um gráfico de linha comum. Isto é possível pois o processo envolve o uso de histogramas pré-definidos, um mapeamento que transforma valores em cores e um empilhamento dos mapas de percentagem que visa a criação da CPM. PhenoVis suporta diferentes codificações de cores e análises de padrão visual sobre as CPMs. Pesquisas de similaridade ranqueiam padrões parecidos encontrados nos diferentes anos. Dados de até nove anos consecutivos mostram que PhenoVis é capaz de encontrar padrões fenológicos relevantes ao longo do tempo.
|
506 |
Knowledge-based Semantic Measures : From Theory to Applications / Mesures sémantiques à base de connaissance : de la théorie aux applicatifsHarispe, Sébastien 25 April 2014 (has links)
Les notions de proximité, de distance et de similarité sémantiques sont depuis longtemps jugées essentielles dans l'élaboration de nombreux processus cognitifs et revêtent donc un intérêt majeur pour les communautés intéressées au développement d'intelligences artificielles. Cette thèse s'intéresse aux différentes mesures sémantiques permettant de comparer des unités lexicales, des concepts ou des instances par l'analyse de corpus de textes ou de représentations de connaissance (e.g. ontologies). Encouragées par l'essor des technologies liées à l'Ingénierie des Connaissances et au Web sémantique, ces mesures suscitent de plus en plus d'intérêt à la fois dans le monde académique et industriel. Ce manuscrit débute par un vaste état de l'art qui met en regard des travaux publiés dans différentes communautés et souligne l'aspect interdisciplinaire et la diversité des recherches actuelles dans ce domaine. Cela nous a permis, sous l'apparente hétérogénéité des mesures existantes, de distinguer certaines propriétés communes et de présenter une classification générale des approches proposées. Par la suite, ces travaux se concentrent sur les mesures qui s'appuient sur une structuration de la connaissance sous forme de graphes sémantiques, e.g. graphes RDF(S). Nous montrons que ces mesures reposent sur un ensemble réduit de primitives abstraites, et que la plupart d'entre elles, bien que définies indépendamment dans la littérature, ne sont que des expressions particulières de mesures paramétriques génériques. Ce résultat nous a conduits à définir un cadre théorique unificateur pour les mesures sémantiques. Il permet notamment : (i) d'exprimer de nouvelles mesures, (ii) d'étudier les propriétés théoriques des mesures et (iii) d'orienter l'utilisateur dans le choix d'une mesure adaptée à sa problématique. Les premiers cas concrets d'utilisation de ce cadre démontrent son intérêt en soulignant notamment qu'il permet l'analyse théorique et empirique des mesures avec un degré de détail particulièrement fin, jamais atteint jusque-là. Plus généralement, ce cadre théorique permet de poser un regard neuf sur ce domaine et ouvre de nombreuses perspectives prometteuses pour l'analyse des mesures sémantiques. Le domaine des mesures sémantiques souffre d'un réel manque d'outils logiciels génériques et performants ce qui complique à la fois l'étude et l'utilisation de ces mesures. En réponse à ce manque, nous avons développé la Semantic Measures Library (SML), une librairie logicielle dédiée au calcul et à l'analyse des mesures sémantiques. Elle permet d'utiliser des centaines de mesures issues à la fois de la littérature et des fonctions paramétriques étudiées dans le cadre unificateur introduit. Celles-ci peuvent être analysées et comparées à l'aide des différentes fonctionnalités proposées par la librairie. La SML s'accompagne d'une large documentation, d'outils logiciels permettant son utilisation par des non informaticiens, d'une liste de diffusion, et de façon plus large, se propose de fédérer les différentes communautés du domaine afin de créer une synergie interdisciplinaire autour la notion de mesures sémantiques : http://www.semantic-measures-library.org Cette étude a également conduit à différentes contributions algorithmiques et théoriques, dont (i) la définition d'une méthode innovante pour la comparaison d'instances définies dans un graphe sémantique – nous montrons son intérêt pour la mise en place de système de recommandation à base de contenu, (ii) une nouvelle approche pour comparer des concepts représentés dans des taxonomies chevauchantes, (iii) des optimisations algorithmiques pour le calcul de certaines mesures sémantiques, et (iv) une technique d'apprentissage semi-supervisée permettant de cibler les mesures sémantiques adaptées à un contexte applicatif particulier en prenant en compte l'incertitude associée au jeu de test utilisé. Travaux validés par plusieurs publications et communications nationales et internationales. / The notions of semantic proximity, distance, and similarity have long been considered essential for the elaboration of numerous cognitive processes, and are therefore of major importance for the communities involved in the development of artificial intelligence. This thesis studies the diversity of semantic measures which can be used to compare lexical entities, concepts and instances by analysing corpora of texts and knowledge representations (e.g., ontologies). Strengthened by the development of Knowledge Engineering and Semantic Web technologies, these measures are arousing increasing interest in both academic and industrial fields.This manuscript begins with an extensive state-of-the-art which presents numerous contributions proposed by several communities, and underlines the diversity and interdisciplinary nature of this domain. Thanks to this work, despite the apparent heterogeneity of semantic measures, we were able to distinguish common properties and therefore propose a general classification of existing approaches. Our work goes on to look more specifically at measures which take advantage of knowledge representations expressed by means of semantic graphs, e.g. RDF(S) graphs. We show that these measures rely on a reduced set of abstract primitives and that, even if they have generally been defined independently in the literature, most of them are only specific expressions of generic parametrised measures. This result leads us to the definition of a unifying theoretical framework for semantic measures, which can be used to: (i) design new measures, (ii) study theoretical properties of measures, (iii) guide end-users in the selection of measures adapted to their usage context. The relevance of this framework is demonstrated in its first practical applications which show, for instance, how it can be used to perform theoretical and empirical analyses of measures with a previously unattained level of detail. Interestingly, this framework provides a new insight into semantic measures and opens interesting perspectives for their analysis.Having uncovered a flagrant lack of generic and efficient software solutions dedicated to (knowledge-based) semantic measures, a lack which clearly hampers both the use and analysis of semantic measures, we consequently developed the Semantic Measures Library (SML): a generic software library dedicated to the computation and analysis of semantic measures. The SML can be used to take advantage of hundreds of measures defined in the literature or those derived from the parametrised functions introduced by the proposed unifying framework. These measures can be analysed and compared using the functionalities provided by the library. The SML is accompanied by extensive documentation, community support and software solutions which enable non-developers to take full advantage of the library. In broader terms, this project proposes to federate the several communities involved in this domain in order to create an interdisciplinary synergy around the notion of semantic measures: http://www.semantic-measures-library.org This thesis also presents several algorithmic and theoretical contributions related to semantic measures: (i) an innovative method for the comparison of instances defined in a semantic graph – we underline in particular its benefits in the definition of content-based recommendation systems, (ii) a new approach to compare concepts defined in overlapping taxonomies, (iii) algorithmic optimisation for the computation of a specific type of semantic measure, and (iv) a semi-supervised learning-technique which can be used to identify semantic measures adapted to a specific usage context, while simultaneously taking into account the uncertainty associated to the benchmark in use. These contributions have been validated by several international and national publications.
|
507 |
Modelo para sumarização computacional de textos científicos. / Scientific text computational summarization model.Alejandro Tarafa Guzmán 07 March 2017 (has links)
Neste trabalho, propõe-se um modelo para a sumarização computacional extrativa de textos de artigos técnico-cientificos em inglês. A metodologia utilizada baseia-se em um módulo de avaliação de similaridade semântica textual entre sentenças, desenvolvido especialmente para integrar o modelo de sumarização. A aplicação deste módulo de similaridade à extração de sentenças é feita por intermédio do conceito de uma janela deslizante de comprimento variável, que facilita a detecção de equivalência semântica entre frases do artigo e aquelas de um léxico de frases típicas, atribuíveis a uma estrutura básica dos artigos. Os sumários obtidos em aplicações do modelo apresentam qualidade razoável e utilizável, para os efeitos de antecipar a informação contida nos artigos. / In this work a model is proposed for the computational extractive summarization of scientific papers in English. Its methodology is based on a semantic textual similarity module, for the evaluation of equivalence between sentences, specially developed to integrate the summarization model. A variable width window facilitates the application of this module to detect semantic similarity between phrases in the article and those in a basic structure, assignable to the articles. Practical summaries obtained with the model show usable quality to anticipate the information found in the papers.
|
508 |
Escalonamento de painéis reforçados sujeitos a cargas de impacto. / Scaling of reinforced panels subjected to impact loads.Leonardo Monteiro Mazzariol 05 October 2012 (has links)
Esta dissertação avalia a aplicação de leis de similaridade distorcidas no contexto de impacto estrutural. A análise se apoia em um estudo teórico, numérico e experimental do impacto de um indentador contra um painel duplo. O modelo analítico descreve de forma simplificada o comportamento de partes desta estrutura e as simulações numéricas reproduzem os ensaios experimentais que utilizam um protótipo (tamanho real) e modelo (escala reduzida). A diferença nas propriedades mecânicas do material de construção do modelo e protótipo é considerada no procedimento de escalonamento, bem como os efeitos de escala por causa da taxa de deformação. Ainda, diante das limitações do aparato experimental, é desenvolvida uma formulação para as leis de similaridade que permite variações da massa impacto e da velocidade inicial do elemento impactante no ensaio. Dessa forma, apresenta-se um procedimento que permite inferir o comportamento de estruturas em tamanho real sob carregamento de impacto através do uso de estruturas em escala, mesmo com as limitações de aparato ou diferenças das propriedades mecânicas do material. / This work evaluates the distorted similarity laws applied in structural impact. The analysis is based in theoretical, numerical and experimental studies of the impact of an indenter to a reinforced panel. The theoretical approach describes, in a simplified manner, the behaviour of the structure components while the numerical analysis reproduces the experiments performed in two scales: prototype (large scale) and model (small scale). Although the panels are made of different materials, this mismatch in mechanical behaviour is taken into account in the scaling procedure, as well as the scale effects due to strain rate. A formulation that allows flexibility in experiment variables such as initial velocity and impact mass is developed due to experimental apparatus limitations. In general lines, is developed a procedure allowing to infer the behaviour of a large scale structure under impact load using scaled structures, while using different materials for prototype and model and respecting the experimental apparatus limits.
|
509 |
Differentiation. An analysis of exports from Cearà and Pernambuco to the EU (2000-2011) / DiferenciaÃÃo de produtos. Uma anÃlise a partir das exportaÃÃes do Cearà e Pernambuco para a UniÃo EuropÃia (2000-2011)Cibele de Sà Pinheiro Nobre 22 February 2013 (has links)
nÃo hà / This study analyzed the differentiation between products of the export of Cearà and
Pernambuco to the EU market during the period from 2000 to 2011. To perform this
analysis were used and calculated the similarity indices, quality and variety of exports
from these two states from data from the Ministry of Development, Industry and
Trade. To obtain three major results. First, the similarity of patterns of Cearà and
Pernambuco exports declined throughout the period analyzed. The second result
was the finding that the product quality is superior to cearenses pernambucana along
each year. Nevertheless, the isolated analysis of the sectors indicated that products
proveinentes sectors of rubber, paper, printing, textile and clothing Pernambuco
showed better quality. Finally, it was found that the Cearà exported a greater variety
of products than Pernambuco throughout the period, but with a certain balance when
analyzing the sectors individually. / Este trabalho analisou a diferenciaÃÃo entre produtos da pauta de exportaÃÃo do
Cearà e de Pernambuco para o mercado da UniÃo Europeia durante o perÃodo de
2000 a 2011. Para realizar esta anÃlise foram utilizados e calculados os Ãndices de
similaridade, qualidade e variedade das exportaÃÃes destes dois Estados a partir de
dados provenientes do MinistÃrio do Desenvolvimento, IndÃstria e ComÃrcio.
Obtiveram-se trÃs principais resultados. Primeiro, a similaridade das pautas de
exportaÃÃes cearenses e pernambucanas diminuiu ao longo do perÃodo analisado. O
segundo resultado foi a verificaÃÃo de que a qualidade dos produtos cearenses Ã
superior à pernambucana, ao longo de todos os anos. Apesar disso, a anÃlise
isolada dos setores apontou que os produtos provenientes dos setores de borracha,
papel, impressos, tÃxteis e vestuÃrio de Pernambuco apresentaram uma melhor
qualidade. Por fim, constatou-se que o Cearà exportou uma maior variedade de
produtos do que Pernambuco ao longo de todo o perÃodo, porÃm com um certo
equilÃbrio, quando se analisa os setores de maneira individual.
|
510 |
Sherlock N-Overlap: normalization invasive and overlap coefficient for analysis of similarity between source code in programming disciplines / Sherlock N-Overlap: normalizaÃÃo invasiva e coeficiente de sobreposiÃÃo para anÃlise de similaridade entre cÃdigos-fonte em disciplinas de programaÃÃoDanilo Leal Maciel 07 July 2014 (has links)
CoordenaÃÃo de AperfeÃoamento de Pessoal de NÃvel Superior / This work is contextualized in the problem of plagiarism detection among source codes in programming classes. Despite the wide set of tools available for the detection of plagiarism, only few tools are able to effectively identify all lexical and semantic similarities between pairs of codes, because of the complexity inherent to this type of analysis. Therefore to the problem and the scenario in question, it was made a study about the main approaches discussed in the literature on detecting plagiarism in source code and as a main contribution, conceived to be a relevant tool in the field of laboratory practices. The tool is based on Sherlock algorithm, which has been enhanced as of two perspectives: firstly, with changes in the similarity coefficient used by the algorithm in order to improve its sensitivity for comparison of signatures; secondly, proposing intrusive techniques preprocessing that, besides eliminating irrelevant information, are also able to overemphasize structural aspects of the programming language, or gathering separating strings whose meaning is more significant for the comparison or even eliminating sequences less relevant to highlight other enabling better inference about the degree of similarity. The tool, called Sherlock N-Overlap was subjected to rigorous evaluation methodology, both in simulated scenarios as classes in programming, with results exceeding tools currently highlighted in the literature on plagiarism detection. / Este trabalho se contextualiza no problema da detecÃÃo de plÃgio entre cÃdigos-fonte em turmas de programaÃÃo. Apesar da ampla quantidade de ferramentas disponÃveis para a detecÃÃo de plÃgio, poucas sÃo capazes de identificar, de maneira eficaz, todas as semelhanÃas lÃxicas e semÃnticas entre pares de cÃdigos, o que se deve à complexidade inerente a esse tipo de anÃlise. Fez-se, portanto, para o problema e o cenÃrio em questÃo, um estudo das principais abordagens discutidas na literatura sobre detecÃÃo de plÃgio em cÃdigo-fonte e, como principal contribuiÃÃo, concebeu-se uma ferramenta aplicÃvel no domÃnio de prÃticas laboratoriais. A ferramenta tem por base o algoritmo Sherlock, que foi aprimorado sob duas perspectivas: a primeira, com modificaÃÃes no coeficiente de similaridade usado pelo algoritmo, de maneira a melhorar a sua sensibilidade para comparaÃÃo de assinaturas; a segunda, propondo tÃcnicas de prÃ-processamento invasivas que, alÃm de eliminar informaÃÃo irrelevante, sejam tambÃm capazes de sobrevalorizar aspectos estruturais da linguagem de programaÃÃo, reunindo ou separando sequÃncias de caracteres cujo significado seja mais expressivo para a comparaÃÃo ou, ainda, eliminando sequÃncias menos relevantes para destacar outras que permitam melhor inferÃncia sobre o grau de similaridade. A ferramenta, denominada Sherlock N-Overlap, foi submetida a rigorosa metodologia de avaliaÃÃo, tanto em cenÃrios simulados como em turmas de programaÃÃo, apresentando resultados superiores a ferramentas atualmente em destaque na literatura sobre detecÃÃo de plÃgio.
|
Page generated in 0.0634 seconds