• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 539
  • 16
  • 6
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • Tagged with
  • 568
  • 568
  • 341
  • 329
  • 280
  • 203
  • 131
  • 124
  • 121
  • 118
  • 114
  • 101
  • 101
  • 88
  • 85
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
421

Desenvolvimento de protocolo biomédico de avaliação de tratamento de crianças com paralisia cerebral por meio do baropodômetro eletrônico computadorizado / Development of biomedical protocol of treatment assessment of children with cerebral palsy by means of computerized electronic baropodometer

Silva, Bruna Maria da 20 April 2016 (has links)
A encefalopatia crônica da infância não progressiva, comumente conhecida como paralisia cerebral (PC), trata-se de uma doença que afeta o sistema nervoso central e esta diretamente relacionada à prematuridade e a asfixia perinatal. As disfunções motoras causadas por essa afecção limitam as crianças a realizaram atividades e tarefas diárias, a partir dessa incapacidade tratamentos veem sido desenvolvidos e aplicados para melhorar a qualidade de vida desses indivíduos, como tratamentos cirúrgicos, medicamentosos, de adaptação e fisioterapêutico. No entanto, na prática, a avaliação desses pacientes, ainda é realizada através de escalas de pontuação, sendo subjetivas em sua maioria. Nesse sentido, foi realizado um estudo do tipo descritivo que teve como objetivo, desenvolver e sistematizar um protocolo biomédico de avaliação baropodométrica de tratamento para crianças com PC, como contribuição quantitativa ao repertório de métodos de avaliações já existentes. Foram incluídas na pesquisa, crianças com PC, ambos os sexos, na faixa etária dos dois aos 12 anos de idade, independente da topografia e do tônus muscular e que estavam em tratamento fisioterapêutico com o método PediaSuit e/ou fisioterapia convencional. Foram excluídos da pesquisa indivíduos com diagnóstico de mielomeningocele, doenças progressivas e/ou degenerativas e indivíduos que associaram outras terapias de tratamento, além da fisioterapia convencional e/ou PediaSuit. Compuseram a amostra do estudo 21 crianças, que foram avaliadas antes e durante os tratamentos fisioterapêuticos. No entanto, essas crianças foram avaliadas com a finalidade de determinar as possíveis fragilidades e vantagens no desenvolvimento do protocolo, no total foram realizados 91 testes. Algumas crianças precisaram do auxílio de um andador para se manter na postura em pé. Relativamente ao objetivo proposto, este foi alcançado e considerou-se que o Protocolo Biomédico de Avaliação de Tratamento de Crianças com PC por meio do Barapodômetro Eletrônico Computadorizado (PROBIOBEC) poderá ser utilizado para avaliar crianças em tratamento fisioterapêutico. Assim, concluiu-se que a sistematização alcançada no formato de um protocolo de aquisição de dados por meio do baropodômetro eletrônico computadorizado (BEC) pode ser um exame complementar quantitativo viável e útil para o acompanhamento do impacto de intervenções terapêuticas nessa classe clínica de população. Além disso, foram desenvolvidos quatro artigos, sendo um publicado na Revista Uniandrade e outro publicado no Congresso de Engenharia Biomédica – CBEB, ambos no ano de 2014, e outros dois em processo para publicação. / Chronic encephalopathy nonprogressive childhood, commonly known as cerebral palsy (CP), it is a disease that affects the central nervous system and is directly related to prematurity and perinatal asphyxia. The motor dysfunction caused by this condition limit children performed daily activities and tasks, from that failure treatments see been developed and applied to improve the quality of life of individuals, such as surgical treatments, medications, physical therapy and adaptation. However, in practice, the evaluation of these patients is still performed using rating scales, being largely subjective. In this sense, was performed a descriptive study that had as objective develop and systematize a biomedical protocol baropodometric evaluation of treatment for children with CP as quantitative contribution to the repertoire of existing ratings methods. Were included in the study, children with CP, both sexes, aged from two to 12 years of age, regardless of topography and muscle tone, and that were in physical therapy with PediaSuit method and / or conventional physical therapy. Were excluded from the research individuals diagnosed with myelomeningocele, progressive disease and / or degenerative and individuals associated with other therapies treatment in addition to conventional therapy and / or PediaSuit. Comprised the sample of the study 21 children who were evaluated before and during physical therapy treatments.However, these children were evaluated in order to determine possible fragility and advantages in the development of the protocol, in total were carried out 91 tests. Some children needed the aid of a walker to stay in the standing posture. Regarding the proposed objective, this was achieved and it was considered that the Protocol Biomedical Treatment Assessment of Children with PC by means of Barapodômetro Electronic Computerized (PROBIOBEC) can be used to assess children in physical therapy. Thus, it was concluded that the systematization achieved in the format of a data acquisition protocol by means of computerized electronic baropodômetro (BEC) can be a viable quantitative further examination and useful for monitoring the impact of therapeutic interventions in this clinical class population. In addition, four articles were developed, one published in the Journal Uniandrade and another published in Congress of Biomedical Engineering - CBEB, both in 2014, and two more in the process of publication. Thus, it was concluded that the systematization achieved in the format a data acquisition protocol by means of computerized electronic baropodômetro (BEC) can be a viable quantitative complementary examination and useful for monitoring the impact of therapeutic interventions in this clinical class population. In addition, four articles were developed, one published in the Journal Uniandrade and another published in Congress of Biomedical Engineering - CBEB, both in 2014, and two more in the process of publication.
422

Classificação de sites a partir das análises estrutural e textual

Ribas, Oeslei Taborda 28 August 2013 (has links)
Com a ampla utilização da web nos dias atuais e também com o seu crescimento constante, a tarefa de classificação automática de sítios web têm adquirido importância crescente, pois em diversas ocasiões é necessário bloquear o acesso a sítios específicos, como por exemplo no caso do acesso a sítios de conteúdo adulto em escolas elementares e secundárias. Na literatura diferentes trabalhos têm surgido propondo novos métodos de classificação de sítios, com o objetivo de aumentar o índice de páginas corretamente categorizadas. Este trabalho tem por objetivo contribuir com os métodos atuais de classificação através de comparações de quatro aspectos envolvidos no processo de classificação: algoritmos de classificação, dimensionalidade (número de atributos considerados), métricas de avaliação de atributos e seleção de atributos textuais e estruturais presentes nas páginas web. Utiliza-se o modelo vetorial para o tratamento de textos e uma abordagem de aprendizagem de máquina clássica considerando a tarefa de classificação. Diversas métricas são utilizadas para fazer a seleção dos termos mais relevantes, e algoritmos de classificação de diferentes paradigmas são comparados: probabilista (Naıve Bayes), árvores de decisão (C4.5), aprendizado baseado em instâncias (KNN - K vizinhos mais próximos) e Máquinas de Vetores de Suporte (SVM). Os experimentos foram realizados em um conjunto de dados contendo sítios de dois idiomas, Português e Inglês. Os resultados demonstram que é possível obter um classificador com bons índices de acerto utilizando apenas as informações do texto ˆancora dos hyperlinks. Nos experimentos o classificador baseado nessas informações atingiu uma Medida-F de 99.59%. / With the wide use of the web nowadays, also with its constant growth, task of automatic classification of websites has gained increasing importance. In many occasions it is necessary to block access to specific sites, such as in the case of access to adult content sites in elementary and secondary schools. In the literature different studies has appeared proposing new methods for classification of sites, with the goal of increasing the rate of pages correctly categorized. This work aims to contribute to the current methods of classification by comparing four aspects involved in the classification process: classification algorithms, dimensionality (amount of selected attributes), attributes evaluation metrics and selection of textual and structural attributes present in webpages. We use the vector model to treat text and an machine learning classical approach according to the classification task. Several metrics are used to make the selection of the most relevant terms, and classification algorithms from different paradigms are compared: probabilistic (Na¨ıve Bayes), decision tree (C4.5), instance-based learning (KNN - K-Nearest Neighbor) and support vector machine (SVM). The experiments were performed on a dataset containing two languages, English and Portuguese. The results show that it is possible to obtain a classifier with good success indexes using only the information from the anchor text in hyperlinks, in the experiments the classifier based on this information achieved 99.59% F-measure.
423

Desenvolvimento de software e hardware para diagnóstico e acompanhamento de lesões dermatológicas suspeitas para câncer de pele

Oselame, Gleidson Brandão 28 August 2014 (has links)
O câncer é responsável por cerca de 7 milhões de óbitos anuais em todo o mundo. Estima-se que 25% de todos os cânceres são de pele, sendo no Brasil o tipo mais incidente em todas as regiões geográficas. Entre eles, o tipo melanoma, responsável por 4% dos cânceres de pele, cuja incidência dobrou mundialmente nos últimos dez anos. Entre os métodos diagnósticos empregados, cita-se a regra ABCD, que leva em consideração assimetria (A), bordas (B), cor (C) e diâmetro (D) de manchas ou nevos. O processamento digital de imagens tem mostrado um bom potencial para auxiliar no diagnóstico precoce de melanomas. Neste sentido, o objetivo do presente estudo foi desenvolver um software, na plataforma MATLAB®, associado a um hardware para padronizar a aquisição de imagens, visando realizar o diagnóstico e acompanhamento de lesões cutâneas suspeitas de malignidade (melanoma). Utilizou-se como norteador a regra ABCD para o desenvolvimento de métodos de análise computacional. Empregou-se o MATLAB como ambiente de programação para o desenvolvimento de um software para o processamento digital de imagens. As imagens utilizadas foram adquiridas de dois bancos de imagens de acesso livre. Foram inclusas imagens de melanomas (n=15) e imagens nevos (não câncer) (n=15). Utilizaram-se imagens no canal de cor RGB, as quais foram convertidas para escala de cinza, aplicação de filtro de mediana 8x8 e técnica de aproximação por vizinhança 3x3. Após, procedeu-se a binarização e inversão de preto e branco para posterior extração das características do contorno da lesão. Para a aquisição padronizada de imagens foi desenvolvido um protótipo de hardware, o qual não foi empregado neste estudo (que utilizou imagens com diagnóstico fechado, de bancos de imagem), mas foi validado para a avaliação do diâmetro das lesões (D). Utilizou-se a estatística descritiva onde os grupos foram submetidos ao teste não paramétrico para duas amostras independentes de Mann-Whitney U. Ainda, para avaliar a sensibilidade (SE) e especificidade (SP) de cada variável, empregou-se a curva ROC. O classificador utilizado foi uma rede neural artificial de base radial, obtendo acerto diagnóstico para as imagens melanomas de 100% e para imagens não câncer de 90,9%. Desta forma, o acerto global para predição diagnóstica foi de 95,5%. Em relação a SE e SP do método proposto, obteve uma área sob a curva ROC de 0,967, o que sugere uma excelente capacidade de predição diagnóstica, sobretudo, com baixo custo de utilização, visto que o software pode ser executado na grande maioria dos sistemas operacionais hoje utilizados. / Cancer is responsible for about 7 million deaths annually worldwide. It is estimated that 25% of all cancers are skin, and in Brazil the most frequent in all geographic regions type. Among them, the melanoma type, accounting for 4% of skin cancers, whose incidence has doubled worldwide in the past decade. Among the diagnostic methods employed, it is cited ABCD rule which considers asymmetry (A), edges (B), color (C) and diameter (D) stains or nevi. The digital image processing has shown good potential to aid in early diagnosis of melanoma. In this sense, the objective of this study was to develop software in MATLAB® platform, associated with hardware to standardize image acquisition aiming at performing the diagnosis and monitoring of suspected malignancy (melanoma) skin lesions. Was used as the ABCD rule for guiding the development of methods of computational analysis. We used MATLAB as a programming environment for the development of software for digital image processing. The images used were acquired two banks pictures free access. Images of melanomas (n = 15) and pictures nevi (not cancer) (n = 15) were included. We used the image in RGB color channel, which were converted to grayscale, application of 8x8 median filter and approximation technique for 3x3 neighborhood. After we preceded binarization and reversing black and white for subsequent feature extraction contours of the lesion. For the standardized image acquisition was developed a prototype hardware, which was not used in this study (that used with enclosed diagnostic images of image banks), but has been validated for evaluation of lesion diameter (D). We used descriptive statistics where the groups were subjected to non-parametric test for two independent samples Mann-Whitney U test yet, to evaluate the sensitivity (SE) and specificity (SP) of each variable, we used the ROC curve. The classifier used was an artificial neural network with radial basis function, obtaining diagnostic accuracy for melanoma images and 100% for images not cancer of 90.9%. Thus, the overall diagnostic accuracy for prediction was 95.5%. Regarding the SE and SP of the proposed method, obtained an area under the ROC curve of 0.967, which suggests an excellent diagnostic ability to predict, especially with low costs, since the software can be run in most systems operational use today.
424

Utilização de ontologias de referências como abordagem para interoperabilidade entre sistemas de informação utilizados ao longo do ciclo de vida de produtos

Santos, Kássio Cabral Pereira dos 15 December 2011 (has links)
Fundação Araucária / Para garantir sua sobrevivência perante um mercado cada vez mais competitivo e globalizado, as empresas passaram a se diferenciar pelo lançamento antecipado de produtos e pela utilização da informação como fator de competitividade, de forma que atendam melhor às crescentes necessidades e expectativas dos clientes. Entretanto, muitas dessas informações se encontram em uma forma não estruturada, gerando erros e inconsistências de projeto. Neste sentido, uma das soluções mais promissoras e pesquisadas na atualidade para garantir a troca e compartilhamento de informações é a construção de ontologias. Tratam-se de estruturas de informação que auxiliam na interoperabilidade semântica entre diferentes sistemas de informação. A presente pesquisa teve como objetivo principal propor uma abordagem semântica para interoperabilidade entre softwares utilizados ao longo do ciclo de vida de produtos, baseada na aplicação de ontologias de referência. Tal abordagem consiste na apresentação de um modelo conceitual no qual uma ontologia de referência é criada a partir da identificação de demandas de interoperabilidade. A ontologia criada fornece elementos suficientes para que o mapeamento semântico possa ser realizado, mediante consulta às suas classes, propriedades e axiomas. Um estudo de caso na indústria de papel reciclado foi adotado no sentido de identificar cenários reais que permitissem exemplificar a forma pela qual o modelo conceitual seria aplicado. Dois sistemas de informação atualmente utilizados ao longo do ciclo de vida do produto foram identificados, os quais utilizam estruturas heterogêneas de dados, sem correspondência direta entre termos. Após a criação de uma ontologia de referência para este caso, utilizando métodos construtivos e ferramentas consagradas, três possíveis cenários de interoperabilidade foram analisados. Para cada um foram propostas soluções de interoperabilidade semântica utilizando o modelo conceitual proposto. / To guarantee survival in an increasingly competitive and globalized market, companies need to differentiate themselves not only through the launch of new products, but also through the effective use of information to better serve the needs and expectations of their customers. However, finding well-structured information is difficult and the lack of clarity often leads to errors and project inconsistencies. One of the most promising and sought-after solutions to guarantee the accurate exchange of information is the use of an ontology, a structural framework that aids in the interoperability of different information systems. The objective of this research is to propose an approach to software interoperability, based on an ontology reference system, that can be used throughout the product lifecycle. This approach presents a conceptual model that creates a reference ontology based on the identification of interoperability needs. This research presents sufficient evidence that semantics mapping can be achieved in conjunction with the appropriate information class, properties, and axioms. To highlight real-world scenarios that exemplify how this conceptual model could be effectively applied, this research refers to a case study from the recycled paper industry. In addition, this study identifies two information systems that are currently used throughout the product lifecycle which utilize heterogeneous data structures with no direct correspondence between terms. Through constructive methods and existing tools, a reference ontology was created for these systems. Three interoperability scenarios were analyzed and solutions were proposed for semantic interoperability using the suggested model.
425

Comunicação cooperativa com codificação de rede e alocação de subportadoras / Cooperative communication with network-coding and subcarrier alocation

Ton, Thiago Henrique 11 December 2017 (has links)
Nessa dissertação apresenta-se um novo modelo de cooperação com codificação de rede para cenários em que há múltiplo acesso por divisão de frequências ortogonais (OFDMA). O modelo proposto é desenvolvido sobre o modelo da Codificação de Rede Dinâmica Generalizada (GDNC) incorporando-se a ele a alocação de subportadoras pelo algoritmo de máximas combinações com restrição (MCMA). O objetivo é incorporar ao GDNC a possibilidade de explorar a diversidade em frequência através da correta alocação de subportadoras para os diversos nós do sistema. A análise do modelo proposto, GDNCOFDMA, é desenvolvida em cenários nos quais o desvanecimento dos blocos de coerência é do tipo Rayleigh. Expressões para probabilidade de outage atingida pelo sistema, assim como a curva diversidade-multiplexação (DMT) obtidas são confrontadas com simulações numéricas. O desempenho do GDNC-OFDMA é confrontado com esquema análogo que também explora a diversidade em frequência da mesma forma, o NCC-OFDMA, que é revisitado nesse trabalho de forma a se obter uma versão mais realista do que a originalmente proposta. Os resultados obtidos mostram que o GDNC-OFDMA supera o desempenho em termos de diversidade em relação ao esquema GDNC com o custo de uma redução na taxa de multiplexação, devendo ser preferível a sua adoção nos cenários em que se aplica ao invés da versão original. Ainda, o GDNC-OFDMA tem melhor desempenho em termos de probabilidade de outage e diversidade comparativamente ao NCC-OFDMA. / In this master’s thesis a new model for network-coded cooperative communication in orthogonal frequency division multiple access (OFDMA) scenarios is proposed. The proposed model is an extension of the Generalized Dynamic Network Coding (GDNC), incorporating into it a subcarrier allocation method provided by the maximum-constraint matching allocation (MCMA) algorithm. The objective is to provide GDNC with the ability to explore frequency diversity through proper subcarrier allocation for the nodes in the system. The analysis of the proposed model, GDNC-OFDMA, is developed in scenarios in which coherence blocks undergo Rayleigh fading. Equations for outage probability of the system, as well as the diversity-multiplexing trade-off (DMT) are obtained and compared with numerical simulations. The performance of GDNC-OFDMA is compared with an analogous scheme which also explores frequency diversity in the same manner, the NCC-OFDMA, which is reviewed in this work in order to obtain a more realistic version compared to the one originally proposed. Results showed that GDNCOFDMA surpasses GDNC in terms of diversity at the cost of a decreasing in multiplexing rate, being preferable its adoption in applicable scenarios rather than the original version. Moreover, GDNC-OFDMA has better performance in terms of outage probability and diversity when compared to NCC-OFDMA.
426

Caracterização de um acelerômetro óptico biaxial para monitoramento de vibrações em máquinas elétrica / Characterization of a biaxial optical accelerometer for vibration monitoring in electrical machines

Linessio, Rafael Pomorski 18 April 2016 (has links)
CAPES; CNPQ; FINEP; FA; SETI / Este trabalho tem como objetivo implementar, caracterizar, calibrar e testar um acelerômetro óptico biaxial para o monitoramento de vibrações em máquinas elétricas. São apresentados os métodos convencionais de sensoriamento e sistemas ópticos para a análise de vibrações. O acelerômetro proposto tem como elemento sensor as redes de Bragg em fibra óptica, onde a oscilação da massa inercial provoca a alteração do comprimento de onda de Bragg conforme o deslocamento da base do sensor. O acelerômetro óptico biaxial permite a medição da aceleração em duas direções ortogonais, onde a frequência natural para o eixo x é 747,5 Hz e para o eixo y é 757,5 Hz, podendo assim realizar medições com sensibilidade constante até aproximadamente um terço dessas frequências. A caracterização em resposta em frequência denominado massa dinâmica, foi obtido com os ensaios experimentais utilizando o martelo de impacto e o atuador eletromecânico. Este último ensaio permitiu que o acelerômetro fosse exposto a uma excitação harmônica de 10 Hz a 750 Hz. A comparação da resposta obtida com o acelerômetro piezoelétrico utilizado como referência e o sistema óptico possibilitou obter a curva de sensibilidade em pm por g ao longo da frequência de análise. A análise em frequência está em consonância com a NBR 60034-14 a qual especifica os limites de vibração para máquinas elétricas girantes quando desacopladas de qualquer carga ou acionamento. Os ensaios realizados para validar a resposta do acelerômetro óptico biaxial para o monitoramento das frequências de vibrações em máquinas elétricas, foram desenvolvidos em três momentos. Primeiro foi analisado um grupo-gerador de 500 kVA no Hospital Pequeno Príncipe em Curitiba. Segundo foi utilizado um motor de indução conectado a um inversor de frequência e por último foi analisado um motor de indução operando com o rotor com a barra quebrada, onde foi acoplado um gerador síncrono para prover a carga ao motor. / The means focus of this study is to implement, characterize, calibrate and test of a biaxial optical fiber accelerometer for vibration monitoring in electrical machines. The conventional methods of the sensing as well as the optical systems for analysis of the vibrations are presents. The accelerometer proposed uses fiber Bragg gratings to measure the displacement of the na inertial mass, where cause the change of Bragg wavelength relatively to a displacement of the support base. The biaxial optical accelerometer allows the measurement of the acceleration in two ortogonal directions, where the natural frequency for the x-axis is 747,5 Hz and for y-axis is 757,5 Hz, being able to perform measurements with constant sensitivity up to one third of these frequencies. The characterization in frequency response called dynamic mass was obtained with the experimental tests using the impact hammer and electromechanical actuator. The last test allowed the accelerometer was exposed to a harmonic excitation of the 10 Hz to 750 Hz. The comparison of the response between the optical system and the piezoelectric accelerometer used as reference allowed to get the sensibility in pm by g regarding the analysis of the frequency. The analysis frequency is in line with the NBR 60034-14 wich specifies the limits of the vibration for rotating electrical machines when uncoupled from any load or drive. The tests perfomed to validate the response of the biaxial optical accelerometer for a monitoring of the vibration frequencies in electrical machines were developed in three moments. First it was tested a group-generator, 500 kVA at the Hospital Pequeno Príncipe in Curitiba. Second was used an induction motor connected to a frequency inverter and finally was analyzed na operating induction motor with broken rotor bar where was also used a synchronous generator to provide the load for motor.
427

Análise computacional numérica do comportamento de ruptura dos solos em fundações superficiais com excentricidade gerada por cargas horizontais

Pereira, Paulo Henrique 30 May 2012 (has links)
Em subestações de transmissão e distribuição de energia elétrica são utilizadas estruturas metálicas ou de concreto para o suporte de equipamentos e ancoragem de linhas de transmissão. Nestas estruturas os esforços principais atuam horizontalmente pela ação do vento e da tração nos cabos de transmissão de energia elétrica. Devido aos baixos esforços verticais, normalmente, utilizam-se como solução fundações rasas, uma vez que apresentam menor custo e maior facilidade de execução quando comparadas com fundações profundas. Devido a distância de aplicação das cargas horizontais em relação à base, os momentos gerados por estas se tornam elevados em relação à carga vertical atuante. Esta configuração faz com que a resultante dos esforços, frequentemente, esteja fora do núcleo central da fundação. Segundo a NBR 6122 (1996), para a avaliação da capacidade de suporte das fundações nos casos de cargas excêntricas, deve ser adotada uma área efetiva onde os esforços de compressão são considerados uniformemente distribuídos. Este procedimento simplificado muitas vezes torna os dimensionamentos extremamente conservadores, tendo em vista os baixos carregamentos verticais e as grandes excentricidades. Esta pesquisa visa, através de utilização de modelos computacionais numéricos, caracterizar o comportamento de ruptura dos solos solicitados por fundações superficiais sujeitas a esforços combinados verticais, horizontais e momentos. Além disso, os resultados obtidos nos modelos numéricos são comparados com as formulações clássicas de dimensionamento de fundações. / For power substations, both steel and reinforced concrete structures are normally used to support the equipments and the high voltage wiring. In such cases, the wind forces predominate and cause tension in the electrical cables and structures. As the vertical loads are relatively small, generally shallow foundations apply, being also easily executed under lower costs. Due to the distance between the horizontal forces and the structural foundation, high moments are generated comparatively to the vertical loads present, defining big eccentricity in the foundation. According to ABNT-NBR 6122 (1996), to determine the foundation bearing capacity, an effective area way be considered for the compression stresses to act. This situation often yields to unrealistic foundation design. The present dissertation intend to model the failure behavior of the soil supporting shallow foundation by means of computational methods, considering vertical and horizontal forces acting along with moments. A comparison is also mode with commonly used bearing capacity equations for the same type of foundations.
428

Metodologia para estimativas de fluxo de calor na peça em operações de fresamento / Methodology for heat flow estimates in the part in milling operations

Barrios, André Nozomu Sadoyama 05 February 2018 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Um dos processos de usinagem com maior emprego na indústria é o fresamento. O estudo da área térmica no fresamento é um desafio, por ser um processo em que o corte ocorre numa região bem específica de difícil acesso para sua correta mensuração. Uma das soluções para análise da temperatura no processo de usinagem é a utilização de modelos térmicos resolvidos por métodos matemáticos que trazem boas estimativas. Atualmente, além dos softwares desenvolvidos no ambiente acadêmico, existem também ferramentas computacionais disponíveis no mercado. Entretanto, os softwares comerciais apresentam código de programação fechado o que dificulta estudos mais específicos para casos particulares. Por meio de busca em vários autores, tanto em trabalhos no contexto de torneamento quanto para fresamento, notou-se que a utilização do método de resolução inversa por Gauss-Newton para estimativas de fluxo de calor ainda é muito restrita. Nos trabalhos de Braghini Junior (2002) e do próprio autor em Barrios (2013) este método foi implementado, porém a metodologia foi para estimativas apenas do fluxo de calor médio, desprezando a variação do fluxo de calor em função do deslocamento da ferramenta pelo tempo. O objetivo deste trabalho é desenvolver uma nova metodologia para realizar estimativas de fluxo de calor na peça em operações de usinagem por fresamento considerando os efeitos do deslocamento da ferramenta em função do tempo utilizando o método de Gauss-Newton. Para isso foi necessário desenvolver um Simulador Térmico de Usinagem por Fresamento (STUF), analisar os efeitos das variáveis adotadas no simulador e por fim realizar estimativas de fluxo de calor por meio dos dados de temperatura experimental de usinagem. Foram criadas duas interfaces para o STUF, sendo uma interface para as estimativas de fluxo de calor e uma interface para as estimativas de temperatura na peça. Para este fim, o Matlab® foi utilizado como ambiente computacional e como linguagem de programação para as simulações. Os efeitos das variáveis no simulador como o coeficiente convectivo (h), refino de malha, passo do tempo (Δt), geometria da peça, temperatura experimental e análise de erro foram analisados. Foi possível realizar estimativas de fluxo de calor e temperatura na peça por meio do estudo de caso 1, utilizando os dados experimentais de Braghini (2002), estudo de caso 2, por meio dos dados experimentais de Barrios (2013), e estudo de caso 3, por meio dos dados experimentais proposto por este trabalho. Essa nova metodologia empregada por meio do STUF permitiu a identificação do fluxo de calor máximo na peça, possibilitou a geração de resultados de temperaturas estimadas com bons ajustes com as temperaturas experimentais com R² médio de 0,85 para estudo de caso 1 e R² de 0,95 para estudo de caso 2. O estudo de caso 3 apresentou muitos ruídos, porém foram possíveis as estimativas. / One of the most widely used machining processes in the industry is milling. The study of the thermal area in the milling is a challenge, because it is a process in which the cutting occurs in a very specific region of difficult access for its correct measurement. One of the solutions for the analysis of the temperature in the machining process is the use of thermal models solved by mathematical methods that bring good estimates. Currently, besides the software developed in the academic environment, there are also computational tools available in the market. However, commercial software presents closed programming code which makes it difficult to study more specifically for particular cases. Through the search of several authors, both in work in the context of turning and in milling, it was noticed that the use of the inverse resolution method by Gauss-Newton for estimates of heat flow is still very restricted. In the works by Braghini Junior (2002) and by the author himself in Barrios (2013) this method was implemented, but the methodology was only for estimates of the average heat flux, neglecting the variation of the heat flow as a function of the time displacement of the tool . The objective of this work is to develop a new methodology for estimating the heat flux in the part in milling operations considering the effects of tool displacement as a function of time using the GaussNewton method. For this, it was necessary to develop a Thermal Simulator for Machining by Milling (STUF), to analyze the effects of the variables adopted in the simulator and finally to make estimates of heat flux through the experimental temperature data of machining. Two interfaces were created for the STUF, being an interface for the estimations of heat flow and an interface for the temperature estimates in the part. For this purpose, Matlab® was used as a computational environment and as a programming language for simulations. The effects of the variables in the simulator, such as the convective coefficient (h), mesh refining, time step (Δt), part geometry, experimental temperature and error analysis were analyzed. It was possible to estimate heat flux and temperature in the piece by means of the case study 1, using the Braghini (2002) experimental data, case study 2, through the experimental data of Barrios (2013), and case study 3, through the experimental data proposed by this work. This new methodology used by the STUF allowed the identification of the maximum heat flux in the part, allowed the generation of estimated temperature results with good adjustments with the experimental temperatures with mean R² of 0.85 for case study 1 and R² of 0,95 for case study 2. Case study 3 presented many noises, but estimates were possible.
429

Desenvolvimento de ferramenta computacional para metrologia com microtomografia computadorizada / Development of computational tool for metrology with computed microtomography

Júlio Cesar Corrêa de Oliveira 04 May 2015 (has links)
Esta tese apresentada uma proposta de desenvolvimento de uma ferramenta computacional para metrologia com microtomografia computadorizada que possa ser implantada em sistemas de microtomógrafos convencionais. O estudo concentra-se nas diferentes técnicas de detecção de borda utilizadas em processamento de imagens digitais.Para compreender a viabilidade do desenvolvimento da ferramenta optou-se por utilizar o Matlab 2010a. A ferramenta computacional proposta é capaz de medir objetos circulares e retangulares. As medidas podem ser horizontais ou circulares, podendo ser realizada várias medidas de uma mesma imagem, uma medida de várias imagens ou várias medidas de várias imagens. As técnicas processamento de imagens digitais implementadas são a limiarização global com escolha do threshold manualmente baseado no histograma da imagem ou automaticamente pelo método de Otsu, os filtros de passa-alta no domínio do espaço Sobel, Prewitt, Roberts, LoG e Canny e medida entre os picos mais externos da 1 e 2 derivada da imagem. Os resultados foram validados através de comparação com os resultados de teste realizados pelo Laboratório de Ensaios Mecânicos e Metrologia (LEMec) do Intstituto Politécnico do Rio de Janeiro (IPRJ), Universidade do Estado do Rio de Janeiro (UERJ), Nova Friburdo- RJ e pelo Serviço Nacional da Indústria Nova Friburgo (SENAI/NF). Os resultados obtidos pela ferramenta computacional foram equivalentes aos obtidos com os instrumentos de medição utilizados, demonstrando à viabilidade de utilização da ferramenta computacional a metrologia. / This thesis presents a proposal to develop a computational tool for metrology using computed microtomography (microCT) systems that can be implemented in conventional microCT systems.This study focuses on the different techniques used for edge detection in image processing.To test the feasibility of developing the tool we chose to use the Matlab 2010a. The proposed computational tool is capable of measuring circular and rectangular objects.The measures can be horizontal or circular and can be performed several measurements of the same image, a measure of multiple images or more measures of multiple images.The techniques implemented of processing digital images are global thresholding with choice of threshold manually based on the image histogram or automatically by the Otsu method, the high-pass filter in the space domain Sobel, Prewitt, Roberts, LoG and Canny and the distance between the outermost "peaks" of the 1st and 2nd derivative image.The results were validated by comparison with test results performed by the Mechanical Testing Laboratory and Metrology (LEMec) Polytechnic Intstituto of Rio de Janeiro (IPRJ), State University of Rio de Janeiro (UERJ), Nova Friburdo- RJ and the National Industry Service - Nova Friburgo (SENAI / NF).The results obtained by computational tool were equivalent to those obtained with the measuring instruments used, demonstrating the feasibility of using of computational tool for metrology.
430

Método para reconhecimento de vogais e extração de parâmetros acústicos para analises forenses / Method for recognition of vowels and extraction of acoustic parameters for forensic analysis

Dresch, Andrea Alves Guimarães 14 December 2015 (has links)
Exames de Comparação Forense de Locutores apresentam características complexas, demandando análises demoradas quando realizadas manualmente. Propõe-se um método para reconhecimento automático de vogais com extração de características para análises acústicas, objetivando-se contribuir com uma ferramenta de apoio nesses exames. A proposta baseia-se na medição dos formantes através de LPC (Linear Predictive Coding), seletivamente por detecção da frequência fundamental, taxa de passagem por zero, largura de banda e continuidade, sendo o agrupamento das amostras realizado por meio do método k-means. Experimentos realizados com amostras de três diferentes bases de dados trouxeram resultados promissores, com localização das regiões correspondentes a cinco das vogais do Português Brasileiro, propiciando a visualização do comportamento do trato vocal de um falante, assim como detecção de trechos correspondentes as vogais-alvo. / Forensic speaker comparison exams have complex characteristics, demanding a long time for manual analysis. A method for automatic recognition of vowels, providing feature extraction for acoustic analysis is proposed, aiming to contribute as a support tool in these exams. The proposal is based in formant measurements by LPC (Linear Predictive Coding), selectively by fundamental frequency detection, zero crossing rate, bandwidth and continuity, with the clustering being done by the k-means method. Experiments using samples from three different databases have shown promising results, in which the regions corresponding to five of the Brasilian Portuguese vowels were successfully located, providing visualization of a speaker’s vocal tract behavior, as well as the detection of segments corresponding to target vowels.

Page generated in 0.1047 seconds