• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 612
  • 13
  • 11
  • 11
  • 11
  • 9
  • 8
  • 4
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • Tagged with
  • 633
  • 193
  • 173
  • 77
  • 71
  • 60
  • 52
  • 48
  • 42
  • 39
  • 36
  • 36
  • 35
  • 35
  • 33
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Aplicação de métodos de gestão originados na indústria do software a projectos de construção

Martins, Mário Miguel Alves January 2011 (has links)
Tese de mestrado integrado. Engenharia Civil (Construções). Universidade do Porto. Faculdade de Engenharia. 2011
2

Online clustering of trajectory data stream / Online Clustering of Trajectory Data Stream.

Silva, Ticiana Linhares Coelho da January 2016 (has links)
SILVA, Ticiana Linhares Coelho da. Online clustering of trajectory data stream. 2016. 113 f. Tese (Doutorado em Ciência da Computação)-Universidade Federal do Ceará, Fortaleza, 2016. / Submitted by Jairo Viana (jairo@ufc.br) on 2017-02-17T18:32:07Z No. of bitstreams: 1 2016_tese_tlcsilva.pdf: 21709584 bytes, checksum: 1454aec7cf746b2ad56eda5865264deb (MD5) / Approved for entry into archive by Jairo Viana (jairo@ufc.br) on 2017-02-17T18:32:27Z (GMT) No. of bitstreams: 1 2016_tese_tlcsilva.pdf: 21709584 bytes, checksum: 1454aec7cf746b2ad56eda5865264deb (MD5) / Made available in DSpace on 2017-02-17T18:32:27Z (GMT). No. of bitstreams: 1 2016_tese_tlcsilva.pdf: 21709584 bytes, checksum: 1454aec7cf746b2ad56eda5865264deb (MD5) Previous issue date: 2016 / Mining trajectory patterns allows characterizing movement behavior (i.e. congestion, flocks, swarms, leadership, among others), which leverages new applications and services. Movement tracking becomes ubiquitous in many applications, which raises great interests in trajectory data analysis and mining. Most existing approaches allow characterizing the past movements of the objects but not current patterns, because they use only historical trajectory data. Recent approaches for online clustering of moving objects location are restricted to instantaneous positions. Subsequently, they fail to capture moving objects' behavior over time. By continuously tracking moving objects' sub-trajectories at each time window, rather than just the last position, it becomes possible to gain insight on the current behavior, and potentially detect mobility patterns in real time. Real-time analysis of mobility data may offer novel tools to better understand ongoing city dynamics, as well as the detection of regularities and anomalies as they happen; all in all, this can represent an invaluable tool when tackling decision-making tasks. Among the possible patterns, in this thesis we mainly consider (sub)-trajectory clustering and its evolution. Discovering such patterns may help to re-engineer effectively the traffic within a city, or to promptly detect events at the city level (e.g., car accidents) as they happen. In the first line of investigation we tackle the problem of discovering and maintaining the density based clusters in trajectory data streams in Euclidean Space, despite the fact that most moving objects change their position over time. We propose CUTiS, an incremental algorithm to solve this problem, while tracking the evolution of the clusters as well as the membership of the moving objects to the clusters. Our experiments were conducted on two real datasets and the experiments show the efficiency and the effectiveness of our method comparing to two competitors DBSCAN and TraClus. As a second line of research, we aim at improving the efficiency of the CUTiS algorithm. In this way, we propose an indexing structure for sub-trajectory data based on a space-filling curve. This approach has the property of mapping a multidimensional space to one-dimensional space such that, for two objects that are close in the original space, there is a high probability that they will be close in the mapped target space. We take advantage of this property to optimize range queries from a moving object sub-trajectory on the incremental clustering algorithm. Our experiments were conducted on a real data set and they show the efficiency and the effectiveness of our method compared to our previous proposed CUTiS, DBSCAN and TraClus. As a third line, we investigate the same problem of sub-trajectory clustering discovery and maintenance on a Road Network since many moving objects move on the road network in real applications. We propose Net-CUTiS an incremental clustering algorithm for road network constraint movement. The efficiency and effectiveness of Net-CUTiS were compared using a real dataset with NETSCAN and DBSCAN. / A mineração de dados de trajetória permitem caracterizar o comportamento de movimento (isto é, congestionamento, flocks, swarms, leadership, entre outros padrões de movimento), impulsionando novas aplicações e serviços. O rastreamento de objetos móveis se torna onipresente em muitas aplicações, o que gera grande interesse na análise de dados de trajetória e na mineração destes dados. A maioria das abordagens permite detectar padrões de movimento em dados históricos de objetos, mas não padrões atuais. Abordagens recentes para clusterização online de objetos móveis se restringem a analisar posições instantâneas. Dessa forma, estes trabalhos não conseguem capturar o comportamento dos objetos em movimento ao longo do tempo. Ao monitorar continuamente as sub-trajetórias de objetos móveis em intervalos de tempo, ao invés de apenas a última posição, é possível obter uma visão sobre o comportamento atual e potencialmente detectar padrões de mobilidade em tempo real. A análise em tempo real dos dados de mobilidade pode oferecer conhecimento para entender melhor a dinâmica da cidade em curso, bem como a detecção de irregularidades e anomalias à medida que acontecem; Este estudo é relevante para tomada de decisão. Entre os possíveis padrões, nesta tese consideramos principalmente o agrupamento (clusterização) de sub-trajetórias e a evolução do movimento dos objetos. Descobrir esses padrões pode ajudar na re-engenharia do tráfego de grandes cidades, ou para detectar prontamente eventos (por exemplo, acidentes de carro, passeatas, entre outros) à medida que eles acontecem. Na primeira linha de investigação desta tese, abordamos o problema de descobrir e manter os clusters baseados em densidade utilizando streams de trajetórias no Espaço Euclidiano, levando em consideração que a maioria dos objetos em movimento muda de posição ao longo do tempo. Dessa forma, esta tese propõe o framework CUTiS (ClUstering Trajectory Stream), um algoritmo incremental para resolver este problema. CUTiS é capaz de monitorar a evolução dos padrões de movimento (clusters), bem como a adesão dos objetos em movimento aos padrões já existentes. Nossos experimentos foram conduzidos em dois conjuntos de dados reais e os experimentos mostram a eficiência e a eficácia do nosso método comparando a dois concorrentes DBSCAN e TraClus. Como segunda linha de pesquisa, esta tese teve como objetivo melhorar a eficiência do algoritmo CUTiS. Desta forma, foi proposto uma estrutura de indexação para dados de sub-trajetória com base em space filling curve. Esta abordagem tem a propriedade de mapear um espaço multidimensional para um espaço unidimensional tal que, para dois objetos que estão próximos no espaço original, existe uma alta probabilidade de que eles fiquem próximos no espaço alvo mapeado. Essa propriedade foi utilizada para otimizar range queries de uma sub-trajetória de um objeto no algoritmo de clusterização incremental. Nossos experimentos foram conduzidos em um conjunto de dados reais e eles mostram a eficiência e a eficácia do nosso método em comparação com a nossa proposta anterior CUTiS, e as abordagens DBSCAN e TraClus. Como terceira linha, investigamos o mesmo problema de descoberta e manutenção de clusters de sub-trajetórias em uma rede rodoviária, já que muitos objetos em movimento se movem na rede rodoviária em aplicações reais. Dessa forma, foi proposto como solução o Net-CUTiS, um algoritmo de clusterização incremental para sub-trajetórias de objetos com restrição de movimento em rede rodoviária. A eficiência e a eficácia do Net-CUTiS foram comparadas usando um conjunto de dados real com a abordagem NETSCAN e DBSCAN.
3

Reconhecimento de instâncias guiado por algoritmos de atenção visual

MESQUITA, Rafael Galvão de 24 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-06-25T22:48:16Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Rafael Galvão de Mesquita.pdf: 3132690 bytes, checksum: 146f47256f9ec73dd248693c53e9d44e (MD5) / Made available in DSpace on 2018-06-25T22:48:16Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Rafael Galvão de Mesquita.pdf: 3132690 bytes, checksum: 146f47256f9ec73dd248693c53e9d44e (MD5) Previous issue date: 2017-02-24 / CNPQ / Atenção visual é o processo pelo qual o cérebro humano prioriza e controla o processamento de estímulos visuais e é, dentre outras características do sistema visual, responsável pela forma rápida com que seres humanos interagem com o meio ambiente, mesmo considerando uma grande quantidade de informações a ser processada. A atenção visual pode ser direcionada pelo mecanismo bottom-up, em que estímulos de baixo nível da cena, como cor, guiam o foco atentivo para aquelas regiões mais salientes, ou seja, que se distinguam da sua vizinhança ou do restante da cena; ou pelo mecanismo top-down, em que fatores cognitivos, como expectativas do indivíduo ou o objetivo de concluir certa tarefa, definem a região de atenção. Esta Tese investiga o uso de algoritmos de atenção visual para guiar (e acelerar) a busca por objetos em imagens digitais. Inspirado no funcionamento do mecanismo bottom-up, um algoritmo de detecção de saliências baseado na estimativa do background da cena combinado com o resultado de um operador Laplaciano, denominado de BLS (Background Laplacian Saliency), é proposto. Além disso, uma modificação no detector/descritor de características locais SURF (Speeded-UpRobust Features), denominado depatch-based SURF, é desenvolvida para que o reconhecimento ocorra iterativamente em certos locais em foco da cena, ao invés de executar o modo clássico de reconhecimento (busca clássica), em que toda a cena é analisada de uma só vez. O modo de busca em que opatch-based SURF é aplicado e a ordem das regiões analisadas da imagem é definida por um algoritmo de detecção de saliência é referenciado como Busca Guiada por Mapa de Saliência (BGMS). O BLS e outros nove algoritmos de detecção de saliências são experimentados na BGMS. Resultados indicam, em média, uma redução para (i) 73% do tempo de processamento da busca clássica apenas pela aplicação do patch-based SURF em uma busca aleatória, (ii) e para 53% desse tempo quando a busca é guiada pelo BLS. Utilizando outros algoritmos de detecção de saliências do estado da arte, entre 55% e 133% do tempo da busca clássica são necessários para o reconhecimento. Além disso, inspirado pelo mecanismo top-down, é proposta a Busca Guiada por Características do Objeto (BGCO) por meio da priorização de descritores extraídos da cena em função da distância Hamming para os descritores de um determinado objeto alvo. A BGCO utiliza filtros de Bloom para representar vetores de características similares aos descritores do objeto buscado e possui complexidade de espaço e tempo constantes em relação ao número de elementos na base de descritores do alvo. Experimentos demonstram uma redução do tempo de processamento para 80% do tempo necessário quando a busca clássica é executada. Concluindo, a partir da integração entre a BGMS e a BGCO (BGMS+BGCO) é possível reduzir o tempo de execução da busca para 44% do tempo da busca clássica. / Visual attention is the process by which the human brain prioritizes and controls visual stimuli and it is, among other characteristics of the visual system, responsible for the fast way in which human beings interact with the environment, even considering a large amount of information to be processed. Visual attention can be driven by abottom-up mechanism, in which low level stimuli of the analysed scene, like color, guides the focused region to salient regions (regions that are distinguished from its neighborhood or from the whole scene); orbyatop-down mechanism, in which cognitive factors, like expectations or the goal of concluding certain task, define the attended location. This Thesis investigates the use of visual attention algorithms to guide (and to accelerate) the search for objects in digital images. Inspired by the bottom-up mechanism, a saliency detector based on the estimative of the scene’s background combined with the result of a Laplacian-based operator, referred as BLS (BackgroundLaplacianSaliency), is proposed. Moreover, a modification in SURF (Speeded-Up Robust Features) local feature detector/descriptor, named as patch-based SURF, is designed so that the recognition occurs iteratively in each focused location of the scene, instead of performing the classical recognition (classic search), in which the whole scene is analysed at once. The search mode in which the patch-based SURF is applied and the order of the regions of the image to be analysed is defined by a saliency detection algorithm is called BGMS. The BLS and nine other state-of-the-art saliency detection algorithms are experimented in the BGMS. Results indicate, in average, a reduction to (i) 73% of the classic search processing time just by applyingpatch-basedSURF in a random search, (ii) and to 53% of this time when the search is guided by BLS. When using other state-of-the-art saliency detection algorithms, between 55% and 133% of the processing time of the classic search is needed to perform recognition. Moreover, inspired by thetop-down mechanism, it is proposed the BGCO, in which the visual search occurs by prioritizing scene descriptors according to its Hamming distance to the descriptors of a given target object. The BGCO uses Bloom filters to represent feature vectors that are similar to the descriptors of the searched object and it has constant space and time complexity in relation to the number of elements in the set of the descriptors of the target. Experiments showed a reduction in the processing time to 80% of the required time when the classic search is performed. Finally, by using the BGMS and the BGCO in an integrated way, the processing time of the search was reduced to 44% of the execution time required by the classic search.
4

Um novo algoritmo para segmentação de imagens de mamografias robusto a ruído

TENÓRIO, Thiago Gonçalves 22 November 2013 (has links)
Submitted by Fernanda Rodrigues de Lima (fernanda.rlima@ufpe.br) on 2018-07-25T21:44:29Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Thiago Gonçalves Tenório.pdf: 2554108 bytes, checksum: 86e2e3e25258104f0d8958bca233136c (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-27T21:53:33Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Thiago Gonçalves Tenório.pdf: 2554108 bytes, checksum: 86e2e3e25258104f0d8958bca233136c (MD5) / Made available in DSpace on 2018-07-27T21:53:34Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Thiago Gonçalves Tenório.pdf: 2554108 bytes, checksum: 86e2e3e25258104f0d8958bca233136c (MD5) Previous issue date: 2013-11-22 / Segundo tipo mais frequente no mundo, o câncer de mama é mais comum entre as mulheres respondendo, no Brasil, por 52.680 casos diagnosticados em 2012 e 12.852 mortes em decorrência da doença em 2010. A mamografia é um exame de diagnóstico por imagem que tem como finalidade estudar o tecido mamário como, por exemplo, as anormalidades na mama. A imagem mamográfica pode ser dividida em duas regiões com características diferentes, o background ou região de fundo e a região da mama propriamente atingida pelos raios-X. Em uma mamografia, a região limite entre a mama e seu background também conhecida como borda, fronteira ou contorno é uma importante área a ser detectada na imagem. No entanto, no processamento de imagem, a extração do contorno da mama e a segmentação do tecido é uma tarefa desafiadora em muitos aspectos. Os avanços tecnológicos na área médica proporcionaram a criação dos sistemas de detecção auxiliada por computador (CAD - Computer Aided Diagnosis) que vêm ajudando os radiologistas, principalmente os radiologistas residentes, na difícil atividade de avaliação e análise de estruturas de interesse nas imagens mamográficas, como as bordas, utilizando-se para isso de técnicas de processamento de imagens. Este trabalho tem como objetivo o desenvolvimento de um algoritmo de segmentação das imagens de mamografias que agrupa diversas operações do processamento de imagem, como especificação de histograma, re-amostragem, ajuste de histograma, aritmética e operações morfológicas ou seja, utilização das técnicas de processamento de imagem para segmentação da mamografia em busca do encontro da borda. Nesta dissertação, alcançou-se uma segmentação correta em 97% das imagens de mamografia processadas, ou seja, a esqueletização contém toda a mama em seu interior e se assemelham ao contorno da mama. O novo algoritmo objetiva aumentar a visibilidade sobre as novas técnicas de segmentação de imagens mamográfica de uma forma automatizada e robusta a ruído que se apresentam corriqueiramente na aquisição e transmissão das imagens. / Second most common worldwide cancer disease, breast cancer is more common among women corresponding in Brazil to 52,680 cases diagnosed in 2012 and 12,852 deaths from the disease in 2010. Mammography is a diagnostic imaging tool which aims to study breast tissue, looking for abnormalities in the breast. The mammographic image may be divided into two regions with different characteristics, background region which was not exposed to X-ray and the breast region struck properly. On a mammogram, the boundary region between the breast and his background (also known as edge, border or contour) is an important area to be detected in the image. However, in image processing field, contour extraction and segmentation of the breast tissue is a challenging task in many respects. Technological advances in medical field propelled the creation of systems for computer-aided diagnosis (CAD) that are helping radiologists, especially junior radiologists, in difficult activity evaluation and analysis of interest structures in mammographic images as edges, using for this image processing techniques. This work aims to study the techniques of image processing of mammograms improving the knowledge of image segmentation with applications related to search the edge of the image, as well as the development of an algorithm for image segmentation that groups several image processing operations, such as histogram specification, re-sampling, histogram adjustment, arithmetic, and morphological operations. In this dissertation, it was attained 97% correct segmentation of mammogram contour, that is, the skeletonization contains in its interior the entire breast and resemble the contour of the breast. The new algorithm aims to increase the visibility of new techniques for segmentation of mammographic images in an automated and robust to noise ways that can appear routinely in the image acquisition and transmission.
5

Um classificador baseado em perturbações

ARAÚJO, Edson Leite 10 April 2017 (has links)
Submitted by Fernanda Rodrigues de Lima (fernanda.rlima@ufpe.br) on 2018-08-20T19:44:41Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Edson Leite de Araújo.pdf: 2460675 bytes, checksum: c90cfbf77664407874232bd551663f9c (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-24T21:24:41Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Edson Leite de Araújo.pdf: 2460675 bytes, checksum: c90cfbf77664407874232bd551663f9c (MD5) / Made available in DSpace on 2018-08-24T21:24:41Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Edson Leite de Araújo.pdf: 2460675 bytes, checksum: c90cfbf77664407874232bd551663f9c (MD5) Previous issue date: 2017-04-10 / Muitos algoritmos de reconhecimento de padrões são probabilísticos em sua construção e como tal, usam a inferência estatística para determinar o melhor rótulo para uma dada instância a ser classificada. A inferência estatística baseia-se em geral, na teoria de Bayes que por sua vez, utiliza fortemente dos vetores médios, μi, e matrizes de covariância, Σi, de classes existentes nos dados de treinamento. Estes parâmetros são desconhecidos e estimativas são realizadas seguindo vários algoritmos. Entretanto, as estimativas feitas exclusivamente a partir dos dados de treinamento são ainda as mais utilizadas. Por se tratarem de estimativas, os parâmetros μi e Σi sofrem perturbações quando se insere um novo vetor na classe à qual pertencem. Avaliando as perturbações ocorridas em todas as classes simulando uma possível inserção da instância a ser classificada nas mesmas, definimos neste trabalho uma nova regra de decisão a qual atribui a instância de teste à classe em que ocorrer a menor perturbação nos parâmetros μi e Σi ou numa combinação de ambos. Nesta área, várias abordagens são possíveis, entre elas merecem destaque as árvores de decisão, as redes neurais, o aprendizado baseado em instâncias e a máquina de vetores de suporte(SVM). Entretanto, até o momento da escrita deste texto, não foi encontrado na literatura, abordagens que utilizem as perturbações de parâmetros para a classificação de padrões. Em testes realizados inicialmente em dados sintéticos e posteriormente em 21 bancos de dados reais disponíveis no UCI Repository Learning, verificou-se que o classificador baseado em perturbações, o qual foi denominado PerC (Perturbation Classifier), apresentou performance significativamente superior às versões do SVM com kernels polinomiais de graus 2 e 3, e praticamente equivalente aos k-Nearest Neighboor com k=3 e k=5, Naïve Bayes, SVM com kernel gaussiano, CART e as redes neurais MLP, tendo o PerC o maior ranking segundo o teste estatístico de Friedman. Os resultados demonstraram que a abordagem baseada em perturbações são, portanto, úteis para a classificação de padrões. / Many pattern recognition algorithms are probabilistic in their structure and as such, they use statistical inference to determine the best label for a given instance to be classified. The statistical inference is based generally on Bayes theory which strongly uses the average vectors, μi, and covariance matrices, Σi, of existing classes in the training data. These parameters are unknown and estimates are made by following various algorithms. However, the estimates made exclusively from the training data are still the most used. Because they are estimates, the parameters μi and Σi are perturbed when a new vector is inserted into the class which they belong to. Evaluating the perturbations that occurred in all classes simulating a possible inclusion of the instance to be classified in the same one, we defined in this work a new decision rule which assigns the test instance to the class in which occurs the slightest perturbation μi and Σi parameters or the combination of both. In this area, several approaches are possible, it’s worth mentioning the decision trees, neural networks, instance-based learning and the support vector machine (SVM). However, until the moment of the writing of this text, was not found in the literature, approaches that use parameters perturbations to pattern’s classification. In tests performed initially on synthetic data and later on 21 real databases available in the UCI Repository Learning, was verified that perturbation-based classifier, which was denominated PerC (Perturbation Classifier), presented performance significantly superior to the versions of the SVM with polinomial kernels of degrees 2 and 3 and roughly equivalent to k-Nearest Neighboor with k = 3 and k = 5, Naïve Bayes, SVM with Gaussian kernel, CART and MLP neural networks, having the PerC the highest ranking according to the Friedman statistical test. The results demonstrated that the perturbation-based approach is therefore useful to pattern classification.
6

Seleção e ponderação de características: uma metodologia que integra otimização global e local

BARROS, Adélia Carolina de Andrade 28 August 2008 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-08-31T21:51:56Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Adélia Carolina de Andrade Barros.pdf: 665097 bytes, checksum: b0b790ccd11df62aac51b8ebc7d3b501 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-09-17T19:51:57Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Adélia Carolina de Andrade Barros.pdf: 665097 bytes, checksum: b0b790ccd11df62aac51b8ebc7d3b501 (MD5) / Made available in DSpace on 2018-09-17T19:51:57Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Adélia Carolina de Andrade Barros.pdf: 665097 bytes, checksum: b0b790ccd11df62aac51b8ebc7d3b501 (MD5) Previous issue date: 2008-08-28 / Esta dissertação apresenta um estudo sobre o uso de Sistemas Híbridos para a tarefa de Seleção e Ponderação simultâneas de conjuntos de características. Ela é composto de três partes principais: (1) a apresentação de uma metodologia para lidar com Seleção e Ponderação como um problema de otimização global, (2) descrição do modelo híbrido que integra busca global e local e (3) avaliação das abordagens híbridas propostas. Foram investigadas duas arquiteturas híbridas inteligentes: a primeira delas combina Tabu Search com o algoritmo de busca local Relief e a segunda integra Simulated Annealing com o Relief. Ambas abordagens procuram combinar as principais vantagens dos métodos de otimização global com as dos métodos de convergência local: métodos de otimização são bastante eficientes na busca do espaço global enquanto métodos de convergência fazem uma busca local mais refinada. A metodologia utilizada neste trabalho para representar Seleção e Ponderação como um problema de busca foi proposta por Tahir et al. TAHIR; BOURIDANE; KORUGOLLU (2007). No referido trabalho, o método de busca utilizado foi apenas Tabu Search. O presente trabalho traz a adaptação desta metodologia também para o Simulated Annealing. Os resultados demonstraram que os conjuntos de características otimizados são mais eficientes que aqueles que não passaram por nenhum processo de otimização. Além disto, o modelo híbrido proposto, que faz uso também de otimização local, melhorou ainda mais o desempenho do classificador. As conclusões levaram em consideração não somente a taxa de acerto de classificação, mas também a redução da dimensão do conjunto de características. / This dissertation presents a study about the use of Hybrid Systems for simultaneous Feature Selection and Weighting. It is composed by three main parts: (1) the presentation of a methodology which handles to Selection and Weighting as a global optimization problem, (2) the description of the model composed by global and local searches, (3) the evaluation of the proposed hybrid approaches. Two intelligent hybrid architectures were investigated: the first one combines Tabu Search with the local search algorithm Relief and the second one integrates Simulated Annealing with Relief. Both approaches attempt to combine the main advantages of the global optimization methods with those of the local convergency methods: optimization methods are pretty efficient in the global search space while convergency methods make a more accurate local search. The methodology used in this work to formulate Feature Selection and Weighting as a search problem was proposed by Tahir et al. TAHIR; BOURIDANE; KORUGOLLU (2007). In the referred work, Tabu Search was used as search algorithm. This work brings an adaptation from that methodology for Simulated Annealing. The results evidenced that the features sets optimized were more efficient than those in which any optimization process was applied. Moreover, the proposed hybrid model, which uses also local optimization, improved even more the classifier accuracy. Conclusions consider not only the accuracy rate but also the reduction in feature sets dimension.
7

UMA METODOLOGIA VOLTADA PARA O DESENVOLVIMENTO DE LÍDERES

Carvalho, Leila de Moura January 2003 (has links)
Made available in DSpace on 2014-06-12T17:41:50Z (GMT). No. of bitstreams: 2 arquivo7353_1.pdf: 552874 bytes, checksum: 5d29e99e10367a937c0c437dd79674e3 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2003 / Este trabalho aborda uma metodologia voltada para o desenvolvimento do grupo de líderes da Divisão Logística de uma empresa do setor de varejo. Em uma pesquisa realizada pela empresa, detectou-se uma deficiência no estilo de supervisão atual adotada pelo grupo de líderes e as conseqüências negativas geradas para a organização. A proposta deste trabalho é promover a educação e o treinamento do grupo de líderes para uma mudança de estilo de supervisão. Para isso, propõe-se a utilizar como base conceitual as teorias motivacionais de Maslow e Herzberg, a Teoria Comportamental de McGregor e a Teoria de Liderança Situacional. Adotou-se o método do ciclo PDCA para a solução do problema, cuja ênfase foi dada para a fase de planejamento, composta pelas etapas: identificação do problema, observação, análise e plano de ação. Como resultado do trabalho, gerou-se um plano de ação que visa eliminar o problema identificado e traçou-se um perfil de líder desejado pela empresa, uma vez que não estava claro, para a organização, o melhor perfil de liderança a ser adotado como referência
8

Métodos de estimação do desvio-padrão para a padronização de variáveis na análise de componentes principais / Estimation methods of the standard deviation for the standardization of variables on principal components analysis

Gomes, Juliana Vieira 26 February 2018 (has links)
Submitted by Marco Antônio de Ramos Chagas (mchagas@ufv.br) on 2018-04-27T14:10:41Z No. of bitstreams: 1 texto completo.pdf: 18481185 bytes, checksum: e77f19591c9b76ec4e145021accd1625 (MD5) / Made available in DSpace on 2018-04-27T14:10:41Z (GMT). No. of bitstreams: 1 texto completo.pdf: 18481185 bytes, checksum: e77f19591c9b76ec4e145021accd1625 (MD5) Previous issue date: 2018-02-26 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Este trabalho propôs avaliar a eficiência de diferentes matrizes de covariâncias sobre as estimativas dos componentes principais (CP), de acordo com diferentes métodos de estimação do desvio-padrão utilizado na padronização da variável. Além disso, procurou também, determinar a importância relativa de cada variável aleatória avaliada, normal ou não, que fez parte da composição do CP. A estimação do desvio-padrão foi feita de acordo com quatro métodos: desvio-padrão total, Lenth, Juan e Pena e Dong. Para isso, foram simulados 60 conjuntos de dados compostos por quatro variáveis aleatórias com 10.000 observações cada, com três diferentes graus de correlação, dois tipos de médias, dois tipos de variâncias e cinco percentuais de outliers. Os outliers foram adicionados com o intuito de quebrar a aleatoriedade das variáveis. De acordo com os resultados, o fator mais importante em afetar a qualidade da estimativa do desvio-padrão foi a proporção de outliers. Nesse sentido, o melhor método de estimação foi o de Lenth para até 2% de outliers. A matriz que forneceu os melhores resultados para a análise dos CPs, foi a que utilizou a estimativa do desvio-padrão obtida pelo método do desvio-padrão total, na ausência de outliers, com variâncias iguais e diferentes. Já para o conjunto de dados com outliers e variâncias iguais e diferentes, a matriz baseada no método de Lenth forneceu resultados mias satisfatórios para a análise de CPs. / This study proposed to evaluate the efficiency of different covariance matrices on the principal components (PC) estimates, according to different estimation methods of the standard deviation used in the standardization of the variable. Furthermore, this project also sought to determine the relative importance of each random variable evaluated, whether normal or not, that composed the PC. The estimation of the standard deviation was done according to four methods: total standard deviation, Lenth, Juan and Pena and Dong. For this purpose, 60 datasets were simulated containing four random variables with 10.000 observations each with three different degrees of correlation, two types of mean, two types of variances and five percentages of outliers. The outliers were added with the aim to break the randomness of the variables. According to the results, the most import fact that affects the quality of the standard deviation estimation was the proportion of outliers. In this regard, the best method of estimation was the Lenth one for up to 2% of outliers. The matrix that provided the best results for the PCs analysis was the one that utilized the estimative of the standard deviation obtained by the total standard deviation method, in the absence of outliers, with equal and different variances. As for the dataset with outliers using equal and different variances, the matrix obtained through the Lenth method provided more satisfactory results for the PCs analysis.
9

O cuidado espiritual : um modelo à luz da análise existencial e da relação de ajuda / Spiritual care : a model based on the existential analysis and the helping relationship

Araújo, Michell Ângelo Marques January 2011 (has links)
ARAÚJO, Michell Ângelo Marques. O cuidado espiritual : um modelo à luz da análise existencial e da relação de ajuda. 2011. 197 f. Tese (Doutorado em Enfermagem) - Universidade Federal do Ceará. Faculdade de Farmácia, Odontologia e Enfermagem, Fortaleza, 2011. / Submitted by denise santos (denise.santos@ufc.br) on 2013-12-23T11:36:24Z No. of bitstreams: 1 2011_tese_mamaraújo.pdf: 2026871 bytes, checksum: 44f96754770957e4900c8e360e92b41d (MD5) / Approved for entry into archive by denise santos(denise.santos@ufc.br) on 2013-12-23T11:39:13Z (GMT) No. of bitstreams: 1 2011_tese_mamaraújo.pdf: 2026871 bytes, checksum: 44f96754770957e4900c8e360e92b41d (MD5) / Made available in DSpace on 2013-12-23T11:39:13Z (GMT). No. of bitstreams: 1 2011_tese_mamaraújo.pdf: 2026871 bytes, checksum: 44f96754770957e4900c8e360e92b41d (MD5) Previous issue date: 2011 / Constitui um desafio para profissionais de enfermagem atender o ser humano nas suas diversas necessidades e contemplar em sua assistência as complexas dimensões humanas. Dentre todas as dimensões humanas, a espiritual tem destaque para a área da saúde: primeiro, porque é a que diferencia o homem dos demais seres, pois integra a capacidade de ser livre, de ser responsável e de buscar, constantemente, um sentido para a vida; segundo, por ser uma dimensão negligenciada, devido à ênfase dada às dimensões psicofísicas e ao distanciamento histórico da ciência tradicional. Constatamos ser necessário um modelo de cuidado espiritual que sirva de suporte a enfermeiros que cuidam de pacientes gravemente enfermos, visto que vivenciam a dor, o sofrimento e a iminência de morte. Nosso objetivo, portanto, é produzir um modelo de cuidado espiritual, com base no referencial teórico-metodológico da “Análise Existencial”, de Viktor Emil Frankl e da “Relação Pessoa a Pessoa”, de Joyce Travelbee. Para isso, desenvolvemos uma pesquisa-cuidado, que mostrou ser uma resposta ética e humanística na forma de fazer ciência, visto que teve a preocupação de beneficiar os sujeitos pesquisados, pois foram cuidados enquanto participavam da pesquisa. Trata-se de uma pesquisa realizada com três pacientes, com o diagnóstico de câncer, hospitalizados em um hospital público, terciário da cidade de Fortaleza-Ceará. A pesquisa foi dividida em duas etapas: [1] a coleta de dados, realizada durante o processo de cuidar, por meio da relação de ajuda enfermeiro/paciente; [2] a produção do modelo, com base nos dados analisados e confrontados com o referencial teórico. O processo de construção deste modelo foi realizado, utilizando, de forma integrada, as categorias criadas do conteúdo dos diálogos e dos comentários das interações, conforme recomenda Bardin. A construção do modelo foi discutida e apresentada em três elementos do cuidado espiritual: os componentes; o desenvolvendo; a culminância. Esta tese foi submetida ao Comitê de Ética em Pesquisa e observou irrestritamente os princípios norteadores da pesquisa envolvendo seres humanos, conforme a Resolução 196/1996, do Conselho Nacional de Saúde. O modelo de cuidado produzido fundamenta-se filosoficamente e se sustenta em uma metodologia que orienta as ações de cuidado e se estrutura em dezessete pressupostos teóricos, relacionados com cinco conceitos básicos: ser humano; processo saúde/doença; enfermagem; ambiente; cuidado espiritual. Além disso, segue os passos de construção e estabelecimento do cuidado espiritual, de cuidado propriamente dito e de manutenção e análise do cuidado espiritual, estruturados em três etapas: Khronos – fase de construção; Kairós – fase de busca; Aión – fase de integração. Este modelo contempla o cuidado total, mas enfatiza o espiritual, porque, perscrutando as virtudes e valores humanos, tem como foco central a busca e o encontro do sentido da vida. O presente trabalho não é a única possibilidade de cuidado espiritual, tampouco tem a pretensão de ser a única e a última verdade sobre o assunto. Antes, convidamos todos a conhecerem, aplicarem, validarem, criticarem, ampliarem, contestarem ou rejeitarem, esta tese, se assim julgarem procedente.
10

CARACTERIZAÇÃO PARASITOLÓGICA DE CRIANÇAS E DA QUALIDADE DA ÁGUA CONSUMIDA NO BAIRRO CALADÃO EM CORONEL FABRICIANO-MG

Virgínia Maria da Silva Gonçalves 27 July 2008 (has links)
Tendo em vista que a água é um recurso natural essencial à vida e ao desenvolvimento das comunidades humanas, a preocupação com a sua qualidade assume importância na medida em que a mesma é destinada como dessedentação podendo tornar-se um meio importante de transmissão de doenças. A presente pesquisa analisou a qualidade da água utilizada no bairro Caladão em Coronel Fabriciano-MG. Trata-se de um estudo descritivo com abordagem quali-quantitativa. A amostra constituiu-se de 140 crianças, moradoras do bairro em estudo, cujos domicílios são abastecidos por água de nascente sem tratamento prévio. A coleta de dados foi realizada através da aplicação de entrevista semi-estruturada aos pais ou responsáveis pelas crianças buscando informações sobre as fontes de abastecimento de água, armazenamento e usos, caracterização dos locais de deposição de resíduos, busca de indicadores de saúde de doenças relacionadas à água, bem como a percepção higiênico-sanitária dos entrevistados sobre a relação água e saúde. As falas dos entrevistados foram ordenadas utilizando-se o Discurso do Sujeito Coletivo. Foram realizadas entrevistas semi-estruturadas com 58 responsáveis pelas crianças, representando 41,42% do total das crianças entre 6 meses e 5 anos de idade cadastradas no Programa Saúde da Família (PSF) Caladão. Simultaneamente foi realizada análise microbiológica de amostras de água utilizadas nos domicílios e água das duas nascentes onde é efetuada a captação pela Prefeitura de Coronel Fabriciano para abastecimento da população como também levantamento parasitológico de fezes destas crianças. Os resultados revelaram que a água utilizada pelos moradores encontra-se fora do padrão de potabilidade determinado pela Portaria do Ministério da Saúde (MS) n. 518/2004, uma vez que apresentou coliformes totais e Escherichia coli em 100% das amostras. O levantamento parasitológico das 140 crianças que fizeram parte da amostra apresentou índice de infecção em 62,85% das crianças parasitadas, destacando-se entre os parasitas mais encontrados o Ascaris lumbricoides, a Giardia lamblia e a Entamoeba histolytica. As entrevistas mostraram que todos os entrevistados utilizam água de nascente, não realizam nenhum tratamento prévio desta água e em alguns casos nem mesmo a filtragem é realizada. O destino do esgoto e lixo é de responsabilidade dos órgãos públicos, mas existe drenagem a céu aberto de dejetos líquidos e descarte inadequado do resíduo sólido. Os discursos montados a partir das falas dos entrevistados revelaram que, apesar dos moradores terem consciência sobre a importância da qualidade da água para a saúde, ainda utilizam a água da nascente sem nenhum tipo de tratamento. Percebe-se a importância do planejamento de ações, em conjunto com os profissionais de saúde, os órgãos públicos e a população, que favoreçam a melhoria das condições de saúde, visando abastecimento de água adequado não só para prevenção de doenças infecto-parasitárias, mas também melhores condições de higiene e bem estar.

Page generated in 0.2212 seconds