• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5395
  • 422
  • 156
  • 128
  • 128
  • 125
  • 70
  • 58
  • 56
  • 56
  • 55
  • 31
  • 6
  • 3
  • 2
  • Tagged with
  • 5975
  • 2379
  • 1751
  • 977
  • 964
  • 911
  • 895
  • 881
  • 697
  • 692
  • 672
  • 553
  • 515
  • 459
  • 441
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Autonomic computing : processamento de eventos

Branco, Hélder Filipe Martins January 2010 (has links)
Tese de mestrado integrado. Engenharia Informática e Computação. Faculdade de Engenharia. Universidade do Porto. 2010
42

What makes a good picture?

Faria, João Marques Pinto de January 2012 (has links)
Trabalho de investigação desenvolvido na Cranfield University. School of Engineering / Tese de mestrado integrado. Engenharia Informática e Computação. Faculdade de Engenharia. Universidade do Porto. 2012
43

Inspecção visual automática : uma arquitectura para o desenvolvimento de aplicações em tempo real

Padilha, Armando Jorge Monteiro Neves January 1986 (has links)
Dissertação apresentada para obtenção do grau de Doutor na Faculdade de Engenharia da Universidade do Porto, sob a orientação do Prof. Doutor José Carlos Diogo Marques dos Santos
44

Escalonamento estático de processos de aplicações paralelas MPI em máquinas agregadas heterogêneas com auxílio de históricos de monitoração

Caringi, Augusto Mecking January 2006 (has links)
Made available in DSpace on 2013-08-07T18:43:24Z (GMT). No. of bitstreams: 1 000380878-Texto+Completo-0.pdf: 1375038 bytes, checksum: 4a0949656d8c8c055a95425d6e4ae376 (MD5) Previous issue date: 2006 / In a heterogeneous parallel processing system, the reduction of the parallel application’s response time can be achieved if the computational environment’s heterogeneous nature is taken in consideration. This work fits in this context and describes the model whose goal is to optimize the performance of MPI parallel applications executed on heterogeneous clusters. A strategy for global scheduling of the application’s processes was developed, which aims at realizing a balanced mapping of process to nodes in the beginning of the execution (static), in order to balance the load and, by consequence, minimizing the execution time. The process is transparent to the user and is gradually refined during the application’s executions through an “adaptation cycle” supported by the automatic analysis of previously acquired monitored information. To evaluate the model, we developed a tool which implements the proposed method. This tool was installed and configured in the Research Center in High Performance Computing (CPAD) located at PUCRS and a analysis of some parallel applications executed through the tool in CPADs main cluster are presented. / Em um sistema de processamento paralelo heterogêneo, a redução do tempo de resposta das aplicações pode ser alcançada se for levada em consideração a natureza heterogênea do ambiente computacional. Este trabalho enquadra-se neste contexto e descreve o modelo cujo objetivo é otimizar o desempenho de aplicações paralelas MPI executadas sobre máquinas agregadas heterogêneas. Para isto, desenvolve-se uma estratégia de escalonamento global dos processos que compõem a aplicação, a qual visa realizar um mapeamento equilibrado de processos aos nós no início da execução (estático), de modo a balancear a carga e tendo por conseqüência a minimização do tempo de execução. Isto se dá de forma transparente ao usuário e é gradativamente refinado ao longo das execuções da aplicação, através de um “ciclo de adaptação” apoiado pela análise automática de informações de monitoração obtidas em execuções prévias da mesma. Para avaliar o modelo, foi desenvolvida uma ferramenta que implementa o método proposto. Esta ferramenta foi instalada e configurada no Centro de Pesquisa em Alto Desempenho (CPAD) localizado na PUCRS e uma análise de algumas aplicações paralelas executadas através da ferramenta, no agregado principal do CPAD, é apresentada.
45

Software para processamento de textos

Hinrichs, Rolf Harm January 1980 (has links)
O presente trabalho descreve um sistema orientado para o processamento de textos. É composto por um núcleo, que coordena a execução de várias tarefas e realiza as operações de entrada e saída; um conjunto de utilitários, que visa apoiar as tarefas normais de processamento de textos; um editor, orientado especificamente para realizar manipulação de textos, permitindo macros dinâmicas, manipulação sobre diversos arquivos, edição em qua quer sentido, e outros, um formatador de textos, que automaticamente realiza a marginação, alinhamentos, quebra de página, tabulações e outras funções. É discutido também a implementação deste projeto em um sistema ED-100, da EDISA, composto por microprocessador, disquete, terminal e impressora. / This work describes a word processing oriented system. Its main modules are: a nucleus, which controls the execution of several tasks, and does the I/O operation, a set of utilities, which help the normal text editing work, a text editor, specifically tailored for word processing, which has dynamic macros,editing of several files, backward edition, and other features, a text formatter, which does numeration alignment, pagination, tabulation, and other functions. There is also a description of the implementa tion of this project on a ED-100, a microprocessor based system, manufactured by EDISA, with floppy disk, printer, CRT and keyboard.
46

Segmentação do ventrículo esquerdo utilizando técnicas de processamento de imagens / Left ventricle segmentation using image processing techniques

Lacerda, Saulo Guerreiro January 2008 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2008. / Submitted by Suelen Silva dos Santos (suelenunb@yahoo.com.br) on 2009-09-23T17:48:34Z No. of bitstreams: 1 todos capitulos-revisao da banca.pdf: 3411019 bytes, checksum: f334431e424b2cc1c6e150df4ceaeec4 (MD5) / Approved for entry into archive by Tania Milca Carvalho Malheiros(tania@bce.unb.br) on 2009-10-02T18:25:02Z (GMT) No. of bitstreams: 1 todos capitulos-revisao da banca.pdf: 3411019 bytes, checksum: f334431e424b2cc1c6e150df4ceaeec4 (MD5) / Made available in DSpace on 2009-10-02T18:25:02Z (GMT). No. of bitstreams: 1 todos capitulos-revisao da banca.pdf: 3411019 bytes, checksum: f334431e424b2cc1c6e150df4ceaeec4 (MD5) Previous issue date: 2008 / Técnicas de processamento de imagens são largamente utilizadas atualmente em conjunto com outras áreas da ciência, incluindo a medicina. Estas técnicas são utilizadas principalmente como auxílios em exames médicos, agilizando a execução dos mesmos e reduzindo a influência dos observadores na sua execução. O presente trabalho apresenta um método, composto por várias técnicas de processamento de imagens, que tem como objetivo principal realizar a segmentação da cavidade interna do ventrículo esquerdo em imagens de ecocardiografia bidimensional, tanto de eixo curto quanto de eixo longo. Inicialmente a imagem é recortada. Depois são aplicados filtros de alto-reforço, limiarização, morfológico de elevação e LoG. Em seguida a segmentação watershed é realizada seguida da busca radial, interpolação dos pontos candidatos e atenuação da borda obtida. Uma etapa extra, que consiste na utilização de informação prévia de um contorno anteriormente obtido, é utilizada na segmentação de seqüências de imagens. Os resultados obtidos são comparados com a segmentação manual realizada por um médico especialista, utilizando três medidas de erro distintas. Os resultados das medidas de erro mostram que o método proposto alcançou bons resultado. _________________________________________________________________________________________ ABSTRACT / Image processing techniques are largely used with various areas of science, including medicine. These techniques are used mainly as a way to improve medical exams, making then faster and reducing the observer´s influence on their execution. This work presents a method that combines various image processing techniques and has as it’s main objective to extract the left ventricle internal cavity border on 2-D echocardiography images, using both short-axis and long-axis images. First the images were cut. Then the program applies the high boost filtering, thresholding, elevation filtering and LoG. Then watershed is applied, followed by radial search, interpolation on the candidate points and border attenuation. The program also uses an extra step to obtain the borders on image sequences. This extra step consists on using information from a previous obtained segmentation. The results obtained from the presented method are compared with the manual segmentation made by a specialist medic. Three different error measures are used, and results from these tests shows that the semi-automatic method presented achieved good results.
47

Ferramenta computacional para a medição de campos de velocidade utilizando processamento digital de imagens

Gutkoski, Lucas Luis January 2001 (has links)
A proposta deste trabalho, consiste na elaboração de uma ferramenta computacional para a medição de campos de velocidades em escoamentos com baixas velocidades (< 0,5 m/s) utilizando o processamento digital de imagens. Ao longo dos anos, inúmeras técnicas foram desenvolvidas com este objetivo. Para cada tipo de aplicação, uma técnica se aplica com maior ou menor eficiência do que outras. Para o caso de estudos em fluídos transparentes, onde o escoamento pode ser visualizado, técnicas que utilizam processamento digital de imagens vêm ganhando um grande impulso tecnológico nos últimos anos. Este impulso, é devido a fatores como: câmaras vídeo filmadoras de última geração, dispositivos de aquisição de imagens e componentes de processamento e armazenamento de dados cada vez mais poderosos. Neste contexto, está a velocimetria por processamento de imagens de partículas cuja sigla é PIV (particle image velocimetry). Existem várias formas de se implementar um sistema do tipo PIV. As variantes dependem, basicamente, do equipamento utilizado. Para sua implementação é necessário, inicialmente, um sistema de iluminação que incide em partículas traçadoras adicionadas ao fluido em estudo. Após, as partículas em movimento são filmadas ou fotografadas e suas imagens adquiridas por um computador através de dispositivos de captura de imagens. As imagens das partículas são então processadas, para a obtenção dos vetores velocidade. Existem diferentes formas de processamento para a obtenção das velocidades. Para o trabalho em questão, devido às características dos equipamentos disponíveis, optou-se por uma metodologia de determinação da trajetória de partículas individuais, que, apesar de limitada em termos de módulo de velocidade, pode ser aplicada a muitos escoamentos reais sob condições controladas Para validar a ferramenta computacional desenvolvida, imagens ideais de partículas foram simuladas como se estivessem em escoamento, através do deslocamento conhecido de vários pixels. Seguindo o objetivo de validação, foi utilizada ainda uma imagem real de partículas, obtida com o auxílio de um plano de iluminação de luz coerente (LASER) e câmaras de vídeo tipo CCD. O programa desenvolvido foi aplicado em situações de escoamento real e os resultados obtidos foram satisfatórios dentro da escala de velocidades inicialmente presumida.
48

Abstrações para uma linguagem de programação visando aplicações móveis em um ambiente de Pervasive Computing

Augustin, Iara January 2004 (has links)
Computação Móvel é um termo genérico, ainda em definição, ao redor do qual se delineia um espectro de cenários possíveis, desde a Computação Pessoal, com o uso de computadores de mão, até a visão futurista da Computação Ubíqua. O foco do projeto ISAM (Infra-estrutura de Suporte às Aplicações Móveis Distribuída), em desenvolvimento no II/UFRGS, é a Pervasive Computing. Esta desenha um cenário onde o usuário é livre para se deslocar mantendo o acesso aos recursos da rede e ao seu ambiente computacional, todo tempo em qualquer lugar. Esse novo cenário apresenta muitos desafios para o projeto e execução de aplicações. Nesse escopo, esta tese aprofunda a discussão sobre questões relativas à adaptação ao contexto em um ambiente pervasivo sob a ótica de uma Linguagem de Programação, e define uma linguagem chamada ISAMadapt. A definição da linguagem ISAMadapt baseia-se em quatro abstrações: contexto, adaptadores, políticas e comandos de adaptação. Essas abstrações foram concretizadas em duas visões: (1) em tempo de programação, através de comandos da linguagem e arquivos de configuração, descritos com o auxílio do Ambiente de Desenvolvimento de Aplicações; (2) em tempo de execução, através de serviços e APIs fornecidos pelos componentes que integram o ambiente de execução pervasiva (ISAMpe). Deste, os principais componentes que implementam a semântica de execução da aplicação ISAMadapt são: o serviço de reconhecimento de contexto, ISAMcontextService, e a máquina de execução da adaptação dinâmica, ISAMadaptEngine.As principais contribuições desta tese são: (a) primeira linguagem para a codificação de aplicações pervasivas; (b) sintaxe e semântica de comandos para expressar sensibilidade ao contexto pervasivo; (c) fonte para o desenvolvimento de uma metodologia de projeto de aplicações pervasivas; (d) projeto ISAM e o projeto contextS (www.inf.ufrgs.br/~isam) que fornecem suporte para o ciclo de vida das aplicações, desde o desenvolvimento até a execução de aplicações pervasivas.
49

Localização e extração automática de textos em imagens complexas

Tahim, André Pires Nóbrega 25 October 2012 (has links)
Dissertação [mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia Elétrica, Florianópolis, 2010 / Made available in DSpace on 2012-10-25T11:33:35Z (GMT). No. of bitstreams: 1 276692.pdf: 8089696 bytes, checksum: e95d42ab85d9ccef004d65d6361fff12 (MD5) / Existe uma busca crescente por técnicas de extração de informação textual (TIE) em imagens devido ao grande número de aplicações que elas possibilitam. Dentre as aplicações mais relevantes estão os sistemas de busca por imagens na Web, reconhecimento de placas veiculares e gerenciamento de base de dados de imagens. Entretanto, a maioria dos sistemas TIE é dedicada a aplicações em que se conhece o plano de fundo e/ou fontes, dimensões e orientação dos caracteres. Esta dissertação considera a localização e a extração de texto em imagens coloridas sem restrições. Em tal situação, desconhece-se o plano de fundo e o tipo de caractere presente na imagem (i.e., imagens complexas). A técnica de identificação textual proposta neste trabalho utiliza, seqüencialmente, as abordagens baseadas em região e textura. A primeira visa localizar as regiões da imagem candidatas a texto por meio da seleção de contornos de maior magnitude do gradiente de intensidade. A última verifica, dentre as regiões candidatas, aquelas que possuem texto embutido. Tal verificação é realizada por meio de 16 atributos (11 estruturais e 5 texturais) extraídos das regiões localizadas. Esses atributos alimentam um classificador support vector machine (SVM) que rotula as regiões localizadas como texto ou não-texto. As regiões classificadas como textuais são então submetidas à técnica proposta de extração de texto, a qual evita segmentações incorretas nas bordas dos caracteres devido aos artefatos incluídos durante o processo de compressão da imagem. A abordagem proposta é robusta na detecção de textos oriundos de imagens complexas com vistas a diferentes orientações, dimensões e cores do texto, além de prover uma confiável binarização das regiões localizadas. O sistema TIE proposto apresenta resultados competitivos, tanto em precisão quanto em taxa de reconhecimento, quando comparados com outros sistemas da literatura técnica corrente. / There is an increasing search for techniques of text information extraction (TIE) from images due to the large number of applications that they make possible. Among the most relevant applications, search machine systems for Web images can be highlighted, as well as license plate recognition and management of image database. However, the majority of TIE systems are proposed for applications in which the background and/or font, dimension and orientation of characters are known. This dissertation is focused on text location and extraction from general purpose color images. In this situation, there is no information about the background and text present in the images (i.e. complex images). The proposed identification technique sequentially uses an approach based on region and texture. The former aims to locate the text candidate regions by selecting the image contours of higher gradient magnitude. The latter verifies, among the text candidate regions, those that have embedded text. Such verification is performed by using 16 attributes (11 structural and 5 textural) extracted from the text candidate regions. These attributes feed a support vector machine (SVM) classifier that labels the text candidate regions as text or non-text. The regions classified as text are then submitted to the text extraction algorithm, which prevents incorrect segmentations in the character boundaries caused by artifacts included during the image compression process. The proposed approach is robust in text detection from complex images with respect to different size, orientation and text color; moreover, it provides a reliable text binarization. The proposed TIE system exhibits competitive results for both precision and recall rate, as compared with other approaches from the current technical literature.
50

Utilização do algoritmo multisplit LMS em conformadores adaptativos de feixe

Marra, Guilherme Carneiro January 2006 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Elétrica. / Made available in DSpace on 2012-10-22T15:48:46Z (GMT). No. of bitstreams: 1 236950.pdf: 3070059 bytes, checksum: 467411b7f9c1cd5792d11105e7ddeeee (MD5) / O processamento espaço-temporal de sinais através de arranjos de antenas é aplicado amplamente nos sistemas de comunicação sem-fio. Este tipo de processamento revela uma superioridade aos sistemas de comunicação com única antena, uma vez que permite a seletividade espacial, ou seja, o gerenciamento do diagrama de irradiação de energia do arranjo. Isto confere ao sistema de comunicação maior possibilidade de reuso de freqüências. Esta técnica pode ser implementada em sistemas de comunicação através de formatadores de feixe, que são estruturas de filtragem dotadas de arranjos de sensores (antenas). Ao se incorporar restrições lineares aos formatadores de feixe, é possível projetar uma resposta específica do mesmo para fontes de sinais de interesse, suprimindo as demais fontes existentes, caracterizando o princípio básico de Cancelamento de Interferentes. O uso de arranjo de antenas e filtros transversais de resposta finita (FIR # Finite Impulse Response) permite projetar tal resposta específica para uma determinada direção de chegada e para cada freqüência da fonte de sinal de interesse, conferindo maior robustez ao sistema de comunicação. Esta robustez pode ser observada como menor susceptibilidade do sistema com relação a fontes de sinais interferentes e ruído. Com as ferramentas acima descritas, é utilizado um algoritmo para controle de filtragem espaçotemporal com restrições lineares através de formatadores de feixe. Este algoritmo, denominado de Algoritmo Multi-Split LMS, garante ganho de velocidade de convergência quando comparado com o Algoritmo LMS (Least Mean Square), a partir do qual é iv derivado. Neste novo algoritmo são incorporadas transformações lineares peculiares nos filtros transversais da estrutura, as quais possibilitam e justificam o ganho de convergência sem que haja aumento da complexidade computacional. Esta dissertação contém um estudo do desempenho do Algoritmo Multi-Split LMS aplicado em conformadores de feixe, para um ambiente de sinais banda larga. Space-time processing techniques through antenna array systems are widely used in today´s commmunications systems. This type of signal processing reveals superiority when compared with single antenna systems, as it allows space selectivity. Space selectivity is the ability of managing the array beam pattern in a communication system. This enhancement grants the system great frequency reuse possibilities. This technique may be implemented in commmunications systems through beamformers, which are array-mounted filtering structures. By incorporating linear constraints to beamformers, it is possible to develop a specific response for desired signal sources, while suppressing others, which is the basic principle of Interferers Cancelling. The use of antenna arrays and FIR finite response transversal filters allows one to specify such specific response for any chosen direction of arrival and each frequency of the desired signal source, conferring enhanced robustness to the system. This robustness can be observed in terms of better noise and interference rejection. With the above described tools, a linear-constrained space-time filtering control algorithm is combined with beamformers. This algorithm, named Multisplit LMS Algorithm, guarantees convergence speed gain when compared with the well known LMS Algorithm. In this new algorithm, peculiar linear transformations are applied on the transversal filters of the structure. These transformations make possible and justify the convergence gain without increasing the computational complexity. This dissertation contains a study of the Multisplit LMS Algorithm performance when applied on beamformers, considering a broadband signal sources environment

Page generated in 0.0808 seconds