• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 247
  • 139
  • 100
  • 66
  • 60
  • 33
  • 11
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • Tagged with
  • 773
  • 63
  • 62
  • 59
  • 56
  • 52
  • 52
  • 47
  • 47
  • 44
  • 42
  • 41
  • 38
  • 38
  • 38
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
421

Product development model : case study of high definition television

Rana, Shakti S January 1994 (has links)
Thesis (Ph. D.)--University of Hawaii at Manoa, 1994. / Includes bibliographical references (leaves 375-391). / Microfiche. / 2 v. (xix, 391 leaves, bound) ill. 29 cm
422

Rule logic and its validation framework of model view definitions for building information modeling

Lee, Yong Cheol 07 January 2016 (has links)
With the growing number of complex requirements for building and facility projects, diverse domain experts iteratively exchange building design and product data during the design, construction, and facility management phases. Such data exchanges, however, frequently involve unintended geometric transformations, inaccurate project requirements, and insufficient syntactic and semantic elements in building model data. To ensure the interoperability of building information models, this dissertation includes an examination of rules categorized from the Precast Concrete Institute model views and a generalization of the rule logic and structures of each rule set. Moreover, rule logic is coded and implemented on modularized validation platforms of a validation tool referred to as the IfcDoc tool, an automated model view documentation and validation application. This dissertation is expected to help domain experts evaluate whether building design data fulfill the data exchange specifications of their domain and the objectives of a proposed project. Furthermore, to identify unreliable and inconsistent IFC mapping procedures of BIM authoring tools, software developers using the proposed approach would implement an automated debugging process in their IFC interfaces according to the specifications of a targeted model view.
423

Analyse du génome et du pan-génome pour classifier les bactéries émergentes / Genome and pan-genome analysis to classify emerging bacteria

Caputo, Aurélia 23 November 2017 (has links)
La bio-informatique est essentielle aujourd'hui dans de nombreux domaines comme par exemple la gestion et l'analyse des données, la génomique avec l'assemblage et l'annotation de génomes, la phylogénie, la métagénomique, la recherche de nouvelles espèces bactériennes et la classification taxonomique. Mon premier travail a porté sur l'assemblage et l'analyse d'un génome bactérien à partir de données de métagénomique. Le génome de Akkermansia muciniphila a pu être assemblé par mapping directement à partir de données issues d'échantillons de selle humaine. En 2012, la culturomics a permis de décrire le plus grand génome d'une bactérie isolée chez l'homme ; Microvirga massiliensis (9.3 Mb). Mon deuxième travail a permis d'assembler ce génome. Par la suite, nous avons essayé de comprendre pourquoi cette bactérie a un génome si grand. En effet, on observe qu'elle possède un plasmide, un nombre important d'ORFans et d'ARNr 16S ainsi que des gènes de grande taille. Elle comporte également un nombre important de transposons. Enfin, la troisième et dernière partie de mon travail se base sur les analyses de pan-génome pour la taxonomie bactérienne. La taxonomie est sujette à de nombreux changements selon les données disponibles et les méthodes utilisées, et suit l'évolution des techniques d'identification des bactéries. Nous avons alors redéfinit la notion d'espèce à l'aide du pan-génome pour le genre Klebsiella. En effet, une différence trop importante entraînant une cassure au niveau du ratio core/pan-génome, révèle l'apparition d'une nouvelle espèce. Cette découverte nous amène à utiliser le pan-génome comme outils novateur pour la taxonomie bactérienne. / Since the introduction of DNA sequencing by Sanger and Coulson in 1977, considerable progress has been made. A growing number of data is being generated in several areas and requires more and more advances in computing. Bio-informatics is essential today in many fields such as data management and analysis, genomics with assembly and genome annotation, comparative genomics, phylogeny, metagenomics, research new bacterial species and taxonomic classification. My first work based on assembling and analyzing bacterial genome from metagenomic data. The genome of Akkermansia muciniphila could be assembled by mapping directly from data from human stool sample. In 2012,culturomics allowed to describe the largest genome of a bacterium isolated in human; Microvirga massiliensis (9.3 Mb). My second work allowed to assemble this genome. Subsequently, we tried to understand why this bacterium has such a large genome. Indeed, it is observed that it possesses a plasmid, a large number of ORFans and 16S rRNAs as well as large genes which one is more than 14kb. It also includes a large number of transposasons. Finally, the third and last part of the work concerns pan-genome analyzes for bacterial taxonomy. Taxonomy is a set of many changes based on available data, methods used and evolution of bacterial identification techniques. We have examined the notion of species using the genome at the genus Klebsiella. Indeed, a too large difference leading to a break in the core/pan-genome ratio undoubtedly reveals the appearance of a new species. This discovery leads us to use the pan-genome as an innovative tool for bacterial taxonomy.
424

IT-konsulters positionering inom artificiell intelligens nu och i framtiden

Heidlund, Marcus January 2018 (has links)
Artificial intelligence is a concept based on making machines think. The disciplines that study this range from behavioral science to computer science and mathematics. The different approaches have contributed to categorize the field of artificial intelligence into different areas and the definitions of artificial intelligence are many. The aim of this study has been to investigate how IT consulting companies define and position themselves against artificial intelligence. To achieve this goal, literature on the subject has been studied to define artificial intelligence and to categorize the different areas of artificial intelligence. With the help of these areas, a survey has been conducted with IT consultancies as a target group. It turned out that most respondents work with different types of algorithms based on logic computations and big data, which differ from those areas experts believe will be significant for the future of AI. Both experts and the IT-consultancies are convinced that in the future neural networks will be one of the fields with greatest potential.
425

Vymezování venkovských oblastí pomocí nástrojů síťové analýzy / Definition of rural areas through network analysis

PROCHÁZKOVÁ, Monika January 2015 (has links)
This thesis deals with two issues. At first we define rural areas through network analysis according to the commuting areas of central cities which have over 10.000 inhabitans. On such a limited space we observe the differences between the municipalities on the basis of the economic characteristics of municipalities, especially in terms of budget or funds and their effectiveness of receive and use.
426

Estudo e desenvolvimento de heurísticas e arquiteturas de hardware para decisão rápida do modo de codificação de bloco para o padrão H.264/AVC / Study and development of heuristics and hardware architectures for fast block coding mode decision for the H.264/AVC standard

Corrêa, Guilherme Ribeiro January 2010 (has links)
O processo de compressão de vídeo é essencial para aplicações que utilizam vídeos digitais. O alto volume de informações contidas em um vídeo digital requer que um processo de compressão seja aplicado antes de este ser armazenado ou transmitido. O padrão H.264/AVC, estado-da-arte em termos de compressão de vídeo, introduziu um conjunto de ferramentas inéditas em relação a outros padrões, as quais possibilitam um ganho significativo em eficiência de compressão, diminuindo a taxa de bits sem perda na qualidade da imagem. Contudo, o preço deste ganho reside em um significativo aumento na complexidade de codificação. No padrão H.264/AVC, a codificação pode acontecer de acordo com um dos treze modos de codificação intra-quadro ou de acordo com um dos oito tamanhos de bloco disponíveis para a predição inter-quadros. A escolha de melhor modo utilizada pelo software de referência do padrão (JM 17.1) é baseada em uma busca exaustiva pelo melhor modo, realizando a codificação repetidamente para todos os modos até que o menor custo em termos de taxa de bits e distorção seja encontrado. Esta decisão aumenta drasticamente o fluxo de codificação, muitas vezes impossibilitando a codificação de vídeos digitais em tempo real. Neste contexto, a presente dissertação apresenta o estudo e o desenvolvimento de um conjunto de heurísticas que possibilitam a avaliação do melhor modo de codificação de bloco em um processo mais rápido que o usado pelo software de referência. Ao invés da realização do fluxo completo de codificação para todos os modos seguida por uma avaliação do melhor caso, propõe-se um conjunto de análises prévias que convergem para a decisão de apenas um modo de codificação. A redução atingida no número de repetições do processo de codificação foi de quarenta e sete vezes, ao custo de um aumento relativamente pequeno na taxa de bits. Quando comparada com outros trabalhos, a decisão rápida atingiu resultados expressivamente mais satisfatórios em termos de complexidade computacional, sem perda de qualidade ou aumento de taxa de bits significativo. Foram desenvolvidas arquiteturas de hardware que implementam as heurísticas propostas. A arquitetura de decisão intra-quadro atingiu uma frequência máxima de 105 MHz, enquanto que a arquitetura de decisão inter-quadros apresentou uma frequência de 118 MHz para dispositivos FPGA Virtex 5 da Xilinx, sendo ambas capazes de processar vídeos de alta definição em tempo real. / The video compression process is essential in digital video applications, due to the extremely high data volume present in a digital video to be stored or transmitted through a physical link. H.264/AVC, the state-of-art video coding standard, introduces a set of novel features which lead to a significant gain in terms of compression efficiency, decreasing the bit-rate without image quality losses. However, the price of this gain resides at a high complexity increase. In H.264/AVC, the encoding process can occur according to one of the thirteen intra-frame coding modes or according to one of the eight available inter-frames block sizes. In the reference software (JM 17.1), the choice of the best mode is performed through exhaustive executions of the whole encoding process. The mode which presents the lowest cost in terms of required bit-rate and image distortion is then chosen. This decision process increases significantly the encoding process, sometimes even forbidding its use in real time video coding applications. Considering this context, this thesis presents a study and the development of a set of heuristics which allow the evaluation of the best coding mode in a process which is faster than the one used by the reference software. Instead of performing the whole encoding flow for all the possible modes followed by an evaluation of the best case, this work proposes a set of pre-analysis which converge to the selection of one encoding mode. The reduction achieved in the number of repetitions of the encoding process is of forty seven times, at the cost of a relatively small bit-rate increase. When compared to other works, the fast mode decision results are expressively more satisfactory in terms of computational complexity, with no image quality loss or significant bit-rate increase. The hardware architectures which implement the proposed heuristics were also developed in this work. The architecture for intra-frame decision achieved a maximum frequency of 105 MHz, while the architecture for inter-frames decision presented a maximum frequency of 118 MHz for Virtex 5 FPGAs from Xilinx. They are both capable of processing high definition videos in real time.
427

Arquitetura de hardware dedicada para a predição intra-quadro em codificadores do padrão H.264/AVC de compressão de vídeo / Intra-frame prediction dedicated hardware architecture for encoders of the H.264/AVC video coding standard

Diniz, Claudio Machado January 2009 (has links)
A compressão de vídeo é essencial para aplicações de vídeo digital. Devido ao elevado volume de informações contidas em um vídeo digital, um processo de compressão é aplicado antes de ser armazenado ou transmitido. O padrão H.264/AVC é considerado o estado-da-arte em termos de compressão de vídeo, introduzindo um conjunto de ferramentas inovadoras em relação a padrões anteriores. Tais ferramentas possibilitam um ganho significativo em compressão, ao preço de um aumento na complexidade. A predição intra-quadro é uma das ferramentas inovadoras do padrão H.264/AVC, responsável por reduzir a redundância espacial do vídeo utilizando informações contidas em um único quadro para predição. A predição intra-quadro do H.264/AVC possibilita ganhos de compressão em comparação com os mais usados padrões de compressão de imagens estáticas, o JPEG e JPEG 2000, mas introduz complexidade no projeto do codificador de vídeo, especialmente quando se torna necessário atingir o desempenho para codificar vídeos de alta definição em tempo-real. Neste contexto, a presente dissertação apresenta a proposta e o desenvolvimento de uma arquitetura de hardware dedicada para a predição intra-quadro, presente nos codificadores compatíveis com o padrão H.264/AVC de compressão de vídeo. A arquitetura desenvolvida codifica vídeos de alta definição em tempo-real utilizando uma frequência de operação 46% menor que o melhor trabalho encontrado na literatura. A arquitetura desenvolvida será integrada, futuramente, em um codificador de vídeo em hardware compatível com o padrão H.264/AVC no perfil Main. / Video coding is essential in digital video applications, due to the extremely high data volume present in a digital video to be stored or transmitted through a physical link. H.264/AVC is the state-of-the-art video coding standard, introducing a set of novel features when compared to former standards. A significant gain in terms of bit-rate has been obtained but the increase of complexity of the codec when compared to other video coding standard is inevitable. Intra-frame Prediction is a novel feature introduced with H.264/AVC, which is responsible for reducing a video spatial redundancy using only information in the same frame for prediction. H.264/AVC intra-frame prediction can provide compression gains when compared with state-of-art still image coding standards, like JPEG and JPEG 2000, but introduces complexity and latency to video encoder design, mainly when high definition video coding is needed. In this context, this thesis presents the proposal and development of an intra-frame prediction dedicated hardware architecture for H.264/AVC compatible video encoder. The developed architecture achieved the performance to encode high definition video in real-time with 46% reduction in clock frequency compared with the best results found in the literature. In the future, the developed architecture can be integrated to a fully compatible H.264/AVC main profile hardware encoder.
428

Antropologie umění. Etnoestetická studie s důrazem na preliterární a mimoevropské kultury / The Anthropology of Art: Studies in Etnoaesthetics

Rychlík, Martin January 2014 (has links)
The term "primitive art" was used to denote the tribal "art" of those people in Africa, Americas, Asia, Australia and Oceania who were the objects of ethnological or anthro- pological study. As such, it corresponds to the area of so called art that has has often (and unsatisfactory) been called tribal, primitive, aboriginal, native, indigenous or traditional etc. This thesis provides general introduction to some anthropological perspectives on art, and offers variety of approaches to the uneasy concept of art as is defined in our culture. Three case studies show ethnoaesthetic topics (paleolithic rockart, african hairstyles and also tattooing of human bodies in traditional Polynesian cultures).
429

A IMAGEM E A COMPOSIÇÃO VISUAL NA TV DIGITAL

Balan, Willians Cerozzi 06 April 2011 (has links)
Made available in DSpace on 2016-08-03T12:29:22Z (GMT). No. of bitstreams: 1 Willianspg1_45.pdf: 1050758 bytes, checksum: 5076b94cd691245576f831dfaed15b93 (MD5) Previous issue date: 2011-04-06 / The work boards questions on the production and composition of the image in high definition in the Digital TV HDTV. Through the data lifted in the specific, printed and electronic literature, and with interviews with professionals of the area and observations of the planning available in HDTV in the city of Sao Paulo could be analysed the images and visual composition that results with the Digital TV of high definition and interactive. For so much, the production of the image in high precise definition pays attention to two types of public: what assists the digital transmission and what still will keep on assisting in the analogical system with low perception for the visual details. The results demonstrated two basic and interdependent questions: the practices of production, sceneries material and processes of composition of the elements of the image specify to be updated according to the new technological characteristics and that the process of introduction of the Digital TV in Brazil must be revised, with corrections of terms and of the politics adopted at the risk of been delayed the whole process of production of content and of the image in high definition for this support. / O trabalho aborda questões sobre a produção e composição da imagem em alta definição na TV Digital HDTV. Por meio dos dados levantados na literatura específica, impressa e eletrônica, e com entrevistas com profissionais da área e observações da programação disponível em HDTV na cidade de São Paulo puderam ser analisadas as imagens e composição visual que advém com a TV Digital de alta definição e interativa. Para tanto, a produção da imagem em alta definição precisa atender a dois tipos de público: o que assiste a transmissão digital e o que ainda continuará assistindo no sistema analógico com baixa percepção para os detalhes visuais. Os resultados demonstraram duas questões fundamentais e interdependentes: as práticas de produção, materiais cenográficos e processos de composição dos elementos da imagem precisam ser atualizados segundo as novas características tecnológicas e que o processo de implantação da TV Digital no Brasil deve ser revisto, com correções de prazos e das políticas adotadas sob o risco de se atrasar todo o processo de produção de conteúdo e da imagem em alta definição para este suporte.
430

Aspectos semânticos da definição terminológica (DT): descrição linguística e proposta de sistematização

Kamikawachi, Dayse Simon Landim 27 April 2009 (has links)
Made available in DSpace on 2016-06-02T20:25:05Z (GMT). No. of bitstreams: 1 2803.pdf: 1502463 bytes, checksum: f8ef76dd8fc8086da52568182426288b (MD5) Previous issue date: 2009-04-27 / Universidade Federal de Minas Gerais / The making of the definitions is the most complex step in terminological research which aims to compile specialized dictionaries, for the good ones are evaluated mainly as to the quality of their definitions. As there are differences between terms and words, there are also differences between defining them. While the lexicographic definition specifies and describes the meanings of words as language units, giving all their possible senses, the terminological definition (TD) identifies and describes terms only in reference to the specific conceptual system to which they belong. Therefore, the TD is the object of this Master s study. Our undergraduate experience in terminological research in the Group of Studies and Research in Terminology (GETerm), revealed several difficulties associated with the TD process. The defining method was changed, adapted, extended, and revised to handle the challenges of the research. From that experience, we came to a set of methodological procedures to aid the TD routines in any domain knowledge. Accordingly, this Master s dissertation research aims to systematize those procedures to be implemented into a Web-based, computational environment (E-Termos) to aid research groups in their terminological endeavor. / A elaboração da definição é a etapa mais complexa e custosa numa pesquisa terminológica que objetiva a elaboração de dicionários especializados, já que um bom dicionário se avalia, principalmente, pela qualidade das suas definições. Assim como há diferença entre termo e palavra, também há diferenças entre os modos de definir termos e palavras. Enquanto a definição lexicográfica descreve e delimita os sentidos das palavras enquanto unidades do sistema, oferecendo todas as acepções possíveis, a definição terminológica (DT) oferece a identificação do termo somente com referência ao sistema conceitual do qual faz parte. É esse segundo tipo de definição, portanto, que é objeto desta pesquisa de mestrado. Na experiência adquirida durante nossa pesquisa terminológica realizada durante a Iniciação Científica, junto ao Grupo de Estudos e Pesquisas em Terminologia (GETerm), deparamo-nos com diversas dificuldades para a elaboração da DT. O método de trabalho foi por diversas vezes alterado, adaptado, ampliado, revisto, de forma a dar conta dos desafios que iam surgindo. A partir dessa experiência, chegamos a um conjunto de procedimentos metodológicos úteis para a redação da definição, em qualquer domínio de conhecimento. Pretendeu-se, pois, nesta pesquisa de mestrado, sistematizar esses procedimentos, de modo a proporcionar conhecimento linguístico que será implementado num ambiente computacional baseado na Web, de maneira a auxiliar demais grupos que desenvolvem pesquisas terminológicas em língua portuguesa a elaborar a DT de forma mais sistemática.

Page generated in 0.0476 seconds