• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 3
  • Tagged with
  • 17
  • 17
  • 7
  • 7
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Computational workflow management for conceptual design of complex systems : an air-vehicle design perspective

Balachandran, Libish Kalathil January 2007 (has links)
The decisions taken during the aircraft conceptual design stage are of paramount importance since these commit up to eighty percent of the product life cycle costs. Thus in order to obtain a sound baseline which can then be passed on to the subsequent design phases, various studies ought to be carried out during this stage. These include trade-off analysis and multidisciplinary optimisation performed on computational processes assembled from hundreds of relatively simple mathematical models describing the underlying physics and other relevant characteristics of the aircraft. However, the growing complexity of aircraft design in recent years has prompted engineers to substitute the conventional algebraic equations with compiled software programs (referred to as models in this thesis) which still retain the mathematical models, but allow for a controlled expansion and manipulation of the computational system. This tendency has posed the research question of how to dynamically assemble and solve a system of non-linear models. In this context, the objective of the present research has been to develop methods which significantly increase the flexibility and efficiency with which the designer is able to operate on large scale computational multidisciplinary systems at the conceptual design stage. In order to achieve this objective a novel computational process modelling method has been developed for generating computational plans for a system of non-linear models. The computational process modelling was subdivided into variable flow modelling, decomposition and sequencing. A novel method named Incidence Matrix Method (IMM) was developed for variable flow modelling, which is the process of identifying the data flow between the models based on a given set of input variables. This method has the advantage of rapidly producing feasible variable flow models, for a system of models with multiple outputs. In addition, criteria were derived for choosing the optimal variable flow model which would lead to faster convergence of the system. Cont/d.
12

Concepção de uma ferramenta computacional para a geração de planos alimentares personalizados, considerando preferências e necessidades nutricionais / Conception of a computational tool for planning of personalized menus, considering preferences and nutrient requirements.

Coelho, Kristy Soraya 28 September 2018 (has links)
Ferramentas computacionais têm sido utilizadas na área de nutrição desde os anos de 1960 e buscam auxiliar o nutricionista no cálculo de nutrientes e no planejamento de cardápios, visando o apoio na tomada de decisão. Assim, a utilização da informática na execução dessas tarefas disponibiliza ao nutricionista tempo necessário para que desenvolva outras atividades específicas voltadas ao atendimento dos pacientes/clientes. Entre as ferramentas computacionais, destacam-se os sistemas especialistas (SE) que resolvem problemas de forma parecida com o especialista humano, sobre determinados campos do conhecimento. Nesse contexto, o objetivo deste trabalho foi conceber uma ferramenta computacional utilizando a base de dados de Avaliação de Ingestão de Nutrientes da Tabela Brasileira de Composição de Alimentos (TBCA BD-AIN) para gerar planos alimentares personalizados, considerando as preferências alimentares e necessidades nutricionais do paciente/cliente. Os passos para o desenvolvimento desse trabalho incluíram: (i) diferenciação entre as ferramentas computacionais disponíveis; (ii) caracterização da consulta em nutrição; (iii) definição do protocolo de atendimento clínico para a consulta em nutrição; (iv) adequação da TBCA BD-AIN a ser utilizada na ferramenta computacional; (v) definição das preferências; (vi) implementação da ferramenta computacional; (vii) avaliação dos resultados gerados pela ferramenta computacional. A ferramenta computacional desenvolvida, chamada Nutri - Soluções inteligentes em nutrição, uma web application, caracterizada como SE, utilizou a técnica de máquina de estados finito (MEF), para representar a expertise do nutricionista, na elaboração dos planos alimentares. Os planos alimentares gerados foram avaliados por nutricionistas (n=18) com experiência em atendimento clínico (10,83±7,02 anos). A avaliação de 105 planos alimentares diários (7 planos alimentares para 15 casos fictícios) apresentou adequação quanto às recomendações nutricionais e preferências propostas, além de selecionar alimentos/preparações dos diferentes grupos (conforme a refeição), e considerar características sensoriais, mostrando 89,2% de concordância para os itens avaliados. Dessa forma, a ferramenta proposta contribuirá com: (i) otimização do atendimento clínico, pois auxiliando na redução dos cálculos realizados, o nutricionista disponibilizará mais tempo da consulta em nutrição para atenção ao paciente/cliente; (ii) apoio à decisão, uma vez que os planos alimentares apresentarão maior probabilidade de estarem adequados quanto às recomendações nutricionais; (iii) adesão à prescrição dietética, pois os planos alimentares serão elaborados com base nas escolhas/preferências do paciente/cliente. / Computational tools have been used in the area of nutrition since the 1960s and seek to assist the nutritionist in calculating nutrients and planning menus, aiming at support in decision making. Thus, the use of information technology in the execution of these tasks provides the nutritionist with the time needed to develop other specific activities aimed at patient/client care. Among the computational tools, stand out the expert systems (ES) that solve problems in a similar way with the human expert, on certain fields of knowledge. In this context, the objective of this work was to design a computational tool using the Nutrient Intake Assessment database of the Brazilian Food Composition Table (TBCA BD-AIN, acronym in Portuguese) to generate personalized menu, considering the food preferences and nutrient requirements of the patient/client. The steps for the development of this work included: (i) differentiation between the available computational tools; (ii) characterization of the nutrition consultation; (iii) definition of the protocol of clinical care for the consultation in nutrition; (iv) adequacy of TBCA BD-AIN to be used in the computational tool; (v) definition of preferences; (vi) implementation of the computational tool; (vii) evaluation of the results generated by the computational tool. The computational tool developed, called Nutri - Intelligent Solutions in Nutrition, a web application, characterized as ES, used the Finite State Machine (FSM) technique to represent the nutritionist\'s expertise in the elaboration of menu. The menu generated were evaluated by nutritionists (n= 18) with experience in clinical care (10.83±7.02 years). The evaluation of 105 daily menus (7 food plans for 15 fictitious cases) was adequate for the nutritional recommendations and preferences proposed, besides selecting foods/preparations of the different groups (according to the meal), besides considering sensorial characteristics, showing 89.7% agreement for the evaluated items. Thus, the proposed tool will contribute to: (i) optimization of clinical care, because by helping to reduce the calculations performed, the nutritionist will provide more consultation time in nutrition for patient/client care; (ii) decision support, since menu are more likely to be adequate for nutritional recommendations; (iii) adherence to the dietary prescription, since the menus will be elaborated based on the patient/client\'s choices/preferences.
13

Computational workflow management for conceptual design of complex systems: an air-vehicle design perspective

Balachandran, Libish Kalathil January 2007 (has links)
The decisions taken during the aircraft conceptual design stage are of paramount importance since these commit up to eighty percent of the product life cycle costs. Thus in order to obtain a sound baseline which can then be passed on to the subsequent design phases, various studies ought to be carried out during this stage. These include trade-off analysis and multidisciplinary optimisation performed on computational processes assembled from hundreds of relatively simple mathematical models describing the underlying physics and other relevant characteristics of the aircraft. However, the growing complexity of aircraft design in recent years has prompted engineers to substitute the conventional algebraic equations with compiled software programs (referred to as models in this thesis) which still retain the mathematical models, but allow for a controlled expansion and manipulation of the computational system. This tendency has posed the research question of how to dynamically assemble and solve a system of non-linear models. In this context, the objective of the present research has been to develop methods which significantly increase the flexibility and efficiency with which the designer is able to operate on large scale computational multidisciplinary systems at the conceptual design stage. In order to achieve this objective a novel computational process modelling method has been developed for generating computational plans for a system of non-linear models. The computational process modelling was subdivided into variable flow modelling, decomposition and sequencing. A novel method named Incidence Matrix Method (IMM) was developed for variable flow modelling, which is the process of identifying the data flow between the models based on a given set of input variables. This method has the advantage of rapidly producing feasible variable flow models, for a system of models with multiple outputs. In addition, criteria were derived for choosing the optimal variable flow model which would lead to faster convergence of the system. Cont/d.
14

Uma nova abordagem na utilização de ferramentas computacionais no ensino de conteúdos da disciplina estruturas de concreto em cursos de Engenharia Civil / A new approach in the use of computational tools in teaching content of the discipline "Concrete Structures" in the Civil Engineering courses

Faria, Antonio de 17 September 2009 (has links)
Made available in DSpace on 2016-06-02T20:09:11Z (GMT). No. of bitstreams: 1 2637.pdf: 4034868 bytes, checksum: ba878530bedc9467c00fedb27b1db063 (MD5) Previous issue date: 2009-09-17 / This presentation analyzes the two computational tools, GPLAN (Plan Grills) and FTOOL (Two-Dimensional Frame Analysis Tool), and how they can be used in the content of "Concrete Structures" discipline, in Civil Engineering Graduation. The considered study is divided in two topics, being the first, the plan grills consideration (interaction plate/ beam) in the analysis of buildings floors to determine efforts and displacement, in comparison with the traditional teaching that considerate the elements in a isolated form, with the beams study through the theory of plates. The second topic refers to the porch plan consideration (interaction beam / pillar) for the lateral wind action consideration on buildings structures, and its efforts and displacements in order to analyze the instability parameter and the increase coefficient of the vertical actions z, provided by NBR 6118:2003. Thus, this study presents, in a didactic form, how the using of such tools can contribute to a civil engineer graduation regarding concrete structures, indicating through some examples, a variety of details and concepts that can be obtained through these tools. Finally, it is shown also that, to conduct checks according to the recent regulatory requirements, makes essential the use of computational tools, instead of manual methods. / Neste trabalho, analisam-se duas ferramentas computacionais GPLAN (Grelhas Planas) e FTOOL (Two-Dimensional Frame Analysis Tool), e como estas podem ser utilizadas no ensino de conteúdos da disciplina Estruturas de Concreto , em cursos de graduação em Engenharia Civil. O estudo proposto está subdividido em dois tópicos, sendo o primeiro a consideração de grelhas planas (interação laje/viga), na análise de pavimentos de edificações para a determinação de esforços e deslocamentos nas mesmas, em contraponto ao ensino tradicional que consiste na consideração dos elementos de forma isolada, com o estudo das lajes por meio da teoria de placas. O segundo tópico se refere ao estudo de pórtico plano (interação viga/pilar), principalmente para a consideração da ação lateral do vento em estruturas de edificações e a obtenção de esforços e deslocamentos na mesma visando a análise do parâmetro de instabilidade e do coeficiente de majoração das ações verticais z, previstos pela NBR 6118:2003. Assim, apresenta-se de forma didática, como a utilização de tais ferramentas pode contribuir para a formação do engenheiro civil na área de estruturas de concreto, mostrando por meio de alguns exemplos a riqueza de detalhes e conceitos que podem ser obtidos com estas ferramentas. Por último mostra-se também que para realizar verificações respeitando as prescrições normativas recentes torna-se indispensável o uso de ferramentas computacionais em detrimento dos métodos manuais.
15

Terminologia da indústria de artefatos de borracha: proposta de um vocabulário

Bazzon, Solange Cristina Maida 24 April 2009 (has links)
Made available in DSpace on 2016-06-02T20:25:11Z (GMT). No. of bitstreams: 1 3941.pdf: 2100644 bytes, checksum: 8ef9d03388c4d4998dee22f4db32f5fc (MD5) Previous issue date: 2009-04-24 / The rubber industry is a sector that contributes significantly with the national economy due to the fact that it is part of a wide range of products. Therefore, we verified the need of a terminological systematization in this field. Based on this fact, our objective is to elaborate a monolingual vocabulary (glossary) of rubber goods in the automotive sector, with English equivalences. This paper is supported by the Communicative Terminology Theory proposed by Maria Tereza Cabré. Under a communicative perspective, the methodology of this research contemplated the compilation of a corpus as well as the utilization of a computer tool, the Unitex, in order to manage the texts that make part of this corpus. We extracted words (semi automatically) which we considered a term candidate, inserted them in the ontology, elaborated and filled out the terminology forms which were used as a term dossier; elaborated a text definition basis which was constantly fed with new information and sequentially we wrote the definitions. The definition texts of the rubber vocabulary (glossary) are based on the researches at Terminology Group Studies department GETerm. The microstructure - headword - contemplates systematic (obligatory) and asystematic (non obligatory) information that facilitates the peoples use. Concerning the vocabulary/ glossary microstructure we followed the TERMICAT s (1990) proposal, which aims the specialized communication. / A indústria de artefatos de borracha é um setor que contribui significativamente com a economia do país, pois faz parte de uma enorme gama de produtos e bens de consumo. No entanto, constatamos a necessidade de sistematizar a terminologia dessa área com obras terminográficas que atendam às necessidades comunicativas de seus usuários. Nesse sentido, nosso objetivo foi elaborar um vocabulário monolíngue acerca da terminologia dos artefatos de borracha particularmente do setor automotivo, com equivalências em inglês. A presente pesquisa está amparada na Teoria Comunicativa da Terminologia (TCT), proposta por Maria Tereza Cabré. Sob uma perspectiva comunicativa, a metodologia da pesquisa contemplou a compilação de um corpus e a utilização de uma ferramenta computacional, o Unitex, para manipulação dos textos que compõem o corpus. Procedemos à extração semiautomática de candidatos a termos, inserimos os temos no mapa conceitual; elaboramos e preenchemos fichas terminológicas que nos serviu como um dossiê dos termos; elaboramos e alimentamos uma base definicional que contribuiu para a redação das definições terminológicas (DT) e na sequência, elaboramos as definições. Os textos definitórios que compõem o vocabulário se pautaram nos procedimentos utilizados pelos pesquisadores do Grupo de Estudos Terminológicos GETerm. A microestrutura do conjunto vocabulário contempla informações sistemáticas (obrigatórias em todos os verbetes) e assistemáticas (informações não obrigatórias) de forma a facilitar a consulta do usuário. Quanto à macroestrutura, seguimos a sugestão do TERMCAT (1990), o qual visa à melhoria da comunicação especializada.
16

Ferramenta de bioinformática para integrar e compreender as mudanças epigenômicas e genômicas aberrantes associadas com câncer: métodos, desenvolvimento e análise / Bioinformatic tool to integrate and understand aberrant epigenomic and genomic changes associated with cancer: Methods, development and analysis

Silva, Tiago Chedraoui 01 February 2018 (has links)
O câncer configura uma das maiores causas de mortalidade no mundo, caracterizando-se como uma doença complexa orquestrada por alterações genômicas e epigenômicas capazes de alterar a expressão gênica e a identidade celular. Nova evidência obtida por meio de um estudo genômico em larga escala e cujos dados encontram-se disponíveis no banco público do TCGA sugere que um em cada dez pacientes portadores de câncer pode ser classificado com maior eficácia tendo como base a taxonomia molecular quando comparada à histologia. Dessa maneira, nós hipotetizamos que o estabelecimento de mapas genômicos exibindo a localização de sítios de ligação de fatores de transcrição combinada à identificação de regiões diferencialmente metiladas e perfis alterados de expressão gênica possa nos auxiliar a caracterizar e explorar, ao nível molecular, fenótipos associados ao câncer. Avanços tecnológicos e bancos de dados públicos a exemplo do The Cancer Genome Atlas (TCGA), The Encyclopedia of DNA Elements (ENCODE) e o NIH Roadmap Epigenomics Mapping Consortium (Roadmap) têm proporcionado um recurso inestimável para interrogar o (epi)genoma de linhagens de células tumorais em cultura, bem como de tecidos normais e tumorais em alta resolução. Todavia, a informação biológica encontra-se armazenada em diferentes formatos e não há ferramentas computacionais para integrar esses dados, evidenciando um cenário atual que requer, com urgência, o desenvolvimento de ferramentas de bioinformática e softwares capazes de direcionar a solução deste obstáculo. Nesse contexto, o objetivo principal deste estudo consiste em implementar o desenvolvimento de ferramentas de bioinformática, na linguagem de programação R que, ao final do estudo, será submetido à comunidade científica do projeto Bioconductor sob a licença de código aberto GNU GPL versão 3. Além disso, ajudaremos nossos colaboradores com o aperfeiçoamento do ELMER, um pacote R/Bioconductor que identifica elementos reguladores usando dados de expressão gênica, de metilação do DNA e análise de motivo. Nossa expectativa é que essas ferramentas possam automatizar com acurácia a pesquisa, o download e a análise dos dados (epi)genômicos que se encontram atualmente disponíveis nas bases de dados públicas dos consórcios internacionais TCGA, ENCODE e Roadmap, além de integrá-los facilmente aos dados genômicos e epigenômicos gerados por pesquisadores por meio de experimentos em larga escala. Além disso, realizaremos também o processamento e a análise manual dos dados que serão automatizados pelas ferramentas, visando validar sua capacidade em descobrir assinaturas epigenômicas que possam redefinir subtipos de câncer. Por xi fim, as usaremos para investigar as diferenças moleculares entre dois subgrupos de gliomas recentemente descobertos por nosso laboratório. / Cancer, which is one of the major causes of mortality worldwide, is a complex disease orchestrated by aberrant genomic and epigenomic changes that can modify gene regulatory circuits and cellular identity. Emerging evidence obtained through high-throughput genomic data deposited within the public TCGA international consortium suggests that one in ten cancer patients would be more accurately classified by molecular taxonomy versus histology. Therefore, we have hypothesized that the establishment of genome-wide maps of the de novo DNA binding motifs localization coupled with differentially methylated regions and gene expression changes might help to characterize and exploit cancer phenotypes at the molecular level. Technological advances and public databases like The Cancer Genome Atlas (TCGA), The Encyclopedia of DNA Elements (ENCODE), and The NIH Roadmap Epigenomics Mapping Consortium (roadmap) have provided unprecedented opportunities to interrogate the epigenome of cultured cancer cell lines as well as normal and tumor tissues with high resolution. Markedly however, biological information is stored in different formats and there is no current tool to integrate the data, highlighting an urgent need to develop bioinformatic tools and/or computational softwares to overcome this challenge. In this context, the main purpose of this study is the development of bioinformatics tools in R programming language that will be submitted to the larger open-source Bioconductor community project under the GNU GPL3 (General Public License version 3). Also, we will help our collaborators improve of the R/Bioconductor ELMER package that identifies regulatory enhancers using gene expression, DNA methylation data and motif analysis. Our expectation is that these tools can effectively automate search, retrieve, and analyze the vast (epi)genomic data currently available from TCGA, ENCODE, and Roadmap, and integrate genomics and epigenomics features with researchers own high-throughput data. Furthermore, we will also navigate through these data manually in order to validate the capacity of these tools in discovering epigenomic signatures able to redefine subtypes of cancer. Finally, we will use them to investigate the molecular differences between two subgroups of gliomas, one of the most aggressive primary brain cancer, recently discovered by our laboratory.
17

[en] COMBINING A PROCESS AND TOOLS TO SUPPORT THE ANALYSIS OF ONLINE COMMUNITIES APPLIED TO HEALTHCARE / [pt] COMBINANDO UM PROCESSO E FERRAMENTAS PARA APOIAR A ANÁLISE DE COMUNIDADE ONLINE APLICADOS À ÁREA DE SAÚDE

DARLINTON BARBOSA FERES CARVALHO 05 November 2014 (has links)
[pt] Esta pesquisa de tese teve como objetivo explorar a análise de mídias sociais, especialmente as disponíveis em comunidades online de sites de redes sociais, a fim de realizar estudos sociais sobre questões de saúde. Com base em uma abordagem prática foi definido um processo para realizar esses estudos. Este processo contou com ferramentas computacionais adaptados para fornecer apoio em tarefas específicas, tais como recuperação de conteúdo, seleção e análise. Duas ferramentas que se destacam são apresentadas por causa de sua utilidade e a complexidade do processo em que a sua construção se baseou. Para o benefício da análise de comunidades online, o Mapa de Associação de Comunidades é um processo desenvolvido para apoiar especialistas em compreender os interesses dos usuários com base em suas associações dentro de suas comunidades. A outra ferramenta visa auxiliar analistas a selecionar discussões de fóruns online a serem analisados manualmente com técnicas de pesquisa qualitativa, por exemplo, análise de conteúdo e do discurso. Esta ferramenta, TorchSR, foi criada baseada em aprendizado de máquina não supervisionado, usando agrupamento hierárquico, para dar suporte na resolução do problema de seleção de conteúdo. Um estudo de caso exploratório mostra que esta ferramenta ajuda na resolução do problema. O processo proposto foi utilizado em dois estudos sobre questões relevantes de saúde (hepatite C e o abuso de drogas), que resultou em descobertas relevantes sobre saúde pública. Em conclusão, este trabalho apresenta a aplicação prática de ciência social computacional no campo da saúde, através do desenvolvimento de um processo e ferramentas utilizadas para apoiar os analistas e melhorar a sua aplicação. / [en] This research thesis is aiming to exploit valuable social media, especially those available in online communities of social network sites, in order to perform social studies about healthcare issues. Based on a practical approach, a process was defined to conduct such studies. This process relied on tailored computational tools to provide support for specific tasks such as contente retrieval, selection, and analysis. Two tools that stand out are presented because of their utility and the complexity of the process in which their development was based on. The first tool, for the benefit of online community analysis, is the Community Association Map, a process developed to support experts in understanding users’ interests based on their associations within their communities. Our second tool (TorchSR) aims to aid analysts in the selection of discussions from online forums to be manually analyzed by (qualitative) research techniques (e.g. content and discourse analysis). This task, which was defined as solving the content selection problem, was tackled with a tool based on unsupervised machine learning techniques, such as hierarchical clustering. An exploratory study case shows that TorchSR helps analysts in dealing with the problem. The proposed process was employed in two studies about relevant healthcare issues (i.e. hepatitis C and drug abuse) which resulted in interesting findings in the field of public health. In conclusion, this thesis presents a practical application of computational social science to the field of health, through development of a process and tools used to support analysts and improve its application.

Page generated in 0.1145 seconds