• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 75
  • 38
  • 34
  • 8
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 1
  • Tagged with
  • 204
  • 32
  • 24
  • 23
  • 22
  • 22
  • 18
  • 18
  • 17
  • 16
  • 16
  • 14
  • 14
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Potenciais candidatos a novos antineoplásicos: síntese e avaliação da atividade antitumoral de análogos da queleritrina planejados por simplificação molecular / Potential new antineoplastic candidates: synthesis and antitumoral activity evaluation of chelerythrine analogues designed by molecular simplification.

Yang, Rosania 21 December 2015 (has links)
Câncer é uma das principais causas de mortes no mundo. Foi responsável por aproximadamente 8,2 milhões de óbitos em 2012 e estima-se 13,2 milhões de mortes em 2030, o que o posiciona como um problema de saúde pública. A quimioterapia torna-se necessária para o tratamento, pois regride o crescimento tumoral e diminui as chances de metástases, as quais são responsáveis por 90% dos óbitos decorrentes do câncer. Linhagens tumorais que apresentam alta expressão de proteínas antiapoptóticas da família Bcl-2 mostram-se resistentes à ação de quimioterápicos antineoplásicos disponíveis na terapêutica. Portanto, o desenvolvimento de compostos que inibem essas proteínas, torna-se interessante para o tratamento do câncer. A queleritrina, um alcaloide presente em diversas espécies da família Papaveraceae, representa um atraente protótipo para o desenvolvimento de inibidores de Bcl-2, visto que esta molécula apresenta atividade citotóxica por meio da inibição da Bcl-XL, proteína supressora da apoptose. Face ao exposto, o objetivo deste trabalho foi sintetizar análogos da queleritrina planejados por simplificação molecular e testar sua atividade citotóxica. A síntese dos compostos foi realizada em duas etapas, com metodologias baseadas em reações de adição nucleofílica com posterior redução. Os análogos foram caracterizados por espectroscopia de ressonância magnética nuclear (RMN) 1H e 13C, cromatografia líquida de alta eficiência (CLAE) e análise elementar (CHN). A citotoxicidade dos compostos sintetizados e da queleritrina foi avaliada por meio do método de determinação da viabilidade celular por biorredução do sal de tetrazólio (MTT) nas linhagens não-tumorigênicas HUVEC e LL24, e nas linhagens tumorais Jurkat, SK-Mel-28 e A549. Os resultados obtidos no ensaio de citotoxicidade demonstraram que os compostos sintetizados não possuem citotoxicidade significante nas concentrações testadas. Ao avaliar o potencial citostático dos compostos frente à linhagem mutirresistente A549, o composto 2f (3-OH e 4-OH) apresentou atividade antiproliferativa interessante na concentração de 75 µM. Por não apresentar toxicidade em células não tumorais, o composto 2f mostra-se mais seletivo do que seu protótipo. Estudos de modelagem molecular sugerem que a perda da planaridade da queleritrina seja o principal responsável pela diminuição da atividade biológica. Dessa forma, embora os compostos tenham apresentado propriedades biológicas diferentes da esperada, os resultados obtidos podem auxiliar no planejamento de novas moléculas com atividade e seletividade potencialmente superiores à queleritrina, representando assim, potenciais candidatos a fármacos que podem ampliar o arsenal terapêutico para o tratamento de neoplasias. / Cancer is a leading cause of death and was responsible for approximately 8.2 million of deaths in 2012 and 13.2 million of demises are estimated for 2030, which made cancer a public health problem. Chemotherapy is required for cancer treatment, because it decreases the chances of metastasis and regresses tumor growth. However, tumor cell lines which overexpress anti-apoptotic Bcl-2 proteins present resistance to most of anticancer drugs. In this context, the development of molecules with inhibitory activity against these proteins is a promising therapeutic strategy for cancer treatment. Chelerythrine, an alkaloid distributed in several species of Papaveraceae family, has shown considerable antiproliferative activity due to inhibition of Bcl-XL anti-apoptotic protein, which represents an attractive prototype to anticancer drug design. Then, the aim of this study was to synthesize chelerythrine analogues designed by molecular simplification and evaluate their cytotoxic activity. The synthetic strategy was performed into two steps, with methodologies based on nucleophilic addition reaction followed by reduction. The compounds were characterized by 1H and 13C nuclear magnetic resonance (NMR) spectroscopy, high performance liquid chromatography (HPLC) and elemental analysis (CHN). The cytotoxic activity of the analogues were evaluated through MTT assay, a colorimetric assay for assessing cell viability, against human umbilical vein endothelial cells (HUVEC) and lung fibroblasts (LL24) as non-tumorigenic cell lines, and also against tumor cell lines, such as human lymphoblastoid (Jurkat), human melanoma cells (SK-Mel-28) and carcinomic human alveolar basal epithelial cell line (A549). The compounds have not shown significant citotoxicity at the tested concentrations. However, the evaluation of cytostatic activity on multiresistant A549 cell line has demonstrated an antiproliferative potential of compound 2f (3-OH and 4-OH) at 75 µM. Since compound 2f (3-OH and 4-OH) did not show citotoxicity on non-tumorigenic cell lines, it presented higher selectivity than chelerythrine. Molecular modeling results indicate that the lack of planarity of the chelerythrine analogues might be responsible for their lower citotoxicity. Thus, it is expected that the results might help directing the design of new compounds with superior activity and more selective than chelerythrine, thereby representing potential drug candidates, which may enhance the therapeutic arsenal for cancer treatment.
52

New data-driven approaches to text simplification

Štajner, Sanja January 2015 (has links)
Many texts we encounter in our everyday lives are lexically and syntactically very complex. This makes them difficult to understand for people with intellectual or reading impairments, and difficult for various natural language processing systems to process. This motivated the need for text simplification (TS) which transforms texts into their simpler variants. Given that this is still a relatively new research area, many challenges are still remaining. The focus of this thesis is on better understanding the current problems in automatic text simplification (ATS) and proposing new data-driven approaches to solving them. We propose methods for learning sentence splitting and deletion decisions, built upon parallel corpora of original and manually simplified Spanish texts, which outperform the existing similar systems. Our experiments in adaptation of those methods to different text genres and target populations report promising results, thus offering one possible solution for dealing with the scarcity of parallel corpora for text simplification aimed at specific target populations, which is currently one of the main issues in ATS. The results of our extensive analysis of the phrase-based statistical machine translation (PB-SMT) approach to ATS reject the widespread assumption that the success of that approach largely depends on the size of the training and development datasets. They indicate more influential factors for the success of the PB-SMT approach to ATS, and reveal some important differences between cross-lingual MT and the monolingual v MT used in ATS. Our event-based system for simplifying news stories in English (EventSimplify) overcomes some of the main problems in ATS. It does not require a large number of handcrafted simplification rules nor parallel data, and it performs significant content reduction. The automatic and human evaluations conducted show that it produces grammatical text and increases readability, preserving and simplifying relevant content and reducing irrelevant content. Finally, this thesis addresses another important issue in TS which is how to automatically evaluate the performance of TS systems given that access to the target users might be difficult. Our experiments indicate that existing readability metrics can successfully be used for this task when enriched with human evaluation of grammaticality and preservation of meaning.
53

Extração de termos de manuais técnicos de produtos tecnológicos: uma aplicação em Sistemas de Adaptação Textual / Term extraction from technological products instruction manuals: an application in textual adaptation systems

Muniz, Fernando Aurélio Martins 28 April 2011 (has links)
No Brasil, cerca de 68% da população é classificada como leitores com baixos níveis de alfabetização, isto é, possuem o nível de alfabetização rudimentar (21%) ou básico (47%), segundo dados do INAF (2009). O projeto PorSimples utilizou as duas abordagens de Adaptação Textual, a Simplificação e a Elaboração, para ajudar leitores com baixo nível de alfabetização a compreender documentos disponíveis na Web em português do Brasil, principalmente textos jornalísticos. Esta pesquisa de mestrado também se dedicou às duas abordagens acima, mas o foco foi o gênero de textos instrucionais. Em tarefas que exigem o uso de documentação técnica, a qualidade da documentação é um ponto crítico, pois caso a documentação seja imprecisa, incompleta ou muito complexa, o custo da tarefa ou até mesmo o risco de acidentes aumenta muito. Manuais de instrução possuem duas relações procedimentais básicas: a relação gera generation (quando uma ação gera automaticamente uma ação ), e a relação habilita enablement (quando a realização de uma ação permite a realização da ação , mas o agente precisa fazer algo a mais para garantir que irá ocorrer). O projeto aqui descrito, intitulado NorMan, estudou como as relações procedimentais gera e habilita são realizadas em manuais de instruções, dando base para a criação do sistema NorMan Extractor, que implementa um método de extração de termos dedicado ao gênero de textos instrucionais, especificamente aos manuais técnicos. Também foi proposta a adaptação do sistema de autoria de textos simplificados criado no projeto PorSimples o SIMPLIFICA para atender o gênero de textos instrucional. O SIMPLIFICA adaptado usa a lista de candidatos a termo, gerada pelo sistema NorMan Extractor, com duas funções: (a) para auxiliar na identificação de palavras que não devem ser simplificadas pelo método de simplificação léxica baseado em sinônimos, e (b) para gerar uma elaboração léxica para facilitar o entendimento do texto / In Brazil, 68% of the population can be classified as low-literacy readers, i.e., people at the rudimentary (21%) and basic (47%) literacy levels, according to the National Indicator of Functional Literacy (INAF, 2009). The PorSimples project used the two approaches of Textual Adaptation, Simplification and Elaboration, to help readers with low-literacy levels to understand Brazilian Portuguese documents on the Web, mainly newspaper articles. In this research we also used the two approaches above, but the focus was the genre of instructional texts. In tasks requiring the use of technical documentation, the quality of documentation is a critical point, because if the documentation is inaccurate, incomplete or too complex, the cost of the task or even the risk of accidents is greatly increased. Instructions manuals have two basic procedural relationships: the relation generation (by performing one of the actions (), the other () will automatically occur), and the relation enablement (when enables , then the agent needs to do something more than to guarantee that will be done). The project presented here, entitled NorMan, investigated the realization of the relationships between procedural actions in instruction manuals, providing the basis for creating an automatic term extraction method devoted to the genre of instructional texts, specifically technical manuals. We also proposed an adaptation of the authoring system of simplified texts created in the project PorSimples - the SIMPLIFICA - to deals with the genre of instrumental texts. The new SIMPLIFICA uses the list of term candidates, generated by the proposed method, with two functions: (a) to assist in the identification of words that should not be simplified by the lexical simplification method based on synonyms, and (b) to generate a lexical elaboration to facilitate the comprehension of the text
54

Corpop : um corpus de referência do português popular escrito do Brasil

Pasqualini, Bianca Franco January 2018 (has links)
Esta tese propõe um corpus do Português popular brasileiro escrito, denominado CorPop, com textos selecionados com base no nível de letramento médio dos leitores do país. As bases teórico-metodológicas do CorPop são interdisciplinares e inserem-se no âmbito dos Estudos da Linguagem e disciplinas afins, como Estudos do Léxico e Linguística de Corpus, Linguística Textual e Psicolinguística, dialogando também com estudos de Processamento de Língua Natural. Desse modo, esta investigação abriga-se na Linha de Pesquisa Lexicografia, Terminologia e Tradução: Relações Textuais do PPG-Letras-UFRGS, e nosso recorte, por isso, tende ao destaque para o Léxico. O desenvolvimento do CorPop deu-se através da compilação de dados sobre o nível de letramento dos leitores brasileiros e das características que poderiam compor um padrão de simplicidade textual em um corpus de textos adequados a esses leitores. Tais dados foram coletados das pesquisas do Indicador de Alfabetismo Funcional (INAF) e Retratos da Leitura no Brasil, além de um questionário com leitores. Os textos selecionados para o CorPop são (1) textos do jornalismo popular do Projeto PorPopular (jornal Diário Gaúcho), consumido maciçamente pelas classes C e D, que é o leitor médio brasileiro; (2) textos e autores mais lidos pelos respondentes das últimas edições da pesquisa Retratos da Leitura no Brasil; (3) coleção “É Só o Começo” (adaptação de clássicos da literatura brasileira para leitores com baixo letramento, adaptação esta realizada por linguistas); (4) textos do jornal Boca de Rua, produzido por pessoas em situação de rua, com baixa escolaridade e baixo letramento; e (5) textos do Diário da Causa Operária, imprensa operária brasileira produzida também por pessoas dentro da faixa média de letramento do país. Realizamos, após a coleta, preparação e processamento dos textos do corpus, uma série de experimentos com a lista bruta de frequências e com a lista de frequências lematizada do CorPop. Os resultados obtidos mostram aplicações promissoras do CorPop em diversas tarefas linguísticas, desde simplificação de textos até uso como vocabulário controlado para redação de paráfrases definitórias em dicionários e comprovam que um corpus pequeno pode ter a mesma validade que um corpus de grandes proporções. / This thesis proposes a corpus of Brazilian popular Portuguese written, called CorPop, with texts selected based on the average level of literacy of the country 's readers. CorPop's theoretical and methodological bases are interdisciplinary and fall within the scope of Language Studies and related disciplines, such as Corpus Lexicon and Linguistics Studies, Textual Linguistics and Psycholinguistics, and also dialogues with Natural Language Processing studies. Thus, this research is housed in the Lexicography, Terminology and Translation Research Line: Textual Relations of PPG-Letras-UFRGS, and our cut, therefore, tends to highlight the Lexicon. The development of CorPop took place through the compilation of data about the level of literacy of Brazilian readers and the characteristics that could compose a standard of textual simplicity in a corpus of texts suitable for these readers. These data were collected from the surveys of the Indicator of Functional Literacy (INAF) and Reading Portraits in Brazil, as well as a questionnaire with readers. The texts selected for CorPop are (1) texts of the popular journalism of the PorPopular Project (newspaper Diário Gaúcho), massively consumed by the C and D classes, which is the average Brazilian reader; (2) texts and authors most read by the respondents of the last editions of the research Retratos da Leitura no Brasil; (3) collection "É Só o Começo" (adaptation of classics from Brazilian literature to readers with low literacy, adaptation by linguists); (4) texts of the newspaper Boca de Rua, produced by street people, with low schooling and low literacy; and (5) texts of the Diário da Causa Operária, the Brazilian working press produced also by people within the average literacy range of the country. After the collection, preparation and processing of the texts of the corpus, a series of experiments with the crude list of frequencies and the list of frequencies typed in CorPop. The results obtained show promising applications of CorPop in several linguistic tasks, such as text simplification and use as controlled vocabulary for writing definitions in dictionaries. Also, CorPop proves that a small corpus can have the same validity as a corpus of large proportions.
55

Perspectives of Complexity and Intelligence on Logistics and Supply Chain Management

Abbasi, Maisam January 2008 (has links)
In recent decades, millions of articles, books and journals have been written and thousandsseminars and conferences have been held to present increasing importance of supply chainmanagement both in practice and theory. Undoubtedly, nowadays, success is not tied-upjust in processes of a focal company but in processes of all its value chain and network. Inorder to survive in highly competitive markets, it sounds essential that all processes andentities of the supply and demand network be analyzed and value-adding ones be separatedfrom those which are not.One of the origins of non-value adding processes is non-value adding complexity. So, asystematic study and analysis of supply chain complexity and rendering remedies forsimplicity are essential.In this thesis, at first, some definitions as well as causes of supply chain complexity basedon its complication and complexity are mentioned. In the next step, embodiments of somethemes of complexity science in discipline of supply chains are explained. Later, a recipefor studying complexity is offered. Ingredients of this recipe are identification,classification, measurement, modeling, and simplification. Finally, implementation ofintelligent agents as assured tools for simplification of supply chains complexity isdescribed. / Uppsatsnivå: D
56

Refinamento de malhas isotrópicas e anisotrópicas e simplificação de malhas isotrópicas / Isotropic and anisotropic mesh refinement and isotropic mesh simplification

Alexandre de Lacassa 20 April 2007 (has links)
Em muitos problemas de simulação de fenômenos físicos ou fenômenos de engenharia, o uso das malhas é um componente muito importante. Uma malha é uma aproximação de uma dada geometria por um conjunto de elementos mais simples, tais como triângulos e quadriláteros (caso bidimensional) ou tetraedros, prismas, pirâmides e hexaedros (caso tridimensional). Nesse texto, as malhas de interesse são as não-estruturadas e compostas por triângulos. A escolha de uma malha é fortemente influenciada pelo desempenho e precisão dos resultados da simulação. O desempenho depende do número de elementos a serem processados, ou seja, quanto maior for a área coberta por cada elemento da malha, menos elementos são necessários, por conseguinte, mais rápida será a simulaçao. A precisão nos resultados da simulação está relacionada tanto com o formato quanto com o tamanho dos elementos. Diferente do desempenho, quanto menor forem os elementos, mais precisos serão os resultados. O formato dos elementos também influencia a precisão, em geral, elementos mais próximos dos equiláteros são preferidos. Como é possível observar, desempenho e precisão são requisitos conflitantes e geralmente é necessário fazer uma ponderação entre eles. Para um determinado grupo de aplicações, o melhor compromisso entre desempenho e precisão é conseguido com elementos finos, longos e corretamente alinhados sobre o domí?nio onde a malha está definida. São as chamadas malhas anisotrópicas. Além disso, um método de refinamento anisotrópico pode melhorar ainda mais a precisão dos resultados. O principal objetivo desse trabalho é desenvolver métodos de refinamento de malhas anisotrópicas, usando como base, e tendo como ponto de partida, os métodos de refinamento Delaunay isotrópicos, a saber, os métodos de refinamento Delaunay de Jim Ruppert [13] e de Paul Chew [6], e também realizar a simplificação Delaunay proposto por Olivier Devillers [8] / The use of polygonal meshes for numerical simulation of physical problems is a well known component. Mesh is an piecewise approximation from a given geometry defined by a set of simpler elements, such as triangles and quadrilaterals (two-dimensional case) or tetrahedra, prisms, pyramid and hexahedra (three-dimensional case). In this work, the interest is unstructured meshes of triangles. The choice of a mesh is aimed at the performance and the precision of the simulation results. The performance depends of the number of elements that will be processed, i.e., the larger is the covered area for each mesh element, the less element is needed, therefore the simulation is faster performed. The simulation precision is related with the shape and the size of the elements. On the other hand, the smaller the elements are, the more precise are the results. The shape of the elements also influences on precision, generally, equilateral elements are preferred. It is worth to mention that performance and precision are opposite requirements and it is important to ponder between them. For a group of applications, the best commitment between performance and precision is obtained with thin and long elements correctly aligned on the domain where the mesh is defined. These meshes are named anisotropic meshes. Furthermore, a method of anisotropic refinement can even improve the precision. We aim at developing anisotropic mesh methods based on isotropic properties from well known Delaunay refinement methods, viz., the Delaynay refinement methods by Jim Ruppert [13] and Paul Chew [6], and performing a Delaunay simplification proposed by Olivier Devillers [8]
57

[en] A TOPOLOGICAL APPROACH FOR MESH SIMPLIFICATION / [pt] UMA ABORDAGEM TOPOLÓGICA PARA SIMPLIFICAÇÃO DE MALHAS

ANTONIO WILSON VIEIRA 17 December 2003 (has links)
[pt] Diversas aplicações, em matemática, computação gráfica, medicina, geofísica e outras áreas, têm explorado a representação de sólidos por superfícies de contorno, em particular malhas poligonais. As malhas podem aproximar com muita precisão as propriedades geométricas da superfície de contorno de um sólido e ainda guardar importantes propriedades topológicas das superfícies como gênero, bordo e conexidade. Devido à grande complexidade dessas malhas, elas são geralmente processadas em meios computacionais usando alguma estrutura de dados. Essas estruturas guardam, além da geometria da malha, informações de incidências e adjacências entre os elementos da malha e exigem uma capacidade de armazenamento e processamento em função da complexidade da malha. Apesar da evolução dos recursos computacionais disponíveis para a manipulação destas estruturas, malhas extremamente complexas com milhões de elementos inviabilizam o armazenamento, processamento e transmissão de sua estrutura de dados nos meios computacionais. Muitas pesquisas recentes estão voltadas para a obtenção de processos de simplificação de malhas que permitam representar a mesma superfície com menos elementos na estrutura de dados e processos de compressão que codifiquem os modelos em formatos menores para efeitos de transmissão e armazenamento em mídia. Neste trabalho, desenvolvemos operadores, em uma estrutura de dados compacta, para a simplificação de malhas através da decimação de células da superfície. Objetivamos, com esses operadores, obter uma malha menos complexa que preserve as propriedades topológicas da superfície original e ainda, controlar as propriedades geométricas como volume, área e aspecto visual da mesma. Apresentamos ainda algumas aplicações para os processos de simplificação desenvolvidos com esses operadores. / [en] Many applications, in mathematics, computer graphics, medical imaging, geophysics and others, have used the representation of solids by their boundary surface, usually polygonal meshes. Those meshes can represent, with high precision, the geometric properties of the boundary surface of solid and also store important topological surface properties as genus, boundary and connected components. Because of the high complexity of such meshes, they are usually processed by the computers using specific data structures. These structures store, beyond the mesh geometry, information about incidence and adjacency relations among the mesh elements. They require computational resources for storage and processing according to the mesh complexity. Even with the development of the computational resources available for handling such structures, very large meshes with millions of elements are hard to store, to process and to exchange through the web. Many recent researches are looking for mesh simplification process that allows to represent the same surface with fewer elements and compression process to encode it in compact ways for transmition and storage. In this work, we develop topological operators, in a concise data structure, for simplifying meshes by the decimation of its cells. One of our goals, with these operators, is to obtain a mesh with a low complexity that preserves the topological properties from the original surface without loosing the control of the geometric proprieties as volume, area and visual aspect.
58

A Computational Geometry Approach to Digital Image Contour Extraction

Tejada, Pedro J. 01 May 2009 (has links)
We present a method for extracting contours from digital images, using techniques from computational geometry. Our approach is different from traditional pixel-based methods in image processing. Instead of working directly with pixels, we extract a set of oriented feature points from the input digital images, then apply classical geometric techniques, such as clustering, linking, and simplification, to find contours among these points. Experiments on synthetic and natural images show that our method can effectively extract contours, even from images with considerable noise; moreover, the extracted contours have a very compact representation.
59

Is Simple Wikipedia simple? : – A study of readability and guidelines

Isaksson, Fabian January 2018 (has links)
Creating easy-to-read text is an issue that has traditionally been solved with manual work. But with advancing research in natural language processing, automatic systems for text simplification are being developed. These systems often need training data that is parallel aligned. For several years, simple Wikipedia has been the main source for this data. In the current study, several readability measures has been tested on a popular simplification corpus. A selection of guidelines from simple Wikipedia has also been operationalized and tested. The results imply that the following of guidelines are not greater in simple Wikipedia than in standard Wikipedia. There are however differences in the readability measures. The syntactical structures of simple Wikipedia seems to be less complex than those of standard Wikipedia. A continuation of this study would be to examine other readability measures and evaluate the guidelines not covered within the current work.
60

Generalizace zástavby s využitím typifikace / Simplification of buildings based on typification

Gottstein, Otomar January 2019 (has links)
Simplification of buildings based on typification Abstract The diploma thesis is focused on cartographic generalization. Its main aim was to develop a new method of simplification of buildings based on typification for areas with lower density of buildings (rural or mountain areas). The proposed method was designed for large scale maps (1 : 25 000 and 1 : 50 000). The presented generalization algorithm is based on preferential selection of buildings to be drawn on the map according to their civic importance, area and location towards roads, railways and streams. It respects cartographic rules used for this type of generalization. The algorithm was implemented in the Python programming language using the Shapely and Fiona libraries for a purpose of its proper testing. The ZABAGED and DATA50 data were chosen as suitable test data. Among other things, this thesis also introduces the evaluation method of typification results, which uses Voronoi diagram. Achieved results are presented on maps of fifteen villages with different spatial structure in both targeted scales. Keywords: digital cartography, generalization, typification, building, simplification

Page generated in 0.1313 seconds