• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 343
  • 113
  • 42
  • 8
  • 4
  • 3
  • 3
  • 3
  • 3
  • 1
  • 1
  • Tagged with
  • 511
  • 175
  • 142
  • 67
  • 47
  • 43
  • 38
  • 38
  • 37
  • 36
  • 36
  • 34
  • 34
  • 33
  • 33
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Geração semi-automática de extratores de dados da web considerando contextos fracos / Semi-automatic generation of web data extractors considering weak contexts

Oliveira, Daniel Pereira de 03 March 2006 (has links)
Made available in DSpace on 2015-04-11T14:03:04Z (GMT). No. of bitstreams: 1 Daniel Pereira de Oliveira.pdf: 1962605 bytes, checksum: 022c425ec0a87d2146c7cae3f274903b (MD5) Previous issue date: 2006-03-03 / In the current days, the Internet has become the largest information repository available. However, this huge variety of information is mostly represented in textual format and it necessarily requires human intervention to be effectively used. On the other hand, there exists a large set of Web pages that are in fact composed of collections of implicit data objects. For instance, on-line catalogs, digital libraries and e-commerce Web sites in general. Extracting the contents of these pages and identifying the structure of the data objects available allow for more sophisticated forms of processing besides hyperlink browsing and keyword-based searching. The task of extracting data from Web pages is usually executed by specialized programs called wrappers. In the present work we propose and evaluate a new approach to the wrapper development problem. In this approach, the user is only responsible for providing examples for the atomic items that constitute the objects of interest. Based on these examples, our method automatically generates expressions for extracting other atomics items similar to those presented as example and infers a plausible and meaningful structure to organize them. Our method for generating extraction expression uses techniques inherited from solutions for the multiple string alignment problem. The method is able to produce good extraction expressions that can be easily encoded as regular expressions. Inferring a meaningful structure for the objects whose atomic values were extracted is the task of the HotCycles algorithm, that were previously proposed and which we have revised and extended in this work. The algorithm assembles an adjacency graph for these atomic values, and executes a structural analysis over this graph, looking for patterns that resemble structural constructs such as tuples and lists. From such constructs, a complex object type can be assigned to the extracted data. The experiments carried out using 21 collections of real Web pages have demonstrated the feasibility of our extraction method, reaching 94% of effectiveness using no more than 10 examples for each attribute. The HotCycles algorithm was able to infer a meaningful structure for the objects present in all used collections. Its effectiveness, combined with our atom extraction method, reached 97% of structures correctly inferred, also using no more than 10 examples per attribute. The association of these two methods has demonstrated to be extremely feasible. The high number of correctly inferred structures together with the high precision and recall values of the extraction process demonstrates that this new approach is indeed a promising one. / Hoje em dia a Web se apresenta como o maior repositório de informações da humanidade. Contudo, essa imensa gama de informação é formada principalmente por conteúdo textual e necessariamente requer interpretação humana para se tornar útil. Por outro lado, existe uma grande quantidade de páginas na Web que são, na verdade, formadas por um conjunto implícito de objetos. Isso ocorre, por exemplo, em páginas oriundas de sites de catálogos on-line, bibliotecas digitais e comércio eletrônico em geral. A extração desse conteúdo e a identificação da estrutura dos objetos disponíveis permite uma forma mais sofisticada de processamento além da tradicional navegação por hiperlinks e consultas por palavras-chave. A tarefa de extrair dados de páginas Web é executada por progamas chamados extratores ou wrappers. Neste trabalho propomos uma nova abordagem para o desenvolvimento de extratores. Nessa abordagem o usuário se restringe a fornecer exemplos de treinamento para os atributos que constituem os objetos de interesse. Baseado nesses exemplos, são gerados automaticamente padrões para extrair dados inseridos em contextos similares áqueles fornecidos como exemplos. Em seguida, esses dados são automaticamente organizados segundo uma estrutura plausível. Nosso método de geração de padrões de extração utiliza técnicas herdadas de soluções para o problema do alinhamento múltiplo de seqüências. O método é capaz de produzir padrões de extração que podem ser facilmente transformados em expressões regulares. A tarefa de inferir uma estrutura plausível para os objetos extraídos é realizada pelo algoritmo HotCycles, que foi previamente proposto e que foi revisto e ampliado neste trabalho. O algoritmo constrói um grafo de adjacências para esses dados, e realiza nele, uma análise estrutural em busca de padrões que indiquem construtores estruturais como tuplas e listas. A partir de tais construtores, é associado um tipo aninhado aos dados que foram extraídos da página. Experimentos realizados em 21 coleções de páginas reais da Web demonstram a viabilidade do método de extração de valores atômicos, obtendo um desempenho superior a 94% e utilizando no máximo 10 exemplos de treinamento por atributo. O algoritmo HotCycles foi capaz de inferir uma estrutura plausível para os objetos em todas as coleções utilizadas. Seu desempenho combinado com o método de extração de valores atômicos chegou a 97% de estruturas corretamente inferidas com a utilização também até 10 exemplos por atributo. A combinação desses dois métodos demonstrou-se extremamente viável. Os altos índices de estruturas corretamente inferidas juntamente com os elevados índices de precisão e revocação do processo de extração demonstram que esta é sem dúvida uma abordagem promissora.
132

Geração automática de padrões de navegação para web sites de conteúdo dinâmico / Automatic generation of search patterns on dynamic contents web sites

Vidal, Márcio Luiz Assis 22 March 2006 (has links)
Made available in DSpace on 2015-04-11T14:03:06Z (GMT). No. of bitstreams: 1 Marcio Luiz A Vidal.pdf: 1572903 bytes, checksum: 60a906bd7b466480ab44693ca47ff07c (MD5) Previous issue date: 2006-03-22 / Fundação de Amparo à Pesquisa do Estado do Amazonas / A growing number of Web applications need to process collection of similar pages obtained from Web sites. These applications have the ultimate goal of taking advantage of the valuable information implicitly available in these pages to perform such tasks as querying, searching, data extraction and mining. For some of these applications, the criteria to determine when a Web page must be present in a collection are related to features of the content of the page. However, there are many other important applications in which the inherent structure of the pages, instead of its content, provides a better criterion for gathering the pages. Motivated by this problem, we propose in this work a new approach for generating structure-driven crawlers that requires a minimum effort from the user, since it only require an example of the page to be crawled and an entry point to the Web site. Another important feature in our approach is that it is capable of dealing with Web sites in which the pages to be collected are dynamically generated through the filling of forms. Contrary to existing methods in the literature, our approach does not require a sample database to help in the process of filling out forms and it also does not demand a great interaction with users. Results obtained in experiments with our approach demonstrate a 100% value of precision in craws performed over 17 real Web sites with static and dynamic contents and at least 95% of recall in all 11 static Web sites. / Um crescente número de aplicações para Web necessitam processar coleções de páginas similares obtidas de Web sites. O objetivo final destas aplicações é tirar proveito de informações valiosas que estas páginas implicitamente contêm para realizar tarefas como consulta, busca, extração de dados, mineração de dados e análise de características de uso e popularidade. Para algumas destas aplicações os critérios para determinar quando uma página deve estar presente na coleção estão relacionados a características do conteúdo da página. Contudo, exitem muitas outras importantes situações em que características inerentes à estrutura das páginas, ao invés de seu conteúdo, provêm um critério melhor para guiar a coleta de páginas. Motivados por este problema, propomos nesta dissertação uma nova abordagem para geração de coletores guiados por estrutura que requer um esforço mínimo do usuário, pois são necessário apenas um exemplo das páginas a coletar e um ponto de entrada no Web site. Uma outra característica importante de nossa abordagem, é o fato de ser capaz de lidar com sites onde as páginas a serem coletadas são geradas dinamicamente através do preenchimento de formulários. Ao contrário dos métodos existentes na literatura, no nosso caso não é necessária a existência de um banco de dados de amostra para auxiliar no processo de preenchimento do formulário, nem tão pouco é necessária grande iteração com o usuário. Resultados obtidos em experimento com nossa abordagem demonstraram um valor de 100% de precisão em coletas realizadas sobre 17 Web sites reais de conteúdo estático e dinâmico, e pelo menos 95% de revocação para 11 sites estáticos utilizados nos experimentos.
133

Empleo de extractos naturales obtenidos de subproductos agroalimentarios en productos de V gama

Quintín Martínez, David 17 December 2015 (has links)
El sector de los transformados vegetales agrupa las actividades relacionadas con la conserva, congelados, zumos, concentrados y néctares de frutas y hortalizas. Es un sector muy dinámico de la industria alimentaria que representa aproximadamente el 7% de la producción total. La actividad de esta industria genera cantidades importantes de residuos y subproductos orgánicos, que oscila entre un 13% y un 65%, de la materia prima que utilizan. El marco normativo desarrollado en Europa y en España establece como prioridad el reciclado y la valorización de los residuos frente a su eliminación. Por otro lado, las tendencias de los consumidores hacía alimentos libres de aditivos, ha provocado el aumento del sector de ingredientes naturales, aumentando en los últimos años la utilización de extractos naturales con propiedades tecnológicas (conservantes, antioxidantes) y funcionales (ricos en fibra, vitaminas). Dentro de este marco legislativo y tendencias de consumo, se basa la investigación realizada en esta tesis en la que se han desarrollado y validado tecnologías de extracción, sin la utilización de disolventes orgánicos, de compuestos de interés a partir de los subproductos generados en la industria de la alcachofa y el ajo para su revalorización como ingredientes con capacidad antimicrobiana y antioxidante. Se han obtenido extractos de alcachofa y ajo en los que se analizó su composición para asegurar su salubridad para su utilización como ingredientes alimentarios. Así mismo, se han caracterizado las propiedades antimicrobianas del extracto de ajo obtenido y las propiedades antioxidantes del extracto de alcachofa mediante la utilización de técnicas in vitro e in vivo. La validación del uso de los extractos obtenidos se ha realizado utilizando el extracto de ajo y el extracto de alcachofa como ingredientes en la elaboración de dos platos refrigerados, gazpacho y pasta refrigerada, utilizando distintas concentraciones de extractos y sistemas de envasado. El aumento de la vida útil de estos dos alimentos debido a la utilización de los extractos obtenidos valida su utilización como ingredientes naturales con propiedades antioxidantes y antimicrobianas. / The vegetable manufactured sector involves activities related to canned, frozen, juice concentrates and nectars of fruits and vegetables. It is a very dynamic sector of the food industry and represents about 7% of total production. The activity of this industry generates significant amounts of waste and by-products, between 13% and 65% of the raw material used. The regulatory framework developed in Europe and Spain prioritizes recycling and waste recovery instead of elimination. Furthermore, the trends of consumers towards Clean Label foods, has led to an increase in the natural ingredients sector. The use of natural extracts with technological properties (preservatives, antioxidants, ...) and functional properties (rich in fiber, vitamins, ...) has grown in recent years. Organic solvent free extraction technologies have been developed and validated in this thesis in accordance with the legislative framework and consumers trends in order to obtain functional compounds of byproducts generated in the artichoke and garlic industry for their reuse as food ingredients with antimicrobial and antioxidant capacity. Artichoke and garlic extracts were obtained from byproducts. The composition was analyzed to ensure their safety use as food ingredients. In addition, the antimicrobial properties of the garlic extracts and antioxidant properties of the artichoke extracts obtained have been characterized using in vitro and in vivo assays. The shelf life of gazpacho and chilled pasta, was compared using garlic and artichoke extracts as ingredients, at different concentrations and package conditions, in order to validate the functional their functional properties. Increasing the shelf life of these two enriched products due to the use of extracts, validates their use as antioxidants and natural ingredients with antimicrobial properties.
134

Diseño y construcción de un Data Webhouse de apoyo a la industria del turismo de la X Región

Castro Astete, Manuel Alejandro January 2014 (has links)
Ingeniero Civil en Computación / El desafío propuesto en este trabajo de memoria consistió en el desarrollo y construcción de un Data Webhouse que albergue distintos componentes asociados a un sitio web que presenta un catálogo de productos en internet, como lo son los módulos de recomendador de productos (AWS), de análisis de opinión en internet (WOM), y de registro de acceso al sitio web (Web Log), aplicados a un proyecto real relativo al turismo de la X Región. Apoyado en los avances y desarrollo de memoristas anteriores en temas relativos al web Mining, análisis de log, y sitios adaptativos es que se presenta el proyecto W.H.A.L.E. que alberga a la industria del turismo de la X Región, bajo a supervisión del Gobierno Regional de la X Región y el Sernatur, para buscar potenciar ese sector económico a través del desarrollo y estudio del sitio patagonialoslagos en donde se aplican estos avances por medios de módulos independientes. El problema propuesto es justamente consolidar dichos avances en uno solo, a través de un modelo de datos que considere cada uno de los módulos mencionados y permita mejores puntos de vista a través de información agregada y combinada, bajo el supuesto que el conjunto es mayor que las individualidades. El desarrollo de la presente memoria consistió en el desarrollo de un modelo de Data Webhouse que contuviera la información del sitio web Patagonia, y que agregara información pública de valor, generando un modelo en la medida de la disponibilidad de esa información, además se crearon las interfaces de carga para incorporación del registro de visitas del sitio web a través de su web log, al igual que las interfaces de carga de datos desde el módulo de análisis de opinión, sin embargo esto no se logró con el módulo de recomendación de productos ya que su funcionamiento está codificado dentro de la aplicación tomando por sí mismo los datos de la base de datos de la página web. Con el modelo resultante se generó una base de reportes que combina los datos de los productos visitados y las características relacionadas. Como conclusiones más importantes está la prueba empírica de integración de datos entre los módulos, que se logra en parte, y que sugiere que en una próxima versión del mismo, el diseño de los módulos deben desarrollarse en conjunto con el sitio web para asegurar la compatibilidad esperada.
135

Recolha robotizada de rolhas

Silva, João Ricardo Almeida de Sousa e January 2012 (has links)
Tese de mestrado integrado. Engenharia Electrónica e de Computadores. Faculdade de Engenharia. Universidade do Porto. 2012
136

Como as demarcações na tela influenciam a manifestação do efeito atencional automático / How the placeholders on the screen influence the manifestation of automatic attentional effect

Gonçalves, Patrícia Maria Rodrigues 06 October 2015 (has links)
Em estudos sobre a atenção visuoespacial automática, as regiões de aparecimento dos estímulos são comumente demarcadas na tela. Resultados preliminares de nosso laboratório demonstraram que as demarcações favorecem a manifestação do efeito atencional. O presente estudo estendeu esse achado determinando o modo de atuação destes estímulos. Em um primeiro experimento, confirmamos o achado de que o efeito atencional observado quando as demarcações estão presentes diminui na ausência delas. Em um segundo experimento, investigamos a possibilidade do efeito atencional não se manifestar na ausência das demarcações devido a um desvio muito precoce do foco atencional do local inicialmente atendido, porém o efeito atencional não se manifestou na ausência das demarcações quando se estabilizou o foco atencional por um período maior no local atendido. No terceiro experimento, identificamos a possibilidade do efeito atencional não se manifestar na ausência das demarcações devido a um mascaramento anterógrado de determinado estímulo alvo pelo estímulo precedente mobilizador da atenção / In studies about automatic visuospatial attention, the appearance of the stimulus regions are commonly marked on the screen. Preliminary results from our laboratory demonstrated that the placeholders favors the development of attentional effect. This study extended this finding by determining the mode of action of these stimuli. In a first experiment, we confirmed the finding that the attencional effect observed when placeholders decreases in their absence. In a second experiment, we investigated the possibility of attentional effect do not manifest in the absence of placeholders due to a very early turning from the attentional focus of initially attended site, however, the attentional effect did not manifest in the absence of placeholders when it stabilized the attentional focus by a longer period in the treated site. In the third experiment, we identified the possibility of the attentional effect do not manifest in the absence of placeholders due to an anterograde masking of certain stimulus target by mobilizing previous stimulus of attention
137

Indução de léxicos bilíngües e regras para a tradução automática / Induction of translation lexicons and transfer rules for machine translation

Caseli, Helena de Medeiros 21 May 2007 (has links)
A Tradução Automática (TA) -- tradução de uma língua natural (fonte) para outra (alvo) por meio de programas de computador -- é uma tarefa árdua devido, principalmente, à necessidade de um conhecimento lingüístico aprofundado das duas (ou mais) línguas envolvidas para a construção de recursos, como gramáticas de tradução, dicionários bilíngües etc. A escassez de recursos lingüísticos, e mesmo a dificuldade em produzi-los, geralmente são fatores limitantes na atuação dos sistemas de TA, restringindo-os, por exemplo, quanto ao domínio de aplicação. Neste contexto, diversos métodos vêm sendo propostos com o intuito de gerar, automaticamente, conhecimento lingüístico a partir dos recursos multilíngües e, assim, tornar a construção de tradutores automáticos menos trabalhosa. O projeto ReTraTos, apresentado neste documento, é uma dessas propostas e visa à indução automática de léxicos bilíngües e de regras de tradução a partir de corpora paralelos etiquetados morfossintaticamente e alinhados lexicalmente para os pares de idiomas português--espanhol e português--inglês. O sistema proposto para a indução de regras de tradução apresenta uma abordagem inovadora na qual os exemplos de tradução são divididos em blocos de alinhamento e a indução é realizada para cada bloco, separadamente. Outro fator inovador do sistema de indução é uma filtragem mais elaborada das regras induzidas. Além dos sistemas de indução de léxicos bilíngües e de regras de tradução, implementou-se também um módulo de tradução automática para permitir a validação dos recursos induzidos. Os léxicos bilíngües foram avaliados intrinsecamente e os resultados obtidos estão de acordo com os relatados na literatura para essa área. As regras de tradução foram avaliadas direta e indiretamente por meio do módulo de TA e sua utilização trouxe um ganho na tradução palavra-a-palavra em todos os sentidos (fonte--alvo e alvo--fonte) para a tradução dos idiomas em estudo. As traduções geradas com os recursos induzidos no ReTraTos também foram comparadas às geradas por sistemas comerciais, apresentando melhores resultados para o par de línguas português--espanhol do que para o par português--inglês. / Machine Translation (MT) -- the translation of a natural (source) language into another (target) by means of computer programs -- is a hard task, mainly due to the need of deep linguistic knowledge about the two (or more) languages required to build resources such as translation grammars, bilingual dictionaries, etc. The scarcity of linguistic resources or even the difficulty to build them often limits the use of MT systems, for example, to certain application domains. In this context, several methods have been proposed aiming at generating linguistic knowledge automatically from multilingual resources, so that building translation tools becomes less hard. The ReTraTos project presented in this document is one of these proposals and aims at inducing translation lexicons and transfer rules automatically from PoS-tagged and lexically aligned translation examples for Portuguese--Spanish and Portuguese--English language pairs. The rule induction system brings forth a new approach, in which translation examples are split into alignment blocks and induction is performed for each type of block separately. Another new feature of this system is a more elaborate strategy for filtering the induced rules. Besides the translation lexicon and the transfer rule induction systems, we also implemented a MT module for validating the induced resources. The induced translation lexicons were evaluated intrinsically and the results obtained agree with those reported on the literature. The induced translation rules were evaluated directly and indirectly by the MT module, and improved the word-by-word translation in both directions (source--target and target--source) for the languages under study. The target sentences obtained by the induced resources were also compared to those generated by commercial systems, showing better results for Portuguese--Spanish than for Portuguese--English.
138

Sumarização Automática de Atualização para a língua portuguesa / Update Summarization for the portuguese language

Nóbrega, Fernando Antônio Asevêdo 12 December 2017 (has links)
O enorme volume de dados textuais disponível na web caracteriza-se como um cenário ideal para inúmeras aplicações do Processamento de Língua Natural, tal como a tarefa da Sumarização Automática de Atualização (SAA), que tem por objetivo a geração automática de resumos a partir de uma coleção textual admitindo-se que o leitor possui algum conhecimento prévio sobre os textos-fonte. Dessa forma, um bom resumo de atualização deve ser constituído pelas informações mais relevantes, novas e atualizadas com relação ao conhecimento prévio do leitor. Essa tarefa implica em diversos desafios, sobretudo nas etapas de seleção e síntese de conteúdo para o sumário. Embora existam inúmeras abordagens na literatura, com diferentes níveis de complexidade teórica e computacional, pouco dessas investigações fazem uso de algum conhecimento linguístico profundo, que pode auxiliar a identificação de conteúdo mais relevante e atualizado. Além disso, os métodos de sumarização comumente empregam uma abordagem de síntese extrativa, na qual algumas sentenças dos textos-fonte são selecionadas e organizadas para compor o sumário sem alteração de seu conteúdo. Tal abordagem pode limitar a informatividade do sumário, uma vez que alguns segmentos sentenciais podem conter informação redundante ou irrelevante ao leitor. Assim, esforços recentes foram direcionados à síntese compressiva, na qual alguns segmentos das sentenças selecionadas para o sumário são removidos previamente à inserção no sumário. Nesse cenário, este trabalho de doutorado teve por objetivo a investigação do uso de conhecimentos linguísticos, como a Teoria Discursiva Multidocumento (CST), Segmentação de Subtópicos e Reconhecimento de Entidades Nomeadas, em distintas abordagens de seleção de conteúdo por meio das sínteses extrativas e compressivas visando à produção de sumários de atualização mais informativos. Tendo a língua Portuguesa como principal objeto de estudo, foram organizados três novos córpus, o CSTNews-Update, que viabiliza experimentos de SAA, e o PCSC-Pares e G1-Pares, para o desenvolvimento/avaliação de métodos de Compressão Sentencial. Ressalta-se que os experimentos de sumarização foram também realizados para a língua inglesa. Após as experimentações, observou-se que a Segmentação de Subtópicos foi mais efetiva para a produção de sumários mais informativos, porém, em apenas poucas abordagens de seleção de conteúdo. Além disso, foram propostas algumas simplificações para o método DualSum por meio da distribuição de Subtópicos. Tais métodos apresentaram resultados muito satisfatórios com menor complexidade computacional. Visando a produção de sumários compressivos, desenvolveram-se inúmeros métodos de Compressão Sentencial por meio de algoritmos de Aprendizado de Máquina. O melhor método proposto apresentou resultados superiores a um trabalho do estado da arte, que faz uso de algoritmos de Deep Learning. Além dos resultados supracitados, ressalta-se que anteriormente a este trabalho, a maioria das investigações de Sumarização Automática para a língua Portuguesa foi direcionada à geração de sumários a partir de um (monodocumento) ou vários textos relacionados (multidocumento) por meio da síntese extrativa, sobretudo pela ausência se recursos que viabilizassem a expansão da área de Sumarização Automática para esse idioma. Assim, as contribuições deste trabalho engajam-se em três campos, nos métodos de SAA propostos com conhecimento linguísticos, nos métodos de Compressão Sentencial e nos recursos desenvolvidos para a língua Portuguesa. / The huge amount of data that is available online is the main motivation for many tasks of Natural Language Processing, as the Update Summarization (US) which aims to produce a summary from a collection of related texts under the assumption the user/reader has some previous knowledge about the texts subject. Thus, a good update summary must be produced with the most relevant, new and updated content in order to assist the user. This task presents many research challenges, mainly in the processes of content selection and synthesis of the summary. Although there are several approaches for US, most of them do not use of some linguistic information that may assist the identification relevant content for the summary/user. Furthermore, US methods frequently apply an extractive synthesis approach, in which the summary is produced by picking some sentences from the source texts without rewriting operations. Once some segments of the picked sentences may contain redundant or irrelevant content, this synthesis process can to reduce the summary informativeness. Thus, some recent efforts in this field have focused in the compressive synthesis approach, in which some sentences are compressed by deletion of tokens or rewriting operations before be inserted in the output summary. Given this background, this PhD research has investigated the use of some linguistic information, as the Cross Document Theory (CST), Subtopic Segmentation and Named Entity Recognition into distinct content selection approaches for US by use extractive and compressive synthesis process in order to produce more informative update summaries. Once we have focused on the Portuguese language, we have compiled three new resources for this language, the CSTNews-Update, which allows the investigation of US methods for this language, the PCST-Pairs and G1-Pairs, in which there are pairs of original and compressed sentences in order to produce methods of sentence compression. It is important to say we also have performed experiments for the English language, in which there are more resources. The results show the Subtopic Segmentation assists the production of better summaries, however, this have occurred just on some content selection approaches. Furthermore, we also have proposed a simplification for the method DualSum by use Subtopic Segments. These simplifications require low computation power than DualSum and they have presented very satisfactory results. Aiming the production of compressive summaries, we have proposed different compression methods by use machine learning techniques. Our better proposed method present quality similar to a state-of-art system, which is based on Deep Learning algorithms. Previously this investigation, most of the researches on the Automatic Summarization field for the Portuguese language was focused on previous traditional tasks, as the production of summaries from one and many texts that does not consider the user knowledge, by use extractive synthesis processes. Thus, beside our proposed US systems based on linguistic information, which were evaluated over English and Portuguese datasets, we have produced many Compressions Methods and three new resources that will assist the expansion of the Automatic Summarization field for the Portuguese Language.
139

Desenvolvimento de uma Ferramenta para Criação e Correção Automáticas de Provas na World-Wide-Web. / Development of a tool for the automatic creation and correction of tests on the Word-Wide-Web.

Scapin, Rafael Humberto 08 December 1997 (has links)
A World-Wide Web (WWW) tem se desenvolvido enormemente, facilitando o compartilhamento de informações. Muito rapidamente as aplicações do seu potencial educacional se tornaram aparentes, especialmente para a Educação à Distância (ED). Neste sentido, a WWW possui um maior apelo, devido a sua capacidade de exibição de documentos multimídia, capacidade de hipertexto/hipermídia e sua arquitetura cliente-servidor, possibilitando a interação entre aluno e professor em ED. Este trabalho apresenta o desenvolvimento da ferramenta Web Course, desenvolvida no IFSC-USP, que visa facilitar a criação de provas na WWW. A ferramenta também faz a correção automática das provas. Web Course é uma ferramenta baseada em templates, usando formulários HTML criados por programas CGI que são preenchidos pelos instrutores para a criação de provas. / The World-Wide Web (WWW) has been developed largely to facilitate sharing of information. Very quickly, potential educational applications of this technology became apparent, especially for Distance Education (DE). In this regard, WWW has more appeal, because of its capability to exhibit multimedia documents, its hypertext/hypermedia capability and its client-server architecture, making possible the interaction between students and instructors. This work presents the development of Web Course, a tool developed at IFSC-USP that facilitates the creation of tests on the WWW, providing also the automatic correction of them. Web Course is template based, using HTML forms created by CGI files that instructors simply fill in to create tests.
140

Calibração multiobjetivo do SWMM aplicada à transformação chuva-vazão / Multiobjective calibration of SWMM applied to rainfall-runoff transformation

Shinma, Taís Arriero 24 May 2011 (has links)
Um calibrador automático multiobjetivo para o Storm Water Management Model (SWMM) foi desenvolvido utilizando o método de otimização multiobjetivo Non Dominated Sorting Genetic Algorithm (NSGA II) com elistismo controlado (Deb & Goel, 2001). O programa utiliza o código fonte do SWMM na etapa de avaliação das soluções, para determinar o valor das vazões simuladas, utilizado no cálculo das funções objetivo (FOs). Os testes do calibrador foram aplicados a dois sistemas diferentes, sendo o primeiro uma bacia exemplo hipotética disponibilizada no pacote de instalação do SWMM e o segundo a bacia do córrego do Gregório, localizada no município de São Carlos (SP). Foi realizada a análise de sensibilidade para os dois sistemas, visando determinar os parâmetros a serem calibrados. De modo geral, a porcentagem de áreas impermeáveis e os parâmetros de rugosidade e de infiltração apresentaram maior influência sobre a resposta do sistema em termos de vazão de pico e volume total escoado das bacias. O programa desenvolvido se mostrou eficiente para ambos os sistemas calibrados, com coeficientes de eficiência de Nash & Sutcliffe (1970) médios de 0,99 para a bacia exemplo e 0,87 para a bacia do córrego do Gregório, respectivamente, com um número reduzido de iterações. Construído o calibrador, testes foram realizados para identificar a melhor combinação de FOs e a abordagem multievento mais eficiente. Para tanto, foram testadas 55 diferentes combinações de FOs duas a duas. Os resultados evidenciaram que a melhor combinação testada foi a F2-F6, e a abordagem multievento mais eficiente foi a avaliação da médias das FOs, considerando todos os eventos utilizados na etapa de calibração. Cabe ressaltar que estas conclusões se aplicam somente ao sistema considerado neste estudo. Por fim, a validação comprovou a eficiência do calibrador, aplicada a 10 eventos distintos registrados na bacia do córrego do Gregório, com coeficiente de eficiência médio de 0,84. / An automatic multiobjective calibrator for the Storm Water Management Model (SWMM) was developed using the Non Dominated Sorting Genetic Algorithm (NSGA II) method with controlled elitism (Deb & Goel, 2001). The software uses the SWMM source code for evaluating the solutions, to determine the simulated flow values, used in the objective functions (OFs) calculation. The calibrator tests were applied on two different systems, a hypothetical example basin provided jointly to the SWMM installation package, and the basin of Gregório stream, located in São Carlos (SP). The sensitivity analysis was performed for both systems to determine the parameters to be calibrated. Generally, the percent of imperviousness, the roughness and infiltration parameters variations resulted in large modifications on the system response in terms of peak flow and total runoff volume. The developed software proved to be efficient for both calibrated systems, presenting an average of the Nash & Sutcliffe (1970) efficiency coeficient of 0.99 and 0.87 for the example basin and the Gregório stream basin, respectively, with a few number of iterations. After the calibrator built, tests were conducted aiming to identify the best OFs combination and the more efficient multievent approach. Thus, 55 different combinations in pairs of OFs were tested. The results showed that the best combination tested was the F2-F6 and most efficient multievent approach was the evaluation of the OFs means, considering all the calibration events. It is worth noting that these conclusions apply only to the system considered in this study. Finally, the validation confirmed the calibrator efficiency, applied to 10 different events recorded in the Gregório stream basin, presenting an average of the efficiency coeficient of 0.84.

Page generated in 0.1393 seconds