• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 343
  • 113
  • 42
  • 8
  • 4
  • 3
  • 3
  • 3
  • 3
  • 1
  • 1
  • Tagged with
  • 511
  • 175
  • 142
  • 67
  • 47
  • 43
  • 38
  • 38
  • 37
  • 36
  • 36
  • 34
  • 34
  • 33
  • 33
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Desenvolvimento de interfaces automatizáveis para construção e verificação de modelos de simulação computacional: um protótipo para um laboratório de análises químicas

Steffen, Diego Augusto January 2009 (has links)
Submitted by William Justo Figueiro (williamjf) on 2015-08-11T19:11:43Z No. of bitstreams: 1 03e.pdf: 4398438 bytes, checksum: 47419c978bbec306c807f0f2ef27ad94 (MD5) / Made available in DSpace on 2015-08-11T19:11:43Z (GMT). No. of bitstreams: 1 03e.pdf: 4398438 bytes, checksum: 47419c978bbec306c807f0f2ef27ad94 (MD5) Previous issue date: 2009 / Nenhuma / A presente pesquisa é um estudo em simulação computacional desenvolvido em um laboratório de análises químicas onde a geração do modelo de simulação é constru- ído de forma automática, por meio de interfaces automatizáveis. O objetivo do trabalho foi desenvolver uma abordagem de geração automática de modelos de simulação computacional para projetos repetitivos. Foram desenvolvidos templates e um gerador de modelos de simulação que foram aplicados em um projeto de simulação computacional em um laboratório de análises químicas. Ao término do projeto, puderam-se observar diversos benefícios que o uso dos templates proporciona, entre os quais autonomia para o usuário final, rapidez para a construção de novos modelos, geração automática do código do modelo de simulação, rapidez na atualização de um modelo previamente utilizado. / This research is a study in a computer simulation developed in a laboratory for chemical analysis where the generation of the simulation model is built automatically through parametrizable interfaces. The objective was to develop an approach to automatic generation of computer simulation models for repetitive projects. Templates were developed and a generator of simulation models that were applied in a project of computer simulation in a laboratory for chemical analysis. At the end of the project, could be observed several benefits that provide the use of templates, including autonomy for the end user, faster to build new models, automatic code generation of the simulation model, speed of update of a model previously used.
172

Desenvolvimento de uma Ferramenta para Criação e Correção Automáticas de Provas na World-Wide-Web. / Development of a tool for the automatic creation and correction of tests on the Word-Wide-Web.

Rafael Humberto Scapin 08 December 1997 (has links)
A World-Wide Web (WWW) tem se desenvolvido enormemente, facilitando o compartilhamento de informações. Muito rapidamente as aplicações do seu potencial educacional se tornaram aparentes, especialmente para a Educação à Distância (ED). Neste sentido, a WWW possui um maior apelo, devido a sua capacidade de exibição de documentos multimídia, capacidade de hipertexto/hipermídia e sua arquitetura cliente-servidor, possibilitando a interação entre aluno e professor em ED. Este trabalho apresenta o desenvolvimento da ferramenta Web Course, desenvolvida no IFSC-USP, que visa facilitar a criação de provas na WWW. A ferramenta também faz a correção automática das provas. Web Course é uma ferramenta baseada em templates, usando formulários HTML criados por programas CGI que são preenchidos pelos instrutores para a criação de provas. / The World-Wide Web (WWW) has been developed largely to facilitate sharing of information. Very quickly, potential educational applications of this technology became apparent, especially for Distance Education (DE). In this regard, WWW has more appeal, because of its capability to exhibit multimedia documents, its hypertext/hypermedia capability and its client-server architecture, making possible the interaction between students and instructors. This work presents the development of Web Course, a tool developed at IFSC-USP that facilitates the creation of tests on the WWW, providing also the automatic correction of them. Web Course is template based, using HTML forms created by CGI files that instructors simply fill in to create tests.
173

Classificação automática de texto por meio de similaridade de palavras: um algoritmo mais eficiente. / Automatic text classification using word similarities: a more efficient algorithm.

Fabricio Shigueru Catae 08 January 2013 (has links)
A análise da semântica latente é uma técnica de processamento de linguagem natural, que busca simplificar a tarefa de encontrar palavras e sentenças por similaridade. Através da representação de texto em um espaço multidimensional, selecionam-se os valores mais significativos para sua reconstrução em uma dimensão reduzida. Essa simplificação lhe confere a capacidade de generalizar modelos, movendo as palavras e os textos para uma representação semântica. Dessa forma, essa técnica identifica um conjunto de significados ou conceitos ocultos sem a necessidade do conhecimento prévio da gramática. O objetivo desse trabalho foi determinar a dimensionalidade ideal do espaço semântico em uma tarefa de classificação de texto. A solução proposta corresponde a um algoritmo semi-supervisionado que, a partir de exemplos conhecidos, aplica o método de classificação pelo vizinho mais próximo e determina uma curva estimada da taxa de acerto. Como esse processamento é demorado, os vetores são projetados em um espaço no qual o cálculo se torna incremental. Devido à isometria dos espaços, a similaridade entre documentos se mantém equivalente. Esta proposta permite determinar a dimensão ideal do espaço semântico com pouco esforço além do tempo requerido pela análise da semântica latente tradicional. Os resultados mostraram ganhos significativos em adotar o número correto de dimensões. / The latent semantic analysis is a technique in natural language processing, which aims to simplify the task of finding words and sentences similarity. Using a vector space model for the text representation, it selects the most significant values for the space reconstruction into a smaller dimension. This simplification allows it to generalize models, moving words and texts towards a semantic representation. Thus, it identifies a set of underlying meanings or hidden concepts without prior knowledge of grammar. The goal of this study was to determine the optimal dimensionality of the semantic space in a text classification task. The proposed solution corresponds to a semi-supervised algorithm that applies the method of the nearest neighbor classification on known examples, and plots the estimated accuracy on a graph. Because it is a very time consuming process, the vectors are projected on a space in such a way the calculation becomes incremental. Since the spaces are isometric, the similarity between documents remains equivalent. This proposal determines the optimal dimension of the semantic space with little effort, not much beyond the time required by traditional latent semantic analysis. The results showed significant gains in adopting the correct number of dimensions.
174

Indução de léxicos bilíngües e regras para a tradução automática / Induction of translation lexicons and transfer rules for machine translation

Helena de Medeiros Caseli 21 May 2007 (has links)
A Tradução Automática (TA) -- tradução de uma língua natural (fonte) para outra (alvo) por meio de programas de computador -- é uma tarefa árdua devido, principalmente, à necessidade de um conhecimento lingüístico aprofundado das duas (ou mais) línguas envolvidas para a construção de recursos, como gramáticas de tradução, dicionários bilíngües etc. A escassez de recursos lingüísticos, e mesmo a dificuldade em produzi-los, geralmente são fatores limitantes na atuação dos sistemas de TA, restringindo-os, por exemplo, quanto ao domínio de aplicação. Neste contexto, diversos métodos vêm sendo propostos com o intuito de gerar, automaticamente, conhecimento lingüístico a partir dos recursos multilíngües e, assim, tornar a construção de tradutores automáticos menos trabalhosa. O projeto ReTraTos, apresentado neste documento, é uma dessas propostas e visa à indução automática de léxicos bilíngües e de regras de tradução a partir de corpora paralelos etiquetados morfossintaticamente e alinhados lexicalmente para os pares de idiomas português--espanhol e português--inglês. O sistema proposto para a indução de regras de tradução apresenta uma abordagem inovadora na qual os exemplos de tradução são divididos em blocos de alinhamento e a indução é realizada para cada bloco, separadamente. Outro fator inovador do sistema de indução é uma filtragem mais elaborada das regras induzidas. Além dos sistemas de indução de léxicos bilíngües e de regras de tradução, implementou-se também um módulo de tradução automática para permitir a validação dos recursos induzidos. Os léxicos bilíngües foram avaliados intrinsecamente e os resultados obtidos estão de acordo com os relatados na literatura para essa área. As regras de tradução foram avaliadas direta e indiretamente por meio do módulo de TA e sua utilização trouxe um ganho na tradução palavra-a-palavra em todos os sentidos (fonte--alvo e alvo--fonte) para a tradução dos idiomas em estudo. As traduções geradas com os recursos induzidos no ReTraTos também foram comparadas às geradas por sistemas comerciais, apresentando melhores resultados para o par de línguas português--espanhol do que para o par português--inglês. / Machine Translation (MT) -- the translation of a natural (source) language into another (target) by means of computer programs -- is a hard task, mainly due to the need of deep linguistic knowledge about the two (or more) languages required to build resources such as translation grammars, bilingual dictionaries, etc. The scarcity of linguistic resources or even the difficulty to build them often limits the use of MT systems, for example, to certain application domains. In this context, several methods have been proposed aiming at generating linguistic knowledge automatically from multilingual resources, so that building translation tools becomes less hard. The ReTraTos project presented in this document is one of these proposals and aims at inducing translation lexicons and transfer rules automatically from PoS-tagged and lexically aligned translation examples for Portuguese--Spanish and Portuguese--English language pairs. The rule induction system brings forth a new approach, in which translation examples are split into alignment blocks and induction is performed for each type of block separately. Another new feature of this system is a more elaborate strategy for filtering the induced rules. Besides the translation lexicon and the transfer rule induction systems, we also implemented a MT module for validating the induced resources. The induced translation lexicons were evaluated intrinsically and the results obtained agree with those reported on the literature. The induced translation rules were evaluated directly and indirectly by the MT module, and improved the word-by-word translation in both directions (source--target and target--source) for the languages under study. The target sentences obtained by the induced resources were also compared to those generated by commercial systems, showing better results for Portuguese--Spanish than for Portuguese--English.
175

Avaliação de incertezas na calibração automática do modelo SWMM / Uncertainty evaluation in the automatic calibration of SWMM

Taís Arriero Shinma 05 November 2015 (has links)
Este trabalho é referente ao desenvolvimento de um calibrador multiobjetivo automático do modelo SWMM (Storm Water Management Model), e avaliação de algumas fontes de incertezas presentes no processo de calibração, visando à representação satisfatória da transformação chuva-vazão. O código foi escrito em linguagem C, e aplica os conceitos do método de otimização multiobjetivo NSGAII (Non Dominated Sorting Genetic Algorithm) com elitismo controlado, além de utilizar o código fonte do modelo SWMM para a determinação das vazões simuladas. Paralelamente, também foi criada uma interface visual, para melhorar a facilidade de utilização do calibrador. Os testes do calibrador foram aplicados a três sistemas diferentes: um sistema hipotético disponibilizado no pacote de instalação do SWMM; um sistema real de pequenas dimensões, denominado La Terraza, localizado no município de Sierra Vista, Arizona (EUA); e um sistema de maiores dimensões, a bacia hidrográfica do Córrego do Gregório, localizada no município de São Carlos (SP). Os resultados indicam que o calibrador construído apresenta, em geral, eficiência satisfatória, porém é bastante dependente da qualidade dos dados observados em campo e dos parâmetros de entrada escolhidos pelo usuário. Foi demonstrada a importância da escolha dos eventos utilizados na calibração, do estabelecimento de limites adequados nos valores das variáveis de decisão, da escolha das funções objetivo e, principalmente, da qualidade e representatividade dos dados de monitoramento pluvio e fluviométrico. Conclui-se que estes testes desenvolvidos contribuem para o entendimento mais aprofundado dos processos envolvidos na modelagem e calibração, possibilitando avanços na confiabilidade dos resultados da modelagem. / This project refers to the development of an automatic multi-objective calibrator for the SWMM (Storm Water Management Model), and the evaluation of some uncertainties sources inherent to the calibration process, aiming to a satisfactory rainfall-runoff transformation representation. The code was written in C language, and applies the concepts of the multi-objective optimization method NSGAII (Non Dominated Sorting Genetic Algorithm) with controlled elitism, using the source code of SWMM to calculate the simulated flow. In addition, a visual interface was also created to improve the calibrators usability. The calibrator tests were applied to three different systems: a hypothetical system available in the SWMM installation package; a real system of small dimensions, called La Terraza, located in the city of Sierra Vista, Arizona (USA); and a large dimensions system, the watershed of Gregório Stream, located in São Carlos (SP). The results indicate that the calibrator built presents, in general, satisfactory efficiency, although it is very dependent on the observed data quality and the input parameters selected by the user. The importance of the events chosen for calibration, the settlement of appropriate limits on the decision variables values, the objective functions choice, and especially the quality and representativeness of the rainfall and runoff monitoring data were demonstrated. We conclude that these performed tests contribute to the thorough understanding of the processes involved in modeling and calibration, enabling advances in the modeling results reliability.
176

Resolución de la ambigüedad semántica mediante métodos basados en conocimiento y su aportación a tareas de PLN

Vázquez, Sonia 27 April 2009 (has links)
No description available.
177

Aportaciones al aprendizaje constructivo y colaborativo en Internet: aplicación a laboratorios virtuales y remotos de robótica industrial

Jara, Carlos A. 21 January 2010 (has links)
No description available.
178

Control visual 2D indirecto para el seguimiento intemporal de trayectorias y su aplicación a estrategias de control visual-fuerza en manipuladores

Pomares, Jorge 07 May 2004 (has links)
La presente Tesis Doctoral tiene como objetivo general el empleo de sistemas sensoriales de visión y fuerza conjuntamente para realizar el guiado de robots en aquellas tareas en las que no solo se requiere controlar la trayectoria del robot sino también su interacción con el entorno. Para ello, en primer lugar se describe un nuevo método para el seguimiento de trayectorias empleando visión artificial denominado control visual basado en flujo de movimiento . Este sistema salva las limitaciones de los métodos existentes hasta la actualidad para el seguimiento de trayectorias basados en control visual, permitiendo realizar un seguimiento independientemente del tiempo, ajustable en precisión y velocidad, y garantizando un correcto comportamiento tanto en la imagen como en el espacio 3-D. Seguidamente se extiende este método al caso en el que el objeto del cual se extrae la información visual se encuentre en movimiento, mostrando una metodología para la estimación de dicho movimiento y su inclusión en la estrategia de seguimiento de trayectorias . Asimismo, se introducen las consideraciones necesarias para permitir el seguimiento ante oclusiones temporales. A continuación se describe una nueva estrategia para la combinación de la información procedente de los sensores visual y de fuerza. Para ello, se combina la información procedente de un sistema de control visual basado en flujo de movimiento con la de uno de control de fuerza permitiendo controlar conjuntamente el seguimiento de la trayectoria y su interacción con el entorno. Se aplica esta estrategia a entornos no estructurados, por lo tanto, se requiere un reconocimiento previo del objeto con el que interactúa el robot para garantizar la coherencia entre las informaciones obtenidas de ambos sistemas sensoriales. Asimismo, se muestra que resulta fundamental el presentar un comportamiento intemporal para garantizar un correcto seguimiento. A lo largo de la Tesis Doctoral se muestran distintos casos prácticos con los que se avalan las aportaciones realizadas. / This PhD Thesis focuses on the joint use of visual and force systems to guide robots in tasks which require not only a control of the trajectory but also of robot's interaction with its setting. First, a new trajectory tracking method which employs computer vision, called movement flow-based visual servoing, is described. This system avoids the limitations of other existing methods in tracking trajectories based on visual servoing, allowing a non-time-dependent tracking whose precision and velocity can be adjusted, and which guarantees the correct behaviour of both the image and the 3-D space. The method is then extended to the case where the object from which visual information is taken, is in movement . To do so, a methodology for estimatiog such movement and including this estimation in the tracking strategy, is shown. Likewise, the necessary considerations for tracking in the face of temporary occlusions, are also explained. A new strategy for combining the information taken from the visual and force sensors is then described. To do so, the information from a movement flow-based visual servoing system is combined with that from a force control system, which allows the joint control of the tracking and the robot's interaction with its surroundings . This strategy is applied here to non-structured settings and, therefore, requires previous knowledge about the object with which the robot interacts, in order to guarantee the coherence between the two sets of information obtained from both sensorial systems. It is also shown that non-time-dependent behaviour is indispensable in order to guarantee a correct tracking. Throughout this Doctoral Thesis, different practical cases are presented, which support the contributions.
179

Text summarisation based on human language technologies and its applications

Lloret, Elena 26 June 2011 (has links)
No description available.
180

Estrategias para identificar oclusiones y planificación monocular para una mejora de la percepción visual de la escena

Gil, Pablo 17 April 2008 (has links)
Esta Tesis doctoral está orientada al estudio de estrategias y técnicas para el tratamiento de oclusiones. Las oclusiones suponen uno de los principales problemas en la percepción de una escena mediante visión por computador. Las condiciones de luz, los puntos de vista con los que se captura información de la escena, las posiciones y orientaciones de los objetos presentes en la escena son algunas de las causas que provocan que los objetos puedan quedar ocluidos parcialmente. Las investigaciones expuestas en esta Tesis se pueden agrupar en función de su objetivo en dos grupos: técnicas cuya finalidad es detectar la presencia de oclusiones y estrategias que permiten mejorar la percepción de un sistema de visión por computador, aun en el caso de la presencia de oclusiones. En primer lugar, se han desarrollado una serie de técnicas orientadas a la detección de oclusiones a partir de procesos de extracción de características y de segmentación color en imágenes. Estas técnicas permiten definir qué regiones en la imagen son susceptibles de considerarse zonas de oclusión, debido a una mala percepción de la escena, como consecuencia de observarla con un mal punto de vista. Como aplicación de estas técnicas se han desarrollado algoritmos basados en la segmentación color de la imagen y en la detección de discontinuidades mediante luz estructurada. Estos algoritmos se caracterizan por no incluir conocimiento previo de la escena. En segundo lugar, se han presentado una serie de estrategias que permiten corregir y/o modificar el punto de vista de la cámara con la que se observa la escena. De esta manera, las oclusiones identificadas, mediante los métodos expuestos en la primera parte de la Tesis, y que generalmente son debidas a una mala localización de la cámara pueden ser eliminadas o atenuadas cambiando el punto de vista con el que se produce la observación. En esta misma línea se presentan dos estrategias para mejorar la posición y orientación espacial de la cámara cuando ésta se emplea para la captura de imágenes en procesos de reconocimiento. La primera de ellas se basa en la retroproyección de características obtenidas de una imagen real, a partir de una posición cualquiera, en imágenes virtuales correspondientes a las posibles posiciones que puede adoptar la cámara. Este algoritmo lleva a cabo la evaluación de un mapa de distancias entre estas características buscando en todo momento, maximizar estas distancias para garantizar un mejor punto de vista. La ventaja radica en que en ningún caso se hace necesario mover la cámara para determinar una nueva posición que mejore la percepción de la escena. La segunda de estas estrategias, busca corregir la posición de la cámara buscando la ortogonalidad. En este caso, se ha partido de la hipótesis inicial de que la mayor superficie visible siempre se suele conseguir situando la cámara ortogonalmente al plano en el que se sitúa el objeto.

Page generated in 0.0582 seconds