• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 343
  • 113
  • 42
  • 8
  • 4
  • 3
  • 3
  • 3
  • 3
  • 1
  • 1
  • Tagged with
  • 511
  • 175
  • 142
  • 67
  • 47
  • 43
  • 38
  • 38
  • 37
  • 36
  • 36
  • 34
  • 34
  • 33
  • 33
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Classificação automática de texto por meio de similaridade de palavras: um algoritmo mais eficiente. / Automatic text classification using word similarities: a more efficient algorithm.

Catae, Fabricio Shigueru 08 January 2013 (has links)
A análise da semântica latente é uma técnica de processamento de linguagem natural, que busca simplificar a tarefa de encontrar palavras e sentenças por similaridade. Através da representação de texto em um espaço multidimensional, selecionam-se os valores mais significativos para sua reconstrução em uma dimensão reduzida. Essa simplificação lhe confere a capacidade de generalizar modelos, movendo as palavras e os textos para uma representação semântica. Dessa forma, essa técnica identifica um conjunto de significados ou conceitos ocultos sem a necessidade do conhecimento prévio da gramática. O objetivo desse trabalho foi determinar a dimensionalidade ideal do espaço semântico em uma tarefa de classificação de texto. A solução proposta corresponde a um algoritmo semi-supervisionado que, a partir de exemplos conhecidos, aplica o método de classificação pelo vizinho mais próximo e determina uma curva estimada da taxa de acerto. Como esse processamento é demorado, os vetores são projetados em um espaço no qual o cálculo se torna incremental. Devido à isometria dos espaços, a similaridade entre documentos se mantém equivalente. Esta proposta permite determinar a dimensão ideal do espaço semântico com pouco esforço além do tempo requerido pela análise da semântica latente tradicional. Os resultados mostraram ganhos significativos em adotar o número correto de dimensões. / The latent semantic analysis is a technique in natural language processing, which aims to simplify the task of finding words and sentences similarity. Using a vector space model for the text representation, it selects the most significant values for the space reconstruction into a smaller dimension. This simplification allows it to generalize models, moving words and texts towards a semantic representation. Thus, it identifies a set of underlying meanings or hidden concepts without prior knowledge of grammar. The goal of this study was to determine the optimal dimensionality of the semantic space in a text classification task. The proposed solution corresponds to a semi-supervised algorithm that applies the method of the nearest neighbor classification on known examples, and plots the estimated accuracy on a graph. Because it is a very time consuming process, the vectors are projected on a space in such a way the calculation becomes incremental. Since the spaces are isometric, the similarity between documents remains equivalent. This proposal determines the optimal dimension of the semantic space with little effort, not much beyond the time required by traditional latent semantic analysis. The results showed significant gains in adopting the correct number of dimensions.
162

Modelagem de discurso para o tratamento da concisão e preservação da idéia central na geração de textos / Discourse modeling for conciseness and gist preservation in text generation

Rino, Lucia Helena Machado 26 April 1996 (has links)
O foco deste trabalho esta, no processo automático de condensação de uma estrutura complexa de informação e de sua estruturação, para fazê-la apropriada para a expressão textual. A tese principal é que, sem um modelo de discurso, não podemos assegurar a preservação de uma idéia central, pois o processamento do discurso envolve não só a informação, como também metas comunicativas e critérios para ressaltar unidades de informação. Como resultado os métodos para produzir uma estrutura coerente de discurso de um sumário agregam tanto metas comunicativas quanto informações sobre o inter-relacionamentos entre as unidades de informação permitindo a organização do discurso com base em restrições progressivas de planejamento. Esse argumento tem duas implicações: a preservação da idéia central deve ser garantida em nível profundo de processamento e sua proeminência deve ser subordinada aos aspectos comunicativos e retóricos. Portanto, esta investigação se baseia em perspectivas intencionais e retóricas. Propomos um modelo de sumarização dirigido por objetivos, cuja função principal é mapear intenções em relações de coerência, observando ainda a dependência semântica indicada pela estrutura complexa de informação. As estruturas de discurso resultantes devem enfatizar a proposição central a veicular no discurso. Em termos teóricos, o aspecto inovador do modelo está na associação de relações de discurso em três níveis distintos de representação: intencionalidade. coerência e semântica. Em termos práticos, a solução proposta sugere o projeto de um planejador de textos que pode tornar a proposição central de um discurso a informação mais proeminente em uma estrutura de discurso e, assim, assegurar a preservação da idéia central durante a condensação de uma estrutura complexa de informação. Os resultados experimentais da aplicação desse modelo demonstram que é possível selecionar a informação relevante, distinguindo as unidades de conteúdo da estrutura original que são supérfluas ou complementares para a proposição central, e organizá-la coerentemente com o intuito de alcançar um objetivo comunicativo. Propomos a incorporação do modelo a um sumarizador automático cuja arquitetura é sugerida neste trabalho. / The focus of this work is on the automatic process of condensing a. complex information structure and structuring it in such a way as to make it appropriate for textual expression. The main thesis is that without a sound discourse model we cannot guarantee gist preservation because discourse processing comprises not only information, but also communicative goals and criteria to emphasize units of information. As a result, the methods to produce a coherent discourse structure of a summary aggregate both communicative goals and the inter-relationships between information units, allowing for discourse organization by progressively constraining planning decisions. Our thrust has two implications, namely that gist preservation must be guaranteed at the deep level of processing and gist proeminence must be subordinated to communicative and rhetorical settings. The current investigation thus relies on intentional and rhetorical perspectives. A goal-driven summarization model is proposed, whose main function is to map intentions onto coherence relations whilst still observing the semantic dependency indicated by the complex input structure. The resulting discourse structures must highlight the central proposition to be conveyed. In theoretical terms, the innovative contribution of the model relies on the association of discourse relations at three different levels of representation - the intentionality, coherence and semantics. In practical terms, the proposed solution allows for the design of a text planner that can make the central proposition of a discourse the most proeminent information in a discourse structure, thus ensuring the preservation of gist during the condensation of a complex information structure. The results of applying this model show that it is possible to both select relevant information by differentiating content units of the input structure that are superfluous or complementary to the central proposition and organize it coherently by aiming at achieving a communicative goal. The model is proposed to incorporate into an automatic summariser whose architecture suggested in this thesis.
163

Segmentação de tecidos cerebrais usando entropia Q em imagens de ressonância magnética de pacientes com esclerose múltipla / Cerebral tissue segmentation using q-entropy in multiple sclerosis magnetic resonance images

Diniz, Paula Rejane Beserra 20 May 2008 (has links)
A perda volumétrica cerebral ou atrofia é um importante índice de destruição tecidual e pode ser usada para apoio ao diagnóstico e para quantificar a progressão de diversas doenças com componente degenerativo, como a esclerose múltipla (EM), por exemplo. Nesta doença ocorre perda tecidual regional, com reflexo no volume cerebral total. Assim, a presença e a progressão da atrofia podem ser usadas como um indexador da progressão da doença. A quantificação do volume cerebral é um procedimento relativamente simples, porém, quando feito manualmente é extremamente trabalhoso, consome grande tempo de trabalho e está sujeito a uma variação muito grande inter e intra-observador. Portanto, para a solução destes problemas há necessidade de um processo automatizado de segmentação do volume encefálico. Porém, o algoritmo computacional a ser utilizado deve ser preciso o suficiente para detectar pequenas diferenças e robusto para permitir medidas reprodutíveis a serem utilizadas em acompanhamentos evolutivos. Neste trabalho foi desenvolvido um algoritmo computacional baseado em Imagens de Ressonância Magnética para medir atrofia cerebral em controles saudáveis e em pacientes com EM, sendo que para a classificação dos tecidos foi utilizada a teoria da entropia generalizada de Tsallis. Foram utilizadas para análise exames de ressonância magnética de 43 pacientes e 10 controles saudáveis pareados quanto ao sexo e idade para validação do algoritmo. Os valores encontrados para o índice entrópico q foram: para o líquido cerebrorraquidiano 0,2; para a substância branca 0,1 e para a substância cinzenta 1,5. Nos resultados da extração do tecido não cerebral, foi possível constatar, visualmente, uma boa segmentação, fato este que foi confirmado através dos valores de volume intracraniano total. Estes valores mostraram-se com variações insignificantes (p>=0,05) ao longo do tempo. Para a classificação dos tecidos encontramos erros de falsos negativos e de falsos positivos, respectivamente, para o líquido cerebrorraquidiano de 15% e 11%, para a substância branca 8% e 14%, e substância cinzenta de 8% e 12%. Com a utilização deste algoritmo foi possível detectar um perda anual para os pacientes de 0,98% o que está de acordo com a literatura. Desta forma, podemos concluir que a entropia de Tsallis acrescenta vantagens ao processo de segmentação de classes de tecido, o que não havia sido demonstrado anteriormente. / The loss of brain volume or atrophy is an important index of tissue destruction and it can be used to diagnosis and to quantify the progression of neurodegenerative diseases, such as multiple sclerosis. In this disease, the regional tissue loss occurs which reflects in the whole brain volume. Similarly, the presence and the progression of the atrophy can be used as an index of the disease progression. The objective of this work was to determine a statistical segmentation parameter for each single class of brain tissue using generalized Tsallis entropy. However, the computer algorithm used should be accurate and robust enough to detect small differences and allow reproducible measurements in following evaluations. In this work we tested a new method for tissue segmentation based on pixel intensity threshold. We compared the performance of this method using different q parameter range. We could find a different optimal q parameter for white matter, gray matter, and cerebrospinal fluid. The results support the conclusion that the differences in structural correlations and scale invariant similarities present in each single tissue class can be accessed by the generalized Tsallis entropy, obtaining the intensity limits for these tissue class separations. Were used for analysis of magnetic resonance imaging examinations of 43 patients and 10 healthy controls matched on the sex and age for validation of the algorithm. The values found for the entropic index q were: for the cerebrospinal fluid 0.2; for the white matter 0.1 and for gray matter 1.5. The results of the extraction of the tissue not brain can be seen, visually, a good target, which was confirmed by the values of total intracranial volume. These figures showed itself with variations insignificant (p >= 0.05) over time. For classification of the tissues find errors of false negatives and false positives, respectively, for cerebrospinal fluid of 15% and 11% for white matter 8% and 14%, and gray matter of 8% and 12%. With the use of this algorithm could detect an annual loss for the patients of 0.98% which is in line with the literature. Thus, we can conclude that the entropy of Tsallis adds advantages to the process of target classes of tissue, which had not been demonstrated previously.
164

Desenvolvimento e utilização de um novo sistema submersível de imageamento e visão computacional para o estudo da dinâmica de partículas e organismos planctônicos na Enseada do Flamengo, Ubatuba (SP) / Development and implementation of a new submersible imaging system and computer vision tools for a study on particle and plankton dynamics in the Flamengo bay, Ubatuba (SP)

Gomes, Alessandra Colombo Simões 13 July 2018 (has links)
Neste trabalho foi desenvolvida uma instrumentação óptica in-line para filmagem de partículas in situ, utilizando a técnica de sombreamento, acompanhada de softwares para processamento das imagens. As novas ferramentas foram implementadas e foi conduzido um estudo de caso para a avaliação da dinâmica de partículas e suas forçantes ambientais em uma região costeira de Ubatuba. O sistema com 4 sensores acoplados, adquiriu dados oceanográficos e de imagens a cada 40 minutos, no período entre 20 de fevereiro e 7 de junho de 2017. Dados metereológicos adicionais foram obtidos para análises correlativas. Testes com os softwares de visão computacional estabeleceram o uso dos filtros de tamanho entre 500 e 16300 pixels e contraste maior que 50% para segmentação das Regiões de Interesse (ROIs). Os testes também indicaram a melhor performance do algoritmo de segmentação ModeValue e de uma base de treinamento composta por 9 classes com 300 organismos cada para a classificação automática. Devido à baixa acurácia obtida na etapa de classificação automática de imagens desconhecidas de organismos (27%), os objetos foram analisados nesse estudo como partículas, divididos de acordo com o tamanho de seu eixo maior em três ranges (<385 μm; 385-620 μm; >620μm). A análise das partículas, por questões estatísticas, considerou o maior intervalo de amostragens contínuas da série, de 5 de abril a 7 de maio de 2017. Primeiramente a série de cada variável foi decomposta em componentes harmônicas, com base na análise de Fourier, visando detectar padrões recorrentes e, em seguida, as variáveis com picos de densidade espectral mais expressivos em frequências da ordem de uma semana e de um dia foram comparadas por meio da coerência quadrada. As partículas menores, do range 1, foram as que melhor representaram a abundância total e os maiores valores de coerência foram entre as variáveis com período característico de um dia. A instrumentação implementada e testada ao longo de cerca de 3 meses possibilitou a aquisição de imagens de qualidade e de resultados iniciais úteis para o aprimoramento do sistema, visando instalações futuras de longo prazo em ambientes costeiros. / In this work, in-line optical optical instrumentation was developed for in situ particle filming, using the shadowgraphic technique, accompanied by image processing software. The new tools were implemented and a case study was carried out to evaluate the dynamics of particles and their environmental forcing in a coastal region of Ubatuba. The system, with 4 coupled environmental sensors, acquired oceanographic and image data every 40 minutes, between February 20 and June 7, 2017. Aditional meteorological data were obtained for correlative analyzes. Tests with the implemented computer vision software have stablished the use of size filters between 500 and 16300 pixels and contrast level greater than 50% for the segmentation of Regions of Interest (ROIs). The test also indicated the best performance of the Mode Value segmentation algorithm and of a training set composed by 9 classes with 300 organisms each for automatic classification. Due to the low global accuracy obtained in the automatic classification stage of unknown images of organisms (27%), the objects were analyzed in this study as particle, divided according to the size of their major axis in three ranges (<385 μm; 385 - 620 μm; >620μm). Particle analysis, for statistical reasons, considered the largest continuous sampling range of the series, from April 5 to May 7, 2017. First, the series of each variables decomposed into harmonic components, based on Fourier analysis, aiming to detect recurrent patterns, and then the variables with more expressive spectral density peaks at frequencies of the order of one week and one day were compared by means of square coherence. The smaller particles of range 1 were the ones that best represented the total abundance, and the highest values of coherence were among the variables with characteristic period of one day. The instrumentation implemented and tested over about 3 months allowed the acquisition og high-quality images and the initial results were useful for improving the system, aiming at future long-term deployments in coastal environments.
165

Programación LabView para sistema de adquisición de datos ultrasónicos

Chia Loayza He, Antonio Ju Sen 17 June 2015 (has links)
El Laboratorio de Imágenes Médicas de la PUCP cuenta con los equipos y herramientas necesarias para la implementación de un sistema de adquisición de datos de transductores ultrasónicos de un solo elemento, como el hardware de un posicionador de tres ejes de alta resolución (402/403XE Series - Parker), un emisor/receptor de ultrasonidos (Panametrics NDT 5800 - Olympus) y una tarjeta de adquisición de datos (UF3-4142 - Strategic Test). En el presente trabajo de tesis se diseñó e implementó un sistema de adquisición de datos ultrasónicos a través de una interfaz gráfica manipulada por el usuario (GUI) el cual opera los equipos mencionados de manera sincronizada. Esta interfaz se implementó con el software LabVIEW, el cual mediante un algoritmo recorre línea por línea toda el área de observación para adquirir datos. El Capítulo 1 se presenta la situación actual de los sistemas de adquisición en nuestro país, la importancia del desarrollo de estos sistemas y los objetivos del presente trabajo de tesis. El Capítulo 2 describe el hardware que compone un sistema de adquisición de datos ultrasónicos como la etapa de posicionamiento, trasmisión y recepción de pulso-eco, digitalización y adquisición de datos. También se describen las características de los equipos a utilizar de cada etapa. En el Capítulo 3 se presentan la descripción del software y el funcionamiento del sistema por etapas. Se muestran los criterios utilizados para desarrollar las etapas de posicionamiento y adquisición de datos. En el Capítulo 4 se presentan los resultados obtenidos de la tarjeta de adquisición, evaluación de la exactitud de desplazamiento del sistema posicionador y formación de imágenes en modo-B a partir de los datos obtenidos. / Tesis
166

Desarrollo de una herramienta informática en MATLAB para la estandarización de la toma de datos en estudios de vida pública

Mallma León, José Antonio 06 April 2017 (has links)
El interés por el estudio de los peatones ha ido aumentado a lo largo de los años debido a su importancia en la movilidad y en el diseño del espacio público. El proceso de diseño se inicia con el estudio de vida pública que permite recolectar información sobre los patrones de comportamiento de las personas. Se registran flujos y velocidades peatonales, patrones de movimiento, lugares de estancia, etc., pero a la fecha no existe un software que permita sistematizar la información recolectada y organizarla de manera estándar. Por ello, el presente trabajo tiene como objetivo principal el desarrollo e implementación de un software, que permita el registro de los datos recolectados en estudios de vida pública. Dicho programa cuenta con una interfaz gráfica de usuario para facilitar su uso. El programa fue desarrollado en el entorno del lenguaje de programación MATLAB. Se implementaron seis herramientas de los estudios de vida pública: Mapping para mapear las actividades de las personas, Tracing para identificar las rutas o líneas de deseo, Tracking para registrar el seguimiento de los peatones, Counting para registrar los flujos peatonales, Speed Test para evaluar las velocidades de las personas, y Diary que permite registrar información genérica que no pertenece a las demás herramientas. Para tal fin, se adoptó el proceso típico de la ingeniería de software que consta de etapas parcialmente ordenadas. En primer lugar, se traducen las necesidades del usuario en requerimientos de software, luego estos son transformados en diseño, dicho diseño es implementado en código. Finalmente, el código es probado y documentado. Con base en las pruebas realizadas, se concluye que el programa cumplió con las expectativas y objetivos planteados; sin embargo, es importante resaltar que se trata de una primera versión y tiene bastantes limitaciones. Se espera que en un futuro se pueda mejorar y ampliar las funcionalidades con las que se cuenta de acuerdo a los nuevos sujetos de estudios que aparezcan en la movilidad. / Tesis
167

Diseño e implementación de un equipo de metrología para el dimensionamiento de sistemas fotovoltaicos y eólicos

Villanueva Blas, Lis Mariela 23 June 2015 (has links)
En la actualidad el Perú se encuentra en un proceso de transformación debido al crecimiento económico que se está viviendo, el cual va acompañado de una creciente demanda de energía a consecuencia de que diversas plantas industriales se han consolidado, razón por la cual se están tomando en cuenta otras fuentes de energía alternativas, tales como las fuentes de energía renovable, más concretamente la energía producida por aerogeneradores y celdas fotovoltaicas para complementar esta demanda. En los últimos años la energía eólica y solar ha experimentado un desarrollo tecnológico considerable y han incrementado su competitividad en términos económicos en relación con otras fuentes de energía. La fuerza del viento se aprovecha a través de aerogeneradores que generan energía eléctrica, para tener grandes potencias instaladas, estos se agrupan en los denominados “Parques eólicos”. Por otro lado, la energía fotovoltaica emplea la luz proveniente del sol a través de celdas fotovoltaicas para producir electricidad. En la actualidad, los países que conforman la Unión Europea lideran en cuanto a la explotación y uso de la energía eólica y solar, seguidos de China, Estados Unidos y Alemania. En América Latina, el país en donde más se está desarrollando estas fuentes renovables de energía es Brasil debido a la sólida infraestructura industrial y una adecuada red eléctrica, así como una creciente demanda energética. Los parques eólicos y los sistemas fotovoltaicos son instalados en lugares en donde se den las mejores condiciones de viento e irradiación solar y que además estén alejados de los sistemas eléctricos convencionales, que justifican los costos de instalación de estos sistemas. Por lo cual se hace necesario un previo análisis acerca de las condiciones meteorológicas más importantes, tales como la velocidad del viento y la irradiación solar. Esto permitirá tomar mejores decisiones acerca de una posible instalación de uno o ambos sistemas antes mencionados A partir del registro histórico de las variables meteorológicas se puede decidir posibles lugares de instalación, por tanto evitar pérdidas económicas por instalaciones de sistemas inadecuados debido a la falta de un análisis previo. / Tesis
168

Desenvolvimento e utilização de um novo sistema submersível de imageamento e visão computacional para o estudo da dinâmica de partículas e organismos planctônicos na Enseada do Flamengo, Ubatuba (SP) / Development and implementation of a new submersible imaging system and computer vision tools for a study on particle and plankton dynamics in the Flamengo bay, Ubatuba (SP)

Alessandra Colombo Simões Gomes 13 July 2018 (has links)
Neste trabalho foi desenvolvida uma instrumentação óptica in-line para filmagem de partículas in situ, utilizando a técnica de sombreamento, acompanhada de softwares para processamento das imagens. As novas ferramentas foram implementadas e foi conduzido um estudo de caso para a avaliação da dinâmica de partículas e suas forçantes ambientais em uma região costeira de Ubatuba. O sistema com 4 sensores acoplados, adquiriu dados oceanográficos e de imagens a cada 40 minutos, no período entre 20 de fevereiro e 7 de junho de 2017. Dados metereológicos adicionais foram obtidos para análises correlativas. Testes com os softwares de visão computacional estabeleceram o uso dos filtros de tamanho entre 500 e 16300 pixels e contraste maior que 50% para segmentação das Regiões de Interesse (ROIs). Os testes também indicaram a melhor performance do algoritmo de segmentação ModeValue e de uma base de treinamento composta por 9 classes com 300 organismos cada para a classificação automática. Devido à baixa acurácia obtida na etapa de classificação automática de imagens desconhecidas de organismos (27%), os objetos foram analisados nesse estudo como partículas, divididos de acordo com o tamanho de seu eixo maior em três ranges (<385 μm; 385-620 μm; >620μm). A análise das partículas, por questões estatísticas, considerou o maior intervalo de amostragens contínuas da série, de 5 de abril a 7 de maio de 2017. Primeiramente a série de cada variável foi decomposta em componentes harmônicas, com base na análise de Fourier, visando detectar padrões recorrentes e, em seguida, as variáveis com picos de densidade espectral mais expressivos em frequências da ordem de uma semana e de um dia foram comparadas por meio da coerência quadrada. As partículas menores, do range 1, foram as que melhor representaram a abundância total e os maiores valores de coerência foram entre as variáveis com período característico de um dia. A instrumentação implementada e testada ao longo de cerca de 3 meses possibilitou a aquisição de imagens de qualidade e de resultados iniciais úteis para o aprimoramento do sistema, visando instalações futuras de longo prazo em ambientes costeiros. / In this work, in-line optical optical instrumentation was developed for in situ particle filming, using the shadowgraphic technique, accompanied by image processing software. The new tools were implemented and a case study was carried out to evaluate the dynamics of particles and their environmental forcing in a coastal region of Ubatuba. The system, with 4 coupled environmental sensors, acquired oceanographic and image data every 40 minutes, between February 20 and June 7, 2017. Aditional meteorological data were obtained for correlative analyzes. Tests with the implemented computer vision software have stablished the use of size filters between 500 and 16300 pixels and contrast level greater than 50% for the segmentation of Regions of Interest (ROIs). The test also indicated the best performance of the Mode Value segmentation algorithm and of a training set composed by 9 classes with 300 organisms each for automatic classification. Due to the low global accuracy obtained in the automatic classification stage of unknown images of organisms (27%), the objects were analyzed in this study as particle, divided according to the size of their major axis in three ranges (<385 μm; 385 - 620 μm; >620μm). Particle analysis, for statistical reasons, considered the largest continuous sampling range of the series, from April 5 to May 7, 2017. First, the series of each variables decomposed into harmonic components, based on Fourier analysis, aiming to detect recurrent patterns, and then the variables with more expressive spectral density peaks at frequencies of the order of one week and one day were compared by means of square coherence. The smaller particles of range 1 were the ones that best represented the total abundance, and the highest values of coherence were among the variables with characteristic period of one day. The instrumentation implemented and tested over about 3 months allowed the acquisition og high-quality images and the initial results were useful for improving the system, aiming at future long-term deployments in coastal environments.
169

Implementación de un sistema de ubicación y discernimiento entre tecnología GSM y satelital para el seguimiento de unidades móviles

Shimabuko Shimabukuro, César Antonio 13 June 2011 (has links)
El presente proyecto de tesis propone la implementación de un sistema de rastreo alternativo a los existentes en el mercado. Esta propuesta se da debido a que los sistemas de rastreo de vehículos actuales basados en transmisión satelital tiene un costo operativo alto, mientras que los basados en transmisión por la red celular tienen un costo operativo bajo, pero se encuentran limitados a la disponibilidad del servicio celular. Por ello se plantea la alternativa de integrar estas dos tecnologías de transmisión formando un sistema de bajo costo, pero a la vez confiable. Para la implementación de este proyecto se ha hecho uso de las tecnologías de comunicación celular GSM y satelital, adicionalmente al Sistema de Posicionamiento Global (GPS). Además para la programación del equipo se realizó mediante lenguaje de programación Java junto con comandos de comunicación ATcommands. / Tesis
170

Reconhecimento de expressões de emoções na interação mediada por computador

Pasqualotti, Paulo Roberto 29 February 2008 (has links)
Made available in DSpace on 2015-03-05T13:59:43Z (GMT). No. of bitstreams: 0 Previous issue date: 29 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / No Processamento da Linguagem Natural (PLN) os avanços recentes na análise automática de texto conduziram ao surgimento de uma nova área que é o tratamento e reconhecimento dos aspectos subjetivos no texto, considerando fatores como opiniões, sentimentos, emoções e afetividade. Entre as aplicações dessa área podemos citar: medir o nível de satisfação de clientes, reconhecer a diferença entre emissão de opiniões e descrição de fatos, reconhecer perfil empreendedor e posturas interpessoais, identificar possibilidades de estados depressivos em pessoas, entre outras possibilidades, envolvendo a subjetividade. A pesquisa na área requer o desenvolvimento de métodos, recursos e técnicas, que, integrados, possibilitarão a sistemas computacionais serem capazes de manipular significado afetivo no discurso. Porém, por tratar-se de estudos recentes, os recursos ainda são bastante escassos para a língua portuguesa. Dessa forma, essa dissertação propõe o desenvolvimento de um léxico afetivo para a língua portuguesa, den / In the area of Natural Language Processing (NLP) the recent advances in text automatic analysis have led to the emergence of a new area which is the management and recognition subjective aspects in texts, considering factors such as opinion, sentiments, emotions and affection. Among the applications of this area we enumerate: to determine the client satisfaction level, to recognize the difference between opinion emission and description of facts, to recognize entrepreneur profile and interpersonal posture, to identify the possibility of depressive states in people, among other possibilities related to subjectivity. The research in this area requires the development of methods, resources and techniques, that, integrated, can make computational systems able to manage the affective meaning in discourse. However, since these studies are recent, the resources are scarce for the portuguese language. In this way, this dissertation proposes the development of an affective lexicon for the portuguese language, named W

Page generated in 0.418 seconds