• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 251
  • 2
  • 2
  • Tagged with
  • 256
  • 256
  • 256
  • 242
  • 235
  • 235
  • 234
  • 199
  • 132
  • 125
  • 103
  • 58
  • 51
  • 37
  • 35
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Metodologia de pré-processamento textual para extração de informação sobre efeitos de doenças em artigos científicos do domínio biomédico

Matos, Pablo Freire 24 September 2010 (has links)
Made available in DSpace on 2016-06-02T19:05:46Z (GMT). No. of bitstreams: 1 3250.pdf: 4243437 bytes, checksum: 462620b959061657eacd8e13120fedb0 (MD5) Previous issue date: 2010-09-24 / Financiadora de Estudos e Projetos / There is a large volume of unstructured information (i.e., in text format) being published in electronic media, in digital libraries particularly. Thus, the human being becomes restricted to an amount of text that is able to process and to assimilate over time. In this dissertation is proposed a methodology for textual preprocessing to extract information about disease effects in the biomedical domain papers, in order to identify relevant information from a text, to structure and to store this information in a database to provide a future discovery of interesting relationships between the extracted information. The methodology consists of four steps: Data Entrance (Step 1), Sentence Classification (Step 2), Identification of Relevant Terms (Step 3) and Terms Management (Step 4). This methodology uses three information extraction approaches from the literature: machine learning approach, dictionary-based approach and rule-based approach. The first one is developed in Step 2, in which a supervised machine learning algorithm is responsible for classify the sentences. The second and third ones are developed in Step 3, in which a dictionary of terms validated by an expert and rules developed through regular expressions were used to identify relevant terms in sentences. The methodology validation was carried out through its instantiation to an area of the biomedical domain, more specifically using papers on Sickle Cell Anemia. Accordingly, two case studies were conducted in both Step 2 and in Step 3. The obtained accuracy in the sentence classification was above of 60% and F-measure for the negative effect class was above of 70%. These values correspond to the results achieved with the Support Vector Machine algorithm along with the use of the Noise Removal filter. The obtained F-measure with the identification of relevant terms was above of 85% for the fictitious extraction (i.e., manual classification performed by the expert) and above of 80% for the actual extraction (i.e., automatic classification performed by the classifier). The F-measure of the classifier above of 70% and F-measure of the actual extraction above 80% show the relevance of the sentence classification in the proposed methodology. Importantly to say that many false positives would be identified in full text papers without the sentence classification step. / Existe um grande volume de informação não estruturada (i.e., em formato textual) sendo publicada cada vez mais em meios eletrônicos, particularmente em bibliotecas digitais. Assim, com o passar do tempo, o ser humano fica cada vez mais restringido a uma limitada quantidade de texto que é capaz de processar e assimilar. No sentido de identificar as informações relevantes de um texto e com o objetivo de estruturar e armazenar essas informações em um banco de dados, a fim de propiciar uma futura descoberta de relacionamentos interessantes entre as informações extraídas, nesta dissertação é proposta uma metodologia de pré-processamento textual para extração de informação sobre efeitos de doenças em artigos científicos do domínio biomédico. A metodologia é composta por quatro etapas: Entrada de Dados (Etapa 1), Classificação de Sentenças (Etapa 2), Identificação de Termos Relevantes (Etapa 3) e Gerenciamento de Termos (Etapa 4). Esta metodologia utiliza três abordagens de extração de informação encontradas na literatura: abordagem baseada em aprendizado de máquina, abordagem baseada em dicionário e abordagem baseada em regras. A primeira abordagem é desenvolvida na Etapa 2, na qual um algoritmo de aprendizado de máquina supervisionado é responsável em classificar as sentenças. A segunda e a terceira abordagens são desenvolvidas na Etapa 3, na qual um dicionário de termos validados pelo especialista e regras desenvolvidas por meio de expressões regulares foram utilizados para identificar termos relevantes nas sentenças. A validação da metodologia foi realizada por meio de sua instanciação para uma área do domínio biomédico, mais especificamente usando artigos sobre a doença Anemia Falciforme. Nesse sentido, dois estudos de caso foram realizados tanto na Etapa 2 quanto na Etapa 3. O valor da acurácia obtida na classificação de sentenças foi acima de 60% e o valor da medida-F para a classe efeito negativo foi acima de 70%. Estes valores correspondem aos resultados alcançados com o algoritmo de aprendizado de máquina Support Vector Machine juntamente com a aplicação do filtro Remoção de Ruído. A medida-F obtida com a identificação de termos relevantes foi acima de 85% para a extração fictícia (i.e., classificação manual realizada pelo especialista) e acima de 80% para a extração real (i.e., classificação automática realizada pelo classificador). O valor de medida-F acima de 70% do classificador e o valor de medida-F acima de 80% da extração real mostra a relevância da classificação de sentenças na metodologia proposta. É importante ressaltar que sem a classificação de sentença, muitos falsos positivos seriam identificados nos artigos completos.
182

Uma abordagem para construção de sistemas fuzzy baseados em regras integrando conhecimento de especialistas e extraído de dados

Lima, Helano Póvoas de 17 September 2015 (has links)
Submitted by Daniele Amaral (daniee_ni@hotmail.com) on 2016-09-15T12:10:51Z No. of bitstreams: 1 DissHPL.pdf: 5127660 bytes, checksum: 4ffaa3ce20b9eb7adef78d152d5c17d2 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-09-16T19:47:09Z (GMT) No. of bitstreams: 1 DissHPL.pdf: 5127660 bytes, checksum: 4ffaa3ce20b9eb7adef78d152d5c17d2 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-09-16T19:47:15Z (GMT) No. of bitstreams: 1 DissHPL.pdf: 5127660 bytes, checksum: 4ffaa3ce20b9eb7adef78d152d5c17d2 (MD5) / Made available in DSpace on 2016-09-16T19:47:20Z (GMT). No. of bitstreams: 1 DissHPL.pdf: 5127660 bytes, checksum: 4ffaa3ce20b9eb7adef78d152d5c17d2 (MD5) Previous issue date: 2015-09-17 / Empresa Brasileira de Pesquisa Agropecuária (EMBRAPA) / Historically, since Mamdani proposed his model of fuzzy rule-based system, a lot has changed in the construction process of this type of models. For a long time, the research efforts were directed towards the automatic construction of accurate models starting from data, making fuzzy systems almost mere function approximators. Realizing that this approach escaped from the original concept of fuzzy theory, more recently, researchers attention focused on the automatic construction of more interpretable models. However, such models, although interpretable, might not make sense to the expert. This work proposes an interactive methodology for constructing fuzzy rule-based systems, which aims to integrate the knowledge extracted from experts and induced from data, hoping to contribute to the solution of the mentioned problem. The approach consists of six steps. Feature selection, fuzzy partitions definition, expert rule base definition, genetic learning of rule base, rule bases conciliation and genetic optimization of fuzzy partitions. The optimization and learning steps used multiobjective genetic algorithms with custom operators for each task. A software tool was implemented to support the application of the approach, offering graphical and command line interfaces and a software library. The efficiency of the approach was evaluated by a case study where a fuzzy rule-based system was constructed in order to offer support to the evaluation of reproductive fitness of Nelore bulls. The result was compared to fully manual and fully automatic construction methodologies, the accuracy was also compared to classical algorithms for classification. / Historicamente, desde que Mamdani propôs seu modelo de sistema fuzzy baseado em regras, muita coisa mudou no processo de construção deste tipo de modelo. Durante muito tempo, os esforços de pesquisa foram direcionados à construção automática de sistemas precisos partindo de dados, tornando os sistemas fuzzy quase que meros aproximadores de função. Percebendo que esta abordagem fugia do conceito original da teoria fuzzy, mais recentemente, as atenções dos pesquisadores foram voltadas para a construção automática de modelos mais interpretáveis. Entretanto, tais modelos, embora interpretáveis, podem ainda não fazer sentido para o especialista. Este trabalho propõe uma abordagem interativa para construção de sistemas fuzzy baseados em regras, que visa ser capaz de integrar o conhecimento extraído de especialistas e induzido de dados, esperando contribuir para a solução do problema mencionado. A abordagem é composta por seis etapas. Seleção de atributos, definição das partições fuzzy das variáveis, definição da base de regras do especialista, aprendizado genético da base de regras, conciliação da base de regras e otimização genética da base de dados. As etapas de aprendizado e otimização utilizaram algoritmos genéticos multiobjetivo com operadores customizados para cada tarefa. Uma ferramenta de software foi implementada para subsidiar a aplicação da abordagem, oferecendo interfaces gráfica e de linha de comando, bem como uma biblioteca de software. A eficiência da abordagem foi avaliada por meio de um estudo de caso, onde um sistema fuzzy baseado em regras foi construído visando oferecer suporte à avaliação da aptidão reprodutiva de touros Nelore. O resultado foi comparado às metodologias de construção inteiramente manual e inteiramente automática, bem como a acurácia foi comparada a de algoritmos clássicos para classificação.
183

Máquinas de classificação para detectar polaridade de mensagens de texto em redes sociais / Sentiment analysis on social networks using ensembles

Von Lochter, Johannes 18 November 2015 (has links)
Submitted by Milena Rubi (milenarubi@ufscar.br) on 2016-10-17T13:16:57Z No. of bitstreams: 1 LOCHTER_Johannes_2015.pdf: 611113 bytes, checksum: 55a3009a4bb5c0fe9f30edf98fe0bc77 (MD5) / Approved for entry into archive by Milena Rubi (milenarubi@ufscar.br) on 2016-10-17T13:17:13Z (GMT) No. of bitstreams: 1 LOCHTER_Johannes_2015.pdf: 611113 bytes, checksum: 55a3009a4bb5c0fe9f30edf98fe0bc77 (MD5) / Approved for entry into archive by Milena Rubi (milenarubi@ufscar.br) on 2016-10-17T13:17:24Z (GMT) No. of bitstreams: 1 LOCHTER_Johannes_2015.pdf: 611113 bytes, checksum: 55a3009a4bb5c0fe9f30edf98fe0bc77 (MD5) / Made available in DSpace on 2016-10-17T13:17:36Z (GMT). No. of bitstreams: 1 LOCHTER_Johannes_2015.pdf: 611113 bytes, checksum: 55a3009a4bb5c0fe9f30edf98fe0bc77 (MD5) Previous issue date: 2015-11-18 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / The popularity of social networks have attracted attention of companies. The growing amount of connected users and messages posted per day make these environments fruitful to detect needs, tendencies, opinions, and other interesting information that can feed marketing and sales departments. However, the most social networks impose size limit to messages, which lead users to compact them by using abbreviations, slangs, and symbols. Recent works in literature have reported advances in minimizing the impact created by noisy messages in text categorization tasks by means of semantic dictionaries and ontology models. They are used to normalize and expand short and messy text messages before using them with a machine learning approach. In this way, we have proposed an ensemble of machine learning methods and natural language processing techniques to find the best way to combine text processing approaches with classification methods to automatically detect opinion in short english text messages. Our experiments were diligently designed to ensure statistically sound results, which indicate that the proposed system has achieved a performance higher than the individual established classifiers. / A popularidade das redes sociais tem atraído a atenção das empresas. O crescimento do número de usuários e das mensagens enviadas por dia transforma esse ambiente em uma rica fonte de informações para descoberta de necessidades, tendências, opiniões e outras informações que podem auxiliar departamentos de vendas e marketing. Contudo,a maioria das redes sociais impõe limite no tamanho das mensagens, o que leva os usuários a usarem abreviações e gírias para compactarem o texto. Trabalhos na literatura demonstraram avanço na minimização do impacto de mensagens ruidosas nas tarefas de categorização textual através da utilização de dicionários semânticos e modelos ontológicos. Com a aplicação destes, as amostras são normalizadas e expandidas antes de serem apresentadas aos métodos preditivos. Assim, nesta dissertação é proposto um comitê de máquinas de classificação utilizando técnicas de processamento de linguagem natural para detectar opiniões automaticamente em mensagens curtas de texto em inglês. Os resulta-dos apresentados foram validados estatisticamente e indicaram que o sistema proposto obteve capacidade preditiva superior aos métodos preditivos isolados.
184

EMS: um plug-in para exibição de mensagens de erro dos compiladores / EMS: compiler error message plug-in

Ferreira, Maria Janaina da Silva 18 December 2015 (has links)
Submitted by Milena Rubi (milenarubi@ufscar.br) on 2016-10-18T13:50:17Z No. of bitstreams: 1 FERREIRA_Maria_2015.pdf: 44702801 bytes, checksum: d58773cbbac5f088372d16f186805b06 (MD5) / Approved for entry into archive by Milena Rubi (milenarubi@ufscar.br) on 2016-10-18T13:50:31Z (GMT) No. of bitstreams: 1 FERREIRA_Maria_2015.pdf: 44702801 bytes, checksum: d58773cbbac5f088372d16f186805b06 (MD5) / Approved for entry into archive by Milena Rubi (milenarubi@ufscar.br) on 2016-10-18T13:50:43Z (GMT) No. of bitstreams: 1 FERREIRA_Maria_2015.pdf: 44702801 bytes, checksum: d58773cbbac5f088372d16f186805b06 (MD5) / Made available in DSpace on 2016-10-18T13:51:11Z (GMT). No. of bitstreams: 1 FERREIRA_Maria_2015.pdf: 44702801 bytes, checksum: d58773cbbac5f088372d16f186805b06 (MD5) Previous issue date: 2015-12-18 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Compiler error messages should allow programmers to understand and solve quickly problems found during the compilation process. However, compilers usually issue short contextless messages with little information and with terms that are difficult to understand. This work introduces the plug-in Error Message System (EMS) that allows the presentation of easy-to-understand and more meaningful error messages. EMS is a plug-in to the Eclipse IDE. It is highly configurable through Domain Specific Languages (DSLs). The DSLs allow that regular users build their own error messages and share them. Beginner programmers can use a set of error messages adapted to them thus reducing the time of understanding and correction of compilation errors. / As mensagens de erro dos compiladores devem permitir que os programadores compreendam e solucionem os problemas encontrados durante o processo de compilação rapidamente. Entretanto, os compiladores usualmente emitem mensagens curtas, sem contexto, pouco informativas e com termos de difícil compreensão. Este trabalho apresenta o plug-in Error Message System (EMS) que permite a apresentação das mensagens de erro mais fáceis de entender e mais informativas. EMS é um plugin para a IDE Eclipe e é altamente configurável através de linguagens específicas de domínio(LED). As LEDs permitem que usuários comuns façam suas próprias mensagens de erro e as compartilhem. Programadores iniciantes podem utilizar um conjunto de mensagens adaptadas a eles, reduzindo o tempo de compreensão e correção dos erros de compilação.
185

E-MuLearn: Design de cenários de aprendizagem para museus virtuais baseado em personas / E-MuLearn: design for learning scenarios for virtual museum based on personas

Welter, Eline Faliane de Araújo 30 June 2016 (has links)
Submitted by Milena Rubi (milenarubi@ufscar.br) on 2016-10-20T16:16:59Z No. of bitstreams: 1 WELTER_Eline_2016.pdf: 27782397 bytes, checksum: f2050143ad69181311811e982813ec1c (MD5) / Approved for entry into archive by Milena Rubi (milenarubi@ufscar.br) on 2016-10-20T16:17:19Z (GMT) No. of bitstreams: 1 WELTER_Eline_2016.pdf: 27782397 bytes, checksum: f2050143ad69181311811e982813ec1c (MD5) / Approved for entry into archive by Milena Rubi (milenarubi@ufscar.br) on 2016-10-20T16:17:35Z (GMT) No. of bitstreams: 1 WELTER_Eline_2016.pdf: 27782397 bytes, checksum: f2050143ad69181311811e982813ec1c (MD5) / Made available in DSpace on 2016-10-20T16:17:57Z (GMT). No. of bitstreams: 1 WELTER_Eline_2016.pdf: 27782397 bytes, checksum: f2050143ad69181311811e982813ec1c (MD5) Previous issue date: 2016-06-30 / Não recebi financiamento / The use of technology to improve the process of teaching and learning is a well-known practice, young people have shown increasing interest in the use of computers and mobile devices as support classes. To encourage this practice, several pedagogical activities can be performed via Internet. However, to contribute to the teaching of History and spread of Culture and Art, museums have sought space in virtual environments. From this premise, it was observed that virtual museums can be seen as an important tool in the teaching and learning process. The aim of this work is to propose a cycle to help create learning scenarios from elements of a museum, based on personas technique to support the teaching of History or a related field. In the first part of the study, Action Research methodology was adopted to carry out the investigation process by the teachers, museums expert and students; to verify the viability of the use of learning scenarios. The AR1 was conducted with 14 teachers and 1 museum expert to verify the feasibility of creating a learning scenario from museum elements. Already AR2 was conducted with 174 elementary school students, to verify the acceptance of learning scenarios. One of the results identified by the AR1 were the artifacts required to compose learning scenarios. However, there was a need for a device to aid in building the persona. For this, there was an adjustment in the empathy map technique called MapLearn as teacher support during the persona construction process. It has also been identified the need to create a cycle to support teachers and museum experts for the creation of learning scenarios. The validation of the proposal included the evaluation of MapLearn; cycle e-MuLearn; and learning scenarios, through 2 case studies and a controlled experiment. The analyses showed that the cycle e-MuLearn and their artifacts can contribute to creation of learning scenarios to support teaching of History. / O uso de tecnologias para melhorar o processo de ensino-aprendizagem é uma prática bastante conhecida, os jovens têm apresentado cada vez mais interesses no uso do computador e dispositivos móveis como apoio `as aulas. Para incentivar esta prática, diversas atividades pedagógicas podem ser realizadas através da Internet. Para contribuir com o ensino de História e disseminação da Cultura e Arte, os museus têm buscado espaço nos meios virtuais. Partindo dessa premissa, observou-se que os museus virtuais podem ser vistos como uma importante ferramenta no processo de ensino-aprendizagem. O objetivo desta dissertação é propor um ciclo para auxiliar a criação de cenários de aprendizagem a partir de elementos de um museu, baseado na ttécnica de personas, como apoio ao ensino de História ou áreas correlatas. Na primeira parte do estudo, a metodologia de pesquisa-ação foi adotada para realizar o processo de investigação junto a professores, museólogos e alunos; para verificar a viabilidade da utilização dos cenários de aprendizagem, foram realizados dois ciclos de pesquisa-ação chamados de AR1 e AR2. O AR1 foi realizado com 14 professores e 1 museólogo, para verificar a viabilidade de criação do cenário de aprendizagem a partir de elementos de um museu. Já o AR2 foi realizado com 174 alunos do ensino fundamental, para verificar a aceitação dos cenários de aprendizagem. Um dos resultados identificado através do AR1, foram os artefatos necessários para compor os cenários de aprendizagem. No entanto, observou-se a necessidade de um artefato para auxiliar na construção da persona. Para isso, realizou-se uma adaptação na técnica de mapa de empatia, denominada MapLearn, como apoio ao professor durante o processo de construção da persona. Também se identificou a necessidade da criação de um ciclo para apoiar professores e museólogos durante a criação dos cenários de aprendizagem. A validação da proposta incluiu a avaliação do MapLearn; o ciclo e-MuLearn; e os cenários de aprendizagem, através de 2 estudos de caso e um experimento controlado. As análises apontaram que o ciclo e-MuLearn e seus artefatos podem contribuir com a criação de cenários de aprendizagem, como apoio ao ensino de História.
186

Restauração de imagens com precisão subpixel utilizando restrições convexas / Restoring images with subpixel precision using restrictions

Antunes Filho, Amauri 09 December 2016 (has links)
Submitted by Milena Rubi (milenarubi@ufscar.br) on 2017-06-01T14:27:18Z No. of bitstreams: 1 ANTUNES_FILHO_Amauri_2016.pdf: 23049873 bytes, checksum: 5246fc4b37bd3364d5abf8cf81fbdb6f (MD5) / Approved for entry into archive by Milena Rubi (milenarubi@ufscar.br) on 2017-06-01T14:27:31Z (GMT) No. of bitstreams: 1 ANTUNES_FILHO_Amauri_2016.pdf: 23049873 bytes, checksum: 5246fc4b37bd3364d5abf8cf81fbdb6f (MD5) / Approved for entry into archive by Milena Rubi (milenarubi@ufscar.br) on 2017-06-01T14:39:27Z (GMT) No. of bitstreams: 1 ANTUNES_FILHO_Amauri_2016.pdf: 23049873 bytes, checksum: 5246fc4b37bd3364d5abf8cf81fbdb6f (MD5) / Made available in DSpace on 2017-06-01T14:39:33Z (GMT). No. of bitstreams: 1 ANTUNES_FILHO_Amauri_2016.pdf: 23049873 bytes, checksum: 5246fc4b37bd3364d5abf8cf81fbdb6f (MD5) Previous issue date: 2016-12-09 / Não recebi financiamento / The super-resolution aims to obtain a higher resolution image, using information from one or more low resolution images. There are different applications where super-resolution may be used, such as medical and forensic images. This work proposes a study and development of algorithms, based on Tekalp and Sezan’s algorithm, using the projection onto convex sets theory, in order to obtain super-resolution, therefore obtaining a higher resolution image, from a low resolution images set, with subpixel informations. We proposed the adition of a convex restriction based on Richardon-Lucy’s algorithm, modified to be weighted by Canny’s filter, along with total variation regularization, aiming to restore frequencies lost during high resolution images decimation and degradation processes . Therefore, we have a hybrid approach, that implements spatial and spectral super-resolution simultaneously, based on projection onto convex sets. The obtained results by the proposed algorithms were compared to Tekalp and Sezan’s base algorithm. The visual analysis of the images, along with the mean square error were taken in consideration for comparisons. In development, grayscale images were used, but the methods are extensible for color images. Results showed improvement in the obtained images, with less noise, blurring and more edge definition than the low resolution images. We conclude that the approach has potential for medical applications and forensic computation. / A super-resolução tem por objetivo a obtenção de uma imagem de maior resolução, utilizando informações de uma ou mais imagens de baixa resolução. Existem diferentes aplicações onde a utilização da super-resolução é empregada, como imagens médicas e forenses. A proposta deste trabalho é o estudo e desenvolvimento de algoritmos, baseados no algoritmo de Tekalp e Sezan, que utilizam a teoria de projeções sobre conjuntos convexos com o objetivo de super-resolução, obtendo uma imagem de maior resolução a partir de um conjunto de imagens com informações subpixel. Propomos também, uma restrição convexa baseada no algoritmo de Richardson-Lucy, modificado para ser ponderado pelo filtro de Canny, juntamente com regularização total variation, com o intuito de restaurar frequências perdidas durante os processos de decimação e degradação das imagens de alta resolução. Com isso temos uma abordagem híbrida, que implementa super-resolução espacial e espectral simultaneamente, baseada em projeções sobre conjuntos convexos. Os resultados obtidos pelos algoritmos propostos foram comparados com o algoritmo base de Tekalp e Sezan. Para as comparações, levou-se em consideração a análise visual das imagens juntamente com o erro quadrático médio. No desenvolvimento, foram utilizadas imagens em tons de cinza, mas os métodos são extensíveis para imagens coloridas. Os resultados apresentaram melhoria nas imagens obtidas em relação as imagens de baixa resolução, minimizando o ruído, o borramento e melhor definição das bordas. Concluímos que a abordagem possui potencial para aplicações médicas e em computação forense.
187

Diretrizes MobiDeaf: uma abordagem para desenvolvimento de aplicações de redes sociais em dispositivos móveis para os surdos / MobiDeaf Guidelines: an approach to developing social networking applications in mobile devices for the deaf

Schefer, Ricardo Pezzotti 17 November 2016 (has links)
Submitted by Milena Rubi (milenarubi@ufscar.br) on 2017-06-01T17:16:02Z No. of bitstreams: 1 SCHEFER_Ricardo_2016.pdf: 49311438 bytes, checksum: 74e1f250d8625420e99bd4200029e64d (MD5) / Approved for entry into archive by Milena Rubi (milenarubi@ufscar.br) on 2017-06-01T17:16:09Z (GMT) No. of bitstreams: 1 SCHEFER_Ricardo_2016.pdf: 49311438 bytes, checksum: 74e1f250d8625420e99bd4200029e64d (MD5) / Approved for entry into archive by Milena Rubi (milenarubi@ufscar.br) on 2017-06-01T17:16:16Z (GMT) No. of bitstreams: 1 SCHEFER_Ricardo_2016.pdf: 49311438 bytes, checksum: 74e1f250d8625420e99bd4200029e64d (MD5) / Made available in DSpace on 2017-06-01T17:16:23Z (GMT). No. of bitstreams: 1 SCHEFER_Ricardo_2016.pdf: 49311438 bytes, checksum: 74e1f250d8625420e99bd4200029e64d (MD5) Previous issue date: 2016-11-17 / Não recebi financiamento / The easy access to mobile and social networking is changing the way people communicate; however, the deaf person is segregated in some of these media. Although there are many designers working with some recommendations, these are still too general and do not satisfy the complete interaction of the deaf in these environments. In this scenario, the deaf audience is not considered in the creation of these applications either because the developers do not know or because they cannot find direct and accurate information about the needs of this group. Supported by literature and experiments, this paper proposes guidelines for developing applications for social networks on mobile devices specifically focused on the deaf audience. Through action research approach (AR), at first we tried to know the difficulties of the public from the perspectives of interaction with mobile devices applied to social networks, specifically Facebook. This first AR cycle was carried out through tests with users for Communicability Evaluation Method (CEM). Afterwards, one participatory design session (DP) was performed, in which the prototypes produced by the users were analyzed and classified by the Model 3C vision. Based on guidelines and the results of experiments, the MobiDeaf was created with eight guidelines. Mobideaf was evaluated by comparison with the WCAG 2.0 recommendations in two types of tests: (i) with designers who produced prototypes, which were analyzed, inspected and reproduced in a test application, and; (ii) with deaf people who experimented the test application. This project contributes in bringing a set of guidelines that help both the designer and the target audience. Also describes CEM tests and a DP session. Presents a mapping of the features worked by the deaf based on Facebook social network, in the Model 3C. Shows in detail the creation and evaluation of guidelines that can be used to enable better interaction of the deaf with society in general through social networking on mobiles. / O acesso fácil aos dispositivos móveis e redes sociais vem modificando a forma como as pessoas se comunicam, porém, a pessoa surda ainda se vê segregada em muitas dessas mídias. Ainda que muitos trabalhem com algumas recomendações, estas são muito genéricas não satisfazendo de forma plena a interação do surdo nesses ambientes. Diante desse cenário, o público surdo, não é considerado na criação desses aplicativos, seja porque os desenvolvedores de interface não conhecem ou não encontram informações diretas e precisas sobre as necessidades deste grupo. Apoiado em bibliografia e em experimentos realizados, este trabalho propõe diretrizes para desenvolvimento de aplicações para redes sociais em dispositivos móveis especificamente com foco no público surdo. Através da abordagem da pesquisa-ação (AR), em um primeiro momento procurou-se conhecer as dificuldades deste público sob as perspectivas de interação com dispositivos móveis aplicados às redes sociais, mais especificamente o Facebook. Esse primeiro ciclo AR se deu através de testes com os usuários utilizando o Método de Avaliação de Comunicabilidade (MAC). Em segundo momento realizou-se uma sessão de design participativo (DP) onde os protótipos produzidos pelos usuários foram analisados e classificados sob a ótica do Modelo 3C. Com base em diretrizes pertinentes ao estudo e nos resultados dos experimentos, criou-se o MobiDeaf com oito diretrizes. Este foi avaliado por comparação com as recomendações WCAG 2.0 em dois tipos de testes: (i) com designers que produziram protótipos, que foram analisados, inspecionados e reproduzidos em um aplicativo teste e; (ii) junto aos surdos que testaram este aplicativo. Este projeto contribuiu ao trazer um conjunto de diretrizes que ajudam tanto o designer quanto o público alvo. Ainda descreve detalhadamente testes MAC e uma sessão DP. Apresenta um Mapeamento das funcionalidades trabalhadas pelos surdos baseado na rede social Facebook, nos moldes do Modelo 3C. Descreve em detalhes a criação e avaliação das diretrizes que podem ser utilizadas para permitir melhor interação do público surdo com a sociedade em geral através de redes sociais em dispositivos móveis.
188

Normalização textual e indexação semântica aplicadas da filtragem de SMS spam / Texto normalization and semantic indexing to enhance SMS spam filtering

Silva, Tiago Pasqualini da 01 July 2016 (has links)
Submitted by Milena Rubi (milenarubi@ufscar.br) on 2017-06-01T17:49:19Z No. of bitstreams: 1 SILVA_Tiago_2016.pdf: 13631569 bytes, checksum: 7774c3913aa556cc48c0669f686cd3b5 (MD5) / Approved for entry into archive by Milena Rubi (milenarubi@ufscar.br) on 2017-06-01T17:49:26Z (GMT) No. of bitstreams: 1 SILVA_Tiago_2016.pdf: 13631569 bytes, checksum: 7774c3913aa556cc48c0669f686cd3b5 (MD5) / Approved for entry into archive by Milena Rubi (milenarubi@ufscar.br) on 2017-06-01T17:49:32Z (GMT) No. of bitstreams: 1 SILVA_Tiago_2016.pdf: 13631569 bytes, checksum: 7774c3913aa556cc48c0669f686cd3b5 (MD5) / Made available in DSpace on 2017-06-01T17:49:38Z (GMT). No. of bitstreams: 1 SILVA_Tiago_2016.pdf: 13631569 bytes, checksum: 7774c3913aa556cc48c0669f686cd3b5 (MD5) Previous issue date: 2016-07-01 / Não recebi financiamento / The rapid popularization of smartphones has contributed to the growth of SMS usage as an alternative way of communication. The increasing number of users, along with the trust they inherently have in their devices, makes SMS messages a propitious environment for spammers. In fact, reports clearly indicate that volume of mobile phone spam is dramatically increasing year by year. SMS spam represents a challenging problem for traditional filtering methods nowadays, since such messages are usually fairly short and normally rife with slangs, idioms, symbols and acronyms that make even tokenization a difficult task. In this scenario, this thesis proposes and then evaluates a method to normalize and expand original short and messy SMS text messages in order to acquire better attributes and enhance the classification performance. The proposed text processing approach is based on lexicography and semantic dictionaries along with the state-of-the-art techniques for semantic analysis and context detection. This technique is used to normalize terms and create new attributes in order to change and expand original text samples aiming to alleviate factors that can degrade the algorithms performance, such as redundancies and inconsistencies. The approach was validated with a public, real and non-encoded dataset along with several established machine learning methods. The experiments were diligently designed to ensure statistically sound results which indicate that the proposed text processing techniques can in fact enhance SMS spam filtering. / A popularização dos smartphones contribuiu para o crescimento do uso de mensagens SMS como forma alternativa de comunicação. O crescente número de usuários, aliado à confiança que eles possuem nos seus dispositivos tornam as mensagem SMS um ambiente propício aos spammers. Relatórios recentes indicam que o volume de spam enviados via SMS está aumentando vertiginosamente nos últimos anos. SMS spam representa um problema desafiador para os métodos tradicionais de detecção de spam, uma vez que essas mensagens são curtas e geralmente repletas de gírias, símbolos, abreviações e emoticons, que torna até mesmo a tokenização uma tarefa difícil. Diante desse cenário, esta dissertação propõe e avalia um método para normalizar e expandir amostras curtas e ruidosas de mensagens SMS de forma a obter atributos mais representativos e, com isso, melhorar o desempenho geral na tarefa de classificação. O método proposto é baseado em dicionários lexicográficos e semânticos e utiliza técnicas modernas de análise semântica e detecção de contexto. Ele é empregado para normalizar os termos que compõem as mensagens e criar novos atributos para alterar e expandir as amostras originais de texto com o objetivo de mitigar fatores que podem degradar o desempenho dos métodos de classificação, tais como redundâncias e inconsistências. A proposta foi avaliada usando uma base de dados real, pública e não codificada, além de vários métodos consagrados de aprendizado de máquina. Os experimentos foram conduzidos para garantir resultados estatisticamente corretos e indicaram que o método proposto pode de fato melhorar a detecção de spam em SMS.
189

Linguagem e compilador para o paradigma orientado a notificações: avanços para facilitar a codificação e sua validação em uma aplicação de controle de futebol de robôs / Language and compiler for the notification-oriented paradigm: advances to facilitate coding and its validation in a robot control soccer application

Santos, Leonardo Araujo 31 March 2017 (has links)
As técnicas de programação baseadas no Paradigma Imperativo (PI) e Paradigma Declarativo (PD) apresentam limitações como redundâncias e acoplamentos, os quais podem prejudicar desenvolvimento e execução de softwares. Visando solucionar algumas das deficiências desses paradigmas de programação surgiu o Paradigma Orientado a Notificações (PON), o qual apresenta uma nova forma de realizar avaliações lógico-causais. Isto é realizado através de entidades computacionais de pequeno porte, reativas e desacopladas que colaboram por meio de notificações pontuais. O PON foi originalmente materializado na forma de um Framework, implementado na linguagem de programação C++. Este foi projetado de forma a fornecer interfaces de alto nível que facilitassem o desenvolvimento de aplicações PON. Entretanto, internamente o Framework usa estruturas de dados que induzem a uma sobrecarga de processamento computacional e consequente prejuízo ao desempenho das aplicações. Visando solucionar esse problema, uma linguagem de programação específica para o PON, nomeada LingPON, e respectivo compilador foram criados recentemente. Entretanto, em um primeiro esforço, apenas algumas poucas e simples aplicações PON foram criadas utilizando a LingPON, fato este que não permite sua consolidação mais efetiva. Isso se deve principalmente a algumas limitações que existem na atual versão da linguagem, as quais dificultam o desenvolvimento de aplicações complexas que solucionem problemas realísticos. Neste sentido, este trabalho propõe uma nova versão da LingPON (versão 1.2), baseada em agregações de entidades, na qual é possível criar aplicações complexas de forma mais fácil e direta. Os avanços são validados por meio do desenvolvimento de um \textit{software}, utilizando a LingPON (versão 1.0 e 1.2), para algo reconhecidamente complexo. O \textit{software em questão trata do controle para partidas de futebol de robôs (Robocup). Ao final, o software desenvolvido utilizando o LingPON é comparado quantitativamente e qualitativamente com um software equivalente desenvolvido o utilizando o Framework PON 2.0 e outro software equivalente desenvolvido com o Paradigma Orientado a Objetos utilizando a linguagem de programação C++ (este programado por outrem). Os resultados obtidos mostraram que ao utilizar a nova versão da LingPON, apresentada neste trabalho, é possível desenvolver aplicações PON de forma mais simples e com menor esforço. Ademais, as aplicações PON desenvolvidas apresentaram maior facilidade de manutenção quando comparadas a aplicação PI. Esses resultados obtidos, com o desenvolvimento de uma aplicação conhecidamente complexa utilizando a nova versão da LingPON, vêm ao encontro de colaborar na demonstração de propriedades previstas na própria teoria do PON. / Programming techniques based on the Imperative Paradigm (PI) and Declarative Paradigm (PD) have limitations such as redundancies and couplings, which may hamper the development and execution of software. In order to solve some of the deficiencies of these programming paradigms, the Notification Oriented Paradigm (NOP) has emerged, which presents a new way of performing logical/cause revisions. This is accomplished through small, reactive and decoupled computational entities that collaborate through timely notifications. The NOP was originally materialized in the form of a Framework, implemented in the C++ programming language. It is designed to provide high-level interfaces that facilitate the development of NOP applications. However, internally the Framework has data structures that induce an overhead of computational processing and consequent damage to the performance of the applications. In order to address this problem, a specific programming language for the NOP, named LingPON, and its compiler have been created recently. However, only a few, simple, NOP applications were created using LingPON, which does not allow its more effective consolidation. This is essentially for some limitations that exist in the current language version, as well as difficulties in developing complex applications that solve real problems. In this sense, this work proposes a new version of LingPON (version 1.2), with new features such as aggregations of entities, allowing an easier and more direct development of complex applications. The advances are validated by developing a more complex software using LingPON (version 1.0 and 1.2). The software in question deals with the autonomous control for soccer playing robots (Robocup). In the end, software developed using LingPON is compared quantitatively and qualitatively with equivalent software developed using the NOP 2.0 Framework and other equivalent software developed with the Object Oriented Paradigm using a C++ programming language (this one programmed by others). The results show that the use of the new version of LingPON, presented here, allows an easier development of NOP applications. Also, that the developed application was easier to maintain when compared to the PI application. These results, with the development of a known complex application using a new version of LingPON, allows the demonstration of the properties expected in the NOP theory itself.
190

Know-cap: um método para capitalização de conhecimento no desenvolvimento de software / Know-cap: a method to knowledge capitalization in the software development

Leal, Gislaine Camila Lapasini 04 December 2015 (has links)
O caráter intensivo em conhecimento da produção de software e sua crescente demanda sugerem a necessidade de definir mecanismos para gerenciar adequadamente os conhecimentos envolvidos com o objetivo de alcançar os requisitos de prazo, custos e qualidade. A capitalização do conhecimento é um processo que envolve desde a identificação até a avaliação dos conhecimentos produzidos e utilizados. Especificamente, para o desenvolvimento de software, a capitalização possibilita facilitar o acesso, minimizar a perda de conhecimento, reduzir a curva de aprendizagem, evitar a repetição de erros e retrabalho. Assim, esta tese apresenta o Know-Cap, um método desenvolvido para sistematizar e orientar a capitalização do conhecimento no desenvolvimento de software. O Know-Cap visa facilitar a localização, preservação, agregação de valor e atualização do conhecimento, com o intuito de utilizá-lo na execução de novas tarefas. O método foi proposto a partir de um conjunto de procedimentos metodológicos: pesquisa bibliográfica, revisão sistemática e análise de trabalhos correlatos. A viabilidade e adequação do Know-Cap foram analisadas a partir de um estudo de aplicação, conduzido em um caso real, e um estudo de análise realizado em empresas de desenvolvimento de software. Os resultados obtidos apontam que o Know-Cap apoia a capitalização do conhecimento no desenvolvimento de software. / The intensive character in knowledge of software production and its rising demand suggest the need to establish mechanisms to properly manage the knowledge involved in order to meet the requirements of deadline, costs and quality. The knowledge capitalization is a process that involves from identification to evaluation of the knowledge produced and used. Specifically, for software development, capitalization enables easier access, minimize the loss of knowledge, reducing the learning curve, avoid repeating errors and rework. Thus, this thesis presents the know-Cap, a method developed to organize and guide the capitalization of knowledge in software development. The Know-Cap facilitates the location, preservation, value addition and updating of knowledge, in order to use it in the execution of new tasks. The method was proposed from a set of methodological procedures: literature review, systematic review and analysis of related work. The feasibility and appropriateness of Know-Cap were analyzed from an application study, conducted in a real case, and an analytical study of software development companies. The results obtained indicate the Know- Cap supports the capitalization of knowledge in software development.

Page generated in 0.0321 seconds