• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 241
  • 2
  • Tagged with
  • 243
  • 243
  • 243
  • 243
  • 192
  • 191
  • 50
  • 46
  • 39
  • 34
  • 32
  • 32
  • 26
  • 24
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Um sistema de interferência de expressões faciais emocionais orientado no modelo de emoções básicas

Oliveira, Eduardo de 22 March 2011 (has links)
Submitted by Maicon Juliano Schmidt (maicons) on 2015-03-30T13:52:38Z No. of bitstreams: 1 Eduardo de Oliveira.pdf: 5953304 bytes, checksum: 4371bfccf262cad294bf159405027f64 (MD5) / Made available in DSpace on 2015-03-30T13:52:39Z (GMT). No. of bitstreams: 1 Eduardo de Oliveira.pdf: 5953304 bytes, checksum: 4371bfccf262cad294bf159405027f64 (MD5) Previous issue date: 2011-01-31 / Banco Santander / Banespa / Este trabalho apresenta um sistema que realiza automaticamente a inferência das emoções básicas (alegria, tristeza, raiva, medo, repulsa e surpresa) pelas expressões da face de um usuário de computador, através de imagens capturadas por uma webcam. A aplicação desenvolvida baseia-se no sistema de codificação facial FACS, que classifica as ações faciais em códigos específicos, conhecidos como AUs (Action Units). A abordagem utilizada consiste em coletar dados de movimentações da boca, olhos e sobrancelhas para classificar, via redes neurais, os códigos AUs presentes nas expressões faciais executadas. Por meio de árvore de decisão, conjunto de regras ou rede neural, as emoções dos AUs, anteriormente classificados, são inferidas. O sistema construído foi avaliado sobre três cenários diferentes: (1) utilizando amostras de bases de faces para avaliação de reconhecimento de AUs e emoções; (2) com amostras de bases de faces para avaliação de reconhecimento de emoções por rede neural (abordagem alternativa); (3) utilizando uma amostra composta por imagens capturadas por webcam para avaliação de emoção, por árvore de decisão e rede neural. Como resultados, foi obtida uma taxa de reconhecimento sobre AUs de 53,83%, implicando em 28,57% de reconhecimento de emoções pelo inferidor da árvore de decisão - Cenário 1. Já, a inferência de emoção pela rede neural obteve como melhor resultado 63,33% de taxa de reconhecimento - Cenários 2 e 3. O trabalho desenvolvido pode ser utilizado para ajustar o comportamento do computador ao estado afetivo do usuário ou fornecer dados para outros softwares, como sistemas tutores inteligentes. / This work presents a system that automatically performs the inference of basic emotions (happiness, sadness, anger, fear, disgust and surprise) through facial expressions from a computer user, using images captured by a webcam. The developed application is based on facial coding system FACS, that classifies specific facial actions, known as AUs (Action Units). The proposed approach consists in collecting moviment data of mouth, eyes and eyebrows to classify, by neural networks, AUs codes presents in performed facial expressions. With decision tree, ruleset or neural network, the emotions of AUs, previously classified, are inferred. The designed system was evaluated in three different scenarios: (1) using samples of faces bases to evaluate the recognition of AUs and emotions; (2) with samples of face bases to evaluate emotion recognition by neural network (alternative approach); (3) using a sample of images captured by webcam for evaluation of emotion in decision tree and neural network. As results, was obtained 53.83% of recognition rate over AUs, which implicating 28.57% of emotions recognition with decision tree - Scenario 1. The emotion inference by neural network achieve, 63.33% of recognition rate as the best result - Scenarios 2 and 3. The developed paper can be used to adjust computer?s behavior to address user?s affective state, or provides data to other softwares, such as intelligent tutoring systems.
52

Assinaturas iconológicas da sucessão sedimentar Rio Bonito no bloco central da jazida carbonífera de Iruí, Cachoeira do Sul (RS)

Gandini, Rosana 04 November 2008 (has links)
Submitted by CARLA MARIA GOULART DE MORAES (carlagm) on 2015-04-01T20:11:18Z No. of bitstreams: 1 RosanaGandiniGeologia.pdf: 4608662 bytes, checksum: 062ac1345c53f4c87b0c0423e27c5022 (MD5) / Made available in DSpace on 2015-04-01T20:11:18Z (GMT). No. of bitstreams: 1 RosanaGandiniGeologia.pdf: 4608662 bytes, checksum: 062ac1345c53f4c87b0c0423e27c5022 (MD5) Previous issue date: 2008-11-04 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Ambientes marginais marinhos são áreas em constante transição que limitam o desenvolvimento das biotas. Fatores ecológicos limitantes da vida bentônica como salinidade, oxigenação, energia e exposição do substrato, condicionam o comportamento dos organismos. A salinidade atua nestes meios como um regulador natural na distribuição da fauna e sua flutuação, combinada aos demais fatores ambientais, resulta em condições fisiologicamente estressantes para muitos organismos. Os depósitos de subsuperfície da sucessão sedimentar Rio Bonito no bloco central da jazida carbonífera de Iruí (Cachoeira do Sul, RS) contêm as icnofábricas de Chondrites, Chondrites-Helmintopsis-Planolites, Cylindrichnus-Thalassinoides, Helminthopsis, Macaronichnus, Ophiomorpha, Palaeophycus, Planolites, Thalassinoides, Thalassinoides-Palaeophycus e Thalassinoides-Palaeophycus-Helminthopsis, distribuídas em associações de fácies representativas de depósitos costeiros e marinhos rasos. As icnofábricas presentes nos depósitos costeiros são caracterizadas pelo baixo índice de bioturbação, pelo tamanho reduzido das escavações e pela baixa icnodiversidade, enquanto que a de depósitos marinhos rasos apresenta moderado a alto índice de bioturbação e maior icnodiversidade. O padrão de cada icnofábrica, sua distribuição estratigráfica e seus vínculos faciológicos permitiram reconhecer quatro assinaturas icnológicas principais, três indicativas de estresse por salinidade e uma substrato-controlada. As icnofábricas de Helmithopsis, Palapeophycus e Planolites presentes na litofácies SiltArg sugerem o domínio de águas oligoalinas a doces. As icnofábricas de Thalassinoides-Palaeophycus e Cylindrichnus-Thalassinoides refletem domínio de águas mesoalinas, representando, respectivamente, uma suíte de ambientes mais estáveis e com menor energia (suíte empobrecida de Icnofácies Cruziana) e uma suíte de ambiente com maior energia (suíte de Icnofácies mista Skolithos-Cruziana). A icnofábrica Thalassinoides-Palaeophycus-Helminthopsis caracteriza uma suíte marinha rasa de Icnofácies Cruziana arquetípica; o tamanho reduzido das escavações, contudo, sugere domínio de águas polialinas, e a ocorrência pontual das icnofábricas, deposição em enseadas, que mimetizariam as condições ambientais encontradas na zona de shoreface inferior/transição ao offshore. A icnofábrica de Thalassinoides é substratocontrolada e ocorre em contexto de Icnofácies Glossifungites, demarcando superfícies estratigráficas autocíclicas nas seqüências C e D e uma superfície estratigráfica alocíclica que separa as seqüências basais da seqüência E. A análise integrada da sedimentologia e da icnologia dos depósitos estudados, em alta resolução, permitiu refinar as interpretações paleoambientais e estratigráficas pré-existentes para a sucessão sedimentar Rio Bonito na área de estudo. / Marginal-marine environments are permanently transitional areas, constraining the biocoenosis development. Ecological features such as salinity gradient, available oxygen content, energy in biotope and substrate consistency and exposure control the animal behavior and impact in the establishment of benthic life. In these environments, the salinity gradient works as a natural regulator of faunal distribution and its fluctuation, combined with the afore mentioned features, results in stressing physiological conditions for many organisms. Thus, the biogenic sedimentary structures produced by the endobenthic fauna in these environments commonly reflect this stress. The subsurface deposits of the Rio Bonito sedimentary succession in the central block of the Iruí coal mine (Cachoeira do Sul, Rio Grande do Sul State, southern Brazil) is composed of sedimentary facies associations that represent deposition in dominantly marginal marine and shallow marine settings, the later in minor scale. Ichnofabrics of Chondrites, Chondrites-Helmintopsis-Planolites, Cylindrichnus-Thalassinoides, Helminthopsis, Macaronichnus, Ophiomorpha, Palaeophycus, Planolites, Thalassinoides, and Thalassinoides-Palaeophycus occur in the marginal marine settings, while the Thalassinoides-Palaeophycus-Helminthopsis ichnofabric is present in the shallow marine deposits. The marginal-marine ichnofabrics are characterized by the low bioturbation index, the reduced size of burrows, and the low ichnodiversity, whereas the marine ones show a moderate to high degree of bioturbation and ichnodiversity. The ichnofabric pattern, its stratigraphic distribution, and its sedimentological relationships allow recognizing four ichnological signatures, three suggesting stress caused by changes in the salinity gradient, and one substratecontrolled. Ichnofabrics of Helmithopsis, Palapeophycus, and Planolites in lithofacies SiltArg suggest the dominance of oligohaline to freshwater conditions. Ichnofabrics of Thalassinoides-Palaeophycus and Cylindrichnus-Thalassinoides reflect the dominance of mesohaline conditions, each one representing, respectively, more calm and stable environments (impoverished Cruziana Ichnofacies suite), and moderate to high energy settings (mixed Skolithos-Cruziana Ichnofacies suite). The Thalassinoides-Palaeophycus-Helminthopsis ichnofabric represents an arquetypical Cruziana Ichnofacies suite, indicating shallow marine settings. The reduced size of the burrows, however, suggests dominance of polyhaline rather than stenohaline conditions and its local distribution allow infer deposition in embayments, which mimic the environmental conditions found in the lower shoreface/offshore transition zones. The Thalassinoides ichnofabric is substrate controlled, representing Glossifungites Ichnofacies suítes. It demarcates autocyclic stratigraphic surfaces in sequences C and D, and an allocyclic stratigraphic surface (sequence boundary) that separates the basal sequences from the sequence E. The integrated analysis of the ichnology and sedimentology of the studied deposits, in high resolution scale, allowed refine the pre-existent paleoenvironmental and stratigraphic interpretations of the Rio Bonito sedimentary succession in the study area.
53

SW-Context : um modelo para software analytics baseado em sensibilidade ao contexto

D’Avila, Leandro Ferreira 22 February 2017 (has links)
Submitted by JOSIANE SANTOS DE OLIVEIRA (josianeso) on 2017-05-23T16:15:28Z No. of bitstreams: 1 Leandro Ferreira D’Avila_.pdf: 2516496 bytes, checksum: ce577684d579d6f920b919aadf28bdb7 (MD5) / Made available in DSpace on 2017-05-23T16:15:28Z (GMT). No. of bitstreams: 1 Leandro Ferreira D’Avila_.pdf: 2516496 bytes, checksum: ce577684d579d6f920b919aadf28bdb7 (MD5) Previous issue date: 2017-02-22 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / PROSUP - Programa de Suporte à Pós-Gradução de Instituições de Ensino Particulares / Diariamente, desenvolvedores de software precisam se envolver com atividades de manutenção para adaptar aplicações existentes a novos cenários e necessidades, como por exemplo, novas funcionalidades, correções de defeitos e requerimentos legais. Entretanto, algumas questões organizacionais podem interferir nas atividades dos desenvolvedores impactando na qualidade e manutenabilidade do software produzido. Grande volume de documentação obsoleta, dificuldades na utilização desta documentação, dependências entre módulos de software e especialistas que deixam as empresas levando o conhecimento de determinados módulos e/ou sistemas são fatores determinantes para o sucesso dos projetos. Uma das formas de mitigar o impacto destas questões seria a disponibilização de informações úteis referentes aos módulos ou artefatos de software de forma qualitativa. A disponibilização destas informações propicia um melhor entendimento do desenvolvedor em relação aos aspectos que cercam o software e o seu ambiente. De acordo com a natureza das informações disponibilizadas, os desenvolvedores podem adquirir informações relevantes sobre o softwareem questão. Essa dissertação apresenta o SW-Context, um modelo que permite a combinação de diferentes informações relacionadas a artefatos de software, a fim de aprimorar a consciência situacional dos desenvolvedores nas atividades de desenvolvimento e manutenção. Desta forma, os principais desafios do modelo são: a definição de quais informações devem compor o contexto para software, o armazenamento estruturado destas informações em históricos de contextos e, finalmente, a análise e disponibilização destas informações de contexto, de forma que possam auxiliar a atividade de desenvolvimento e manutenção de software, utilizando o conceito SoftwareAnalytics. Foi implementado um protótipo contendo os principais conceitos do modelo proposto. Este protótipo utilizou as informações contextuais de aplicações reais de uma empresa de desenvolvimento de software e foi avaliado através de um estudo de caso, onde 12 desenvolvedores o utilizaram pelo período de um mês em suas atividades diárias. Ao final deste período, os desenvolvedores responderam um questionário que abordou a utilidade da ferramenta e a facilidade de uso percebida. A avaliação do modelo obteve respostas com percentuais satisfatórios tanto em relação à facilidade de uso percebida quanto à utilidade do sistema. Pode-se avaliar que a consolidação das informações contextuais em um local único e a disponibilização qualitativa das informações correlacionadas, através de dashboard, atingiu o objetivo de melhorar a consciência situacional dos desenvolvedores nas atividades de manutenção. / Developers need to deal recurrently with the maintenance activities on existing applications in order to adapt them to new scenarios and needs, for example, new features, bug fixing and legal changes. Besides that, developers often deal with organization factors with a potential impact on the success or failure of software development projects. Some of these organization factors are: large amount of old poorly documented software, many interdependencies between software modules and expert developers who left the company. A way to mitigate the impact of these factors on software correctness and maintainability can be providing useful information regarding the context of code or application under development using the analytics approach. The availability of this information provides a better understanding of the developer in relation to issues surrounding the software and its environment. SW-Context aims to allow a combination of different information related to software artifacts in order to improve the situational awareness of developers on development and maintenance activities. On this way, the main challenges of the model are: a definition of what information must compose software context, structured storage of the contextual information and, finally, the analysis and availability of this context information in a way to help the development and maintenance activities, using the Software Analytics concept. A prototype was implemented containing the main concepts of the proposed model. This prototype was prepared with the contextual information of actual applications under development by a software company and the prototype was evaluated through a case study, where 12 developers used it in their daily activities. By the end of this period, the developers responded a questionnaire, in which the usefulness and the ease of use were measured. The evaluation of the model obtained answers with percentage well placed both in relation to the ease of use as to the usefulness of the system. It can be considered that the consolidation of the contextual information in a single location and the availability of this correlated information in a graphical way, through a dashboard, reached the objective of improving the situational awareness of software developers in maintenance activities.
54

Vulcont: A Recommender System based on Contexts History Ontology

Cardoso, Ismael Messias Gomes 16 March 2017 (has links)
Submitted by JOSIANE SANTOS DE OLIVEIRA (josianeso) on 2017-06-14T16:52:48Z No. of bitstreams: 1 Ismael Messias Gomes Cardoso_.pdf: 1842376 bytes, checksum: 60eed8afd2b70fbe501d63c0e1b81c39 (MD5) / Made available in DSpace on 2017-06-14T16:52:48Z (GMT). No. of bitstreams: 1 Ismael Messias Gomes Cardoso_.pdf: 1842376 bytes, checksum: 60eed8afd2b70fbe501d63c0e1b81c39 (MD5) Previous issue date: 2017-03-16 / UNISINOS - Universidade do Vale do Rio dos Sinos / The use of recommender systems is already widespread. Everyday people are exposed to different items’ offering that infer their interest and anticipate decisions. The context information (such as location, goals, and entities around a context) plays a key role in the recommendation’s accuracy. Extending contexts snapshots into contexts histories enables that information to be exploit. It is possible to identify context’s sequences, similar contexts histories and even predict future contexts. In this work we present Vulcont, a recommender system based on a contexts history ontology. Vulcont merges the benefits of ontology reasoning with contexts histories in order to measure contexts history similarity, based on semantic and ontology’s properties provided by context’s domain. Vulcont considers synonymous and classes’ relations to measure similarity. After that, a collaborative filtering approach identifies sequences’ frequency to identify potential items for recommendation. We evaluated and discussed the Vulcont’s recommendation in four scenarios in an offline experiment, which presents Vulcont’s recommendation power, due the exploit of semantic value of contexts history. / O uso de sistemas de recomendação já é amplamente difundido. Diariamente pessoas são expostas a ofertas de itens que inferem seus interesses e antecipam decisões. As informações de contexto (como localização, objetivos, e entidades que cercam um contexto) tem um papel chave na acurácia da recomendação. Ampliando o uso de contextos para histórico de contextos, essa informação pode ser explorada ainda mais. É possível identificar sequências de contextos, similaridade entre histórico de contextos, e até prever contextos futuros. Neste trabalho é apresentado o Vulcont, um sistema de recomendação baseado numa ontologia de histórico de contextos. Vulcont une os benefícios do raciocínio da ontologia com o uso de histórico de contextos para quantificar a similaridade entre histórico de contextos, com base na semântica e outras propriedades da ontologia definidas pelo domínio do contexto. Vulcont considera sinônimos e relações de classes para calcular a similaridade. Por seguinte, um filtro colaborativo identifica a frequência de sequências para estimar items em potencial de recomendação. As recomendações do Vulcont foram avaliadas e discutidas em quatro cenários num experimento offline. O experimento apresentou o poder de recomendação do Vulcont, que é devido a exploração do valor semântico de histórico de contextos.
55

Visual Analytics como ferramenta de auxílio ao processo de KDD : um estudo voltado ao pré-processamento

Cini, Glauber 29 March 2017 (has links)
Submitted by JOSIANE SANTOS DE OLIVEIRA (josianeso) on 2017-06-27T13:53:26Z No. of bitstreams: 1 Glauber Cini_.pdf: 2121004 bytes, checksum: c1f55ddc527cdaeb7ae3c224baea727a (MD5) / Made available in DSpace on 2017-06-27T13:53:26Z (GMT). No. of bitstreams: 1 Glauber Cini_.pdf: 2121004 bytes, checksum: c1f55ddc527cdaeb7ae3c224baea727a (MD5) Previous issue date: 2017-03-29 / Nenhuma / O Visual Analytics consiste na combinação de métodos inteligentes e automáticos com a capacidade de percepção visual do ser humano visando a extração do conhecimento de conjuntos de dados. Esta capacidade visual é apoiada por interfaces interativas como, sendo a de maior importância para este trabalho, a visualização por Coordenadas Paralelas. Todavia, ferramentas que disponham de ambos os métodos automáticos (KDD) e visuais (Coordenadas Paralelas) de forma genérica e integrada mostra-se primordial. Deste modo, este trabalho apresenta um modelo integrado entre o processo de KDD e o de Visualização de Informação utilizando as Coordenadas Paralelas com ênfase no make sense of data, ao ampliar a possibilidade de exploração dos dados ainda na etapa de pré-processamento. Para demonstrar o funcionamento deste modelo, um plugin foi desenvolvido sobre a ferramenta WEKA. Este módulo é responsável por ampliar as possibilidades de utilização da ferramenta escolhida ao expandir suas funcionalidades a ponto de conceitua-la como uma ferramenta Visual Analytics. Junto a visualização de Coordenadas Paralelas disponibilizada, também se viabiliza a interação por permutação das dimensões (eixos), interação por seleção de amostras (brushing) e possibilidade de detalhamento das mesmas na própria visualização. / Visual Analytics is the combination of intelligent and automatic methods with the ability of human visual perception aiming to extract knowledge from data sets. This visual capability is supported by interactive interfaces, considering the most important for this work, the Parallel Coordinates visualization. However, tools that have both automatic methods (KDD) and visual (Parallel Coordinates) in a generic and integrated way is inherent. Thus, this work presents an integrated model between the KDD process and the Information Visualization using the Parallel Coordinates with emphasis on the make sense of data, by increasing the possibility of data exploration in the preprocessing stage. To demonstrate the operation of this model, a plugin was developed on the WEKA tool. This module is responsible for expanding the possibilities of chosen tool by expanding its functionality to the point of conceptualizing it as a Visual Analytics tool. In addition to the delivered visualization of Parallel Coordinate, it is also possible to interact by permutation of the dimensions (axes), interaction by selection of samples (brushing) and possibility of detailing them in the visualization itself.
56

MaxMentor: Sistema de Tutoria Pessoal de Carreira

Souza, Gustavo Henrique de 18 July 2017 (has links)
Submitted by JOSIANE SANTOS DE OLIVEIRA (josianeso) on 2017-10-17T11:29:03Z No. of bitstreams: 1 Gustavo Henrique de Souza_.pdf: 1079480 bytes, checksum: 8fd3bb0bd31939c3ff6017311f7f7863 (MD5) / Made available in DSpace on 2017-10-17T11:29:04Z (GMT). No. of bitstreams: 1 Gustavo Henrique de Souza_.pdf: 1079480 bytes, checksum: 8fd3bb0bd31939c3ff6017311f7f7863 (MD5) Previous issue date: 2017-07-18 / Nenhuma / O assunto carreira passou por significativas evoluções nas últimas décadas, trazendo uma nova perspectiva da proeminência do indivíduo sobre a organização. A carreira passa a ser compreendida como uma sequência constituída por todas as experiências profissionais do indivíduo ao longo de sua vida. Esta dissertação propõe um modelo ontológico e um sistema de tutoria para gestão de carreiras voltado à aprendizagem de estratégias meta-cognitivas de gestão da carreira. O modelo formaliza as variáveis causais descritas por King para a gestão pessoal de carreiras e está orientado para a carreira de Tecnologia de Informação (TI). Para tanto foi necessário uma análise empírica do mercado de trabalho em TI a fim de elicitar o plano de carreiras desta área, posteriormente formalizada por uma ontologia especificada em OWL. A abordagem pedagógica do sistema de orientação de carreiras MaxMentor, construído para demonstrar à aplicabilidade do modelo, utiliza o conceito de situação problema discutido por Perrenoud (2000). Após apresentar as principais características tecnológicas e arquiteturais do sistema MaxMentor, a dissertação se encerra com a apresentação dos resultados preliminares da avaliação empírica e da usabilidade do sistema, que mostram boas evidências da utilidade do sistema para auxiliar na vida profissional e no pensamento crítico sobre como gerir a própria. / The subject career has undergone significant evolutions in the last decades, bringing a new perspective of the prominence of the individual on the organization. The career begins to be understood as a sequence consisting of all the professional experiences of the individual throughout his life. This dissertation proposes an ontological model and a mentoring system for career management aimed at learning meta-cognitive strategies of career management. The model formalizes the causal variables described by King for personal career management and is career oriented in Information Technology (IT). For this, an empirical analysis of the labor market in IT was necessary to elicit the career plan of this area, later formalized by an ontology specified in OWL. The pedagogical approach of the MaxMentor career guidance system, built to demonstrate the applicability of the model, uses the problem situation concept discussed by Perrenoud (2000). After presenting the main technological and architectural characteristics of the MaxMentor system, the dissertation concludes with the presentation of the preliminary results of the empirical evaluation and the usability of the system, which show good evidence of the usefulness of the system to assist professional life and critical thinking about how to manage their own.
57

Uma aplicação de metaheurísticas na abordagem do problema de layout de armazém

Davi, André da Silva 12 September 2017 (has links)
Submitted by JOSIANE SANTOS DE OLIVEIRA (josianeso) on 2017-11-29T16:00:55Z No. of bitstreams: 1 André da Silva Davi_.pdf: 2370087 bytes, checksum: dcaf9c82247a500748da7c104102054b (MD5) / Made available in DSpace on 2017-11-29T16:00:55Z (GMT). No. of bitstreams: 1 André da Silva Davi_.pdf: 2370087 bytes, checksum: dcaf9c82247a500748da7c104102054b (MD5) Previous issue date: 2017-09-12 / Nenhuma / Neste trabalho foi desenvolvido um modelo computacional para a otimização de layout de um Armazém. Além da abordagem do Problema de Layout de Armazém, também é abordado o Problema de Família de Partes. Para o desenvolvimento do modelo foi aplicada a metaheurística Algoritmo Genético. O objetivo do estudo é projetar a configuração de um armazém que otimize a alocação de mercadorias nas prateleiras tal que proporcione a minimização da movimentação das mesmas durante a seleção de pedidos, pois a operação e a gerência são partes essenciais das operações e serviços realizados. Para isto, as variáveis de decisão são: a distância absoluta da localização da mercadoria e o número de pedidos por dia. O resultado deste trabalho é a geração de um layout capaz de comportar as mercadorias de acordo com as necessidades de alocação, realizando uma otimização de aproximadamente 15%. / In this work a computational model was developed for a warehouse layout optimization. In addition to the Warehouse Layout Problem approach, the Part Family Problem is also addressed. For the development of the model was applied the metaheuristic Genetic Algorithm. The objective of the study is to design the configuration of a warehouse that optimizes an allocation of goods on the shelves that provides a minimization of the warehouse's movement during order selection, operation and management with essential uses of the operations and services performed. The decision variables are: the absolute distance of the location of the merchandise and the number of requests per day. The result is a set of new layouts, according to the conditions of service and the realization of an optimization of approximately 15%.
58

PS2DICOM: Explorando o paradigma Publish/Subscribe e a elasticidade em níveis aplicados ao procedimento de Telemedicina

Paim, Euclides Palma 31 October 2017 (has links)
Submitted by JOSIANE SANTOS DE OLIVEIRA (josianeso) on 2018-02-22T12:31:13Z No. of bitstreams: 1 Euclides Palma Paim_.pdf: 2529933 bytes, checksum: 9c867ad7f5950b65e99f49343f096e8e (MD5) / Made available in DSpace on 2018-02-22T12:31:13Z (GMT). No. of bitstreams: 1 Euclides Palma Paim_.pdf: 2529933 bytes, checksum: 9c867ad7f5950b65e99f49343f096e8e (MD5) Previous issue date: 2017-10-31 / Nenhuma / Imagens médicas são usadas diariamente para apoio ao diagnóstico em diferentes áreas da Radiologia no mundo todo. Essas imagens seguem uma padronização internacional definida pela ISO 12052, conhecida como padrão DICOM (Digital Imaging and Communications in Medicine). Cada instituição que reivindica conformidade com esta norma, possui seus próprios serviços de armazenamento, sistemas de visualização e processamento específicos para esses dados. No entanto, há uma grande necessidade de que essas imagens sejam analisadas por diferentes especialistas, a fim de que cada caso possa ser discutido de forma ampla, na busca do melhor tratamento para cada patologia. A indisponibilidade de dados em tempo real para a avaliação médica especializada impacta direta e profundamente no sucesso terapêutico. O modelo de computação em nuvem tem as características necessárias para garantir que estas imagens se encontrem ao alcance dos profissionais mais recomendados para cada caso, aptos a oferecer o melhor atendimento. A grande quantidade de recursos disponíveis em nuvem, para lidar com esses dados de forma escalável, facilita a criação de uma infraestrutura para apoio ao diagnóstico à distância através de recursos de Telemedicina. Tomando como base o paradigma computacional Publicar/Assinar, podemos estabelecer comunicação em tempo real para solucionar situações no campo da saúde, como comunicação entre hospitais ou clínicas e entre médicos, enfermeiros e especialistas envolvidos no diagnóstico. Em ambientes clínicos que lidam com transmissão massiva de imagens em alta resolução no padrão DICOM, bem como em ambientes com problemas de desempenho de rede, transmitir essas imagens em tempo hábil, armazenar e disponibilizar de forma segura é um problema sem solução espontânea. Dessa forma esse trabalho propõe uma arquitetura baseada em nuvem computacional, para coletar, comprimir, armazenar e recuperar dados utilizando o paradigma Publicar/Assinar e dois níveis de escalabilidade. O modelo PS2DICOM é estabelecido como um middleware que oferece recursos de infraestrutura na camada IaaS (Infrastructure as a Service), apoiando as tarefas de transmissão e armazenamento de arquivos dentro do padrão DICOM. O sistema oferece compactação dos dados com diferentes intensidades, conforme largura de banda disponível. O modelo PS2DICOM conta ainda com dois níveis de balanceamento de carga e com a elasticidade reativa oferecida pela infraestrutura. A pesquisa contribui ao apresentar uma arquitetura eficaz para otimizar tarefas de rede, capaz de ser adotada como solução ao desenvolver aplicações voltadas para nuvens computacionais aplicadas a saúde em futuras situações reais. A arquitetura foi testada utilizando um protótipo com módulos distintos, desenvolvidos para cada serviço específico oferecido e mostrou-se eficiente como solução para os problemas em questão. Seus detalhes são descritos nos capítulos seguintes, bem como sua implementação, que corrobora a viabilidade do modelo. / Medical images are used daily to support diagnosis in different areas of Radiology throughout the world. These images follow an international standardization defined by ISO 12052, known as DICOM (Digital Imaging and Communications in Medicine) standard. Each institution that claims compliance with this standard has its own storage services, visualization and processing systems specific to that data. However, there is a great need for these images to be analyzed by different specialists, so that each case can be discussed in a broad way, in the search for the best treatment for each pathology. The unavailability of real-time data for specialized medical evaluation has a direct and profound impact on therapeutic success. The cloud computing model has the necessary characteristics to ensure that these images are within the reach of the professionals most recommended for each case, able to offer the best service. The large amount of resources available in the cloud to handle this data in a scalable way facilitates the creation of an infrastructure to support remote diagnosis through Telemedicine resources. Based on the computational paradigm Publish/Subscribe, we can establish real-time communication to solve situations in the field of health, such as communication between hospitals or clinics and between doctors, nurses and experts involved in the diagnosis. In clinical environments that deal with massive transmission of high resolution images in the DICOM standard, as well as in environments with network performance problems, transmitting these images in a timely manner, storing and making them available securely is a problem without a spontaneous solution. In this way, this work proposes a computational cloud-based architecture to collect, compress, store and retrieve data using the Publish/Subscribe paradigm and two levels of scalability. The PS2DICOM model is established as a middleware that provides infrastructure resources in the IaaS (Infrastructure as a Service) layer, supporting the tasks of transmitting and storing files within the DICOM standard. The system offers data compression with different intensities, depending on available bandwidth. The PS2DICOM model also has two levels of load balancing and the reactive elasticity offered by the infrastructure. The research contributes to presenting an efficient architecture to optimize network tasks, capable of being adopted as a solution when developing applications focused on computational clouds applied to health in future real situations. The architecture was tested using a prototype with distinct modules, developed for each specific service offered and proved to be efficient as a solution to the problems in question. Its details are described in the following chapters, as well as its implementation, which corroborates the viability of the model.
59

Melhorando a atenção do aluno através da tutoria de mindfulness: Um estudo de caso com o sistema tutor inteligente pat2math

Alves, Antônio Augusto 18 January 2018 (has links)
Submitted by JOSIANE SANTOS DE OLIVEIRA (josianeso) on 2018-04-12T15:56:11Z No. of bitstreams: 1 Antônio Augusto Alves_.pdf: 3906232 bytes, checksum: a3df4f42f4828f898dabdee4e931412d (MD5) / Made available in DSpace on 2018-04-12T15:56:11Z (GMT). No. of bitstreams: 1 Antônio Augusto Alves_.pdf: 3906232 bytes, checksum: a3df4f42f4828f898dabdee4e931412d (MD5) Previous issue date: 2018-01-18 / Nenhuma / Alunos que conseguem manter a atenção em uma atividade apresentam um melhor desempenho nas atividades escolares. A habilidade de manter o foco em uma atividade é essencial para que o estudante tenha um desempenho satisfatório na escola. Nas últimas duas décadas houve um aumento no interesse pelos estudos sobre mindfulness e seus efeitos positivos na saúde, bem-estar e na melhora das habilidades cognitivas. No âmbito escolar o mindfulness tem se mostrado uma técnica relevante para a melhora da atenção de alunos praticantes. Estudos recentes mostram que a realização de sessões de mindfulness proporciona ao aluno uma melhora na atenção, desempenho escolar, no controle das emoções e no relacionamento com os professores e colegas. Embora exista também um número crescente de pesquisas que fazem uso de recursos computacionais para incentivar a prática de mindfulness em contextos não escolares, são poucos os trabalhos que integram o uso de mindfulness em sistemas tutores inteligentes ou em outros tipos de ambientes de aprendizagem. Além disso, nenhum dos trabalhos propõe um treinamento personalizado às características do aprendiz. O presente trabalho propõe um agente que fornece exercícios de mindfulness guiado e adaptado ao estado de humor do aluno e à sua experiência em meditação. Através dos dados coletados pelo sistema, é possível a seleção dos exercícios mais adequados para o aluno, bem como o ajuste do tempo de duração dos exercícios. O agente visa encorajar o estudante a praticar técnicas de meditação para a melhora da atenção e do rendimento acadêmico e da promoção do bem-estar geral do aluno. Este agente foi integrado como estudo de caso ao sistema tutor PAT2Math para a realização de avaliação com 41 alunos durante 7 semanas. Para fins de avaliação foram utilizadas 3 versões do sistema tutor inteligente PAT2Math. A primeira versão utilizou áudios com narrações de técnicas de meditação sem adaptação à experiência ou ao estado de humor apresentado pelo aluno; a segunda versão utilizou 3 gravações de áudio que narravam a história da álgebra e das equações. A terceira e última versão utilizou 24 gravações de áudio com diferentes técnicas de meditação e diferentes durações para que as técnicas utilizadas pudessem ser adaptadas à experiência e ao humor do estudante. Os resultados da avaliação mostraram que a prática de mindfulness de forma guiada e personalizada melhora a atenção do aluno. No entanto, possivelmente devido à duração do experimento, não foram encontradas evidências estatisticamente significativas de um impacto positivo na aprendizagem do aluno. / Students who are able to maintain attention in an activity present a better performance in school activities. The ability to focus on an activity is essential for the student to perform satisfactorily at school. Over the last two decades there has been an increase interest in studies on mindfulness and its positive effects on health, well-being and improvement of cognitive abilities. In the school context, mindfulness has shown to be a relevant technique for the improvement of the students’ attention. Recent studies show that performing mindfulness sessions provides the student with improved attention, school performance, control of emotions, and relationships with teachers and peers. Although there are also a growing number of researches that uses computational resources to encourage the practice of mindfulness, there are few works that integrate the use of mindfulness in intelligent tutors systems or in other types of learning environments. In addition, none of the works proposes a personalized training to the characteristics of the learner. The present work proposes an agent that provides exercises of mindfulness that are guided and adapted to the students’ mood and their experience in meditation. Through the data collected by the system, it is possible to select the most appropriate exercises for the student, as well to adjust the duration of the exercises. The agent aims to encourage the student to practice meditation techniques to improve attention and academic achievement and promote the general well-being of the student. As a case study, this agent was integrated to PAT2Math, an algebra intelligent tutoring system, for the evaluation with 41 students for 7 weeks. For evaluation purposes, 3 versions of the PAT2Math intelligent tutoring system were used. The first version used audios with narratives of meditation techniques without adaptation to the experience or mood presented by the student; the second version used 3 audio recordings that told the story of algebra and equations. The third and final version used 24 audio recordings with different meditation techniques and different durations so that the techniques used could be adapted to the student's experience and mood. The results of the evaluation showed that the practice of mindfulness in a guided and personalized way improves the attention of the student. However, possibly due to the duration of the experiment, no statistically significant evidence of a positive impact on student learning was found.
60

ARNI: an EEG-Based Model to Measure Program Comprehension

Segalotto, Matheus 18 January 2018 (has links)
Submitted by JOSIANE SANTOS DE OLIVEIRA (josianeso) on 2018-04-24T13:44:05Z No. of bitstreams: 1 Matheus Segalotto_.pdf: 8717126 bytes, checksum: 94fda4721d448e49b82be91aaa8057c7 (MD5) / Made available in DSpace on 2018-04-24T13:44:05Z (GMT). No. of bitstreams: 1 Matheus Segalotto_.pdf: 8717126 bytes, checksum: 94fda4721d448e49b82be91aaa8057c7 (MD5) Previous issue date: 2018-01-18 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / PROSUP - Programa de Suporte à Pós-Gradução de Instituições de Ensino Particulares / A compreensão de programa é um processo cognitivo realizado no cérebro dos desenvolvedores para entender o código-fonte. Este processo cognitivo pode ser influenciado por vários fatores, incluindo o nível de modularização do código-fonte e o nível de experiência dos desenvolvedores de software. A compreensão de programa é amplamente reconhecida como uma tarefa com problemas de erro e esforço. No entanto, pouco foi feito para medir o esforço cognitivo dos desenvolvedores para compreender o programa. Além disso, esses fatores influentes não são explorados no nível de esforço cognitivo na perspectiva dos desenvolvedores de software. Além disso, alguns modelos de cognição foram criados para detectar indicadores de atividade cerebral, bem como dispositivos de eletroencefalografia (EEG) para suportar essas detecções. Infelizmente, eles não são capazes de medir o esforço cognitivo. Este trabalho, portanto, propõe o ARNI, um modelo computacional baseado em EEG para medir a compreensão do programa. O modelo ARNI foi produzido com base em lacunas encontradas na literatura após um estudo de mapeamento sistemático (SMS), que analisou 1706 estudos, 12 dos quais foram escolhidos como estudos primários. Um experimento controlado com 35 desenvolvedores de software foi realizado para avaliar o modelo ARNI através de 350 cenários de compreensão de programa. Além disso, esse experimento também avaliou os efeitos da modularização e a experiência dos desenvolvedores no esforço cognitivo dos desenvolvedores. Os resultados obtidos sugerem que o modelo ARNI foi útil para medir o esforço cognitivo. O experimento controlado revelou que a compreensão do código fonte não modular exigia menos esforço temporal (34,11%) e produziu uma taxa de compreensão mais alta (33,65%) do que o código fonte modular. As principais contribuições são: (1) a execução de SMS no contexto estudado; (2) um modelo computacional para medir a compreensão do programa para medir o código-fonte; (3) conhecimento empírico sobre os efeitos da modularização no esforço cognitivo dos desenvolvedores. Finalmente, este trabalho pode ser visto como um primeiro passo para uma agenda ambiciosa na área de compreensão de programa. / Program comprehension is a cognitive process performed in the developers’ brain to understand source code. This cognitive process may be influenced by several factors, including the modularization level of source code and the experience level of software developers. The program comprehension is widely recognized as an error-prone and effort-consuming task. However, little has been done to measure developers’ cognitive effort to comprehend program. In addition, such influential factors are not explored at the cognitive effort level from the perspective of software developers. Additionally, some cognition models have been created to detect brain-activity indicators as well as wearable Electroencephalography (EEG) devices to support these detections. Unfortunately, they are not able to measure the cognitive effort. This work, therefore, proposes the ARNI, an EEG-Based computational model to measure program comprehension. The ARNI model was produced based on gaps found in the literature after a systematic mapping study (SMS), which reviewed 1706 studies, 12 of which were chosen as primary studies. A controlled experiment with 35 software developers was performed to evaluate the ARNI model through 350 scenarios of program comprehension. Moreover, this experiment also evaluated the effects of modularization and developers’ experience on the developers’ cognitive effort. The obtained results suggest that the ARNI model was useful to measure cognitive effort. The controlled experiment revealed that the comprehension of non-modular source code required less temporal effort (34.11%) and produced a higher correct comprehension rate (33.65%) than modular source code. The main contributions are: (1) the execution of SMS in the context studied; (2) a computational model to measure program comprehension to measure source code; (3) empirical knowledge about the effects of modularization on the developers’ cognitive effort. Finally, this work can be seen as a first step for an ambitious agenda in the area of program comprehension.

Page generated in 0.117 seconds