• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1424
  • 147
  • 56
  • 50
  • 50
  • 50
  • 39
  • 38
  • 38
  • 38
  • 12
  • 11
  • 1
  • 1
  • 1
  • Tagged with
  • 1601
  • 1601
  • 523
  • 448
  • 401
  • 331
  • 296
  • 221
  • 219
  • 177
  • 165
  • 145
  • 141
  • 125
  • 124
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Um prototipo de sistema especialista para projeto logico de blocos operacionais de circuitos digitais

Cortinovi, Sandra Luzia January 1986 (has links)
O PROTO é um protótipo de sistema especialista voltado para a solução de problemas que possam ser resolvidos pelo metodo de transformção da redes. A aplicação que motivou o seu desenvolvimento foi o projeto lógico de blocos operacionais de circuitos digitais no nível RT. O PROTO compõe-se de dois subsistemas: um subsistema de projeto lógico, que gera uma rede estrutural do bloco operacional de um circuito a partir de sua descrição algoritmica-comportamental; e um subsistema de aquisição de conhecimento, que permite a construção, exame e modificação dae bases de conhecimento do sistema. / PROTO is the prototype of a rule-bassd system oriented for solving problems that can be soved by net transformation method. The aplication it was developed for is the logical design of digital circuits' data path at the RT-level. PROTO is composed by two subsystems: the first one generates the structural net describing the circuito data path, on the basis of its behavioral algorithmic specification. The second one is a knowledge acquisition subsystem, that allows the creation, examination and changing of the knowledge base.
82

A knowledge based framework for planning house building projects

Formoso, Carlos Torres January 1991 (has links)
This thesis describes the development of a knowledge based system which encapsulates some of the expertise used by a number of experienced construction planners for planning the construction stage of low rise house building projects in the U.K. The general objective of the research was to investigate the feasibility of using knowledge engineering for developing models of construction planning expertise, which could be employed for tackling some of the existing knowledge bottlenecks in the construction industry. The resulting system can be described as a knowledge based framework designed for supporting the decision making process involved in planning house building at a tactical level. One of the main features of this framework is its ability to cope with incomplete information. The knowledge acquisition process involved both the elicitation of knowledge directly from experts, and the analysis of construction plans from several past housing developments. The model was implemented on an expert system shell called LEONARDO Level 3, which runs in any standard IBM-PC micro-computer or compatibles. The evaluation of the system focused on the validity of the model, i.e. the degree at which the outcomes of the system resembled the outcomes of the human expertise being modelled in the knowledge base. A prescriptive method of validation was devised specifically for this study, involving both experts that had provided expertise for the system, and external experts.
83

ALOI : um agente para a localização e organização de informações

Abreu, Marcelo Faoro de January 2003 (has links)
Este trabalho é um estudo sobre agentes inteligentes e suas aplicações na Internet. São apresentados e comparados alguns exemplos de software com funcionalidades para extrair, selecionar e auxiliar no consumo de informações da Internet, com base no perfil de interesse de cada usuário. O objetivo principal deste trabalho é a proposição de um modelo geral e amplo de agente para a obtenção e manutenção de um repositório de links para documentos que satisfaçam o interesse de um ou mais usuários. O modelo proposto baseia-se na obtenção do perfil do usuário a partir de documentos indicados como modelos positivos ou negativos. O ponto forte do modelo são os módulos responsáveis pela extração de informações da Internet, seleção quanto a importância e armazenamento em banco de dados das URLs obtidas, classificadas quanto a usuário, categoria de assunto e assunto. Além disso, o modelo prevê a realização de freqüentes verificações de integridade e pertinência dos links armazenados no repositório. Com base no modelo proposto foi implementado um protótipo parcial. Tal protótipo contempla os módulos responsáveis pela obtenção de informações, seleção das informações pertinentes e classificação e armazenamento dos links de acordo com o assunto. Finalmente, o protótipo implementado permaneceu em execução por um determinado período, gerando alguns resultados preliminares que viabilizaram uma avaliação do modelo.
84

Seleção de sensores sensível a contexto para redução do consumo de energia em smartphones

BEZERRA, Pâmela Thays Lins 26 June 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-01-27T17:04:47Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação de mestrado_pamela_patricia_2015.pdf: 5379983 bytes, checksum: af8356843033194c2d64497d6becee86 (MD5) / Made available in DSpace on 2016-01-27T17:04:47Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação de mestrado_pamela_patricia_2015.pdf: 5379983 bytes, checksum: af8356843033194c2d64497d6becee86 (MD5) Previous issue date: 2015-06-26 / Nos últimos anos observamos uma mudança no paradigma de uso dos aparelhos celulares. Inicialmente eles possuíam um número limitado de funções, voltados apenas para fazer e receber chamadas. Atualmente, contudo, eles se tornaram dispositivos de propósito geral, oferecendo diversos serviços como GPS, e-mail, jogos, vídeos, etc. Além disto, a cada ano cresce o número de sensores integrados ao smartphone. Essa alta quantidade de sensores possibilita que os atuais dispositivos móveis sejam sensíveis ao contexto, ou seja, entendam o contexto do usuário e adaptem-se a diferentes situações. Contudo, a coleta contínua de dados contextuais e associada ao uso exagerado de sensores consome muita energia. E infelizmente as baterias usadas nos smartphones não evoluíram no mesmo ritmo que os demais componentes. Desta forma, surge um novo desafio: Como prover mais serviços e de melhor qualidade sem desperdiçar energia? Por este motivo, diversos artigos sobre o hardware e o software em dispositivos móveis são voltados para desenvolver soluções em eficiência energética, ou seja, reduzir o consumo de energia sem que os dispositivos percam a performance e a qualidade dos serviços oferecidos. Este trabalho de mestrado propõe um método de redução de consumo de energia baseado em contexto para smartphones através da seleção de sensores. O objetivo é entender quais atividades o usuário executa e o ambiente onde ele se encontra para selecionar apenas os sensores mais adequados ao momento. Com isto evita-se o desperdício de energia causado por diversos sensores ativos sem deixar de atender correntamente ao usuário. Em nosso estudo usamos regras de associação para relacionar diferentes características do usuário, como sociabilidade, mobilidade, posição, etc, de modo a inferir todo o contexto do usuário de maneira simples e rápida. Para validar nosso estudo, desenvolvemos um serviço android e realizamos experimentos de energia. O protótipo conseguiu aumentar o tempo de vida das baterias dos smartphones estudados em mais de uma hora. / In the last years we observed a great change in the way how people interact with their cell phones. Initially, these devices had few functionalities, with receiving and making calls being their main purpose. Nowadays, however, they became general purpose devices, offering a diverse range of services, such as GPS location, e-mail, games, etc. Besides, the great amount of sensors embedded in smartphones enable them to be context aware devices, wich means they can understand the user context and adapt their services to diferent situations. However, the continuous acquisition of context data associated with the overuse of sensors causes high energy consumption. Unfortunately these devices depend on the battery and the battery technology used nowadays haven’t evolved in the same rate of the other components, like CPU and memory. Therefore we face a new problem: How can we provide more services with better quality without wasting energy? To answer this question, many papers in mobile devices hardware and software are focused in energy efficient solutions, in other words, how to reduct the energy consumption in mobile devices without losing performance or quality of service. This master thesis develops a new context aware method for energy consumption reduction in smartphones using sensor selection. The main purpose is to understand where the user is and what activity he/she is doing to select only the necessary sensors to each situation. With less sensor usage we can reduce the energy consumption and since these sensors are necessary we can provide better services to the user. We used association rules for relating diferent features, such as sociability, mobility, position, to better understand the whole user context. To validate our method, we developed an Android service and performed some energy experiments. This prototype was capable of increase the battery life-time in more than one hour.
85

Uma nova abordagem do Real AdaBoost resistente a overfitting para classificação de dados binários

SILVA JÚNIOR, Valter Eduardo da 26 August 2016 (has links)
Submitted by Alice Araujo (alice.caraujo@ufpe.br) on 2017-11-29T18:16:12Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Valter Eduardo da Silva Júnior.pdf: 2926608 bytes, checksum: afbf1cd8b2291a8e0c01613cf854ac9a (MD5) / Made available in DSpace on 2017-11-29T18:16:12Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Valter Eduardo da Silva Júnior.pdf: 2926608 bytes, checksum: afbf1cd8b2291a8e0c01613cf854ac9a (MD5) Previous issue date: 2016-08-26 / O estudo da Inteligência Artificial (IA) e de suas técnicas tem trazido grandes resultados para a evolução da tecnologia em diversas áreas. Técnicas já conhecidas como as Redes Neurais (RN) e Árvores de Decisão (AD) vêm sendo aprimoradas por técnicas de Boosting como o Adaptive Boosting (AdaBoost). Esta técnica é uma das que apresenta maior perspectiva de crescimento devido a seu potencial, flexibilidade e simplicidade para ser implementada em diferentes cenários, como por exemplo, no tratamento para reconhecimento de padrões. Desde o seu surgimento surgiram várias variantes do AdaBoost, as mais conhecidas são o Real AdaBoost (RAb) e Gentle AdaBoost (GAb), no intuito de obter um melhor desempenho. Um problema peculiar do Real AdaBoost é relacionado a base de dados com ruído. Vários artigos sugerem que o Real AdaBoost é sensível a um nível alto de ruído. A partir desse problema será proposto uma nova variante do Real AdaBoost com o objetivo de reduzir esta sensibilidade ao ruído visto ao aparecimento de overfitting nas bases de testes dos problemas com ruído. A nova variante do Real Adaboost será chamada de Noise Real AdaBoost (NRAb), onde será aplicada em base de dados simuladas e reais e será utilizado Real AdaBoost e Gentle AdaBoost para comparar o desempenho em relação a nova variante proposta nesta dissertação. / The study of Artificial Intelligence (AI) and its techniques have brought great results for the evolution of technology in various fields. Known techniques such as Neural Networks (RN) and Decision Trees (AD) have been enhanced by Boosting techniques such as Adaptive Boosting (AdaBoost). This technique is one that has greater prospect of growth potential due to its flexibility and simplicity to be implemented in different scenarios, such as in treatment for pattern recognition. Since its inception AdaBoost were several variants, the best known are the Real AdaBoost (RAB) and Gentle AdaBoost (GAB) in order to get better performance. A peculiar problem of Real AdaBoost is related to noise with database. Several articles suggest that Real AdaBoost is sensitive to a high noise level. From this problem a new variant of Real AdaBoost in order to reduce this sensitivity to noise seen the emergence of overfitting in the problems with noise test bases will be proposed. The new variant of the Real AdaBoost will be called Noise Real AdaBoost (NRAb), which will be applied to simulated and real data base and will be used Real AdaBoost and Gentle AdaBoost to compare performance against the new variant proposed in this dissertation.
86

Seleção dinâmica de combinadores de previsão de séries temporais

SERGIO, Anderson Tenório 17 March 2017 (has links)
Submitted by Fernanda Rodrigues de Lima (fernanda.rlima@ufpe.br) on 2018-07-31T22:29:30Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Anderson Tenório Sergio.pdf: 3402351 bytes, checksum: e55ca7d89e221672a895e406c55375e7 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-07T21:19:13Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Anderson Tenório Sergio.pdf: 3402351 bytes, checksum: e55ca7d89e221672a895e406c55375e7 (MD5) / Made available in DSpace on 2018-08-07T21:19:13Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Anderson Tenório Sergio.pdf: 3402351 bytes, checksum: e55ca7d89e221672a895e406c55375e7 (MD5) Previous issue date: 2017-03-17 / CNPq / A previsão de séries temporais é um importante campo de estudo em aprendizado de máquina. Já que a literatura mostra diversas técnicas para a solução desse problema, combinar saídas de diferentes modelos é uma estratégia simples e robusta. Entretanto, mesmo quando se usam tais combinadores, o experimentador pode encarar o seguinte dilema: qual técnica deve ser usada para combinar os preditores individuais? Este trabalho apresenta um arcabouço para seleção dinâmica de combinadores de previsão de séries temporais. O processo de seleção dinâmica pode ser resumido em três fases. A primeira delas é responsável pela geração do conjunto de especialistas base, sendo que esse conjunto pode ser formado por modelos de mesma natureza ou heterogêneos. A diversidade dos especialistas é importante em ambas as situações. A segunda fase, de seleção, é realizada através da estimação da competência dos modelos disponíveis no conjunto gerado na primeira fase, em respeito a regiões locais do espaço de características. No caso da seleção dinâmica, a escolha dos modelos é realizada para cada padrão de teste, ao invés de utilizar a mesma seleção para todos eles (seleção estática). A terceira fase é a integração dos modelos selecionados. No método proposto, foram utilizados como preditores individuais modelos estatísticos (lineares e não-lineares) e de aprendizado de máquina. Em relação aos combinadores, foram utilizadas algumas técnicas que usam uma base de dados independente para determinação dos pesos da combinação linear e outros métodos que não possuem essa necessidade. Foram propostos dois algoritmos de seleção dinâmica, baseados em acurácia e comportamento. Para cada um deles, foram implementadas variações no que diz respeito ao uso de todos ou dos melhores preditores e combinadores do comitê. Para testar o método proposto, dez séries temporais caóticas foram utilizadas: Mackey-Glass, Lorenz, Rossler, Henon, Periodic, Quasi-Periodic, Laser e três séries produzidas a partir de exames de eletroencefalograma. A previsão de séries caóticas tem importância para várias áreas de atuação humana como astronomia e processamento de sinais, sendo que algumas das séries que foram testadas também funcionam como benchmark em diversas pesquisas. As melhores variações dos algoritmos de seleção dinâmica propostos alcançaram resultados satisfatórios em todas as bases de dados. Após a realização de testes estatísticos, comprovou-se que os métodos foram superiores aos melhores combinadores e preditores base na maioria dos cenários, para previsão de curto e longo alcance. / Time series forecasting is an important research field in machine learning. Since the literature shows several techniques for the solution of this problem, combining outputs of different models is a simple and robust strategy. However, even when using combiners, the experimenter may face the following dilemma: which technique should one use to combine the individual predictors? This work presents a framework for dynamic selection of forecast combiners. The dynamic selection process can be summarized in three steps. The first one is responsible for the generation of the base experts set, and this set can be formed by models of the same kind or heterogeneous ones. The diversity of the experts is important in both cases. The second phase (selection) is carried out by estimating the competence of the available models in the set generated in the first phase, with respect to local regions of the feature space. In the case of dynamic selection, the model selection is performed for each test pattern, instead of using the same selection for all of them (static selection). The third phase is the integration of the selected models. In the proposed method, predictors from statistics (linear and nonlinear) and machine learning were used. As combiners, we chose techniques that use extra data and some others that do not require an independent dataset for determining the weights of the linear combination. Two dynamic selection algorithms were proposed, based on accuracy and behavior. For each of them, variations were implemented with respect to the use of all or the best predictors and combiners of the pool. To test the proposed method, ten chaotic time series were used: Mackey- Glass, Lorenz, Rossler, Henon, Periodic, Quasi-Periodic, Laser and three time series produced from electroencephalogram exams. The prediction of chaotic series is important for many areas of human activity such as astronomy and signal processing, and those that were tested also are used as benchmark in several works. The best variations of the proposed dynamic selection algorithms have achieved satisfactory results in all databases. After performing statistical tests, it was verified that the methods were superior to the best combiners and predictors based on most scenarios, for short and long term forecasting.
87

Uma nova abordagem baseada em enxames de partículas para otimização de muitos objetivos

FIGUEIREDO, Elliackin Messias do Nascimento 17 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-08-14T18:55:09Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Elliackin Messias do Nascimento.pdf: 4712819 bytes, checksum: a74e4ee711cd8b7a125b8b4404512853 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-16T19:59:21Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Elliackin Messias do Nascimento.pdf: 4712819 bytes, checksum: a74e4ee711cd8b7a125b8b4404512853 (MD5) / Made available in DSpace on 2018-08-16T19:59:21Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Elliackin Messias do Nascimento.pdf: 4712819 bytes, checksum: a74e4ee711cd8b7a125b8b4404512853 (MD5) Previous issue date: 2017-02-17 / CNPq / Many-Objective Optimization Problems (MaOPs) são uma classe especial de problemas multiobjetivos que apresentam quatro ou mais objetivos. Algoritmos evolucionários ou de enxame de partículas tradicionais falham ao tentarem resolver MaOPs pois eles se tornam ineficazes ou ineficientes nestes problemas. Em virtude disso, alguns pesquisadores propuseram diferentes estratégias para contornar as dificuldades impostas por MaOPs, sobretudo para Multiobjective Evolutionary Algorithms (MOEAs) tradicionais para esses problemas. Em contrapartida, muito pouco tem sido feito no sentido de adaptar algoritmos de Multiobjective Particle Swarm Optimizations (MOPSOs) para MaOPs. Não obstante, algoritmos baseados em enxames de partículas no geral são reconhecidos pela rápida velocidade de convergência em problemas com um único objetivo e por isso parecem ser também adequados para problemas multiobjetivos e com muitos objetivos. Desta forma, existe a necessidade de se desenvolver MOPSOs para lidar com MaOPs. Sendo assim, o objetivo desta tese foi desenvolver um MOPSO para resolver MaOPs no sentido de promover um maior balanceamento entre convergência para Frente de Pareto e diversidade de soluções nesses problemas. Para isso, o algoritmo proposto nesta tese usa um conjunto de pontos de referência para impor uma pressão de convergência para a Frente de Pareto enquanto permite um maior gerenciamento da diversidade. Além disso, a abordagem proposta usa um arquivo externo em que são armazenadas soluções não-dominadas e do qual são retirados os líderes sociais das partículas de acordo com duas medidas que foram propostas nesta tese, a saber, a medida de convergência e a medida de densidade. O objetivo dessas medidas é promover a convergência para a Frente de Pareto e promover a diversidade ao longo dela simultaneamente. A proposta foi avaliada usando seis problemas da família DTLZ com dois, três, cinco, sete e dez objetivos e usando métricas bem estabelecidas na literatura (distância geracional, distância geracional invertida e hipervolume) para medir a convergência e diversidade do conjunto solução obtido pelo algoritmo; e ele foi comparado com duas abordagens baseadas em enxames (SMPSO e CDAS-SMPSO) e três abordagens evolucionárias (CEGA, MDFA, e NSGA-III) afim de mostrar suas vantagens e pontos de melhorias frente a outros algoritmos bem estabelecidos na literatura. Os resultados mostraram que o algoritmo proposto foi bem sucedido em equilibrar convergência e diversidade nos problemas testados apresentando resultados equivalentes ou superiores ao NSGA-III que é uma das propostas mais bem sucedidas até o momento para lidar com problemas com muitos objetivos. Além disso, o algoritmo proposto foi aplicado em um problema real de projeto de redes ópticas de alta capacidade com o intuito de avaliar sua utilidade prática. / Many-Objective Optimization Problems (MaOPs) are an especial class of multiobjective problems in which four or more objectives are optimized simultaneously. Currently, these problems have attracted attention of the researchers due the two reasons: (i) many real-world applications are naturally many-objective problems and (ii) population-based heuristics presents great difficulties for solving these problems. For example, Paretodominance based algorithms such as Multiobjective Evolutionary Algorithms (MOEAs) and Multiobjective Particle Swarm Optimization (MOPSO) algorithms are ineffective in these problems because almost all solutions in the population become non-dominated solutions, resulting in loss of convergence pressure for the Pareto front. Because of this, researchers have proposed new strategies for dealing with this problems, mainly for MOEAs. However, very little has been done to make the MOPSOs effective in these scenarios. Regardless of this, Particle Swarm Optimization (PSO) algorithms are known by fast speed of convergence in single-objective problems and they seem be suitable for MaOPs. Moreover, to create algorithms that are capable of balancing both convergence and diversity is a research challange. Therefore, there are a necessity to develop PSO-based algorithms for dealing with MaOPs. Thus, this thesis proposes a new algorithm based on PSO whose aim is to promote a better balancing between convergence toward the Pareto front and diversity of solutions. To achieve this aim, the proposed algorithm uses a set of reference points to impose a selection pressure to Pareto front while it allows a better control of the diversity. Furthermore, our algorithm use an external archive where it maintains non-dominated solutions and from which the social leaders are picked in according to two measures proposed for us, namely, the convergence measure and the density measure. The objective of these measures is to promote the convergence toward Pareto Front and to promote the diversity along it simultaneously. To evaluate our algorithm we used three well-known metrics in the literature, namely, generational distance, inverted generational distance, and hypervolume; and six benchmark problems of the DTLZ family with two, three, five, seven and ten objectives. Moreover, the algorithm was compared to two PSObased algorithms (SMPSO and CDAS-SMPSO) and three evolutionary algorithms (MDFA, CEGA and NSGA-III). The results showed that our algorithm was sucessful in balancing the requirements of convergence and diversity in the test problems compared to other algorithms in the literature. Besides, our algorithm was applied in a real-world problem involving the physical topology design of optical network in which it obtained good results.
88

Stepwise self-explanation: uma abordagem para o aprendizado de linguagens de programação através da auto-explicação de exemplos em vídeo

AURELIANO, Viviane Cristina Oliveira 22 February 2016 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-08-14T18:23:03Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Viviane Cristina Oliveira Aureliano.pdf: 6810701 bytes, checksum: f4469af40a09e58db642f1ad9a4b71e7 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-16T20:07:25Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Viviane Cristina Oliveira Aureliano.pdf: 6810701 bytes, checksum: f4469af40a09e58db642f1ad9a4b71e7 (MD5) / Made available in DSpace on 2018-08-16T20:07:25Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Viviane Cristina Oliveira Aureliano.pdf: 6810701 bytes, checksum: f4469af40a09e58db642f1ad9a4b71e7 (MD5) Previous issue date: 2016-02-22 / CAPES / Começar a programar é considerado difícil pela maioria dos estudantes. Normalmente, as disciplinas introdutórias de programação estão relacionadas a altas taxas de reprovação e de evasão. Ensinar programação é considerado um dos grandes desafios da área de educação em computação. Aliado a isso, os estudantes de programação adotam metodologias de estudo que são ineficientes. Eles decoram soluções para os problemas ao invés de entendê-las, estudam de maneira passiva ou superficial e fazem poucos exercícios. Estes estudantes também possuem um tipo de conhecimento dito frágil, que é aquele conhecimento que eles possuem, mas não conseguem aplicar em novas situações ou problemas encontrados. Para minimizar as dificuldades dos iniciantes em programação, os professores devem apresentar o processo de programação aos estudantes, guiando-os durante a construção dos programas. Uma maneira de fazer isso é através da utilização do Stepwise Improvement (FSI), um framework conceitual que descreve a atividade de programação como um processo sistemático e incremental composto pelas atividades de extensão, refinamento e reestruturação. A partir do emprego do FSI para a construção de materiais instrucionais, os estudantes podem aprender programação desenvolvendo pequenos pedaços de código sistemática e incrementalmente. Além disso, os professores devem propor atividades de aprendizado que permitam que os estudantes empreguem metodologias de estudo que sejam mais eficazes. Neste caso, uma atividade de aprendizado considerada eficiente para os estudantes é a auto-explicação. A auto-explicação é uma atividade construtiva que auxilia os estudantes a entender o que está sendo estudado e a construir conhecimento a partir deste material. Auto-explicar durante os momentos de estudo mostrou ser eficiente para estudantes estudando a partir de diferentes materiais instrucionais e em diversas disciplinas. A prática da auto-explicação foi pouco explorada na área de Programação, tendo sido aplicada, por exemplo, no estudo de exemplos apresentados estaticamente aos estudantes. Contudo, a literatura não relata a utilização da auto-explicação para o ensino do processo de construção de programas aos estudantes. No intuito de preencher esta lacuna, o objetivo principal desta tese é propor uma abordagem chamada Stepwise Self-explanation. Nesta abordagem, lançamos mão do FSI para estruturar exemplos trabalhados em vídeo utilizados como material instrucional de cursos introdutórios de programação. Adicionalmente, utilizamos a técnica da auto-explicação como atividade de aprendizagem e como forma de orientar o processo de reflexão dos estudantes. Propusemos duas versões da abordagem, uma versão piloto e uma versão refinada. A versão piloto da abordagem foi avaliada por meio de um experimento piloto com estudantes matriculados no ensino médio e técnico. Os resultados deste experimento mostraram que uma abordagem promissora, mas que precisava de melhorias em sua estrutura. A versão refinada da abordagem foi avaliada por meio de três quase-experimentos com estudantes matriculados no ensino médio, técnico e superior. Os resultados obtidos nestes quase-experimentos foram encorajadores. Eles mostraram que os estudantes que fizeram uso da abordagem cometeram menos erros em seus programas do que os outros estudantes, resultando em um melhor desempenho nos pós-testes. A abordagem também obteve um feedback positivo dos estudantes e dos professores que a avaliaram. / Most beginners find it difficult to start programming. Typically, introductory programming disciplines have high failure and dropout rates. Teaching programming is considered to be one of the greatest challenges in Computer Education. In addition, programming students tend to adopt inefficient study methodologies. They memorize problem solutions rather than understand them, study passively or superficially, and do few exercises. To minimize novices’ difficulties, teachers should reveal the programming process to students, guiding them carefully while they are building programs. One way of doing so is through the use of the Stepwise Improvement (FSI), a framework that describes programming as a systematic and incremental process consisting of extension, refinement and restructuring activities. By using FSI, novices learn programming by developing small pieces of code in a systematic and incremental way. Besides that, teachers should propose learning activities that allow students to employ more effective study methodologies. In this situation, an evidence-based learning activity is self-explanation. Self-explanation is a constructive activity that helps students understand and build knowledge from instructional material. Self-explaining while studying has proven to be efficient for students studying from different instructional materials in various subjects. Although recommended as one of the seven practices for improving teaching and learning, self-explanation has been little explored in Programming Education. In fact, the literature does not report the use of self-explanation together with the process of building programs. In order to fill in this gap, the main goal of this thesis is to propose an approach called Stepwise Self-explanation. In this approach, we use FSI to structure examples presented in video as instructional material for introductory programming courses. Besides that, we use the self-explanation technique as a learning activity and as a way to guide the students’ reflection process. We proposed two versions of the approach, a pilot version and a refined version. The pilot version was evaluated through an experiment with high-school and technical students. The results of this experiment showed that the approach was promising, but needed improvements in its structure. The refined version of the approach was evaluated through three quasi-experiments with high-school, technical and university students. The results were very encouraging. They showed that students who used the approach made fewer mistakes in their programs, and performed better in the post-tests. The approach also received positive feedback from students and teachers who evaluated it.
89

Chatterbots Inteligentes para Apoiar a Aprendizagem

CLEMENTE, B. G. R. 19 December 2016 (has links)
Made available in DSpace on 2018-08-02T00:03:48Z (GMT). No. of bitstreams: 1 tese_10536_ata de defesa.pdf: 644029 bytes, checksum: 2e20b1b2d039a2f5a18a5ea219fc6482 (MD5) Previous issue date: 2016-12-19 / ...
90

Uma arquitetura para agentes inteligentes baseada na sociedade da mente

Brenner, Mauren Fernanda Meira 12 December 1996 (has links)
Orientador: Heloisa Vieira da Rocha / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-07-22T21:22:10Z (GMT). No. of bitstreams: 1 Brenner_MaurenFernandaMeira_M.pdf: 3007263 bytes, checksum: c27f5a627a42ec00450c675feab2f59b (MD5) Previous issue date: 1996 / Resumo: A Sociedade da Mente é o nome dado a um conjunto de propostas de estruturas e mecanismos subjacentes à mente e à inteligência. Estas propostas foram desenvolvidas por Marvin Minsky e apresentadas principalmente durante a década de 80. Entre elas está a noção de que a mente é constituída por unidades desprovidas de inteligência chamadas agentes, unidades estas que podem ser identificadas em diversos níveis de abstração, sendo o mais "baixo" deles o nível equivalente ao neural. A noção de agente é usada para definir os conceitos e mecanismos relativos ao funcionamento integrado da mente como um todo, ou seja, relativos à coordenação dos agentes. O conceito central é o de estado mental parcial, que corresponde ao estado de um subconjunto dos agentes da mente. Estados mentais parciais constituem o meio de comunicação entre grupos de agentes, que na Sociedade da Mente são chamados agências, e são controlados através de agentes especiais que implementam determinados mecanismos de coordenação. Neste trabalho, a Sociedade da Mente é usada como fundamento para uma arquitetura para agentes inteligentes. Uma vez que na Sociedade da Mente a mente é composta por agentes, segue-se que o próprio agente também deve ser constituído de agentes menores, coordenados mediante os mecanismos propostos na Sociedade da Mente. Assim, projetamos uma arquitetura para agentes inteligentes baseada na Sociedade da Mente como uma arquitetura de um sistema multi-agente (um sistema de Inteligência Artificial Distribuída), onde a comunicação e coordenação entre os agentes são feita de uma forma inspirada no conceito de estados mentais parciais e nos mecanismos de coordenação da Sociedade da Mente. Descrevemos o processo de desenvolvimento no qual a arquitetura foi transformada desde um mapeamento direto entre agentes e agências da Sociedade da Mente e agentes da arquitetura multi-agentes, até a sua versão final baseada no modelo de blackboard, o qual constitui um paradigma bem conhecido em Inteligência Artificial Distribuída. Na arquitetura resultante, os mecanismos de coordenação da Sociedade da Mente servem como modelo para objetos organizados nas diferentes seções do blackboard. Esses objetos são "ativos", no sentido de que não constituem apenas informações a serem manipuladas, mas possuem também funcionalidades específicas, segundo as quais atuam como os mecanismos de coordenação da Sociedade da Mente. Mencionamos algumas possibilidades de aplicações usando a arquitetura desenvolvida e descrevemos em detalhe a implementação de uma dessas aplicações, que consiste em um agente que conta uma história. Esta implementação constituiu em uma experiência com o intuito de testar não somente a viabilidade da arquitetura proposta, mas também a própria metodologia deste trabalho, que foi a de tomar o modelo teórico da Sociedade da Mente como ponto de partida em lugar de projetar uma arquitetura para realizar alguma tarefa específica. / Abstract: The Society of Mind is a collection of proposals concerning structures and mechanisms underlying mind and intelligence. These proposals were developed by Marvin Minsky and presented mostly during the 80s. Among them, there is the notion that the mind is made up of mindless units called agents. Such units can be identified at many levels, the lowest of them being the equivalent to the neural level. The Society of Mind relies upon the notion of agent to define the concepts and mechanisms concerning the working of the mind as a whole, i.e. concerning the coordination of agents. The central concept is the partial mental state, which corresponds to the description of the states of some agents of the mind. Groups of agents, which are called agencies in the Society of Mind, communicate through partial mental states, which are controlled by special agents that implement certain coordination mechanisms. In this work, the Society of Mind is taken as a foundation for an intelligent agent architecture. Since in the Society of Mind the mind itself comprises many agents, it follows that the intelligent agent should be made up from smaller agents, coordinated through the mechanisms of the Society of Mind. Thus, we have designed an intelligent agent architecture based on the Society of Mind as an architecture of a multi-agent system (a Distributed Artificial Intelligence system), where the communication and coordination between agents is done in a way which is inspired on the concept of partial mental states and on the coordination mechanisms of the Society of Mind. We have described the design process through which the architecture was transformed from a direct mapping between agents and agencies of the Society of Mind to its final version based on the blackboard model, which is a well-known Distributed Artificial intelligence paradigm. The coordination mechanisms of the Society of Mind work as models for objects placed in the different sections of the blackboard. These objects are "active" in the sense that they do not only contain information to be operated upon, but also have specific functionalities according to which they act like the coordination mechanisms of the Society of Mind. We have mentioned some possibilities of applications using the architecture we developed, and described in some detail the implementation of one of those applications: a story-telling agent. This implementation. Was an experience whose objective was to test the feasibility of the proposed architecture as well as the methodology of this work itself which consisted of taking the theoretical model of the Society of Mind as a starting point instead of designing an architecture to perform some particular task. / Mestrado / Mestre em Ciência da Computação

Page generated in 0.3017 seconds