• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 9
  • Tagged with
  • 41
  • 41
  • 41
  • 40
  • 9
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

[en] A SYSTEM FOR GENERATION, INTERACTION AND 3D VISUALIZATION OF STORIES FOR INTERACTIVE TV / [pt] UM SISTEMA PARA GERAÇÃO, INTERAÇÃO E VISUALIZAÇÃO 3D DE HISTÓRIAS PARA TV INTERATIVA

CESAR TADEU POZZER 17 June 2005 (has links)
[pt] Esta tese visa o desenvolvimento de um ambiente integrado para o controle da geração e representação de histórias interativas dinâmicas. A geração é realizada por um processo de simulação, resultando em um conjunto de operações parcialmente ordenado que define o enredo da história. Esta história deve então ser representada graficamente por meio de um motor gráfico. Estão sendo utilizadas técnicas cinematográficas para capturar a essência das cenas, compostas por um ambiente virtual 3D, que possuem personagens e objetos. Para o desenrolar da história, os personagens, implementados como agentes reativos, interagem entre si em um ambiente multiagente e com a cena. Cada agente encapsula recursos que os permitem fazer a representação gráfica dos eventos típicos das histórias. A arquitetura como um todo é projetada para servir como meio de geração de conteúdo para a TV interativa. / [en] This thesis aims at the development of an integrated tool for managing both the generation and representation of dynamic interactive stories (storytelling). The story generation is accomplished by a simulation process resulting in a set of partially ordered operations that define the plot of the story. This story should then be graphically represented by means of a 3D engine. It has been used cinematographic techniques to capture the essence of the scenes, which are composed by a virtual 3D environment, including characters and objects. Characters, implemented as reactive agents, interact among each other in a multi-agent system and with the scene to accomplish the plot of the narrative. Each agent encapsulates resources that allow them to graphically represent typical events of stories. The overall architecture is designed as a source for Interactive TV content.
12

[pt] DESENVOLVIMENTO DE MODELOS PREDITIVOS PARA A GASEIFICAÇÃO DE BIOMASSA USANDO REDES NEURAIS ARTIFICIAIS / [en] DEVELOPMENT OF PREDICTIVE MODELS FOR BIOMASS GASIFICATION USING ARTIFICIAL NEURAL NETWORKS

FERNANDA DA SILVA PIMENTEL 02 May 2023 (has links)
[pt] Na tentativa de reduzir os efeitos das emissões de dióxido de carbono, há uma necessidade por maior utilização de fontes de energia renováveis, tal como energia proveniente de biomassa. Para geração de energia a partir da biomassa, destaca-se o processo de gaseificação, por meio do qual é possível gerar um combustível nobre. Objetivou-se simular no software Matlab (marca registrada) a gaseificação da biomassa usando técnicas de inteligência artificial que são as Redes Neurais Artificiais (RNA). Particularmente, objetivou-se desenvolver modelos abrangentes de RNA com dez variáveis de entrada (carbono, hidrogênio, oxigênio, nitrogênio, material volátil, teor de umidade, cinzas, razão de equivalência, temperatura e razão vapor/biomassa), aplicáveis a uma diversidade de biomassa, com diversos tipos e concentrações de agentes de gaseificação em diferentes tipos de gaseificadores, capazes de predizer a composição do gás de síntese (CO2, CO, CH4 e H2). Para treinamento, teste e validação dos modelos, foram preparados bancos de dados robustos, a partir de informações coletadas em estudos anteriores disponíveis na literatura e do tratamento dos dados obtidos dos artigos. Foram avaliadas 33 topologias das redes neurais para eleger a melhor delas de acordo com quatro critérios referente a robustez do treinamento e do teste. A rede considerada como tendo a melhor topologia possui 10 neurônios na camada de entrada; 2 camadas intermediárias, com funções de ativação logsig e 10 neurônios em cada camada intermediária; função de ativação purelin na camada final; 4 neurônios na camada final; e algoritmo de treinamento trainbr. Tal rede possui um bom desempenho, com valores de R2 de treinamento e de teste maiores que 0,88 e 0,70, respectivamente, para cada uma das quatro saídas. Para avaliação do modelo, uma validação foi executada, cujo desempenho não foi muito adequado, mas foi possível identificar com uma métrica quantitativa simples as regiões mais confiáveis onde há uma maior densidade de dados no treinamento. / [en] In an attempt to reduce the effects of carbon dioxide emissions, there is a need for greater use of renewable energy sources, such as energy from biomass. In order to generate energy from biomass, the gasification process, by means of which it is possible to generate a noble fuel, can be highlighted. This work aimed to simulate the biomass gasification using artificial intelligence techniques, namely Artificial Neural Networks (ANN), using Matlab (trademark) software. Particularly, the objective was the development of ANN models with ten inputs (carbon, hydrogen, oxygen, nitrogen, volatile matter, moisture content, ash, equivalence ratio, temperature and steam/biomass ratio), applicable to a broad variety of biomass, with different types and concentrations of gasification agents in different types of gasifiers, capable of predicting the syngas composition (CO2, CO, CH4 and H2). Robust databases were built for training, testing and validation of the models, based on information collected in previous studies available in the literature and on the treatment of data obtained from the papers. Thirty-three neural network topologies were evaluated in order to choose the best one according to four criteria regarding training and test robustness. The network considered to have the best topology has 10 neurons in the input layer; 2 hidden layers, with logsig activation functions and 10 neurons in each hidden layer; the activation function is purelin in the output layer; 4 neurons in the output layer; and the training algorithm is trainbr. Such network has a good performance, with R2 values greater than 0.88 and 0.70 for training and test, respectively, for each of the four outputs. To evaluate the model, a validation was carried out, whose performance was not very appropriate, but it was possible to identify through a simple quantitative metric the more reliable regions where there is a greater density of training data.
13

[en] LIMITED TIME MACHINE TEACHING FOR REGRESSION PROBLEMS / [pt] MACHINE TEACHING COM TEMPO LIMITADO PARA PROBLEMAS DE REGRESSÃO

PEDRO LAZERA CARDOSO 02 December 2021 (has links)
[pt] Este trabalho considera o problema de Regressão com Tempo Limitado. Dados um dataset, um algoritmo de aprendizado (Learner) a ser treinado e um tempo limitado, não sabemos se seria possível treinar o modelo com todo o dataset dentro deste tempo. Queremos então elaborar a estratégia que extraia o melhor modelo possível deste algoritmo de aprendizado respeitando o limite de tempo. Uma estratégia consiste em interagir com o Learner de duas formas: enviando exemplos para o Learner treinar e enviando exemplos para o Learner rotular. Nós definimos o que é o problema de Regressão com Tempo Limitado, decompomos o problema de elaborar uma estratégia em subproblemas mais simples e bem definidos, elaboramos uma estratégia natural baseada em escolha aleatória de exemplos e finalmente apresentamos uma estratégia, TW+BH, que supera a estratégia natural em experimentos que realizamos com diversos datasets reais. / [en] This work considers the Time-Limited Regression problem. Given a dataset, a learning algorithm (Learner) to be trained and a limited time, we do not know if it s going to be possible to train the model with the entire dataset within this time constraint. We then want to elaborate the strategy that extracts the best possible model from this learning algorithm respecting the time limit. A strategy consists of a series of interactions with the Learner, in two possible ways: sending labeled examples for the Learner to train and sending unlabeled examples for the Learner to classify. We define what the Time-Limited Regression problem is, we decompose the problem of elaborating a strategy into simpler and more well-defined sub-problems, we elaborate a natural strategy based on random choice of examples and finally we present a strategy, TW+BH, that performs better than the natural strategy in experiments we have done with several real datasets.
14

[pt] A SUPERVISÃO HUMANA DAS DECISÕES AUTÔNOMAS DE IA COMO INSTRUMENTO DE TUTELA DA AUTONOMIA EXISTENCIAL / [en] HUMAN SUPERVISION OF AUTOMATED AI DECISIONS AS AN INSTRUMENT FOR THE PROTECTION OF HUMAN AUTONOMY

RUBIA LUANA CARVALHO VIEGAS SCHMALL 27 September 2023 (has links)
[pt] A sociedade passa por um momento de intensas transformações pautadas no uso de novas tecnologia. Nesse contexto, a inteligência artificial (IA) assume o papel de protagonista gerando debates acerca dos limites da sua aplicação. Cada vez mais presente na vida dos indivíduos e instituições, a IA participa de processos de tomada de decisão que, não raro, têm reflexos em direitos fundamentais e questões existenciais dos indivíduos. Tendo em vista a busca de soluções pautadas na centralidade humana no uso da tecnologia, o presente estudo se propõe a investigar a supervisão humana como instrumento de tutela da autonomia existencial no contexto de tomada de decisões automatizadas por sistemas de IA. Por meio da análise da relação entre a autonomia da máquina e a autonomia existencial, o texto traça o caminho para a investigação dos princípios e dispositivos legais vigentes que legitimam a necessidade da supervisão humana sobre os resultados decisórios gerados por sistemas de IA de alto risco, bem como o tratamento do tema nas propostas legislativas em trâmite no Brasil e União Europeia que visam regular os usos e aplicações da IA. / [en] The society is going through a moment of intense transformations based on the use of new technologies. In this context, artificial intelligence (AI) takes on the role of protagonist, generating debates about the limits of its application. Increasingly present in the lives of individuals. In view of the search for solutions based on the human centrality in the use of technology, the present study proposes to investigate human supervision as an intrument to protect human autonomy in the context of automated decision-making by AI systems.Through the analysis of the relation between machine autonomy and existential autonomy, the text outlines the path for the investigation of the current legal principles and laws that legitimize the need for human supervision over the decision-makinngg results generated by high-risk AI systems as well as the treatment of the subject in the legislative proposals in progress in Brazil and European Union that aim to regulate the uses aplications of AI.
15

[pt] DESENVOLVIMENTO DE MODELOS MATEMÁTICOS PARA AVALIAÇÃO DE PROCESSOS CORROSIVOS EM PLACAS DE CIRCUITO IMPRESSO / [en] DEVELOPMENT OF MATHEMATICAL MODELS FOR THE EVALUATION OF CORROSION PROCESS IN THE PRINTED CIRCUIT BOARDS

TAMIRES PIMENTEL BEZERRA 24 June 2020 (has links)
[pt] O aumento do consumo de eletroeletrônicos e o desenvolvimento da tecnologia, proporcionou o surgimento de uma gama de produtos com diferentes funcionalidades, cada vez mais complexos e menores. As placas de circuito impresso (PCIs) são consideradas a parte principal dos dispositivos eletrônicos, sendo o cobre o seu componente elementar. O desenho e espessura das trilhas do circuito são determinantes para caracterizar a passagem de corrente elétrica nos equipamentos eletroeletrônicos e seu funcionamento está diretamente ligado a qualidade da confecção das trilhas do circuito. Este trabalho tem como objetivo estudar o processo de lixiviação do cobre, mediante a reação do ácido clorídrico, cloreto de cobre II e fluxo de ar. Além de investigar as condições experimentais ótimas do processo, que tem como principal característica a possibilidade de regeneração e reutilização da solução. Modelos para avaliar o efeito da concentração de ácido e fluxo de ar na corrosão das placas de circuito impresso foram desenvolvidos através da aplicação do planejamento experimental (pelo método clássico e por algoritmo genéticos em modelos polinomiais) e redes neurais artificiais. Visando encontrar as melhores condições experimentais para o sistema proposto, além de investigar a melhor técnica de predição do mesmo. Os resultados obtidos pelas previsões foram comparados com os resultados experimentais reais. As modelagens foram comparadas pela análise dos coeficientes de correlação (R2) e índices de erro (SSE, MSE e RMSE). Constatando-se que o modelo polinomial foi o mais adequado para prever a resposta. Através da investigação da superfície de resposta e curvas de contorno, foram identificadas as condições otimizadas para o processo. Das quais as concentrações ótimas de ácido clorídrico, cloreto de cobre II e fluxo de ar foram 1 mol.L-1, 0.3 mol.L-1 e 0.5 L/ min, respectivamente. / [en] The increased consumption of consumer electronics and the development of technology has led to the emergence of a range of products with different features, increasingly complex and smaller. Printed circuit boards (PCIs) are considered the main part of electronic devices, with copper being their elementary component. The design and thickness of the circuit tracks are crucial to characterize the passage of electric current in electronic equipment and its operation is directly linked to the quality of the circuit tracks. This work aims to study the copper leaching process through the reaction of hydrochloric acid, copper chloride II and airflow. In addition to investigating the optimal experimental conditions of the process, which has as its main feature the possibility of regeneration and reuse of the solution. Models to evaluate the effect of acid concentration and airflow on PCB corrosion were developed by applying experimental design (by the classical method and by the genetic algorithm in polynomial models) and artificial neural networks. Aiming to find the best experimental conditions for the proposed system, besides investigating the best prediction technique. The results obtained by the predictions were compared with the actual experimental results. The modeling was compared by analysis of correlation coefficients (R2) and error indices (SSE, MSE, and RMSE). Noting that the polynomial model was the most appropriate to predict the response. Through investigation of the response surface and contour curves, the optimized conditions for the process were identified. Of which the optimal concentrations of hydrochloric acid, copper chloride II and airflow were 1 mol.L-1, 0.3 mol.L-1 and 0.5 L / min, respectively.
16

[en] POSITIONING AND CALIBRATION OF A UNDERWATER ROBOTIC MANIPULATOR WITH USE OF COMPUTACIONAL VISION / [pt] POSICIONAMENTO E CALIBRAÇÃO DE UM MANIPULADOR ROBÓTICO SUBMARINO COM USO DE VISÃO COMPUTACIONAL

MIGUEL ANGELO GASPAR PINTO 22 November 2006 (has links)
[pt] Muitos dos robôs industriais utilizados atualmente seguem uma programação baseada em rastreamento de trajetórias. O robô é guiado por um operador humano para localizações fixas onde ele atuará. Esses movimentos são, então, gravados na linguagem de programação residente no controlador do robô, de forma que este seja capaz de repetir as tarefas. Este método pode ser suficiente para, por exemplo, movimentar objetos entre locais fixos. Como o robô está treinado para se movimentar em posições fixas, todas as partes do manipulador, bem como todos os objetos que serão manipulados devem estar em posições bem definidas, ou uma nova programação deverá ser feita. Outra metodologia é a de teleoperação, na qual a movimentação de sistemas robóticos é executada em modo manual, no qual o operador trabalha em uma arquitetura mestre-escravo controlando direta e continuamente as posições do manipulador. Para essas tarefas é necessário apenas que o sistema possua um alto grau de repetibilidade, uma vez que quaisquer erros absolutos de posicionamento são visualmente compensados pelo operador humano. Porém em certas aplicações robóticas essas técnicas de programação de manipuladores são impraticáveis ou insatisfatórias. A primeira vem a ser impraticável no caso de alta variabilidade do ambiente onde a tarefa está sendo feita. O segundo método atribui ao robô uma precisão absoluta baixa, devido a própria deficiência da percepção humana. Este trabalho segue pelas tendências modernas de automação, as quais vêm colocando uma crescente ênfase em robôs guiados por sensores e programação off-line, automatizando total ou parcialmente muitas das tarefas a serem executadas. Sensores, como câmeras ligadas a um sistema de visão computacional, detectam diferenças entre a posição real do manipulador e a posição desejada. Estas diferenças são então enviadas para os controladores, para que estes corrijam a trajetória pré-programada. Os comandos de movimento do manipulador são programados off-line por um sistema de CAD, sem a necessidade de ativar o robô, permitindo maior velocidade em sua validação e na resolução de problemas. Apresentam-se neste trabalho metodologias e técnicas para o posicionamento do manipulador utilizando-se, para tanto, câmeras em sua extremidade. Uma vez posicionado o manipulador em relação ao espaço de coordenadas do mundo, é possível deslocá-lo com segurança e precisão em sua área de trabalho, o que é imprescindível para automatização de tarefas complexas. O trabalho está concentrado nas aplicações de técnicas de visão computacional à calibração de manipuladores. Como estudo de caso utiliza-se uma situação real, de um manipulador submarino de seis graus de liberdade, para intervenções submarinas em plataformas de petróleo. Abordam-se a calibração de câmeras, reconhecimento de padrões, correlação de padrões em imagens distintas, estereoscopia, cinemática direta e inversa de manipuladores e a união de todas estas técnicas para o posicionamento do manipulador em sua área de trabalho. / [en] Many of today´s industrial robots are still programmed to follow trajectories. The robot is guided by a human operator to the desired fixed application locations. These motions are recorded and are later edited, within the robotic language residing in the robot controller, and played back, for the robot to be able to repetitively perform its task. This methodology is enough to move objects between fixed locations. As the robot is trained to move within fixed positions, all manipulator parts, as well as all the objects which will be manipulated need to be in well defined positions, otherwise another program is needed. Another methodology would be teleoperation, where the robotic system`s movements are executed in manual mode, having the operator working in a master-slave architecture, controlling direct and continuously the positions of the robot. For these tasks it is needed only for the system to have enough repeatability, once any absolute positioning errors can be visually compensated by the human operator. On the other side, in certain robotic applications, both programming techniques are either not practical or inefficient. The first, where the human operator teaches the trajectories to the robot, is not possible when there is high variance in the environment where the task is being performed. The second method, the teleoperation, has low absolute accuracy, due the deficiencies of human perception. This project follows modern tendencies of automation, which give increasing emphasis on robots guided by sensors and off-line programming, partially or completely automating many of the tasks to be executed. Sensors such as cameras eloed to a system of computational vision detect differences between the actual and desired position of the manipulator. This information is sent to controllers to correct the pre-programated trajectory. The manipulator movement commands are programmed off-line by a CAD system, without need even to turn on the robot, allowing for greatest speed on its validation, as well as problem solving. This work presents methodologies and techniques which allow the precise positioning of the manipulator using cameras in its end-effector. Once it is positioned in relation with the world frame, it is possible to move the manipulator with safety and precision its work area, as is needed for automation of complex tasks. This work is focused on computational vision techniques applied for manipulator calibration. It is based on a real case of a subsea manipulator of six degrees of freedom, used for underwater interventions in oil exploring platforms. The subjects treated in this work include camera calibration, pattern recognition, position tracking, stereopsis, direct and inverse manipulator kinematics and the union of all techniques for manipulator positioning in the work area.
17

[en] PIPELINE TRANSPORTATION PLANNERS / [pt] PLANEJADORES PARA TRANSPORTE EM POLIDUTOS

FREDERICO DOS SANTOS LIPORACE 20 April 2006 (has links)
[pt] Oleodutos têm um papel importante no transporte de petróleo e de seus derivados, pois são a maneira mais eficaz de transportar grandes volumes por longas distâncias. A motivação deste trabalho é que uma parte não negligenciável do preço final de um derivado de petróleo é influenciada pelo custo de transporte. Apesar disso, até onde sabemos, apenas alguns autores trabalharam neste problema específico, a maioria utilizando técnicas de programação inteira. Este trabalho analisa a utilização de técnicas de inteligência artificial, arcabouços de software e simulação discreta orientada a eventos para a construção de planejadores automáticos capazes de lidar com instâncias reais de problemas de transporte em oleodutos. A primeira contribuição dessa tese é a especificação de um novo domínio para problemas de planejamento, denominado PIPESWORLD. Este domínio é inspirado no problema de transporte em oleodutos e especificado em PDDL. Por sua estrutura original, ele foi incorporado ao benchmark oficial da 4th International Planner Competition, evento bi-anual que compara o desempenho de diversos planejadores automáticos de propósito geral. Mesmo sendo uma simplificação do problema original, o PIPESWORLD se mostra um domínio bastante desafiador para o estado da arte dos planejadores. É demonstrado também que problemas de decisão derivados de diversas configurações do Pipesworld são NP-Completos. A segunda contribuição dessa tese é o arcabouço de software PLANSIM. Este framework incorpora uma máquina de busca que pode utilizar diversas estratégias, e define uma estrutura que facilita a construção de planejadores automáticos baseados em busca heurística direta que utilizam como modelo do processo a ser planejado simuladores orientados a eventos discretos. São apresentadas instanciações do PLANSIM para a construção de planejadores para problemas clássicos de como o das Torres de Hanoi e Blocksworld. A terceira contribuição da tese é a instanciação do PLANSIM para a construção de um planejador automático capaz de tratar instâncias reais de planejamento de transporte em oleodutos, denominado PLUMBER 05. A utilização de técnicas de simulação discreta orientada a eventos para a representação do modelo do sistema a ser planejado permite que este seja bastante fiel ao problema original. Isto somado ao uso do PLANSIM facilita a construção de planejadores capazes de lidar com instâncias reais. / [en] Pipelines have an important role in oil and its derivatives transportation, since they are the most effective way to transport high volumes through long distances. The motivation for this work is that a non negligible part of the final price for those products are due to transportation costs. Few authors have addressed this problem, with most of the previous work using integer programming techniques. This work analyses the use of Artificial Intelligence techniques, discrete event simulators and software frameworks for building automated planners that are able to deal with real-world oil pipeline transportation instances. The first contribution of this thesis is the specification of a new planning domain called PIPESWORLD. This domain is inspired by the oil pipeline transportation problem, and is defined in PDDL. Due to its original structure, the PIPESWORLD domain has been incorporated to the 4th International Planning Competition benchmark. Even being a simplification of the original problem, PIPESWORLD instances in the benchmark are challenging to state of art solvers. It is also shown that decision problems based on PIPESWORLD configurations are NP-Hard. The second contribution of this thesis is the PLANSIM opensource framework. This framework incorporates a search engine that may use several different strategies, and defines a structure that facilitates the construction of automated planners based on heuristic forward search that use discrete event simulators as the model for the process to be planned. The third contribution of this thesis is a PLANSIM instantiation that results in an automated planner able to deal with real-world oil pipeline transportation instances, called PLUMBER 2. The use of discrete event simulation techniques for the model of the system to be planned allows this model to be very close to the original problem. This, in conjunction with PLANSIM usage, facilitates the construction of planners that are able to cope with real-world instances.
18

[en] INTELLIGENT SYSTEM FOR WEB TEXTS / [pt] SISTEMAS INTELIGENTES PARA TEXTOS DA WEB

FERNANDO HIDEO FUKUDA 18 October 2005 (has links)
[pt] Esta dissertação investigou a aplicação dos processos de KDD (Knowledge Discovery in Databases) e técnicas de inteligência artificial para a criação de uma ferramenta de avaliação de textos da WEB de acordo com um determinado perfil. O trabalho, na área de sistemas de computação, teve como objetivo o desenvolvimento de técnicas que em conjunto com técnicas de inteligência computacional podem automatizar a avaliação de textos através de uma ferramenta, bem como a construção de um protótipo desta ferramenta. As técnicas inéditas desenvolvidas nesta dissertação tiveram como objetivo avaliar automaticamente textos independente da língua utilizada nestes e sem o uso de técnicas de PLN (Processador de Linguagem Natural). Outro objetivo foi desenvolver este trabalho baseado em alguns conceitos, ferramentas, formas de documentação considerados em trabalhos anteriores como forma de dra continuidade ao desenvolvimento científico. O protótipo, SITEX - Sistema Inteligente para Textos WEB - foi desenvolvido e módulos que permitem utilizar a ferramenta que melhor se enquadre na solução de um problema. Um outro objetivo no desenvolvimento do protótipo foi a utilização da linguagem C++, a qual é largamente utilizada e conhecida entre os desenvolvedores de técnicas de inteligência artificial, permitindo com isso a integração e o desenvolvimento de outros módulos. As técnicas foram desenvolvidas tendo também como objetivo o tratamento de padrões da WEB, como o Protocolo TCP/IP, as linguagens HTML, DHTML, Javascript, VBscript, entre outros, o que permite a utilização destas na Internet, Extranet ou localmente. Os estudos de casos foram realizados com textos fornecidos pela WEB através de inscrições em jornais on-line e avaliados de acordo com três tipos de perfis. Os perfis utilizados nos estudos de casos foram: economia, esportes e informática. Os resultados dos estudos de casos comprovam a validade das técnicas descobertas e implementadas neste trabalho. A comparação dos resultados do SITEX com os resultados do TextAnalyst, produto de mercado para análise de texto da Web baseado em inteligência computacional, comprovam a qualidade das técnicas apresentadas nesta dissertação. / [en] This dissertation investigated the application of KDD´s process and artificial intelligence techniques for the development of a WEB text evaluation tool according to a specific interest. The work, in computing systems area, had as objective the development of techniques together with computing intelligence techniques to automate the texts evaluation by a tool, as well the development of a prototype of this tool. The techniques developed in this dissertation had as objective evaluate taext automatically with independence of the language used and without using NLP (natural Language Processing) techniques. Another onjective was develop this work based on others works as a way to continue the scientific development. The prototype, SITEX - Intelligent System for WEB Texts - was developed by modules which provides the condition to choose the best tool to solve a problem. Another objectiv on the development of the prototype was to use the C++ language, which is largely used and well known by artificial intelligence techniques developers, providing in this way facilities for development and integration of others modules. The techniques was also developed with the objective for WWB standards treatment, as the TCP/IP protocol, lamguages as HTML, DHTML, javascript, Vbscript, and others, which provides the usage of theses techniques in the Internet, intranets, Extranets and locally. The case studies werw based on WEB texts provided by on- line newsletters subscriptions and evaluated according to three types of interests. The interests used in these case studies were: ecoonomy, sports and computing. The results found in this case studies shows the validity of the techniques developed in this work. The results os SITEX compared to the result of TextAnalyst, a well known product in the market for Web text analysis based on artificial intelligence, shows the quality of the techniques discovered in this dissertation.
19

[en] MODELING AND OPTIMIZATION STRATEGIES IN SUGARCANE BAGASSE DELIGNIFICATION PROCESS / [pt] ESTRATÉGIAS DE MODELAGEM E OTIMIZAÇÃO APLICADAS AO PROCESSO DE DESLIGNIZAÇÃO DO BAGAÇO DA CANA-DE-AÇÚCAR

ISABELLE CUNHA VALIM 07 January 2019 (has links)
[pt] O bagaço da cana-de-açúcar é uma biomassa vegetal que possui muito potencial de uso devido aos seus três elementos estruturais: celulose, hemicelulose e lignina. Para servir como matéria prima na produção de insumos, o bagaço da cana-de-açúcar precisa passar por um processo de pré-tratamento. Nesse estudo, duas metodologias para o processo de pré-tratamento do bagaço da cana-de-açúcar foram utilizadas: a deslignização via peróxido de hidrogênio (H2O2) e via dióxido de carbono supercrítico (ScCO2). Para o estudo utilizando H2O2, foram desenvolvidos modelos a partir de planejamento experimental, Algoritmos Genéticos (GA, do inglês Genetic Algorithms), Redes Neurais Artificiais (RNA) e Neuro-Fuzzy (ANFIS). As variáveis independentes foram temperatura (25 – 60 graus Celsius), concentração de H2O2 (2 – 15 por cento m/v) e pH (10 – 13), tendo como resposta os teores de lignina residual e oxidada no processo, através de análises de FT-IR e análise pelo método de Klason. Para o estudo utilizando ScCO2 foram construídos modelos a partir de RNA e ANFIS. As variáveis estudadas no processo foram: temperatura (35 – 100 graus Celsius), pressão (75- 300 bar) e teor de etanol na solução de co-solvente (0 – 100 graus Celsius). De modo geral, para os dois processos, os modelos desenvolvidos consideram as variáveis independentes como sendo neurônios na camada de entrada e as variáveis dependentes como sendo neurônios na camada de saída. Todos os modelos neurais e ANFIS desenvolvidos neste trabalho foram avaliados pelo coeficiente de correlação e índices de erro (SSE, MSE e RMSE), além do número de parâmetros. Os resultados mostraram que, dentre estas estratégias estudadas, os modelos neurais se mostraram mais satisfatórios para predição das respostas do pré-tratamento com H2O2, já que se encaixa nos índices de performance estipulados. O mesmo ocorreu no modelo neural para predição do teor de lignina residual no pré-tratamento com ScCO2. Para cada modelo polinomial e neural desenvolvido, foi realizada a investigação das superfícies de respostas e das curvas de contorno. Com esse recurso, foi possível a identificação dos melhores pontos operacionais para os processos, visando a minimização dos teores de lignina residual e oxidada na biomassa. / [en] Sugarcane bagasse is a plant biomass that has a great potential for use due to its three structural elements: cellulose, hemicellulose and lignin. To serve as raw material in the production of other products, sugarcane bagasse needs to undergo a pre-treatment process. In this study, two methodologies for the sugarcane bagasse pretreatment process were used: delignification via hydrogen peroxide (H2O2) and via supercritical carbon dioxide (ScCO2). The models for study the process with H2O2 were developed from experimental planning, Genetic Algorithms (GA), Artificial Neural Networks (ANN) and Neuro-Fuzzy (ANFIS). The independent variables were: temperature (25- 60 degrees Celsius), H2O2 concentration (2 - 15 percent m/v) and pH (10-13). The residual and oxidized lignin contents in the process were evaluated from FT-IR and Klason method analysis. The models for study the process with ScCO2 were developed from RNA and ANFIS. The variables studied in the process were: temperature (35-100 degrees Celsius), pressure (75-300 bar) and ethanol content in the aqueous solution of co-solvent (0-100 percent). In general, for the two processes, the developed models consider the independent variables to be neurons in the input layer and the dependent variables to be neurons in the output layer. All the neural and ANFIS models developed in this study were evaluated by the correlation coefficient and error indexes (SSE, MSE and RMSE), as well as the number of parameters. From the stipulated indices of performance, among the results obtained by the different strategies, the neural models were the most satisfactory for the prediction of pretreatment responses with H2O2. The same occurred in the neural model for prediction of the residual lignin content in the pre-treatment with ScCO2. Response surfaces and the contour curves were investigated for each polynomial and neural model developed. With this resource, it was possible to identify the best operational points for the processes, pointing at minimizing the residual and oxidized lignin contents in the biomass.
20

[en] MAS-SCHOOL E ASYNC: A METHOD AND A FRAMEWORK FOR BUILDING INTELLIGENT AGENTS / [pt] MAS-SCHOOL E ASYNC: UM MÉTODO E UM FRAMEWORK PARA CONSTRUÇÃO DE AGENTES INTELIGENTES

JOSE ALBERTO RODRIGUES PEREIRA SARDINHA 08 July 2005 (has links)
[pt] Agentes de Software é uma tecnologia que permite criar simuladores e sistemas inteligentes que tomam decisões automaticamente. A primeira contribuição dessa tese é o MAS-School, um método para modelar e implementar agentes de software inteligentes desde as primeiras fases de desenvolvimento. Esse método também apresenta várias orientações de como incluir aprendizado na fase de design e implementação. O método apresenta no final uma estratégia incremental de desenvolvimento para permitir a avaliação do desempenho das técnicas de machine learning. A segunda contribuição dessa tese é o framework ASYNC. O ASYNC é composto por um conjunto de ferramentas de engenharia de software para auxiliar a construção de sistemas baseados em agentes assíncronos, cooperativos e inteligentes. Esta tese apresenta quatro estudos de casos complexos desenvolvidos com agentes inteligentes para exemplificar o uso do método e framework. A primeira aplicação apresenta um sistema baseado em agentes para criar promoções em um mercado varejista utilizando o conceito de agregação de produtos. A segunda aplicação apresenta um mercado virtual para compra e venda de bens. A terceira aplicação é um sistema multi-agente distribuído para um complexo cenário de procurement em leilões simultâneos e interdependentes. Essa aplicação participou do Trading Agent Competition em 2004 e obteve a terceira colocação. A quarta aplicação é um sistema multi-agente para um Supply Chain Management. / [en] The agent technology is used to develop systems that perform several complex tasks. This thesis presents the MAS-School method for modeling and implementing intelligent agent-based systems. The method presents a systematic approach to support a disciplined introduction of machine learning techniques in multi-agent systems from an early stage of design. The proposed approach encompasses guidelines to both the design and implementation phases of an agent-based system. It is based on an incremental development strategy that largely relies on simulation and testing techniques. This thesis also presents the ASYNC framework that is composed of software engineering tools for building agent based system for asynchronous, cooperative and intelligent agents. This thesis presents four complex applications that used the proposed method and framework in the design and implementation phase. The first case study presents an application that discovers the most appealing offerings for consumers in a retail market. The second case study presents a virtual marketplace for buying and selling goods with automatic negotiation. The third case study is a multi-agent system for a complex procurement scenario with interdependent and simultaneous auctions. This system achieved the third place in the 2004 TAC Classic competition. The fourth case study is a multi-agent system for a PC manufacturer scenario based on sourcing of components, manufacturing of PC's and sales to customers.

Page generated in 0.0576 seconds