• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1424
  • 147
  • 56
  • 50
  • 50
  • 50
  • 39
  • 38
  • 38
  • 38
  • 12
  • 11
  • 1
  • 1
  • 1
  • Tagged with
  • 1601
  • 1601
  • 523
  • 448
  • 401
  • 331
  • 296
  • 221
  • 219
  • 177
  • 165
  • 145
  • 141
  • 125
  • 124
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Utilização de um sistema multiagentes para resolução de referencias em lingua natural

Dinnouti, Leonardo Shiguemi 04 May 1999 (has links)
Orientador: Ariadne Maria B. Rizzoni / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-07-25T06:59:05Z (GMT). No. of bitstreams: 1 Dinnouti_LeonardoShiguemi_M.pdf: 2359029 bytes, checksum: b8df24f6e64959ac55a38861c670d8f9 (MD5) Previous issue date: 1999 / Resumo: Esta tese contribui para a Área de Inteligência Artificial trazendo uma abordagem alternativa para o processamento de Língua Natural utilizando Sistemas Multiagentes. O fenômeno lingüístico a ser analisado é a referência, e em particular a referência definida. O fenômeno é amplamente conhecido como anáfora definida e vem sendo trabalhado por diversos pesquisadores na área de lingüística computacional. Nesta tese o problema é divido e tratado de forma distribuída, através de um sistema multiagentes projetado especificamente para este caso. Um protocolo de comunicação é proposto e alguns testes são feitos com agentes em funcionamento. A implementação do sistema utiliza bibliotecas de livre distribuição, como o SWI-Prolog e o PVM (Parallel Virtual Machine), tornando o sistema passível de ser distribuído livremente. Este trabalho contribui com mais um tipo de abordagem para o Processamento de Língua Natural e abre perspectivas para novos tipos de tratamentos utilizando Sistemas Multiagentes. / Abstract: This thesis contributes to the field of Artificial Intelligence by providing an alternative approach to Natural Language Processing using a Multi-Agent System. The linguistic phenomenon which is analyzed is reference, in particular, definite reference. This phenomena, which is also known as definite anaphor, has been studied by several researchers in the Computational Linguistics field. In this thesis, the problem is divided and treated in a distributed form by a Multi-Agent system that was designed specifically to solve this problem. A communication protocol is developed and some tests are made while the agents are working. The implementation of the system uses free distribution libraries such as SWI-Prolog and PVM (Parallel Virtual Machine) and, therefore, it can be freely distributed. This thesis contributes with a different approach to Natural Language Processing that opens up new perspectives through the use of Multi-Agent systems. / Mestrado / Mestre em Ciência da Computação
222

Chapa : um agente de interface para ferramentas de bate-papo em ambientes de ensino a distancia da Web

Lachi, Ricardo Luís, 1977- 27 May 2003 (has links)
Orientador: Heloisa Vieira da Rocha / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-03T16:14:44Z (GMT). No. of bitstreams: 1 Lachi_RicardoLuis_M.pdf: 2882929 bytes, checksum: 92ae4a814aace49988e977a2ab006588 (MD5) Previous issue date: 2003 / Resumo: A educação à distância se caracteriza pelo não existência, parcial ou total, do elemento 'presencial' na relação de aprendizagem professor-aluno. Isto é, o professor e aluno encontram-se em localidades distintas (fora de uma sala de aula) e necessitam do uso de um canal de comunicação para mediar a interação. Nos últimos anos, a educação à distância, via ambientes que utilizam a Internet como meio de comunicação, tem aumentado significativamente. Esses ambientes caracterizam-se por disponibilizar inúmeras ferramentas que dão suporte ao processo de comunicação via rede (ferramentas de bate-papo, correio eletrônico, grupos de discussão). Na literatura existem inúmeros artigos que relatam o enorme volume de trabalho necessário por parte de um professor de um curso à distância para poder acompanhar adequadamente o desenvolvimento dos alunos. Com o intuito de auxiliar o professor nessa tarefa de acompanhar o desenvolvimento dos alunos de um curso à distância foi desenvolvido o agente de interface Chapa descrito em detalhes nesta dissertação. O foco do Chapa é ajudar na análise das contribuições dos participantes de uma sessão de bate-papo ocorrida no ambiente de Educação à Distância TelEduc. Nesse sentido, o Chapa é capaz de selecionar quais as mensagens mais interessantes a um determinado usuário permitindo a este analisar somente uma fração do número total de mensagens existentes em uma sessão. Essa seleção é feita com base em um dicionário de dados específico, que constrói para cada usuário, por meio das técnicas de aprendizagem inerentes ao conceito de agentes de interface. Neste trabalho, já são apresentados alguns testes preliminares feitos com o Chapa por um grupo de usuários. No entanto, mesmo tendo sido bastante positivos os resultados desses testes iniciais, ainda é necessária a realização de outros mais, em situações reais de um curso à distância, para se validar melhor o Chapa / Abstract: Distance education is characterized by the partial or total absence of the "presential" element in the teacher-student relationship, that is, teacher and student are far ftom each other and need to use a communication channel to media te the interaction. In the last few years, distance education based on environments that use Internet as a communication channel has grown larger and larger. These environments make available many tools that support communication through the Internet (for example: chat, e-mail, newsgroup). In the literature, many articles relate the large amount of work needed by the teacher of a distance course to accompany properly the development of the students. In order to help the teacher with the task of accompanying the development of the students in a distance course we developed the interface agent Chapa, described in details in this dissertation. Chapa's focus is on helping the analysis of participants' contributions to a chat session that took place in T elEduc, a supporting environment for distance education. In order to do that, it is capable of selecting which messages are more interesting to one user, allowing him to analyze only a ftaction of the total number of messages that exist in a session. lt is able to do this selection based on a specific data dictionary which is built for each user by means of learning techniques inherent to the technology of interface agents. In this work, some preliminary tests were done with Chapa. However, even though the results were very positives, it is still necessary to realize more tests in real world courses in order to better proofChapa's effectiveness / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
223

Estudo de dialogos orientados a tarefa usando a teoria de multiagentes

Roman, Norton Trevisan 19 September 2001 (has links)
Orientador : Ariadne Maria Brito Rizzoni Carvalho / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-07-31T15:20:49Z (GMT). No. of bitstreams: 1 Roman_NortonTrevisan_M.pdf: 3771928 bytes, checksum: ad1c0112d22fd005b839ae2b6afdc94f (MD5) Previous issue date: 2001 / Resumo: o processamento de diálogos em uma língua natural é um campo bastante vasto e não suficientemente explorado da Inteligência Artificial. Os inúmeros detalhes e particularidades existentes não só na própria língua, como também na estrutura de um diálogo em si impõem barreiras ao modelamento deste processamento. Dessa forma, para se modelar efetivamente um diálogo faz-se necessário o modelamento não só das regras gramaticais particulares da língua, mas também de fenômenos próprios de diálogos, como elipses, o uso de pronomes e a coerência entre as idéias expressas por cada fala presente. Nessa dissertação é desenvolvido um sistema multiagentes que implementa o modelo para tratamento de diálogos originalmente desenvolvido por Grosz e Sidner. O objetivo deste sistema é testar a interação entre as estruturas que, de acordo com estas pesquisadoras, compõem a estrutura de um discurso, fazendo-o sob a luz do paradigma de multiagentes / Abstract: Natural language dialogue processing is a very extensive and yet not enough explored field in Artifitial Intelligence. The inumerous details and particularities, not only within the language itself, but also within the dialogue structure, present several obstacles to modeling the processo. Therefore, in order to effectivally mo deI a dialogue, it is necessary to model not only particular grammatical rules, but also the dialogue phenomena, wich involves ellipsis, the use of pronouns and the coherence between the ideas expressed by each utterance in the dialogue. In this work a multiagent system that implements the dialogue modeling originally proposed by Grosz and Sidner is developed. The system's goal is to test the interaction between the structures that, according to these researchers, compose the discourse structure, using the multiagents paradigm / Mestrado / Mestre em Ciencia da Informação
224

Uma abordagem ontológica para modelagem de crimes contra o patrimônio

BARROS, Patrícia Vieira da Silva 28 August 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-04-25T18:31:02Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO Patrícia Vieira da Silva Barros.pdf: 3244402 bytes, checksum: 0050725dc0dec4a0851eb82f87d61d1d (MD5) / Made available in DSpace on 2016-04-25T18:31:02Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO Patrícia Vieira da Silva Barros.pdf: 3244402 bytes, checksum: 0050725dc0dec4a0851eb82f87d61d1d (MD5) Previous issue date: 2015-08-28 / CNPQ / O Código Penal Brasileiro, em seu Título II (arts. 155 a 183), define os crimes contra o patrimônio. O objetivo da Lei Penal é proteger o patrimônio da pessoa física e jurídica. Tanto o crime de furto, roubo, latrocínio, extorsão e a apropriação indébita estão inseridos no rol dos crimes contra o patrimônio. A diferença entre tais crimes será mostrada na OntoCrimePatrimonio, uma abordagem ontológica que utiliza uma linguagem controlada, a qual ajuda o usuário na tomada de decisão sem que este conheça os formalismos utilizados internamente pelo sistema onde serão realizadas inferências a partir da prova fornecida pelos raciocinadores, averiguando se tal diferenciação entre esses crimes estão ontologicamente e logicamente corretos. / The Brazilian Penal Code, in its Title II (Arts. 155-183) defines the crimes against property. The aim of the Criminal Law is to protect the assets of individuals and companies. Both the crime of theft, burglary, robbery, extortion and embezzlement are inserted in the list of crimes against property. The difference between such crimes will be shown in OntoCrimePatrimonio, an ontological approach that uses a controlled language, which helps the user in making a decision without it knows the formalities used internally by the system which will be held inferences from the evidence provided by reasoners, ascertaining whether such a differentiation between these crimes are ontologically and logically correct.
225

Modelo de Mistura de Gaussianas Fuzzy Contextual

PORTELA, Nara Miranda 27 February 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-04-25T18:37:27Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) TESE Nara Miranda Portela.pdf: 21542071 bytes, checksum: 86c237a4ab4279bb06fa75ca13e9de33 (MD5) / Made available in DSpace on 2016-04-25T18:37:27Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) TESE Nara Miranda Portela.pdf: 21542071 bytes, checksum: 86c237a4ab4279bb06fa75ca13e9de33 (MD5) Previous issue date: 2015-02-27 / CAPES / Métodos de agrupamento identificam uma organização dos padrões existentes em um conjunto de dados, encontram similaridades ou diferenças entre os padrões existentes e assim, derivam conclusões úteis a respeito dos dados. Quando existe dependência entre dados e seus vizinhos, a vizinhança do dado analisado pode fornecer informação valiosa e pouco custosa. Na abordagem contextual do agrupamento, assume-se uma dependência entre os dados e seus vizinhos buscando um resultado mais eficiente. Modelos de Mistura Finita Variante no Espaço (SVFMM) é um método de agrupamento contextual que possibilita a modelagem da correlação espacial dos dados diretamente nos pesos das misturas através da combinação do Modelo de Mistura de Gaussianas (GMM) com Campos Aleatórios Markovianos (MRF). Os parâmetros do SVFMM são estimados via máxima probabilidade a posteriori (MAP) usando o algoritmo Expectation Maximization (EM). Os primeiros SVFMMs propostos precisavam de uma etapa reparatória adicional no algoritmo EM para garantir que as propriedades de probabilidade dos pesos da mistura fossem conservadas, ou seja, que eles fossem sempre positivos e sua soma, para todos os componentes, fosse sempre igual a 1 (um). Derivações do SVFMM buscaram eliminar essa etapa reparatória, no entanto, foi necessário adotar distribuições de probabilidade que aumentassem o número de parâmetros do modelo ou assumir configurações do MRF cujos parâmetros deveriam ser determinados empiricamente e não calculado em forma fechada a partir dos dados. Nós propomos, neste trabalho, o Modelo de Mistura de Gaussianas Fuzzy Contextual (CFGMM), que utiliza o Modelo de Mistura de Gaussianas Fuzzy (FGMM) como método de agrupamento e Campos Aleatórios Markovianos Gaussianos como técnica de modelagem da relação espacial entre dados vizinhos. A abordagem fuzzy do GMM possibilitou a simplificação matemática da estimação dos parâmetros do modelo em relação à estimativa MAP do SVFMM. No modelo proposto, os parâmetros não são estimados via MAP, e sim pela aplicação do gradiente para minimizar a função objetivo do FGMM. A restrição imposta aos pesos da mistura foi incorporada na derivação das equações dos parâmetros do modelo, eliminando, assim, a necessidade de uma etapa de correção adicional sem aumentar o número de parâmetros do modelo e garantindo que os parâmetros do MRF ainda fossem calculados de forma fechada a partir dos dados. Realizamos a validação do CFGMM como ferramenta de agrupamento contextual de pixels na segmentação de imagens baseada em regiões. Estudos de caso usando imagens sintéticas e bases dados de imagens, tais como BrainWeb e Berkeley, mostraram que a abordagem contextual é capaz de melhorar o desempenho do FGMM na segmentação de imagens. Em comparação com outros métodos de agrupamento, o CFGMM obteve o melhor desempenho na segmentação de imagens com alto nível de ruído. A desvantagem do CFGMM em relação aos métodos de agrupamento pontuais é o maior tempo de processamento devido à incorporação do contexto no cálculo dos parâmetros do modelo. Além disso, o CFGMM apresenta uma tendência à perda de definição dos detalhes das regiões da imagem ao longo das iterações. No entanto, esse problema pode ser sanado adotando-se um critério de parada precoce. / Clustering aims to group a set of objects in such a way that objects in the same group are more similar to each other than to those in other groups according to some criterion. Clustering methods search for patterns in a dataset and discover similarities or differences among the objects in order to draw conclusions about them. When exists dependency between data and its neighbors, the neighborhood of the analyzed data can provide useful and inexpensive information. In the contextual clustering approach, it is assumed correlation between data and its neighbors. Spatially Variant Finite Mixture Models (SVFMM) is a contextual clustering technique that provides the possibility of modeling the pixel spatial information directly in the mixture weights by combining Gaussian Mixture Models (GMM) and Markov Random Fields (MRF). The parameters of the SVFMM are estimated using maximum a posteriori probability (MAP) with the Expectation Maximization algorithm. First SVFMMs needed a reparatory step in the EM algorithm to ensure that mixture weights probability properties were preserved, i.e., they should be always positive and their sum, among all groups, should be equal to one. SVFMM based methods were proposed to eliminate this reparatory step. To accomplish this task, however, they adopted probabilities distributions that improved the number of models parameters or they assumed MRF configurations whose parameters could not be calculated in a closed form from the data but in an empirical way. In this work, we propose the Contextual Fuzzy Gaussian Mixture Model (CFGMM) that use Fuzzy Gaussian Mixture Model (FGMM) as clustering technique and Gaussian Markov Random Field to model neighboring data relationship. The Fuzzy approach of the GMM facilitates the mathematic simplification of the model parameters estimation compared to MAP estimation of the SVFMM. In the proposed model, parameters are not estimated using MAP but using gradient to minimize the objective function of the FGMM. The mixture weights constraints were taken into account in the equations derivation of the model parameters. Thus, we eliminate one extra step without improve the number of parameters and ensuring that MRF parameters were still calculated in a closed form from the data. We perform the CFGMM validation as contextual pixel clustering tool for region based image segmentation. Case studies using synthetic images and real image databases, such as BrainWeb and Berkeley, show that contextual approach is capable of improving the image segmentation performance when compared with the FGMM. Compared with other clustering methods, the proposed model obtains the best performance for images having high level of noise. The disadvantage of CFGMM is that it requires more time to segment an image than techniques that do not take into account contextual information. Beside, CFGMM induce definition loss of the image region details along the algorithm iterations. However, this problem can be rectified by adopting an early stop criterion.
226

Máquinas morfológicas de aprendizado extremo aplicadas à detecção e classificação de lesões em mamografias

SILVA, Washington Wagner Azevedo da 15 March 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-09-20T21:19:15Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Washington Wagner Azevedo da Silva.pdf: 5812722 bytes, checksum: d0703470fadd9897e68f897694b08121 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-09-21T18:23:48Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Washington Wagner Azevedo da Silva.pdf: 5812722 bytes, checksum: d0703470fadd9897e68f897694b08121 (MD5) / Made available in DSpace on 2018-09-21T18:23:48Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Washington Wagner Azevedo da Silva.pdf: 5812722 bytes, checksum: d0703470fadd9897e68f897694b08121 (MD5) Previous issue date: 2017-03-15 / CAPES / De acordo com a Organização Mundial de Saúde, o câncer de mama é a forma mais comum de câncer entre as mulheres adultas em todo o mundo, sendo um dos tipos de câncer mais fatal. Estudos mostram que a disponibilização de diagnóstico precoce pode contribuir para a redução das taxas de mortalidade e aumentar as opções de tratamento. Diagnósticos assistidos por computador (Computer Aided Detection/Diagnosis) estão sendo propostos e usados visando auxiliar os profissionais da área de saúde. Morfologia Matemática é uma teoria de processamento não linear amplamente utilizada no processamento de imagens digitais. É baseada na teoria matemática da intersecção e união de conjuntos. Máquinas de Aprendizado Extremo (Extreme Learning Machines, ELMs) são máquinas de aprendizado compostas por pelo menos uma camada escondida, com nodos com kernels configuráveis e pesos aleatórios, e uma camada de saída, composta por nodos com kernels lineares cujos pesos são ajustados de forma não iterativa, por meio da pseudoinversa de Moore-Penrose. Neste trabalho são propostas as Máquinas Morfológicas de Aprendizado Extremo (Morphological Extreme Learning Machines, mELMs), ou seja, ELMs com neurônios na camada escondida baseados nos operadores morfológicos não lineares básicos de erosão e dilatação. O método proposto foi avaliado uilizando 2.796 imagens de mamografias da base de dados IRMA (Image Retrieval in Medical Applications). Através dos experimentos realizados foi verificado que as mELMs de erosão e dilatação, no que concerne à acurácia e ao índice kappa, apresentaram desempenho de classificação equivalente ou superior, quando comparados com os resultados obtidos pelos classificadores clássicos do estado da arte. A base de dados IRMA é dividida em quatro tipos de tecidos (adiposo, fibroso, heterogeneamente denso e extremamente denso). Foram realizados experimentos com cada tipo de tecido e com toda a base de dados. Os atributos foram extraídos usando momentos de Haralick e Wavelets. / According to the World Health Organization, breast cancer is the most common form of cancer among adult women worldwide, being one of the most fatal types of cancer. Studies show that providing early diagnosis can contribute to a reduction in mortality rates and increase as treatment options. Computer Assisted Diagnostics are being proposed and used in the health area. Mathematical Morphology is a nonlinear theory widely used in the processing of digital images. It is a based on the mathematical theory of intersection and union of sets. Extreme Learning Machines (ELMs) are learning machines composed of at least one hidden layer, with nodes with configurable kernels and random weights, and an output layer composed of nodes with linear kernels whose weights are adjusted in a non-iterative way, by means of the Moore-Penrose's pseudoinverse. In this work are proposed as Morphological Machines of Extreme Learning (mELMs), that is, ELMs with neurons in the hidden layer based on the basic non-linear morphological operators of erosion and dilation. The proposed method was evaluated using 2,796 mammography images from the IRMA database (Image Recovery in Medical Applications). Through experiments carried out with verified that as mELMs of erosion and dilatation, we presented performance of equivalent or superior classification, when compared with the results obtained by classifiers classic of the state of the art. An IRMA database is divided into four tissue types (adipose, fibrous, heterogeneously dense and dense extremity). Experiments were performed with each type of tissue and with all database. The attributes were extracted using moments from Haralick and Wavelets.
227

Raciocínio baseado em casos na confecção de termos de referência para contratações públicas

JULIÃO, Daniel Vitor Santos 05 September 2016 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-09-24T19:43:13Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Daniel Vitor Santos Julião.pdf: 3967042 bytes, checksum: c6616020aab1b2713e69ad7f868add6c (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-09-25T18:08:34Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Daniel Vitor Santos Julião.pdf: 3967042 bytes, checksum: c6616020aab1b2713e69ad7f868add6c (MD5) / Made available in DSpace on 2018-09-25T18:08:34Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Daniel Vitor Santos Julião.pdf: 3967042 bytes, checksum: c6616020aab1b2713e69ad7f868add6c (MD5) Previous issue date: 2016-09-05 / Todos os dias, os órgãos públicos precisam de contratos firmados com terceiros para a manutenção de suas operações, o fornecimento de seus serviços, ou o atendimento às suas demandas internas, como a execução de obras de engenharia, aquisição de equipamento e até mesmo a aquisição de sistemas de informação específicos. A licitação é o procedimento administrativo pelo qual a Administração Pública expõe suas necessidades e intenções, de modo a exprimir vontade de celebrar contrato administrativo, visando encontrar a proposta mais vantajosa, por meio da publicação de Termo de Referência ou Projeto Básico. Esse tipo de documento contém todas as definições necessárias e suficientes para os procedimentos administrativos. Na maioria dos casos, para cada uma das aquisições ou contratações diferentes, é necessário a confecção de um documento e seus artefatos constituintes, o que pode ser uma tarefa de alta complexidade, além de onerar o tempo dedicado às atividades de gestão propriamente dita, executadas diariamente pelos representantes dos órgãos públicos incumbidos de tais responsabilidades. Com a fundamentação teórica dos processos licitatórios de aquisições e contratações e a análise das técnicas do Raciocínio Baseado em Casos (RBC), mais fortemente do Raciocínio Baseado em Casos Textual (RBCT), foi possível o desenvolvimento de um protótipo de aplicação de RBC para a execução de quasi-experimento visando verificar, pela realização de teste de hipóteses, como a Tecnologia da Informação e Comunicação (TIC) torna mais ágeis as tarefas referentes ao domínio da confecção de Termos de Referência. Assim, a presente pesquisa visa apresentar o uso do Raciocínio Baseado em Casos, como forma de auxiliar os gestores públicos, agilizando suas exaustivas buscas por material que venha a ser útil, tornando seus processos e tarefas cada vez menos demorados. / Every day, government entities need contracts with third parties for the maintenance of its operations, the provision of their services, or meet their inner demands, such as the execution of engeneering works, aquisition of equipment and even to purchase specific information systems. Bidding is the administrative procedure by which the Public Administration exposes your needs and intentions, in order to express willingness to signing administrative contract, aiming to find the most advantageous tender, publishing Terms of Reference or Basic Project Project. This type of document contains all the necessary settings and sufficient for administrative procedures. In most cases, for each acquisition or different contracts, the production of a document and its constituent artifacts is necessary, which can be a highly complex task, and encumber the time devoted to actual management activities carried out daily by representatives of those government entities entrusted with such responsibilities. With the theoretical basis of the bidding processes and the analysis of techniques of Case Based Reasoning (CBR), more strongly the Textual Case Based Reasoning (TCBR), it was possible to develop a CBR prototype application to execute a quasi-experiment in order to verify, by performing hypothesis testing, how the Information and Communication Technology (ICT) become tasks of preparation of Terms of Reference more agile. Thus, this research presents the use of Case Based Reasoning, in order to assist public managers, streamlining their exhaustive search for material that will be useful, making its processes and tasks less and less time consuming.
228

Metodologia da descoberta cientifica e inteligencia artificial

Gonzales, Maria Eunice Quilici 16 July 2018 (has links)
Orientador : Zeljko Loparic / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Filosofia e Ciencias Humanas / Made available in DSpace on 2018-07-16T09:51:30Z (GMT). No. of bitstreams: 1 Gonzales_MariaEuniceQuilici_M.pdf: 34830142 bytes, checksum: 2b5e2b2cb44e1d091ead102c22b1f740 (MD5) Previous issue date: 1984 / Resumo: Analisamos nesta dissertação questões relativas à descoberta científica e aos processos cognitivos subjacentes a atividade de resolução humana de problemas. No que diz respeito à descoberta científica, nossa análise limita-se basicamente a uma investigação dos trabalhos de Hanson e Simon sobre a lógica da descoberta científica. Quanto aos processos cognitivos subjacentes à atividade de resolução humana de problemas, nosso estudo estará apoiado nas idéias de Polya, Newell e Simon, Hintikka e Remes. O presente trabalho divide-se em duas partes centrais que se desdobram nos capítulos I-V. No capítulo I, iniciamos o estudo da descoberta confrontando os pontos de vista de Hanson e Popper sobre a lógica da descoberta científica. A seguir, com base nas obras de Buchanan Logics of Scientific Discovery e de Kuhn A Estrutura das Revoluções Científicas, desenvolvemos uma análise do conceito de descoberta e discutimos algumas dificuldades concernentes à noção da lógica da descoberta. Concluímos o capítulo I discutindo algumas das teses centrais que poderiam caracterizar uma metodologia da descoberta científica. No capítulo II, analisamos as principais teses de Hanson sobre a lógica da descoberta, em três secções que correspondem aos três estágios da obra desse autor. Iniciamos o capítulo discutindo as teses de Patterns of Discovery. A seguir, o artigo "Is There a Logic of Scientific Discovery?¿ é analisado e, finalmente, ¿Retroductive Inference" completa a nossa análise do trabalho de Hanson. No capítulo III examinamos algumas idéias relativas a uma possível metodologia da descoberta científica. Iniciamos o capítulo investigando, com base na obra de Polya - A Arte de Resolver Problemas, uma área de estudos denominada "Heurística", a qual trata de métodos de resolução de problemas e de processos de descoberta. Após uma breve análise acerca da natureza dos problemas, discutimos a tese segundo a qual a descoberta científica pode ser entendida como um processo de resolução de problemas. Concluímos o capítulo apresentando um método conhecido como método de análise (o qual foi utilizado pelos antigos para a descoberta de provas de teoremas e soluções de problemas da geometria) e sugerindo que o estudo desse método poderia ser útil para uma análise da metodologia da descoberta científica. Nos capítulos IV e V, que constituem a segunda parte da tese, discutimos, respectivamente, a teoria de resolução de problemas de Newell e Simon e a teoria da descoberta de Simon, desenvolvidas na área de Inteligência Artificial. No capítulo IV I damos especial destaque ao estudo de um método conhecido nessa área como método heurístico de busca e mostramos em que sentido ele poderia ser entendido como uma versão do método de análise. No capítulo V apresentamos a teoria da descoberta elaborada por Simon, na versão psicológica e sociológica, de um lado, e na versão "lógica", de outro. Concluímos a dissertação fazendo um balanço daquilo que foi apresentado nos capítulos anteriores, e questionando as contribuições da Inteligência Artificial, no que diz respeito ao esclarecimento das noções apresentadas sobre o processo da descoberta científica / Abstract / Mestrado / Mestre em Filosofia
229

Modelagem e processamento de conhecimento baseados em Rede de Petri nebulosa estendida

Daltrini, Alexandre Moreira 21 June 1993 (has links)
Orientador: Fernando A. C. Gomide / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica / Made available in DSpace on 2018-07-18T15:26:53Z (GMT). No. of bitstreams: 1 Daltrini_AlexandreMoreira_M.pdf: 4304751 bytes, checksum: 40ce8b7b349c84d1c46e348802edecdf (MD5) Previous issue date: 1993 / Resumo: Atualmente, a Modelagem e Processamento de Conhecimento é um assunto muito explorado na área de pesquisa em Inteligência Artificial. A proposta deste trabalho é apresentar uma modificação das Redes de Petri, a Rede de Petri Nebulosa Estendida, baseada em conceitos da Lógica Nebulosa e das Redes de Petri. Esta nova metodologia é direcionada para a representação e processamento de conhecimento em sistemas com caracteristicas de incerteza ou aspectos vagos em sua modelagem. A Rede de Petri Nebulosa Estendida pretende fornecer uma ferramenta para representação de conhecimento que seja de amplo escopo de aplicação, adaptando-se à problemas nas mais diversas áreas de atuação, e que seja de fácil manipulação. Há ainda um exemplo de aplicação em simulação de sistemas de manufatura, onde se realiza a modelagem através de regras de produção nebulosas e, após o processamento sob o algoritmo proposto, apresentam-se os resultados e sua devida interpretação / Abstract: Nowadays, knowledge modelling and processing are topics of interest for Artificial Intelligence researchers. The proposal of this work is to develop a modification of classical Petri Nets, which one is based on principles of Fuzzy Logic and Petri Nets, called Extended Fuzzy Petri Nets. This new methodology is addressed to the Knowledge Representation and Processing of systems, in which there are some aspects of uncertainty and vagueness. The Extended Fuzzy Petri Nets intends to offer a Knowledge Representation tool, with several application areas and easy manipulation. There is an example of manufacturing systems simulation, with the cell modelling based on fuzzy production roles and, after the processing by the algorithm developed, the results and interpretation are presented. / Mestrado / Mestre em Engenharia Elétrica
230

Sequenciamento e alocação de operações em flow-shops com restrições sobre os recursos compartilhados e sobre os prazos de entrega dos tarefas : uma abordagem de busca orientada por restrições

Campos, Marcio Francisco Dutra e 03 August 1993 (has links)
Orientadores : Luis Gimeno Latre, Maria Tereza Moreira Rodrigues / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica / Made available in DSpace on 2018-07-18T15:57:34Z (GMT). No. of bitstreams: 1 Campos_MarcioFranciscoDutrae_M.pdf: 6234968 bytes, checksum: 4db64f154811bdce943bc133fc0d44bb (MD5) Previous issue date: 1993 / Resumo: O flow-shop, assim como a grande maioria dos problemas de scheduling, é un problema cuja complexidade computacional cresce exponencialmente com a sua dimensão. Para diminuir esta complexidade, geralmente são feitas hipóteses que simplificam o modelo da planta mediante o relaxamento de restrições. Grande parte destas hipóteses dizem respeito aos instantes de tempo em que as tarefas devem ser alocadas e às disponibilidades dos recursos compartilhados. Entrentanto, na indústria de processos químicos, que é a principal área de aplicação do fIow-shop, estas restrições não podem ser relaxadas, porque o alto custo dos produtos que são produzidos exige que as instalações disponíveis sejam utilizadas da melhor maneira possível. Além do mais, o atendimento rápido aos clientes é o principal objetivo, o qual só é alcançado se as restrições temporais impostas pelo processo produtivo e pela demanda do mercado são obedecidas. Neste trabalho propõe-se uma estratégia de solução para o problema de fIow-shop que não admite a relaxação das restrições sobre os recursos compartilhados e sobre os instantes de tempo em que as tarefas devem ser alocadas. A estratégia proposta combina técnicas de Inteligência Artificial (IA), que têm por objetivo satisfazer as restrições do problema, com a técnica Branch-and-Bound (BAB) clássica da Pesquisa Operacional (PO), que permite alcançar o objetivo do problema que é minimização do tempo de conclusão das tarefas, através da maximização da utilização dos recursos compartilhados. As técnicas de IA utilizadas são a análise e propagação de restrições que, juntamente com heurísticas de aIocação de tarefas, permitem uma redução significativa do espaço de soluções e de busca do problema. O uso conjunto do BAB com propagação de restriçõese heurísticas resulta em um algoritmo de busca em árvore eficiente, no sentido de que ele geralmente consegue obter soluções ótimas sem precisar pesquisar um elevado número de nós / Abstract: Not informed. / Mestrado / Mestre em Engenharia Elétrica

Page generated in 0.0752 seconds