• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2053
  • 152
  • 67
  • 60
  • 60
  • 60
  • 45
  • 44
  • 44
  • 44
  • 24
  • 15
  • 1
  • 1
  • 1
  • Tagged with
  • 2260
  • 1609
  • 876
  • 529
  • 463
  • 371
  • 321
  • 318
  • 253
  • 220
  • 215
  • 196
  • 193
  • 184
  • 179
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

Fatores bio-sociais de proteção ao desenvolvimento cognitivo de crianças em idade escolar

Floriza Cavalcanti Amaral, Daisy January 2007 (has links)
Made available in DSpace on 2014-06-12T23:15:32Z (GMT). No. of bitstreams: 2 arquivo8395_1.pdf: 723551 bytes, checksum: 1d1b4b50ade6572d5c10b99cf96a57b4 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2007 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / A inteligência é um tema de interesse multidisciplinar, despertando a atenção de profissionais das áreas de educação, comportamento e saúde. A visão epidemiológica sobre este tema é mais uma contribuição para possíveis ações preventivas, que favoreçam a universalização da aquisição desta importante característica humana. Para esta dissertação foram realizados dois artigos; uma revisão bibliográfica e um artigo original. Para a revisão bibliográfica foram pesquisados artigos sobre o desenvolvimento cognitivo infantil abordando fatores de proteção, fatores de risco, resiliência e vulnerabilidade. Foram consultados os bancos de dados Lilacs, Medline e Scielo, usando os descritores: IQ, cognitive development, vulnerability, risk, resilience e cognition. A literatura mostra uma importante associação entre desenvolvimento cognitivo e fatores socioeconômicos, destacando-se a escolaridade materna, estimulação domiciliar e a renda. Para o artigo original foi realizado um estudo transversal aninhado a uma coorte, para verificar que fatores bio-sociais estavam associados ao desenvolvimento cognitivo de crianças aos oito anos de idade, residentes na zona da mata de Pernambuco. Foram analisados aspectos biológicos ao nascer e aspectos biológicos, socioeconômicos e demográficos aos oito anos. Nesta pesquisa encontramos os melhores índices de desenvolvimento cognitivo associados à melhor escolaridade materna, renda familiar per capita, estimulação domiciliar e à escola privada. Concluímos que a proteção ao desenvolvimento cognitivo na infância poderá ser favorecida à medida que sejam priorizadas atividades educativas junto às famílias e de melhoria ao ensino público
302

Análise das melhorias percebidas na gestão da informação com o uso da memória organizacional existente na implantação de inteligência competitiva : o caso do núcleo integrado de negócios do ITEP

FERREIRA, Gustavo Henrique de Aragão 31 January 2012 (has links)
Submitted by Milena Dias (milena.dias@ufpe.br) on 2015-03-03T19:50:20Z No. of bitstreams: 2 Análise das Melhorias Percebidas na Gestão da Informação com o Uso da Memória Organizacional Existente na Implantação de ~1.pdf: 2091032 bytes, checksum: d0155f845ceeb4dd3a6c13084cc63dad (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-03T19:50:20Z (GMT). No. of bitstreams: 2 Análise das Melhorias Percebidas na Gestão da Informação com o Uso da Memória Organizacional Existente na Implantação de ~1.pdf: 2091032 bytes, checksum: d0155f845ceeb4dd3a6c13084cc63dad (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 201 / Essa pesquisa utiliza os conceitos de memória organizacional e inteligência competitiva, buscando integrálos, gerando melhorias na gestão da informação e, para tanto, procura resolver o problema: É possível considerar a memória organizacional um insumo importante ao desenvolvimento e implantação de um processo de inteligência competitiva? O objetivo geral consiste em analisar as melhorias percebidas na gestão da informação, com o uso da memória organizacional existente na implantação de inteligência competitiva no Núcleo Integrado de Negócios do Instituto de Tecnologia de Pernambuco – ITEP. Os objetivos específicos são definidos como sendo: descrever a memória organizacional existente no NING (Núcleo Integrado de Negócios), a partir do histórico de informações referentes a indicadores comerciais; averiguar como a gestão da informação ocorre no Núcleo Integrado de Negócios do ITEP, a partir do uso da Memória Organizacional existente; inquirir como está acontecendo o processo de implantação de inteligência competitiva, a partir do uso de memória organizacional no NING (Núcleo Integrado de Negócios); e, por fim, detalhar as melhorias percebidas na gestão da informação quando se usa a memória organizacional existente na implantação de inteligência competitiva. Como pesquisa exploratória e fundamental, cujo método utilizado para sua realização foi o quantitativo, a estratégia de pesquisa focou o uso do estudo de caso, a saber, no Núcleo Integrado de Negócios – NING/ITEP, no enfoque da gestão da informação desenvolvida , com apoio da memória organizacional e da inteligência competitiva existentes.
303

Chapa : um agente de interface para ferramentas de bate-papo em ambientes de ensino a distancia da Web

Lachi, Ricardo Luís, 1977- 27 May 2003 (has links)
Orientador: Heloisa Vieira da Rocha / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-03T16:14:44Z (GMT). No. of bitstreams: 1 Lachi_RicardoLuis_M.pdf: 2882929 bytes, checksum: 92ae4a814aace49988e977a2ab006588 (MD5) Previous issue date: 2003 / Resumo: A educação à distância se caracteriza pelo não existência, parcial ou total, do elemento 'presencial' na relação de aprendizagem professor-aluno. Isto é, o professor e aluno encontram-se em localidades distintas (fora de uma sala de aula) e necessitam do uso de um canal de comunicação para mediar a interação. Nos últimos anos, a educação à distância, via ambientes que utilizam a Internet como meio de comunicação, tem aumentado significativamente. Esses ambientes caracterizam-se por disponibilizar inúmeras ferramentas que dão suporte ao processo de comunicação via rede (ferramentas de bate-papo, correio eletrônico, grupos de discussão). Na literatura existem inúmeros artigos que relatam o enorme volume de trabalho necessário por parte de um professor de um curso à distância para poder acompanhar adequadamente o desenvolvimento dos alunos. Com o intuito de auxiliar o professor nessa tarefa de acompanhar o desenvolvimento dos alunos de um curso à distância foi desenvolvido o agente de interface Chapa descrito em detalhes nesta dissertação. O foco do Chapa é ajudar na análise das contribuições dos participantes de uma sessão de bate-papo ocorrida no ambiente de Educação à Distância TelEduc. Nesse sentido, o Chapa é capaz de selecionar quais as mensagens mais interessantes a um determinado usuário permitindo a este analisar somente uma fração do número total de mensagens existentes em uma sessão. Essa seleção é feita com base em um dicionário de dados específico, que constrói para cada usuário, por meio das técnicas de aprendizagem inerentes ao conceito de agentes de interface. Neste trabalho, já são apresentados alguns testes preliminares feitos com o Chapa por um grupo de usuários. No entanto, mesmo tendo sido bastante positivos os resultados desses testes iniciais, ainda é necessária a realização de outros mais, em situações reais de um curso à distância, para se validar melhor o Chapa / Abstract: Distance education is characterized by the partial or total absence of the "presential" element in the teacher-student relationship, that is, teacher and student are far ftom each other and need to use a communication channel to media te the interaction. In the last few years, distance education based on environments that use Internet as a communication channel has grown larger and larger. These environments make available many tools that support communication through the Internet (for example: chat, e-mail, newsgroup). In the literature, many articles relate the large amount of work needed by the teacher of a distance course to accompany properly the development of the students. In order to help the teacher with the task of accompanying the development of the students in a distance course we developed the interface agent Chapa, described in details in this dissertation. Chapa's focus is on helping the analysis of participants' contributions to a chat session that took place in T elEduc, a supporting environment for distance education. In order to do that, it is capable of selecting which messages are more interesting to one user, allowing him to analyze only a ftaction of the total number of messages that exist in a session. lt is able to do this selection based on a specific data dictionary which is built for each user by means of learning techniques inherent to the technology of interface agents. In this work, some preliminary tests were done with Chapa. However, even though the results were very positives, it is still necessary to realize more tests in real world courses in order to better proofChapa's effectiveness / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
304

Estudo de dialogos orientados a tarefa usando a teoria de multiagentes

Roman, Norton Trevisan 19 September 2001 (has links)
Orientador : Ariadne Maria Brito Rizzoni Carvalho / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-07-31T15:20:49Z (GMT). No. of bitstreams: 1 Roman_NortonTrevisan_M.pdf: 3771928 bytes, checksum: ad1c0112d22fd005b839ae2b6afdc94f (MD5) Previous issue date: 2001 / Resumo: o processamento de diálogos em uma língua natural é um campo bastante vasto e não suficientemente explorado da Inteligência Artificial. Os inúmeros detalhes e particularidades existentes não só na própria língua, como também na estrutura de um diálogo em si impõem barreiras ao modelamento deste processamento. Dessa forma, para se modelar efetivamente um diálogo faz-se necessário o modelamento não só das regras gramaticais particulares da língua, mas também de fenômenos próprios de diálogos, como elipses, o uso de pronomes e a coerência entre as idéias expressas por cada fala presente. Nessa dissertação é desenvolvido um sistema multiagentes que implementa o modelo para tratamento de diálogos originalmente desenvolvido por Grosz e Sidner. O objetivo deste sistema é testar a interação entre as estruturas que, de acordo com estas pesquisadoras, compõem a estrutura de um discurso, fazendo-o sob a luz do paradigma de multiagentes / Abstract: Natural language dialogue processing is a very extensive and yet not enough explored field in Artifitial Intelligence. The inumerous details and particularities, not only within the language itself, but also within the dialogue structure, present several obstacles to modeling the processo. Therefore, in order to effectivally mo deI a dialogue, it is necessary to model not only particular grammatical rules, but also the dialogue phenomena, wich involves ellipsis, the use of pronouns and the coherence between the ideas expressed by each utterance in the dialogue. In this work a multiagent system that implements the dialogue modeling originally proposed by Grosz and Sidner is developed. The system's goal is to test the interaction between the structures that, according to these researchers, compose the discourse structure, using the multiagents paradigm / Mestrado / Mestre em Ciencia da Informação
305

Previsão de séries temporais utilizando pools de preditores criados a partir do particionamento da série e da divisão da tarefa de previsão

VILA NOVA FILHO, Sérgio René Pessoa 28 August 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-04-22T19:11:22Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO Sérgio René Pessoa Vila Nova Filho.pdf: 10289306 bytes, checksum: 7f8f4add31df1fd1cdafa9afd295d41d (MD5) / Made available in DSpace on 2016-04-22T19:11:22Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO Sérgio René Pessoa Vila Nova Filho.pdf: 10289306 bytes, checksum: 7f8f4add31df1fd1cdafa9afd295d41d (MD5) Previous issue date: 2015-08-28 / A análise de séries temporais é uma importante área de estudo em diversos domínios. Grande parte das pesquisas em análise de séries temporais objetivam encontrar um modelo de previsão que utiliza dados passados da série para prever o seu valor no futuro, e então utiliza-o para a tomada de decisões. Algumas séries temporais apresentam padrões de comportamento que se repetem ao longo dela, tais padrões possuem tamanhos variados e podem ser utilizados para auxiliar a previsão. Esta dissertação propõe um sistema para previsão de séries temporais baseado em dois métodos principais: o primeiro consiste em particionar a série a fim de separar seus padrões de comportamento, o segundo divide a tarefa de previsão nas subtarefas de estimar o sentido da série no futuro e na de estimar o próximo valor a partir da previsão do sentido e do comportamento anterior da série. Para cada uma dessas divisões, é treinado um preditor especialista na tarefa de predição e no padrão de comportamento contido na partição. Para realizar um estudo comparativo, foram utilizadas quatro séries temporais, sendo duas financeiras e duas bastante utilizadas em estudos recentes. Quatro métricas foram usadas para avaliar o modelo proposto, e seus resultados foram comparados às performances dos modelos de Rede Neural Multilayer Perceptron (MLP) e Máquina de Vetor de Suporte para Regressão (SVR), além de modelos de estudos recentes. Também foram analisados os impactos da variação de cada parâmetro do sistema proposto com relação ao desempenho da previsão. O modelo proposto apresentou desempenho superior aos outros modelos avaliados, nas quatro séries. / Time series analysis is an important area of study in many expertise fields. Great part of the researches in time series analysis aims to find a prediction model, which analyzes the past data to predict the series future value, and then use it to make decisions. Some series exhibit behaviors patterns that repeat along it, such patterns have different sizes and could be used to help the forecast. This dissertation proposes a system to predict the future values of a time series, using two main methods: the first consist on partitioning the series, to segregate behaviour patterns, the second divides the prediction task in the subtasks of estimating the series future direction and the subtask of estimating the series future value from the direction forecast and the past values of the series. For each one of these divisions, a predictor is trained and becomes a specialist on the prediction subtask and in the behaviour pattern of the partition. To perform a comparative study, four time series were used, two are financial time series and two are used in many recent researches. Four performance metrics were used to evaluate, and the results were compared to the results of the Neural Network model (MLP) and the Support Vector Machine for Regression model (SVR), as well as other published studies models. The impacts of the variation of the models parameters on the prediction performance were analyzed as well. The proposed model presented better performance than the compared models on the four series evaluated.
306

Uma abordagem ontológica para modelagem de crimes contra o patrimônio

BARROS, Patrícia Vieira da Silva 28 August 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-04-25T18:31:02Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO Patrícia Vieira da Silva Barros.pdf: 3244402 bytes, checksum: 0050725dc0dec4a0851eb82f87d61d1d (MD5) / Made available in DSpace on 2016-04-25T18:31:02Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO Patrícia Vieira da Silva Barros.pdf: 3244402 bytes, checksum: 0050725dc0dec4a0851eb82f87d61d1d (MD5) Previous issue date: 2015-08-28 / CNPQ / O Código Penal Brasileiro, em seu Título II (arts. 155 a 183), define os crimes contra o patrimônio. O objetivo da Lei Penal é proteger o patrimônio da pessoa física e jurídica. Tanto o crime de furto, roubo, latrocínio, extorsão e a apropriação indébita estão inseridos no rol dos crimes contra o patrimônio. A diferença entre tais crimes será mostrada na OntoCrimePatrimonio, uma abordagem ontológica que utiliza uma linguagem controlada, a qual ajuda o usuário na tomada de decisão sem que este conheça os formalismos utilizados internamente pelo sistema onde serão realizadas inferências a partir da prova fornecida pelos raciocinadores, averiguando se tal diferenciação entre esses crimes estão ontologicamente e logicamente corretos. / The Brazilian Penal Code, in its Title II (Arts. 155-183) defines the crimes against property. The aim of the Criminal Law is to protect the assets of individuals and companies. Both the crime of theft, burglary, robbery, extortion and embezzlement are inserted in the list of crimes against property. The difference between such crimes will be shown in OntoCrimePatrimonio, an ontological approach that uses a controlled language, which helps the user in making a decision without it knows the formalities used internally by the system which will be held inferences from the evidence provided by reasoners, ascertaining whether such a differentiation between these crimes are ontologically and logically correct.
307

Modelo de Mistura de Gaussianas Fuzzy Contextual

PORTELA, Nara Miranda 27 February 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-04-25T18:37:27Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) TESE Nara Miranda Portela.pdf: 21542071 bytes, checksum: 86c237a4ab4279bb06fa75ca13e9de33 (MD5) / Made available in DSpace on 2016-04-25T18:37:27Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) TESE Nara Miranda Portela.pdf: 21542071 bytes, checksum: 86c237a4ab4279bb06fa75ca13e9de33 (MD5) Previous issue date: 2015-02-27 / CAPES / Métodos de agrupamento identificam uma organização dos padrões existentes em um conjunto de dados, encontram similaridades ou diferenças entre os padrões existentes e assim, derivam conclusões úteis a respeito dos dados. Quando existe dependência entre dados e seus vizinhos, a vizinhança do dado analisado pode fornecer informação valiosa e pouco custosa. Na abordagem contextual do agrupamento, assume-se uma dependência entre os dados e seus vizinhos buscando um resultado mais eficiente. Modelos de Mistura Finita Variante no Espaço (SVFMM) é um método de agrupamento contextual que possibilita a modelagem da correlação espacial dos dados diretamente nos pesos das misturas através da combinação do Modelo de Mistura de Gaussianas (GMM) com Campos Aleatórios Markovianos (MRF). Os parâmetros do SVFMM são estimados via máxima probabilidade a posteriori (MAP) usando o algoritmo Expectation Maximization (EM). Os primeiros SVFMMs propostos precisavam de uma etapa reparatória adicional no algoritmo EM para garantir que as propriedades de probabilidade dos pesos da mistura fossem conservadas, ou seja, que eles fossem sempre positivos e sua soma, para todos os componentes, fosse sempre igual a 1 (um). Derivações do SVFMM buscaram eliminar essa etapa reparatória, no entanto, foi necessário adotar distribuições de probabilidade que aumentassem o número de parâmetros do modelo ou assumir configurações do MRF cujos parâmetros deveriam ser determinados empiricamente e não calculado em forma fechada a partir dos dados. Nós propomos, neste trabalho, o Modelo de Mistura de Gaussianas Fuzzy Contextual (CFGMM), que utiliza o Modelo de Mistura de Gaussianas Fuzzy (FGMM) como método de agrupamento e Campos Aleatórios Markovianos Gaussianos como técnica de modelagem da relação espacial entre dados vizinhos. A abordagem fuzzy do GMM possibilitou a simplificação matemática da estimação dos parâmetros do modelo em relação à estimativa MAP do SVFMM. No modelo proposto, os parâmetros não são estimados via MAP, e sim pela aplicação do gradiente para minimizar a função objetivo do FGMM. A restrição imposta aos pesos da mistura foi incorporada na derivação das equações dos parâmetros do modelo, eliminando, assim, a necessidade de uma etapa de correção adicional sem aumentar o número de parâmetros do modelo e garantindo que os parâmetros do MRF ainda fossem calculados de forma fechada a partir dos dados. Realizamos a validação do CFGMM como ferramenta de agrupamento contextual de pixels na segmentação de imagens baseada em regiões. Estudos de caso usando imagens sintéticas e bases dados de imagens, tais como BrainWeb e Berkeley, mostraram que a abordagem contextual é capaz de melhorar o desempenho do FGMM na segmentação de imagens. Em comparação com outros métodos de agrupamento, o CFGMM obteve o melhor desempenho na segmentação de imagens com alto nível de ruído. A desvantagem do CFGMM em relação aos métodos de agrupamento pontuais é o maior tempo de processamento devido à incorporação do contexto no cálculo dos parâmetros do modelo. Além disso, o CFGMM apresenta uma tendência à perda de definição dos detalhes das regiões da imagem ao longo das iterações. No entanto, esse problema pode ser sanado adotando-se um critério de parada precoce. / Clustering aims to group a set of objects in such a way that objects in the same group are more similar to each other than to those in other groups according to some criterion. Clustering methods search for patterns in a dataset and discover similarities or differences among the objects in order to draw conclusions about them. When exists dependency between data and its neighbors, the neighborhood of the analyzed data can provide useful and inexpensive information. In the contextual clustering approach, it is assumed correlation between data and its neighbors. Spatially Variant Finite Mixture Models (SVFMM) is a contextual clustering technique that provides the possibility of modeling the pixel spatial information directly in the mixture weights by combining Gaussian Mixture Models (GMM) and Markov Random Fields (MRF). The parameters of the SVFMM are estimated using maximum a posteriori probability (MAP) with the Expectation Maximization algorithm. First SVFMMs needed a reparatory step in the EM algorithm to ensure that mixture weights probability properties were preserved, i.e., they should be always positive and their sum, among all groups, should be equal to one. SVFMM based methods were proposed to eliminate this reparatory step. To accomplish this task, however, they adopted probabilities distributions that improved the number of models parameters or they assumed MRF configurations whose parameters could not be calculated in a closed form from the data but in an empirical way. In this work, we propose the Contextual Fuzzy Gaussian Mixture Model (CFGMM) that use Fuzzy Gaussian Mixture Model (FGMM) as clustering technique and Gaussian Markov Random Field to model neighboring data relationship. The Fuzzy approach of the GMM facilitates the mathematic simplification of the model parameters estimation compared to MAP estimation of the SVFMM. In the proposed model, parameters are not estimated using MAP but using gradient to minimize the objective function of the FGMM. The mixture weights constraints were taken into account in the equations derivation of the model parameters. Thus, we eliminate one extra step without improve the number of parameters and ensuring that MRF parameters were still calculated in a closed form from the data. We perform the CFGMM validation as contextual pixel clustering tool for region based image segmentation. Case studies using synthetic images and real image databases, such as BrainWeb and Berkeley, show that contextual approach is capable of improving the image segmentation performance when compared with the FGMM. Compared with other clustering methods, the proposed model obtains the best performance for images having high level of noise. The disadvantage of CFGMM is that it requires more time to segment an image than techniques that do not take into account contextual information. Beside, CFGMM induce definition loss of the image region details along the algorithm iterations. However, this problem can be rectified by adopting an early stop criterion.
308

Máquinas morfológicas de aprendizado extremo aplicadas à detecção e classificação de lesões em mamografias

SILVA, Washington Wagner Azevedo da 15 March 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-09-20T21:19:15Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Washington Wagner Azevedo da Silva.pdf: 5812722 bytes, checksum: d0703470fadd9897e68f897694b08121 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-09-21T18:23:48Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Washington Wagner Azevedo da Silva.pdf: 5812722 bytes, checksum: d0703470fadd9897e68f897694b08121 (MD5) / Made available in DSpace on 2018-09-21T18:23:48Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Washington Wagner Azevedo da Silva.pdf: 5812722 bytes, checksum: d0703470fadd9897e68f897694b08121 (MD5) Previous issue date: 2017-03-15 / CAPES / De acordo com a Organização Mundial de Saúde, o câncer de mama é a forma mais comum de câncer entre as mulheres adultas em todo o mundo, sendo um dos tipos de câncer mais fatal. Estudos mostram que a disponibilização de diagnóstico precoce pode contribuir para a redução das taxas de mortalidade e aumentar as opções de tratamento. Diagnósticos assistidos por computador (Computer Aided Detection/Diagnosis) estão sendo propostos e usados visando auxiliar os profissionais da área de saúde. Morfologia Matemática é uma teoria de processamento não linear amplamente utilizada no processamento de imagens digitais. É baseada na teoria matemática da intersecção e união de conjuntos. Máquinas de Aprendizado Extremo (Extreme Learning Machines, ELMs) são máquinas de aprendizado compostas por pelo menos uma camada escondida, com nodos com kernels configuráveis e pesos aleatórios, e uma camada de saída, composta por nodos com kernels lineares cujos pesos são ajustados de forma não iterativa, por meio da pseudoinversa de Moore-Penrose. Neste trabalho são propostas as Máquinas Morfológicas de Aprendizado Extremo (Morphological Extreme Learning Machines, mELMs), ou seja, ELMs com neurônios na camada escondida baseados nos operadores morfológicos não lineares básicos de erosão e dilatação. O método proposto foi avaliado uilizando 2.796 imagens de mamografias da base de dados IRMA (Image Retrieval in Medical Applications). Através dos experimentos realizados foi verificado que as mELMs de erosão e dilatação, no que concerne à acurácia e ao índice kappa, apresentaram desempenho de classificação equivalente ou superior, quando comparados com os resultados obtidos pelos classificadores clássicos do estado da arte. A base de dados IRMA é dividida em quatro tipos de tecidos (adiposo, fibroso, heterogeneamente denso e extremamente denso). Foram realizados experimentos com cada tipo de tecido e com toda a base de dados. Os atributos foram extraídos usando momentos de Haralick e Wavelets. / According to the World Health Organization, breast cancer is the most common form of cancer among adult women worldwide, being one of the most fatal types of cancer. Studies show that providing early diagnosis can contribute to a reduction in mortality rates and increase as treatment options. Computer Assisted Diagnostics are being proposed and used in the health area. Mathematical Morphology is a nonlinear theory widely used in the processing of digital images. It is a based on the mathematical theory of intersection and union of sets. Extreme Learning Machines (ELMs) are learning machines composed of at least one hidden layer, with nodes with configurable kernels and random weights, and an output layer composed of nodes with linear kernels whose weights are adjusted in a non-iterative way, by means of the Moore-Penrose's pseudoinverse. In this work are proposed as Morphological Machines of Extreme Learning (mELMs), that is, ELMs with neurons in the hidden layer based on the basic non-linear morphological operators of erosion and dilation. The proposed method was evaluated using 2,796 mammography images from the IRMA database (Image Recovery in Medical Applications). Through experiments carried out with verified that as mELMs of erosion and dilatation, we presented performance of equivalent or superior classification, when compared with the results obtained by classifiers classic of the state of the art. An IRMA database is divided into four tissue types (adipose, fibrous, heterogeneously dense and dense extremity). Experiments were performed with each type of tissue and with all database. The attributes were extracted using moments from Haralick and Wavelets.
309

Raciocínio baseado em casos na confecção de termos de referência para contratações públicas

JULIÃO, Daniel Vitor Santos 05 September 2016 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-09-24T19:43:13Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Daniel Vitor Santos Julião.pdf: 3967042 bytes, checksum: c6616020aab1b2713e69ad7f868add6c (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-09-25T18:08:34Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Daniel Vitor Santos Julião.pdf: 3967042 bytes, checksum: c6616020aab1b2713e69ad7f868add6c (MD5) / Made available in DSpace on 2018-09-25T18:08:34Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Daniel Vitor Santos Julião.pdf: 3967042 bytes, checksum: c6616020aab1b2713e69ad7f868add6c (MD5) Previous issue date: 2016-09-05 / Todos os dias, os órgãos públicos precisam de contratos firmados com terceiros para a manutenção de suas operações, o fornecimento de seus serviços, ou o atendimento às suas demandas internas, como a execução de obras de engenharia, aquisição de equipamento e até mesmo a aquisição de sistemas de informação específicos. A licitação é o procedimento administrativo pelo qual a Administração Pública expõe suas necessidades e intenções, de modo a exprimir vontade de celebrar contrato administrativo, visando encontrar a proposta mais vantajosa, por meio da publicação de Termo de Referência ou Projeto Básico. Esse tipo de documento contém todas as definições necessárias e suficientes para os procedimentos administrativos. Na maioria dos casos, para cada uma das aquisições ou contratações diferentes, é necessário a confecção de um documento e seus artefatos constituintes, o que pode ser uma tarefa de alta complexidade, além de onerar o tempo dedicado às atividades de gestão propriamente dita, executadas diariamente pelos representantes dos órgãos públicos incumbidos de tais responsabilidades. Com a fundamentação teórica dos processos licitatórios de aquisições e contratações e a análise das técnicas do Raciocínio Baseado em Casos (RBC), mais fortemente do Raciocínio Baseado em Casos Textual (RBCT), foi possível o desenvolvimento de um protótipo de aplicação de RBC para a execução de quasi-experimento visando verificar, pela realização de teste de hipóteses, como a Tecnologia da Informação e Comunicação (TIC) torna mais ágeis as tarefas referentes ao domínio da confecção de Termos de Referência. Assim, a presente pesquisa visa apresentar o uso do Raciocínio Baseado em Casos, como forma de auxiliar os gestores públicos, agilizando suas exaustivas buscas por material que venha a ser útil, tornando seus processos e tarefas cada vez menos demorados. / Every day, government entities need contracts with third parties for the maintenance of its operations, the provision of their services, or meet their inner demands, such as the execution of engeneering works, aquisition of equipment and even to purchase specific information systems. Bidding is the administrative procedure by which the Public Administration exposes your needs and intentions, in order to express willingness to signing administrative contract, aiming to find the most advantageous tender, publishing Terms of Reference or Basic Project Project. This type of document contains all the necessary settings and sufficient for administrative procedures. In most cases, for each acquisition or different contracts, the production of a document and its constituent artifacts is necessary, which can be a highly complex task, and encumber the time devoted to actual management activities carried out daily by representatives of those government entities entrusted with such responsibilities. With the theoretical basis of the bidding processes and the analysis of techniques of Case Based Reasoning (CBR), more strongly the Textual Case Based Reasoning (TCBR), it was possible to develop a CBR prototype application to execute a quasi-experiment in order to verify, by performing hypothesis testing, how the Information and Communication Technology (ICT) become tasks of preparation of Terms of Reference more agile. Thus, this research presents the use of Case Based Reasoning, in order to assist public managers, streamlining their exhaustive search for material that will be useful, making its processes and tasks less and less time consuming.
310

Metodologia da descoberta cientifica e inteligencia artificial

Gonzales, Maria Eunice Quilici 16 July 2018 (has links)
Orientador : Zeljko Loparic / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Filosofia e Ciencias Humanas / Made available in DSpace on 2018-07-16T09:51:30Z (GMT). No. of bitstreams: 1 Gonzales_MariaEuniceQuilici_M.pdf: 34830142 bytes, checksum: 2b5e2b2cb44e1d091ead102c22b1f740 (MD5) Previous issue date: 1984 / Resumo: Analisamos nesta dissertação questões relativas à descoberta científica e aos processos cognitivos subjacentes a atividade de resolução humana de problemas. No que diz respeito à descoberta científica, nossa análise limita-se basicamente a uma investigação dos trabalhos de Hanson e Simon sobre a lógica da descoberta científica. Quanto aos processos cognitivos subjacentes à atividade de resolução humana de problemas, nosso estudo estará apoiado nas idéias de Polya, Newell e Simon, Hintikka e Remes. O presente trabalho divide-se em duas partes centrais que se desdobram nos capítulos I-V. No capítulo I, iniciamos o estudo da descoberta confrontando os pontos de vista de Hanson e Popper sobre a lógica da descoberta científica. A seguir, com base nas obras de Buchanan Logics of Scientific Discovery e de Kuhn A Estrutura das Revoluções Científicas, desenvolvemos uma análise do conceito de descoberta e discutimos algumas dificuldades concernentes à noção da lógica da descoberta. Concluímos o capítulo I discutindo algumas das teses centrais que poderiam caracterizar uma metodologia da descoberta científica. No capítulo II, analisamos as principais teses de Hanson sobre a lógica da descoberta, em três secções que correspondem aos três estágios da obra desse autor. Iniciamos o capítulo discutindo as teses de Patterns of Discovery. A seguir, o artigo "Is There a Logic of Scientific Discovery?¿ é analisado e, finalmente, ¿Retroductive Inference" completa a nossa análise do trabalho de Hanson. No capítulo III examinamos algumas idéias relativas a uma possível metodologia da descoberta científica. Iniciamos o capítulo investigando, com base na obra de Polya - A Arte de Resolver Problemas, uma área de estudos denominada "Heurística", a qual trata de métodos de resolução de problemas e de processos de descoberta. Após uma breve análise acerca da natureza dos problemas, discutimos a tese segundo a qual a descoberta científica pode ser entendida como um processo de resolução de problemas. Concluímos o capítulo apresentando um método conhecido como método de análise (o qual foi utilizado pelos antigos para a descoberta de provas de teoremas e soluções de problemas da geometria) e sugerindo que o estudo desse método poderia ser útil para uma análise da metodologia da descoberta científica. Nos capítulos IV e V, que constituem a segunda parte da tese, discutimos, respectivamente, a teoria de resolução de problemas de Newell e Simon e a teoria da descoberta de Simon, desenvolvidas na área de Inteligência Artificial. No capítulo IV I damos especial destaque ao estudo de um método conhecido nessa área como método heurístico de busca e mostramos em que sentido ele poderia ser entendido como uma versão do método de análise. No capítulo V apresentamos a teoria da descoberta elaborada por Simon, na versão psicológica e sociológica, de um lado, e na versão "lógica", de outro. Concluímos a dissertação fazendo um balanço daquilo que foi apresentado nos capítulos anteriores, e questionando as contribuições da Inteligência Artificial, no que diz respeito ao esclarecimento das noções apresentadas sobre o processo da descoberta científica / Abstract / Mestrado / Mestre em Filosofia

Page generated in 0.024 seconds