Spelling suggestions: "subject:"inteligência artificial."" "subject:"inteligentes artificial.""
701 |
Modelado y simulación del comportamiento neurológico del tracto urinario inferior: sistema de ayuda al diagnóstico / Modelling and simulation of the neurological behaviour of the lower urinary tract: decision support systemGil, David 12 November 2008 (has links)
No description available.
|
702 |
Migração de agentes em sistemas multi-agentes abertos / Agent migration in open multi-agents systemsHubner, Jomi Fred January 1995 (has links)
A Inteligência Artificial Distribuída traz uma série de novas perspectivas para a computação quando considera sistemas heterogêneos, adaptativos, evolutivos, continuamente em funcionamento e abertos. Estes sistemas, chamados de sociedades, apresentam tais características por permitirem que seus componentes, chamados de agentes, migrem entre sociedades, isto é, agentes podem sair e entrar em sociedades. Sociedades abertas permitem a migração dos agentes e coloca dois tipos de problemas para o agente que está migrando: problemas de linguagem e interação, que concernem ao uso de expressões usadas e à maneira como as interações são organizadas na nova sociedade; e, problemas de conhecimento e atuação, que se referem à como um agente irá se comportar a fim de realizar justamente aquilo que a sociedade espera dele. Este trabalho se atem aos problemas de conhecimento e atuação. Para que os agentes da sociedade possam cooperar e coordenar suas ações, é necessário que tenham conhecimento das capacidades, habilidades, desejos e planos dos outros agentes. Grande parte do conhecimento a respeito dos outros pode ser extraído dos papéis que estes podem assumir na sociedade. Assim sendo, o problema colocado para este trabalho é como os agentes da sociedade que receberam o agente imigrante e o próprio agente imigrante conhecerão/aprenderão os papéis uns dos outros. São desenvolvidos três mecanismos de identificação de papéis, bem como a comparação entre eles e sua adequação a tipos de migração. Os três mecanismos são os seguintes: i) Identificação de papéis por protocolo de apresentação: é proposta uma linguagem de descrição de protocolos (LDP) e uma especificação de protocolo de apresentação nesta LDP. Os agentes que utilizam este mecanismo conseguem se identificar com rapidez, porém necessitam conhecer várias informações “locais” da sociedade, o que pode ser muito restritivo para um agente migrante. ii) Identificação de papéis por observação e classificação: esta solução procura classificar o agente observado em um papel de um conjunto prédefinido de papéis. Neste conjunto, os papéis são descritos por meio de processos de interação (PI). Para isto, desenvolveu-se a noção de PI. Para isto, desenvolveu-se a noção de PI. Foram desenvolvidas duas formas de proceder a classificação: construir uma especificação do agente a partir da observação das suas ações e verificar se esta pertence ao conjunto pré-definido de papéis; e, verificar se o comportamento do agente confere com as execuções possíveis para algum dos papéis pré-definidos. Este mecanismo é mais adequado para sociedades abertas e tem boa precisão no resultado apresentado, porém, a identificação do papel de um agente pode ser demorada. iii) Identificação de papéis por reconhecimento de intenções em planos: este mecanismo baseia-se na existência de uma relação entre intenções e papéis. A partir das ações observadas para o agente, procura-se saber qual seu plano, sua intenção e, conseqüentemente, seu papel. Para isto foi implementado um procedimento de indução de planos. Este mecanismo também é adequado para sociedades abertas, no entanto, a identificação, embora satisfatória, nem sempre é completamente correta. Estes três mecanismos foram testados em simulações numa implementação da sociedade Produtor - Consumidor, onde puderam ser comprovadas as características de cada um. / Distributed Artificial Intelligence brings a number of new perspectives to Computing Science when heterogeneous, adaptative and evolutive systems, those under functioning and open, are taken into consideration. These systems, named societies, present these characteristics because they allow their components, named agents, to migrate within societies, that is, agents are allowed to enter and to leave societies. Agents' migration brings two kinds of problems to the migrating agent: language and interaction problems both related to the use of used expressions and to the way the interactions are organized in the new society; and, knowledge and performance problems refering to the way the agent will behave in order to accomplish exactly what society expects him to do. This work is limited to knowledge and performance problems. In order to cooperate and coordinate their actions, the society's agents need to learn about the capabilities, abilities wishes and plans of other agents. A great part of knowledge of others can be extracted from the social roles these agents can play. Therefore, the problem posed in this work is how social agents who has received an immigrating agent and the immigrating agent himself will know and learn one another's roles. Three role identification mechanisms, and the comparison between them and their adaptation to migration types as well are developed. The three mechanisms are the following: i) Role Identification by means of presentation protocol:a language of protocol description (LPD) and a specification of presentation protocol in this LPD are proposed. The agents who use this mechanism can rapidly identify each other, however they need know a number of 'local' social information, which can be very restrictive to the migrating agent. ii) Role identification by means of observation and classification: this solution tries to classify the observed agent as a role out of set of definite roles. In this set, the roles are described by means of interactional processes (IP). Therefore, the notion of IP was developed. Two ways to proceed the role classification were developed: to build the agent's especification departing from the observation of their actions and to check whether this especification belongs to a set of pre-defined roles; and to check whether the agent's behavior fits the possible executions to some predefined roles. This mechanism is more adequate to open societies and has good precision in the result presented, but, the agent's role identification can last longer. iii) Role Identification by means of intention and plans recognition: this mechanism is based on the existence of a relationship between intentions and roles. By departing from the agent's observed actions, his plan, intention, consequently, his role is recognized. Therefore an induced plan procedure was implemented. This mechanism is also adequate to open societies, however, the identification, though satisfactory, is not always totally correct. These three mechanisms were tested in simulated situations in a kind of Producer- Consumer Society implementation in which each one's characteristics could be verified.
|
703 |
UMA ANÁLISE COMPARATIVA DA APLICAÇÃO DA TEORIA DOS JOGOS AOS VÁRIOS TIPOS DE LEILÕES EM MERCADOS ELÉTRICOS / A COMPARATIVE ANALYSIS OF THE APPLICATION THE GAME THEORY TO VARIOUS TYPES OF AUCTIONS IN ELECTRIC MARKETSCOSTA FILHO, Nilson Sá 23 February 2017 (has links)
Submitted by Maria Aparecida (cidazen@gmail.com) on 2017-04-03T15:12:14Z
No. of bitstreams: 1
Nilson Sa.pdf: 782333 bytes, checksum: d519ab26cc38c2ed5e980a8bfd2aa254 (MD5) / Made available in DSpace on 2017-04-03T15:12:14Z (GMT). No. of bitstreams: 1
Nilson Sa.pdf: 782333 bytes, checksum: d519ab26cc38c2ed5e980a8bfd2aa254 (MD5)
Previous issue date: 2017-02-23 / CAPES / The various changes that have happened in the electricity markets around the world have
introduced competition among the participants in this sector. Thus, the generation agents
that participate on electrical energy auctions may prefer to build optimal strategies to
maximize their profits. Mathematical models based on game theory have been used in the
analysis of electric energy markets and especially in electricity auctions. In this sense, this
theory optimizes the decision-making process for setting prices offered by the generators to
the system operator in a power auction. This research discusses a comparative analysis of
individual strategies of each generating unit, using a non-cooperative game theory
approach and incomplete information on various types of auctions. A modified IEEE 57-
bus test system is used to illustrate the main features of the auction models used. / As diversas mudanças que ocorreram nos mercados de eletricidade em todo o mundo têm
introduzido a competição entre os participantes neste setor. Assim, os agentes de geração
que participam de leilões de energia elétrica podem construir estratégias ótimas para
maximizar seus lucros. Modelos matemáticos baseados na teoria dos jogos têm sido
utilizados na análise de mercados de energia elétrica e, especialmente, em leilões de
eletricidade. Nesse sentido, esta teoria otimiza o processo de tomada de decisão para fixar
os preços oferecidos pelos geradores ao operador do sistema em um leilão de energia. Este
trabalho discute uma análise comparativa das estratégias individuais de cada unidade
geradora, usando uma abordagem de teoria dos jogos não-cooperativa e informações
incompletas sobre vários tipos de leilões. Um sistema de teste IEEE 57-bus modificado é
usado para ilustrar as principais características dos modelos de leilão utilizados.
|
704 |
Cloud CEIB I+D. Sistema de gestión y extracción de conocimiento de la imagen médicaSalinas Serrano, José María 20 June 2013 (has links)
No description available.
|
705 |
Contributions to 3D Data Registration and RepresentationMorell, Vicente 02 October 2014 (has links)
Nowadays, new computers generation provides a high performance that enables to build computationally expensive computer vision applications applied to mobile robotics. Building a map of the environment is a common task of a robot and is an essential part to allow the robots to move through these environments. Traditionally, mobile robots used a combination of several sensors from different technologies. Lasers, sonars and contact sensors have been typically used in any mobile robotic architecture, however color cameras are an important sensor due to we want the robots to use the same information that humans to sense and move through the different environments. Color cameras are cheap and flexible but a lot of work need to be done to give robots enough visual understanding of the scenes. Computer vision algorithms are computational complex problems but nowadays robots have access to different and powerful architectures that can be used for mobile robotics purposes. The advent of low-cost RGB-D sensors like Microsoft Kinect which provide 3D colored point clouds at high frame rates made the computer vision even more relevant in the mobile robotics field. The combination of visual and 3D data allows the systems to use both computer vision and 3D processing and therefore to be aware of more details of the surrounding environment. The research described in this thesis was motivated by the need of scene mapping. Being aware of the surrounding environment is a key feature in many mobile robotics applications from simple robotic navigation to complex surveillance applications. In addition, the acquisition of a 3D model of the scenes is useful in many areas as video games scene modeling where well-known places are reconstructed and added to game systems or advertising where once you get the 3D model of one room the system can add furniture pieces using augmented reality techniques. In this thesis we perform an experimental study of the state-of-the-art registration methods to find which one fits better to our scene mapping purposes. Different methods are tested and analyzed on different scene distributions of visual and geometry appearance. In addition, this thesis proposes two methods for 3d data compression and representation of 3D maps. Our 3D representation proposal is based on the use of Growing Neural Gas (GNG) method. This Self-Organizing Maps (SOMs) has been successfully used for clustering, pattern recognition and topology representation of various kind of data. Until now, Self-Organizing Maps have been primarily computed offline and their application in 3D data has mainly focused on free noise models without considering time constraints. Self-organising neural models have the ability to provide a good representation of the input space. In particular, the Growing Neural Gas (GNG) is a suitable model because of its flexibility, rapid adaptation and excellent quality of representation. However, this type of learning is time consuming, specially for high-dimensional input data. Since real applications often work under time constraints, it is necessary to adapt the learning process in order to complete it in a predefined time. This thesis proposes a hardware implementation leveraging the computing power of modern GPUs which takes advantage of a new paradigm coined as General-Purpose Computing on Graphics Processing Units (GPGPU). Our proposed geometrical 3D compression method seeks to reduce the 3D information using plane detection as basic structure to compress the data. This is due to our target environments are man-made and therefore there are a lot of points that belong to a plane surface. Our proposed method is able to get good compression results in those man-made scenarios. The detected and compressed planes can be also used in other applications as surface reconstruction or plane-based registration algorithms. Finally, we have also demonstrated the goodness of the GPU technologies getting a high performance implementation of a CAD/CAM common technique called Virtual Digitizing.
|
706 |
Aplicación de un nuevo modelo de entornos personales de aprendizaje (PLE) y aprendizaje colaborativo apoyado por computador (CSCL) en la enseñanza de la InformáticaPérez Beltrán, Jorge 26 November 2015 (has links)
El objetivo general de la tesis consiste en comparar el método tradicional de aprendizaje con el método CSCL (Computer Supported Collaborative Learning) para la enseñanza de la Informática. Se ha comprobado si el CSCL mejora la retención de conocimientos y las calificaciones de los alumnos, y si la retroalimentación implícita en esta metodología mejora el aprendizaje. Además, se determinará con qué tipo de materia funciona mejor el CSCL. Con todo ello se pretenderá evitar las altas tasas de abandono escolar prematuro recuperando del fracaso a aquellos estudiantes que con una la metodología habitual no son capaces de seguir el proceso normal de aprendizaje. Como elemento principal para este objetivo general, en la tesis se presenta el diseño y desarrollo de herramientas informáticas para la recopilación y análisis automático de datos sobre la interacción en el proceso de enseñanza-aprendizaje. En concreto, se han desarrollado dos herramientas para el análisis de wikis (Wiki’statistics) y foros (Forum Analyser). Mediante estas herramientas se consigue obtener gran cantidad de información de la wiki y del foro que permitirán determinar de forma semiautomática los puntos fuertes y débiles de grupos e individuos para así poder dirigir las clases al objetivo perseguido mejorando de este modo el proceso de enseñanza-aprendizaje. Estas herramientas facilitan la motivación de los alumnos en su proceso de aprendizaje ya que les facilita mucha información relativa al trabajo que ellos han realizado con el empleo de las TIC (Tecnologías de la Información y Comunicaciones) en la metodología CSCL. Otros objetivos de la presente tesis son la evaluación de la práctica docente del profesor en el uso de la metodología CSCL, determinar las preferencias y motivaciones de los alumnos a la hora de aprender con la metodología mencionada y comprobar el sentido crítico de los alumnos a la hora de evaluar a sus compañeros y a sí mismos en esta metodología desarrollada. Además, se han realizado distintos análisis para determinar qué herramientas se adaptan mejor al trabajo colaborativo en el CSCL y cuáles de ellas tiene un efecto más positivo en el proceso de enseñanza aprendizaje. Las principales aportaciones de la tesis doctoral son el diseño y desarrollo dos herramientas para el análisis semiautomático de las wikis y foros por parte del profesor, Wiki’statistics y Forum Analyser respectivamente. Estas herramientas servirán de ayuda para la detección de puntos fuertes y débiles de personas y grupos de trabajo. Se han desarrollado fórmulas y métodos para el cálculo más objetivo y justo de las calificaciones referentes a la participación de cada alumno en las herramientas colaborativas, wiki y foro. Además, se ha desarrollado un método para la comparación de herramientas: blog-esquemas mentales. Con todo ello se constituye una nueva metodología completa basada en el modelo CSCL/PLE para la enseñanza de la asignatura de informática en la enseñanza secundaria, aplicable también a otras disciplinas. El método propuesto y las herramientas diseñadas se han puesto en práctica durante los dos últimos años en el ámbito de la enseñanza secundaria, en los niveles de 1º, 2º, 3º y 4º de la ESO (Enseñanza Secundaria Obligatoria), en la asignatura optativa de Informática con un total de 148 estudiantes. La metodología usada en la experimentación real se ha basado en una investigación de campo en un instituto de secundaria, usando la metodología CSCL y Blended Learning (enseñanza mixta que combina la formación presencial tradicional con las nuevas tecnologías). Además, se han comparado estas experiencias con otras similares realizadas en el ámbito universitario en asignaturas de grados de ingeniería. Para la realización de estas experiencias se ha creado un entorno PLE-N (PLEs Networks, Personal Learning Environments Networks) para los estudiantes y, para la obtención de los resultados se han realizado encuestas, exámenes, votaciones por pares, cuestionarios, etc. También se ha hecho uso de redes sociales, herramientas audiovisuales y TIC. La hipótesis de la que se ha partido es que el uso de estas herramientas y metodología va a favorecer y mejorar el proceso de enseñanza-aprendizaje en el estudio de la Informática. El método desarrollado y aplicado ha sido de gran ayuda para los estudiantes, mejorando el proceso de enseñanza-aprendizaje. Todo esto es confirmado no sólo por las opiniones de los alumnos obtenidas a partir de encuestas sino también a partir de todos los datos objetivos extraídos de las diferentes pruebas que indican una mejora en el proceso de enseñanza-aprendizaje y, por supuesto, de la información obtenida a partir de las herramientas Wiki’statistics y Forum Analyser y el posterior análisis de los datos resultantes que permite detectar cuándo algún indicador se sale de lo normal y analizar su posible causa. Este análisis permite, además, comprobar cuáles son los puntos débiles del método de enseñanza usado por los docentes y poder corregirlo, tanto de cara a unidades didácticas posteriores o para cursos siguientes. Se ha comprobado que las redes sociales como Twitter combinadas en la metodología propuesta ayudan en buena medida a estudiar y preparar la asignatura, al igual que otras técnicas también combinadas en la metodología como la retroalimentación, el blog y los esquemas mentales. En general, se ha comprobado que la metodología colaborativa resulta ser mejor que la tradicional para la enseñanza de las herramientas eminentemente prácticas con las que se han realizado las experiencias. Además, se ha comprobado que los conocimientos adquiridos por los alumnos van mejorando a lo largo del tiempo en lugar de ir empeorando como se podía suponer. Por último, los estudiantes han resaltado esta experiencia como una manera muy útil y práctica para estudiar y comprender el tema, al mismo tiempo que se interactúa con las TIC. Todos estos resultados confirman la hipótesis de la que se partía.
|
707 |
Sistema basado en tecnologías del conocimiento para entornos de servicios web semánticosGarcía Sánchez, Francisco 28 September 2007 (has links)
En esta tesis se ha desarrollado un marco de trabajo que hace uso de las tecnologías de agentes y de Servicios Web Semánticos para la elaboración de aplicaciones que puedan tratar con el dinamismo de la Web, al tiempo que se pueden beneficiar de características como la autonomía, el aprendizaje y el razonamiento. Éste es el punto en que cobra relevancia la Ingeniería Ontológica. Las ontologías son los componentes que permiten que la comunicación entre agentes y Servicios Web, situados a distintos niveles de abstracción, se produzca de forma fluida y sin interpretaciones erróneas. La arquitectura del marco de trabajo desarrollado consta, fundamentalmente, de un entorno multi-agente, un conjunto de bases de conocimiento y diversas interfaces que permiten al sistema comunicarse, de forma efectiva, con las entidades externas identificadas, a saber, Servicios Web y proveedores de servicios, entidades (usuarios) consumidores de servicios, y desarrolladores. / In this thesis, a knowledge-based Semantic Web Services framework that successfully integrates Intelligent Agents and Semantic Web Services technologies has been developed. For achieving this combination, the framework takes an ontology-centred approach. Ontologies are the facilitating technology that enables a seamlessly communication between agents and services.
|
708 |
A new approach to Decimation in High Order Boltzmann MachinesFarguell Matesanz, Enric 20 January 2011 (has links)
La Màquina de Boltzmann (MB) és una xarxa neuronal estocàstica amb l'habilitat tant d'aprendre com d'extrapolar distribucions de probabilitat. Malgrat això, mai ha arribat a ser tant emprada com d'altres models de xarxa neuronal, com ara el perceptró, degut a la complexitat tan del procés de simulació com d'aprenentatge: les quantitats que es necessiten al llarg del procés d'aprenentatge són normalment estimades mitjançant tècniques Monte Carlo (MC), a través de l'algorisme del Temprat Simulat (SA). Això ha portat a una situació on la MB és més ben aviat considerada o bé com una extensió de la xarxa de Hopfield o bé com una implementació paral·lela del SA. Malgrat aquesta relativa manca d'èxit, la comunitat científica de l'àmbit de les xarxes neuronals ha mantingut un cert interès amb el model. Una de les extensions més rellevants a la MB és la Màquina de Boltzmann d'Alt Ordre (HOBM), on els pesos poden connectar més de dues neurones simultàniament. Encara que les capacitats d'aprenentatge d'aquest model han estat analitzades per d'altres autors, no s'ha pogut establir una equivalència formal entre els pesos d'una MB i els pesos d'alt ordre de la HOBM. En aquest treball s'analitza l'equivalència entre una MB i una HOBM a través de l'extensió del mètode conegut com a decimació. Decimació és una eina emprada a física estadística que es pot també aplicar a cert tipus de MB, obtenint expressions analítiques per a calcular les correlacions necessàries per a dur a terme el procés d'aprenentatge. Per tant, la decimació evita l'ús del costós algorisme del SA. Malgrat això, en la seva forma original, la decimació podia tan sols ser aplicada a cert tipus de topologies molt poc densament connectades. La extensió que es defineix en aquest treball permet calcular aquests valors independentment de la topologia de la xarxa neuronal; aquest model es basa en afegir prou pesos d'alt ordre a una MB estàndard com per a assegurar que les equacions de la decimació es poden solucionar. Després, s'estableix una equivalència directa entre els pesos d'un model d'alt ordre, la distribució de probabilitat que pot aprendre i les matrius de Hadamard: les propietats d'aquestes matrius es poden emprar per a calcular fàcilment els pesos del sistema. Finalment, es defineix una MB estàndard amb una topologia específica que permet entendre millor la equivalència exacta entre unitats ocultes de la MB i els pesos d'alt ordre de la HOBM. / La Máquina de Boltzmann (MB) es una red neuronal estocástica con la habilidad de aprender y extrapolar distribuciones de probabilidad. Sin embargo, nunca ha llegado a ser tan popular como otros modelos de redes neuronals como, por ejemplo, el perceptrón. Esto es debido a la complejidad tanto del proceso de simulación como de aprendizaje: las cantidades que se necesitan a lo largo del proceso de aprendizaje se estiman mediante el uso de técnicas Monte Carlo (MC), a través del algoritmo del Temple Simulado (SA). En definitiva, la MB es generalmente considerada o bien una extensión de la red de Hopfield o bien como una implementación paralela del algoritmo del SA. Pese a esta relativa falta de éxito, la comunidad científica del ámbito de las redes neuronales ha mantenido un cierto interés en el modelo. Una importante extensión es la Màquina de Boltzmann de Alto Orden (HOBM), en la que los pesos pueden conectar más de dos neuronas a la vez. Pese a que este modelo ha sido analizado en profundidad por otros autores, todavía no se ha descrito una equivalencia formal entre los pesos de una MB i las conexiones de alto orden de una HOBM. En este trabajo se ha analizado la equivalencia entre una MB i una HOBM, a través de la extensión del método conocido como decimación. La decimación es una herramienta propia de la física estadística que también puede ser aplicada a ciertos modelos de MB, obteniendo expresiones analíticas para el cálculo de las cantidades necesarias en el algoritmo de aprendizaje. Por lo tanto, la decimación evita el alto coste computacional asociado al al uso del costoso algoritmo del SA. Pese a esto, en su forma original la decimación tan solo podía ser aplicada a ciertas topologías de MB, distinguidas por ser poco densamente conectadas. La extensión definida en este trabajo permite calcular estos valores independientemente de la topología de la red neuronal: este modelo se basa en añadir suficientes pesos de alto orden a una MB estándar como para asegurar que las ecuaciones de decimación pueden solucionarse. Más adelante, se establece una equivalencia directa entre los pesos de un modelo de alto orden, la distribución de probabilidad que puede aprender y las matrices tipo Hadamard. Las propiedades de este tipo de matrices se pueden usar para calcular fácilmente los pesos del sistema. Finalmente, se define una BM estándar con una topología específica que permite entender mejor la equivalencia exacta entre neuronas ocultas en la MB y los pesos de alto orden de la HOBM. / The Boltzmann Machine (BM) is a stochastic neural network with the ability of both learning and extrapolating probability distributions. However, it has never been as widely used as other neural networks such as the perceptron, due to the complexity of both the learning and recalling algorithms, and to the high computational cost required in the learning process: the quantities that are needed at the learning stage are usually estimated by Monte Carlo (MC) through the Simulated Annealing (SA) algorithm. This has led to a situation where the BM is rather considered as an evolution of the Hopfield Neural Network or as a parallel implementation of the Simulated Annealing algorithm. Despite this relative lack of success, the neural network community has continued to progress in the analysis of the dynamics of the model. One remarkable extension is the High Order Boltzmann Machine (HOBM), where weights can connect more than two neurons at a time. Although the learning capabilities of this model have already been discussed by other authors, a formal equivalence between the weights in a standard BM and the high order weights in a HOBM has not yet been established. We analyze this latter equivalence between a second order BM and a HOBM by proposing an extension of the method known as decimation. Decimation is a common tool in statistical physics that may be applied to some kind of BMs, that can be used to obtain analytical expressions for the n-unit correlation elements required in the learning process. In this way, decimation avoids using the time consuming Simulated Annealing algorithm. However, as it was first conceived, it could only deal with sparsely connected neural networks. The extension that we define in this thesis allows computing the same quantities irrespective of the topology of the network. This method is based on adding enough high order weights to a standard BM to guarantee that the system can be solved. Next, we establish a direct equivalence between the weights of a HOBM model, the probability distribution to be learnt and Hadamard matrices. The properties of these matrices can be used to easily calculate the value of the weights of the system. Finally, we define a standard BM with a very specific topology that helps us better understand the exact equivalence between hidden units in a BM and high order weights in a HOBM.
|
709 |
Automatic mass segmentation in mammographic imagesOliver i Malagelada, Arnau 11 July 2007 (has links)
Aquesta tesi està emmarcada dins la detecció precoç de masses, un dels símptomes més clars del càncer de mama, en imatges mamogràfiques. Primerament, s'ha fet un anàlisi extensiu dels diferents mètodes de la literatura, concloent que aquests mètodes són dependents de diferent paràmetres: el tamany i la forma de la massa i la densitat de la mama. Així, l'objectiu de la tesi és analitzar, dissenyar i implementar un mètode de detecció robust i independent d'aquests tres paràmetres. Per a tal fi, s'ha construït un patró deformable de la massa a partir de l'anàlisi de masses reals i, a continuació, aquest model és buscat en les imatges seguint un esquema probabilístic, obtenint una sèrie de regions sospitoses. Fent servir l'anàlisi 2DPCA, s'ha construït un algorisme capaç de discernir aquestes regions són realment una massa o no. La densitat de la mama és un paràmetre que s'introdueix de forma natural dins l'algorisme. / This thesis deals with the detection of masses in mammographic images. As a first step, Regions of Interests (ROIs) are detected in the image using templates containing a probabilistic contour shape obtained from training over an annotated set of masses. Firstly, PCA is performed over the training set, and subsequently the template is formed as an average of the gradient of eigenmasses weighted by the top eigenvalues. The template can be deformed according to each eigenmass coefficient. The matching is formulated in a Bayesian framework, where the prior penalizes the deformation, and the likelihood requires template boundaries to agree with image edges. In the second stage, the detected ROIs are classified into being false positives or true positives using 2DPCA, where the new training set now contains ROIs with masses and ROIs with normal tissue. Mass density is incorporated into the whole process by initially classifying the two training sets according to breast density. Methods for breast density estimation are also analyzed and proposed. The results are obtained using different databases and both FROC and ROC analysis demonstrate a better performance of the approach relative to competing methods.
|
710 |
Migração de agentes em sistemas multi-agentes abertos / Agent migration in open multi-agents systemsHubner, Jomi Fred January 1995 (has links)
A Inteligência Artificial Distribuída traz uma série de novas perspectivas para a computação quando considera sistemas heterogêneos, adaptativos, evolutivos, continuamente em funcionamento e abertos. Estes sistemas, chamados de sociedades, apresentam tais características por permitirem que seus componentes, chamados de agentes, migrem entre sociedades, isto é, agentes podem sair e entrar em sociedades. Sociedades abertas permitem a migração dos agentes e coloca dois tipos de problemas para o agente que está migrando: problemas de linguagem e interação, que concernem ao uso de expressões usadas e à maneira como as interações são organizadas na nova sociedade; e, problemas de conhecimento e atuação, que se referem à como um agente irá se comportar a fim de realizar justamente aquilo que a sociedade espera dele. Este trabalho se atem aos problemas de conhecimento e atuação. Para que os agentes da sociedade possam cooperar e coordenar suas ações, é necessário que tenham conhecimento das capacidades, habilidades, desejos e planos dos outros agentes. Grande parte do conhecimento a respeito dos outros pode ser extraído dos papéis que estes podem assumir na sociedade. Assim sendo, o problema colocado para este trabalho é como os agentes da sociedade que receberam o agente imigrante e o próprio agente imigrante conhecerão/aprenderão os papéis uns dos outros. São desenvolvidos três mecanismos de identificação de papéis, bem como a comparação entre eles e sua adequação a tipos de migração. Os três mecanismos são os seguintes: i) Identificação de papéis por protocolo de apresentação: é proposta uma linguagem de descrição de protocolos (LDP) e uma especificação de protocolo de apresentação nesta LDP. Os agentes que utilizam este mecanismo conseguem se identificar com rapidez, porém necessitam conhecer várias informações “locais” da sociedade, o que pode ser muito restritivo para um agente migrante. ii) Identificação de papéis por observação e classificação: esta solução procura classificar o agente observado em um papel de um conjunto prédefinido de papéis. Neste conjunto, os papéis são descritos por meio de processos de interação (PI). Para isto, desenvolveu-se a noção de PI. Para isto, desenvolveu-se a noção de PI. Foram desenvolvidas duas formas de proceder a classificação: construir uma especificação do agente a partir da observação das suas ações e verificar se esta pertence ao conjunto pré-definido de papéis; e, verificar se o comportamento do agente confere com as execuções possíveis para algum dos papéis pré-definidos. Este mecanismo é mais adequado para sociedades abertas e tem boa precisão no resultado apresentado, porém, a identificação do papel de um agente pode ser demorada. iii) Identificação de papéis por reconhecimento de intenções em planos: este mecanismo baseia-se na existência de uma relação entre intenções e papéis. A partir das ações observadas para o agente, procura-se saber qual seu plano, sua intenção e, conseqüentemente, seu papel. Para isto foi implementado um procedimento de indução de planos. Este mecanismo também é adequado para sociedades abertas, no entanto, a identificação, embora satisfatória, nem sempre é completamente correta. Estes três mecanismos foram testados em simulações numa implementação da sociedade Produtor - Consumidor, onde puderam ser comprovadas as características de cada um. / Distributed Artificial Intelligence brings a number of new perspectives to Computing Science when heterogeneous, adaptative and evolutive systems, those under functioning and open, are taken into consideration. These systems, named societies, present these characteristics because they allow their components, named agents, to migrate within societies, that is, agents are allowed to enter and to leave societies. Agents' migration brings two kinds of problems to the migrating agent: language and interaction problems both related to the use of used expressions and to the way the interactions are organized in the new society; and, knowledge and performance problems refering to the way the agent will behave in order to accomplish exactly what society expects him to do. This work is limited to knowledge and performance problems. In order to cooperate and coordinate their actions, the society's agents need to learn about the capabilities, abilities wishes and plans of other agents. A great part of knowledge of others can be extracted from the social roles these agents can play. Therefore, the problem posed in this work is how social agents who has received an immigrating agent and the immigrating agent himself will know and learn one another's roles. Three role identification mechanisms, and the comparison between them and their adaptation to migration types as well are developed. The three mechanisms are the following: i) Role Identification by means of presentation protocol:a language of protocol description (LPD) and a specification of presentation protocol in this LPD are proposed. The agents who use this mechanism can rapidly identify each other, however they need know a number of 'local' social information, which can be very restrictive to the migrating agent. ii) Role identification by means of observation and classification: this solution tries to classify the observed agent as a role out of set of definite roles. In this set, the roles are described by means of interactional processes (IP). Therefore, the notion of IP was developed. Two ways to proceed the role classification were developed: to build the agent's especification departing from the observation of their actions and to check whether this especification belongs to a set of pre-defined roles; and to check whether the agent's behavior fits the possible executions to some predefined roles. This mechanism is more adequate to open societies and has good precision in the result presented, but, the agent's role identification can last longer. iii) Role Identification by means of intention and plans recognition: this mechanism is based on the existence of a relationship between intentions and roles. By departing from the agent's observed actions, his plan, intention, consequently, his role is recognized. Therefore an induced plan procedure was implemented. This mechanism is also adequate to open societies, however, the identification, though satisfactory, is not always totally correct. These three mechanisms were tested in simulated situations in a kind of Producer- Consumer Society implementation in which each one's characteristics could be verified.
|
Page generated in 0.0854 seconds