• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 30
  • 5
  • Tagged with
  • 67
  • 41
  • 41
  • 37
  • 27
  • 24
  • 23
  • 20
  • 17
  • 17
  • 16
  • 15
  • 14
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Un mètode per a la comprovació de restriccions d'integritat en bases de dades deductives bitemporals

Martín Escofet, Carme 27 June 2005 (has links)
This Ph.D. thesis mainly deals with temporal and deductive databases areas and the aim is to obtain a method for integrity constraint checking in bitemporal deductive databases, analyzing the temporal integrity constraint behavior. The existence of a transaction time dimension is especially useful to reduce the number of transition rules. In the valid time dimension, the temporal dependence of database predicate terms has been explored. Moreover, this Ph.D. thesis provides some research advances bringing together the areas of temporal databases and data warehouses. Chapter 1 is an introduction to the problem and the related work of this Ph.D. thesis main area. Chapter 2 presents temporal databases, and chapter 3 deductive databases. Chapter 4 introduces the study of temporal deductive database transaction behavior, explaining the concept of coherent transaction. This concept is used to reject transactions without more information requirements. Chapter 5 defines a new taxonomy of temporal integrity constraints to achieve a better understanding of why constraints are required and a best way to define them using first-order logic. In order to meet these goals, we have studied temporal integrity constraint taxonomies existing on the temporal database area and other deeply related areas such as multiversion databases. These works have been adapted and further developed to cover the scope of bitemporal deductive databases. Chapter 6 proposes an integrity constraint checking method for bitemporal deductive databases that derives a set of transition rules for each temporal integrity constraint. Then, Standard Linear Deduction with Negation as Failure Resolution is used to verify that a transaction does not violate any constraint before the transaction is allowed to commit. The set of transition rules obtained is very large; therefore, a carefully analysis of the integrity constraints using the taxonomy introduced above drastically reduces the number of rules. This chapter includes some examples of this new reduced set of transition rules and application examples of our integrity constraint checking method in bitemporal deductive databases. In chapters 7 and 8, we present our current and further work. In chapter 7, we identify a new type of predicate term dependent of time. This new type of term, named temporally dependent term, is formally defined and deeply studied in order to find its properties and its applicability to queries and integrity constraints. In chapter 8, we explain how to combine temporal database and data warehouse areas. Finally, chapter 9 provides conclusions and further work.
22

Técnicas Algebraicas de Precondicionamiento para la resolución de Sistemas Lineales

Larrazabal Serrano, Germán Alberto 31 May 2002 (has links)
Esta tesis se centra en el estudio de tecnicas de precondicionamiento para la resolucion de sistemas lineales de ecuaciones, provenientes de la resolucion de ecuaciones diferenciales en derivadas parciales. La caracteristica comun de los sistemas lineales objeto de interes es su enorme tamano, y el hecho de que la matriz de coeficientes asociada a estos sistemas es dispersa. Se utilizan los modelos de programacion de paso de mensajes y memoria compartida, y se orienta este trabajo a problemas de un tamano medio, hasta 10^5 ecuaciones. La resolucion de sistemas lineales de ecuaciones es, comunmente, el nucleo computacional mas costoso, en cuanto a tiempo de ejecucion, de muchas simulaciones numericas industriales, aunque otros problemas tales como calculo de autovalores tambien suelen ocurrir.Tipicamente, estos problemas consumen una significante porcion del tiempo computacional requerido por una simulacion completa. Una reciente revision sobre el actual uso de supercomputadores de alto rendimiento indica que mas del 70% del tiempo computacional es usado para resolver grandes sistemas lineales de ecuaciones. Un impacto industrial muy importante debe ocurrir si el rendimiento de los metodos usados para resolver estos sistemas pudiera ser mejorado. El problema de resolver sistemas lineales ha sido ampliamente analizado para arquitecturas de memoria compartida, donde el paralelismo que se suele explotar es de grano fino. Sin embargo, el interes en explotar el paralelismo grano grueso, junto con la aparicion de librerias que garantizan la portabilidad de los programas basados en paso de mensaje y junto al avance de la tecnologia, ha hecho posible que en estos momentos se este comenzado a desarrollar aplicaciones industriales sobre multicomputadores de memoria compartida-distribuida. Las tecnicas de descomposicion en dominios son una forma de distribucion de datos que permiten la explotacion del paralelismo de paso de mensaje, y todo el paralelismo interno de cada dominio permite la explotacion del paralelismo de memoria compartida.En esta tesis se intenta cubrir todos los aspectos teoricos y algoritmicos de los metodos mas usados para resolver sistemas lineales dispersos de ecuaciones. Por ello en primer lugar, se estudia los metodos iterativos más importantes, las técnicas más comunes de precondicionamiento y los metodos multinivel.En segundo lugar, se analiza la formulacion numerica del problema y su paralelismo, y se propone el uso de un precondicionador paralelo que disminuye significativamente el tiempo de ejecucion. Finalmente, se muestran los resultados obtenidos para un conjunto de problemas provenientes de la resolucion de ecuaciones diferenciales en derivadas parciales. / The study of preconditioning techniques to solve linear systems arising to solve partial differential equations is the focus of this thesis. The common feature of the matrices associated to linear systems are large size and sparse. We use two programming models: message passing and threads. This work has been oriented to solve problems up to 10^5 freedom degree.The problem to solve linear systems is, frecuently, the computational kernel most expensive (execution time) of many numerical industrial simulations, although others problems such as eigenvalues compute usually it appear. Typically, it problems consume a significant part of the computational time required by a complete simulation. A newly review about the high performance supercomputers suggest that 70% or more of the computational time is used to solve large linear systems. An industrial impact very important should happen if the performance of the methods used to solve these linear systems can be improved. The problem to solve linear systems has been analized to shared memory architecture, where the paralelism that it exploit is fine grain. Nevertheless, the interest to exploit coarse grain paralelism together with the developed of library where it guarantee portability of the programs based in message passing and together with technology advancement has done possible that in this moment the programmer's develop industrial applications on supercomputers with shared-distributed memory. The domain decomposition techniques are a way to exploit the data distribution that permit the explotation of message passing paralelism, and all the internal paralelism in each domain permit the explotation of the shared memory paralelism (threads).In this thesis, I have tried to include all the theorycal and algorithmics aspect of the methods used more often to solve sparse linear system of equations. The first one, I have studied the iterative methods more important, the algebraic preconditioning technique and multilevel methods. The second one, I have analized the numerical formulation of the problem and it paralelism, and I have proposed to use a parallel preconditioner where it reduce the execution time of the algorithm. Finally, I have showed the numerical results for a set problems arising partial differential equations.
23

Fine-motion planning for robotic assembly under modelling and sensing uncertainties

Rosell Gratacòs, Jan 13 October 1998 (has links)
This thesis proposes a fine-motion planner for assembly tasks in the plane considering two degrees of freedom of translation and one of rotation, taking into account modelling and sensing uncertainties and the effect of friction. The proposed planner is based on a two-phase approach. First, uncertainty is not considered and a nominal solution path is searched in a graph representing the free configuration space, which has been obtained with an exact cell decomposition method. Then, uncertainty is considered and the arcs of the solution path are evaluated in order that the possible contacts occurring during the traversing of the arc do not provoke a failure of the task execution. When this is not possible, the planner finds a patch plan in contact-space in an analogous way as the nominal solution path in free-space.This work:- introduces the parametrized translational configuration space, which is an embedding of the rotational degree of freedom into the translational configuration space, for the analysis of the geometric constraints of planar assembly tasks.- makes a thorough analysis of the sources of uncertainty that affect an assembly task. Modelling and sensing uncertainties have been considered. Although modelling uncertainty is an important source of uncertainty that affects assembly tasks, it has usually been overlooked by most of the researchers. In this work, this source of uncertainty has been meticulously studied, by analyzing the effects of both positioning uncertainty and manufacturing tolerances. The dependence between sources of uncertainty is also taken into account.- includes a force analysis using the dual representation of forces, which allows to consider in an easy way both the geometric uncertainties that affect the possible raction forces arising at the contact situations, as well as the sensor uncertainties. Friction has been considered and modelled with the generalized friction cone. The suitability of this model for this kind of tasks has been validated from the experiments. - synthesizes the robot motions using a force-compliant control based on the generalized damping model. Task execution includes uncertainty reduction routines in order to adapt the robot commands to the actual geometry of the task.
24

A Flexible Multitask Summarizer for Documents from Different Media, Domain and Language

Fuentes Fort, Maria 31 March 2008 (has links)
Automatic Summarization is probably crucial with the increase of document generation. Particularly when retrieving, managing and processing information have become decisive tasks. However, one should not expect perfect systems able to substitute human sumaries. The automatic sumarization process strongly depends not only on the characteristics of the documents, but also on user different needs.Thus, several aspects have to be taken into account when designing an information system for summarizing, because, depending on the characteristics of the input documents and the desired results, several techniques can be aplied. In order to suport this process, the final goal of the thesis is to provide a flexible multitask summarizer architecture. This goal is decomposed in three main research purposes. First, to study the process of porting systems to different summarization tasks, processing documents in different lenguages, domains or media with the aim of designing a generic architecture to permit the easy addition of new tasks by reusing existents tools. Second, the developes prototypes for some tasks involving aspects related with the lenguage, the media and the domain of the document or documents to be summarized as well as aspects related with the summary content: generic, novelly summaries, or summaries that give answer to a specific user need. Third, to create an evaluation framework to analyze the performance of several approaches in written news and scientific oral presentation domains, focusing mainly in its intrinsic evaluation. / El resumen automático probablemente sea crucial en un momento en que la gran cantidad de documentos generados diariamente hace que recuperar, tratar y asimilar la información que contienen se haya convertido en una ardua y a su vez decisiva tarea. A pesar de ello, no podemos esperar que los resúmenes producidos de forma automática vayan a ser capaces de sustituir a los humanos. El proceso de resumen automático no sólo depende de las características propias de los documentos a ser resumidos, sino que es fuertemente dependiente de las necesidades específicas de los usuarios. Por ello, el diseño de un sistema de información para resumen conlleva tener en cuenta varios aspectos. En función de las características de los documentos de entrada y de los resultados deseados es posible aplicar distintas técnicas. Por esta razón surge la necesidad de diseñar una arquitectura flexible que permita la implementación de múltiples tareas de resumen. Este es el objetivo final de la tesis que presento dividido en tres subtemas de investigación. En primer lugar, estudiar el proceso de adaptabilidad de sistemas a diferentes tareas de resumen, como son procesar documentos producidos en diferentes lenguas, dominios y medios (sonido y texto), con la voluntad de diseñar una arquitectura genérica que permita la fácil incorporación de nuevas tareas a través de reutilizar herramientas existentes. En segundo lugar, desarrollar prototipos para distintas tareas, teniendo en cuenta aspectos relacionados con la lengua, el dominio y el medio del documento o conjunto de documentos que requieren ser resumidos, así como aspectos relacionados con el contenido final del resumen: genérico, novedad o resumen que de respuesta a una necesidad especifica. En tercer lugar, crear un marco de evaluación que permita analizar la competencia intrínseca de distintos prototipos al resumir noticias escritas y presentaciones científicas orales.
25

A numerical formulation to solve the ALE Navier-Stokes equations applied to the withdrawal of magma chambers

Folch Duran, Arnau 17 May 2000 (has links)
La tesis presenta un algoritmo para la resolución de las ecuaciones de Navier-Stokes con acoplamiento mecánico en el contexto del método de los elementos finitos. La solución de la versión ALE de las ecuaciones de Navier-Stokes se basa en un método de paso fraccionario combinado con una técnica de proyección del gradiente de presiones que produce el efecto de estabilización requerido para el campo de presiones en las versiones implícitas del algoritmo. El algoritmo trata simultáneamente flujos compresibles e incompresibles usando los mismos espacios de interpolación para los campos de velocidad y presión. Los problemas de interacción fluido estructura se resuelven mediante un procedimiento alternado en el cual las ecuaciones del fluido y las de la estructura se integran alternativamente en el tiempo. Se contempla también una estrategia de remallado con una interpolación conservativa de variables nodales. Las aplicaciones particulares se centran básicamente en la modelización de la dinámica de vaciado de cámaras magmáticas. Se propone un modelo físico para los tipos de erupciones volcánicas mas comunes. Las distintas simulaciones de eventos eruptivos contemplan desde erupciones desencadenadas por saturación de volátiles hasta erupciones que forman calderas de colapso. Por otro lado, se presenta también un procedimiento numérico para calcular deformaciones viscoelásticas del terreno en zonas de actividad volcánica. El procedimiento se basa en el principio de correspondencia combinado con el método de las series de Prony para obtener transformadas de Laplace inversas. Las aplicaciones permiten acotar el dominio de aplicabilidad de los procedimientos analíticos actuales y, simultáneamente, permiten contemplar un espectro mas amplio de posibilidades como, por ejemplo, fuentes extensas, efectos topográficos o anisotropias de la corteza. / This thesis presents a numerical formulation to solve the Navier-Stokes equations with mechanical coupling in the context of a Finite Element Method. The solution of the ALE Navier-Stokes equations is based on a fractional step method combined with a pressure gradient projection technique that produces the required stabilisation of the pressure field when implicit versions of the algorithm are considered. The algorithm deals simultaneously with both compressible and incompressible flows using the same interpolation spaces for the pressure and the velocity fields. Fluid-structure interaction problems are solved by means of a staggered procedure in which the fluid and the structural equations are alternatively integrated in time by using separate solvers. A remeshing strategy with a conservative interpolation of nodal variables is also developed. Particular applications are addressed concerning the modelling of the dynamics of magma withdrawal from crustal reservoirs. A physical model for the most common types of (explosive) volcanic eruptions is proposed. Several simulations of eruptive events, ranging from volatile oversaturation driven eruptions to caldera-forming eruptions, are presented. On the other hand, a numerical procedure to compute viscoelastic ground deformations in volcanic areas is also proposed. This procedure is based on the correspondence principle combined with the Laplace transform inversion by means of the Prony series method. It allows to constrain the domain of applicability of the analytical procedures used nowadays and, simultaneously, allows to contemplate a wider spectrum of possibilities such as, for instance, extended sources, topographic effects or anisotropies of the crust.
26

Algoritmos de ordenación conscientes de la arquitectura y las características de los datos

Jiménez González, Daniel 02 July 2004 (has links)
En esta tesis analizamos y presentamos algoritmos de ordenación secuencial y paralelo que explotan la jerarquía de memoria del computador usado y/o reducen la comunicación de los datos. Sin embargo, aunque los objetivos de esta tesis son los mismo que los de otros trabajos, la forma de conseguirlos es diferente.En esta tesis los conseguimos haciendo que los algoritmos de ordenación propuestos sean conscientes de la arquitectura del computador y las características de los datos que queremos ordenar.Los conjuntos de datos que consideramos son conjuntos que caben en memoria principal, pero no en memoria cache.Los algoritmos presentados se adaptan, en tiempo de ejecución, a las características de los datos (duplicados, con sesgo, etc.) para evitar pérdidas de rendimiento dependiendo de estas características. Para ello, estos algoritmos realizan un particionado de los datos, utilizando una técnica que llamamos Mutant Reverse Sorting y que presentamos en esta tesis. Mutant Reverse Sorting se adapta dinámicamente a las características de los datos y del computador. Esta técnica analiza una muestra del conjunto de datos a ordenar para seleccionar la forma más rápida de particionar los datos. Esta técnica elige entre Reverse Sorting y Counting Split en función de la distribución de los datos. Estas técnicas también son propuestas en esta tesis. El análisis de estas técnicas, junto con los algoritmos de ordenación presentados, se realiza en un computador IBM basado en módulos p630 con procesadores Power4 y en un computador SGI O2000 con procesadores R10K. En el análisis realizado para ambos computadores se presentan modelos de comportamiento que se comparan con ejecuciones reales.Con todo ello, conseguimos los algoritmos de ordenación secuencial y paralelo más rápidos para las características de los datos y los computadores utilizados. Esto es gracias a que estos algoritmos se adaptan a los computadores y las características de los datos mejor que el resto de algoritmos analizados.Así, por un lado, el algoritmo secuencial propuesto, SKC-Radix sort, consigue unas mejoras de rendimiento de más de 25% comparado con los mejores algoritmos que encontramos en la literatura. Es más, cuanto mayor es el número de duplicados o el sesgo de los datos, mayor es la mejora alcanzada por el SKC-Radix sort.Por otro lado, el algoritmo paralelo presentado, PSKC-Radix sort, es capaz de ordenar hasta 4 veces más datos que Load Balanced Radix sort en la misma cantidad de tiempo. Load Balanced Radix sort era el algoritmo más rápido de ordenación en memoria y en paralelo para los conjunto de datos que ordenamos hasta la publicación de nuestros trabajos. / In this thesis we analyze and propose parallel and sequential sorting algorithms that exploit the memory hierarchy of the computer used and/or reduce the data communication. So, the objectives of this thesis are not different from the objectives of other works. However, the way to achieve those objectives is different.We achieve those objectives by being conscious of the computer architecture and the data characteristics of the data set we want to sort.We have focused on the data sets that fit in main memory but not in cache.So, the sorting algorithms that we present take into account the data characteristics (duplicates, skewed data, etc.) in order to avoid any lose of performance in execution time depending on those characteristics. That is done by partitioning the data set using Mutant Reverse Sorting, which is a partition technique that we propose in this thesis.Mutant Reverse Sorting dynamically adapts to the data characteristics and the computer architecture. This technique analyzes a set of samples of the data set to choose the best way to partition this data set. This chooses between Reverse Sorting and Counting Split, which are selected depending on the data distribution. Those techniques are also proposed in this thesis.The analysis of the partitioning techniques and the sorting algorithms proposed is done in an IBM computer based on p630 nodes with Power4 processors and in a SGI O2000 with R10K processors. Also, we present models of the behavior of the algorithms for those machines.The sequential and parallel algorithms proposed are the fastest for the computer architectures and data set characteristics tested. That is so because those algorithms adapt to the computer architecture and data characteristics better than others.On one hand, the sequential sorting algorithm presented, SKC-Radix sort, achieves performance improvements of more than 25% compared to other sequential algorithms found in the literature. Indeed, the larger the number of duplicates or data skew, the larger the improvement achieved by SKC-Radix sort. On the other hand, the parallel sorting algorithm proposed, PSKC-Radix sort, sorts 4 times the number of keys that Load Balanced Radix can sort in the same amount of time. Load Balanced Radix sort was the fastest in-memory parallel sorting algorithm for the kind of data set we focus on.
27

Simulación asistida por agentes para sistemas de fabricación inteligentes

Ruiz Vega, Nancy 24 May 2010 (has links)
En el área de la fabricación, la simulación es una herramienta esencial para la validación de métodos y arquitecturas antes de aplicarlos en un Entorno de Fabricación. Las herramientas de simulación actuales llevan a cabo la simulación de entornos de fabricación basándose en modelos estáticos que hacen uso de la programación de procesos de fabricación secuenciales y centralizados tradicionales, donde los mecanismos de planificación y control ofrecen una flexibilidad insuficiente para responder a los estilos de fabricación cambiantes y a los entornos de fabricación altamente mezclados y de bajo volumen. En consecuencia, las herramientas de simulación convencionales limitan la escalabilidad y reconfigurabilidad para el modelado de Sistemas de Fabricación que permitan adaptarlos ante las necesidades cambiantes del Cliente. Resulta difícil encontrar una herramienta de simulación que pueda ejecutar ``inteligentemente'' la simulación de tareas cada vez más complejas. La dificultad radica en integrar en la herramienta el conocimiento necesario del sistema original y que a la vez actúe como un asistente que proporcione consejos y guíe al usuario durante la simulación. Por ello, surge la necesidad de nuevas herramientas de simulación para fábricas que contemplen características tales como: a) flexibilidad y adaptabilidad, para modelar comportamientos complejos propios de un Sistema de Fabricación, b) escalabilidad para la integración transparente de funcionalidades adicionales, c) proactividad y reactividad para la adaptación automática ante los cambios del entorno y d) características de aprendizaje (inteligencia) basado en la experiencia adquirida durante la simulación. Por su parte, las técnicas de Inteligencia Artificial han sido utilizadas en la Fabricación Inteligente por más de dos décadas. Las técnicas del área de Inteligencia Artificial permiten la definición de unidades de fabricación distribuidas, autónomas, inteligentes, flexibles, tolerantes a fallos, reutilizables, las cuales operan como un conjunto de entidades que cooperan entre sí. Además, los recientes desarrollos en el área de los Sistemas Multiagente han traído consigo nuevas e interesantes posibilidades. Algunos investigadores han aplicado la tecnología de agentes en la integración de la fabricación empresarial, la colaboración, la planificación de procesos de fabricación, la programación para el control de planta, el manejo de materiales y la gestión de inventarios, así como la implementación de nuevos tipos de sistemas de fabricación tales como los Sistemas de Fabricación Holónicos. Teniendo en cuenta estas aplicaciones exitosas de los Sistemas Multiagente en la Fabricación Inteligente, estamos convencidos de que esta tecnología puede mejorar también el desempeño de la Simulación de Sistemas de Fabricación Inteligente. En esta tesis proponemos la definición de una Arquitectura para un Entorno de Simulación de Sistemas de Fabricación asistido por agentes. Esta arquitectura integra la funcionalidad de una herramienta de simulación tradicional, permite además la simulación de comportamientos complejos asociados a los Sistemas de Fabricación Inteligentes y proporciona soluciones y mejoras que se adaptan a las necesidades de la nueva era de fabricación. / Ruiz Vega, N. (2009). Simulación asistida por agentes para sistemas de fabricación inteligentes [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/8314 / Palancia
28

Optimizing fMRI analysis in Schizophrenia research: methodology improvements

Lull Noguera, Juan José 01 April 2015 (has links)
La Resonancia Magnética funcional (RMf) es una técnica moderna de neuroimagen que permite la localización de actividad neuronal con una alta resolución espacial. La técnica de RMf emplea los cambios locales de oxigenación en la sangre, reflejados como pequeños cambios en la intensidad en un tipo concreto de imagen de Resonancia Magnética. La habilidad de esta técnica en la detección de cambios en la función en el cerebro sano y enfermo, y la localización de función anormal convierte a la RMf en una técnica ideal para el tratamiento de numerosas enfermedades y lesiones neuronales. Ya se ha aplicado clínicamente en la localización de áreas funcionales afectadas por tumores, pre- y post- operativamente. La esquizofrenia, una vasta enfermedad que se encuentra presente en el uno por cien de la población global, es una dolencia que se ha estudiado recientemente mediante técnicas de neuroimagen funcional, con más de 300 estudios publicados en revistas sobre esquizofrenia y RMf. La comprensión de los sustratos neuronales de la esquizofrenia requiere una determinación precisa de la extensión y la distribución de anormalidades en la función y anatomía cerebrales. Ya que los síntomas tienen una distribución dispersa, se debería emplear una aproximación fenomemológica a esta enfermedad para relacionar anormalidades, síntomas y prognosis con precisión. Los pacientes que tienen principalmente síntomas positivos, tales como alucinaciones auditivas y delirios, pueden tener anomalías cerebrales diferentes a aquellos que tienen síntomas negativos pronunciados. Por tanto, en el presente estudios se ha seleccionado un síntoma positivo, la presencia de alucinaciones auditivas en pacientes esquizofrénicos, como el criterio de selección de un grupo homogéneo de pacientes esquizofrénicos auditivos. Esta tesis presenta la aplicación de la RMf al estudio de la enfermedad de la esquizofrenia. Finalmente, un nuevo método de filtrado de datos de RMf, el NL-means, se ha propuesto y se sugiere su / Lull Noguera, JJ. (2008). Optimizing fMRI analysis in Schizophrenia research: methodology improvements [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/48597 / Palancia
29

Estudio de la mezcla de estados determinista y no determinista en el diseño de algoritmos para inferencia gramatical de lenguajes regulares

Álvarez Vargas, Gloria Inés 07 May 2008 (has links)
Esta investigación aborda el tema del diseño de algoritmos de inferencia gramatical para lenguajes regulares, particularmente en lo relacionado con la mezcla de estados como elemento fundamental del proceso de inferencia. Se estudia la mezcla de estados en sus variantes determinista y no determinista desde el punto de vista teórico. Como resultado se propone una manera eficiente de realizar la mezcla de estados no determinista y se demuestra que la inferencia gramatical de lenguajes regulares basada en la mezcla de estados (tanto determinista como no determinista) converge en el límite independientemente del orden en que se realizan las mezclas. La demostración es de interés ya que entre otras consecuencias, permite afirmar la convergencia en el límite de la estrategia EDSM (Evidence Driven States Merging) que es ampliamente conocida en la literatura como un heurísico. Dado que la demostración considera también la inferencia de autómatas no deterministas, el resultado abre la puerta al desarrollo de algoritmos convergentes que infieren autómatas no deterministas. El aspecto experimental de esta investigación propone un conjunto de algoritmos de inferencia gramatical para lenguajes regulares, todos ellos convergentes en el límite. Estos algoritmos surgen de aplicar diferentes variantes de mezcla de estados determinista y no determinista; ellos buscan aprovechar la información que se puede obtener a partir de las relaciones de inclusión entre los lenguajes por la derecha asociados a los estados de todo autómata. Se proponen cuatro algoritmos que hacen mezcla determinista y dos que hacen mezcla no determinista de estados. Los resultados obtenidos al comparar estos nuevos algoritmos con algoritmos de referencia como RPNI, red-blue o DeLeTe2 muestran que se logra disminuir significativamente el tamaño de las hipótesis que se producen, al tiempo que se consiguen tasas de reconocimiento comparables o ligeramente inferiores. También se han obtenido algunas mejoras en la co / Álvarez Vargas, GI. (2007). Estudio de la mezcla de estados determinista y no determinista en el diseño de algoritmos para inferencia gramatical de lenguajes regulares [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1957 / Palancia
30

Gormas: Guías para el desarrollo de sistemas multiagente abiertos basados en organizaciones

Argente Villaplana, Estefanía 03 July 2008 (has links)
Las organizaciones resultan ser un medio efectivo para la coordinación de las actividades, no sólo de los humanos sino también de los agentes. Precisamente, en los últimos años el concepto de organización ha adquirido gran relevancia en el área de los sistemas multiagente, al facilitar el análisis y diseño de mecanismos de coordinación y colaboración en sistemas abiertos. Dado que la Teoría de Organización aborda las propiedades de las organizaciones humanas y sus aspectos de diseño, en esta tesis se revisa dicha Teoría para así adoptar de ella ciertos mecanismos y guías que faciliten el diseño de sistemas multiagente complejos basados en organizaciones. Para ello, se han analizado cuáles son los factores principales que determinan las características de las organizaciones y su estructura y que deben ser tenidos cuenta en el diseño de la organización del sistema. Asimismo, se ha realizado un estudio del estado del arte sobre el enfoque dado al concepto de organización, tanto en las principales metodologías de sistemas multiagente como en las plataformas de agente. De este modo, se han determinado sus carencias y necesidades con respecto a la gestión y manejo de las organizaciones. En base a estos estudios, se ha propuesto un Modelo de Organización que permite describir los principales aspectos de las organizaciones: estructura, funcionalidad, normalización, dinamicidad y entorno. Este modelo constituye la primera aportación de esta tesis. Consta de un conjunto de meta-modelos que extienden las propuestas de INGENIAS y ANEMONA, empleando fundamentalmente los conceptos de unidad organizativa, servicio, norma y entorno. Además se ha elaborado un conjunto de patrones de diseño, con los que facilitar el modelado de la estructura de la organización. El Modelo de Organización sirve de apoyo, junto al análisis de la Teoría de Organización, para la adaptación del proceso de diseño de las organizaciones al área de los sistemas multiagente. De esta forma, como segunda y pr / Argente Villaplana, E. (2008). Gormas: Guías para el desarrollo de sistemas multiagente abiertos basados en organizaciones [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/2481 / Palancia

Page generated in 0.1045 seconds