• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 2
  • 2
  • Tagged with
  • 7
  • 7
  • 4
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

El Mètode dels esdeveniments per a l'Actualització de vistes en bases de dades deductives

Teniente López, Ernest 19 June 1992 (has links)
En esta tesis se presenta un nuevo método, llamado método de los eventos, para la actualización de vistas en bases de datos deductivas. Este método aumenta la base de datos con un conjunto de reglas, llamadas reglas de transición y de evento, que definen explícitamente las inserciones y las supresiones inducidas por una modificación de la base de datos. Mediante estas reglas, se utiliza la resolución SIDNF para obtener todas las traducciones mínimas que satisfacen una petición de actualización de vista.Una de las contribuciones principales de esta tesis es la demostración del hecho que el método de los eventos es completo en bases de datos estratificados. Es decir, en este tipo de bases de datos dicho método obtiene todas las traducciones validas. Otras ventajas importantes del método son la incorporación de la comprobación de integridad en el proceso de traducción, el tratamiento uniforme de inserciones y supresiones, la posibilidad de prevenir efectos laterales y la traducción de peticiones de modificación de vista.Por todas estas razones, se puede decir que el método de los eventos tiene todo el poder de los métodos propuestos hasta el momento actual para la utilización de vistas en bases de datos deductivas, pero sin presentar algunas de sus limitaciones.
2

Actualització consistent de bases de dades deductives

Mayol Sarroca, Enric 03 April 2000 (has links)
En aquesta tesi, proposem un nou mètode per a l'actualització consistent de bases de dades deductives. Donada una petició d'actualització, aquest mètode tradueix de forma automàtica aquesta petició en el conjunt de totes les possibles formes d'actualitzar la base de dades extensional de forma que la petició sigui satisfeta i que no es violi cap restricció d'integritat. Aquest nostre mètode està basat en un conjunt de regles que defineixen la diferència entre dos estats consecutius de la base de dades. Aquesta diferència es determina definint explícitament les insercions, esborrats i les modificacions que es poden induir com a conseqüència de l'aplicació d'una actualització a la base de dades. El mètode està basat en una extensió del procediment de resolució SLDNF. Sigui D una base de dades deductiva, A(D) la base de dades augmentada associada, U una petició inicial d'actualització i T un conjunt d'actualitzacions de fets bàsics. Direm que el conjunt T satisfà la petició d'actualització U i no viola cap restricció d'integritat de D si, utilitzant la resolució SLDNF, l'objectiu  U  ¬Ic té èxit amb el conjunt d'entrada A(D)  T. Així doncs, el mètode consistirà en fer tenir èxit a les derivacions SLDNF fracassades. Per a fer-ho, s'inclouran al conjunt T aquelles actualitzacions de fets bàsics que cal realitzar per tal de que la derivació assoleixi l'èxit. Les diferent formes com es pot assolir aquest èxit es corresponen a les diferents solucions a la petició d'actualització U. El mètode proposat es demostra que és correcte i complet. En aquest sentit, es garanteix que donada una petició d'actualització U, el mètode obté totes les possibles formes de satisfer aquesta petició i que, a la vegada, se satisfacin les restriccions d'integritat definides a la base de dades. A diferència d'altres mètodes, el nostre gestiona les modificacions de fets com un nou tipus d'actualització bàsic. Aquest nou tipus d'actualització, junt amb la demostració de correctesa i completesa, és una de les principals aportacions del nostre mètode respecte els mètodes apareguts recentment. La segona gran aportació del nostre mètode és el fet d'utilitzar tècniques per a millorar l'eficiència del procés de traducció de vistes i del procés de manteniment de restriccions d'integritat. Per a millorar l'eficiència del procés de manteniment de restriccions d'integritat, proposem una tècnica per a determinar l'ordre en què cal comprovar les restriccions d'integritat. Aquesta tècnica està basada en la generació en temps de compilació del anomenat Graf de Precedències, el qual estableix les relacions entre violadors i reparadors potencials d'aquestes restriccions. Aquest Graf és utilitzat en temps d'execució per a determinar l'ordre en què es comproven i reparen les restriccions d'integritat. Aquest ordre redueix el nombre de vegades que cada restricció d'integritat ha de ser comprovada (i reparada) després de reparar qualsevol altre restricció. Per a millorar l'eficiència del procés d'actualització de vistes, proposem fer una anàlisi de la petició d'actualització, del contingut de la base de dades i de les regles de la base de dades augmentada abans d'iniciar la traducció de la petició d'actualització U. Aquesta anàlisi té com a objectiu el minimitzar el nombre d'accessos al contingut de base de dades que cal realitzar per a traduir la petició d'actualització, i per altra banda, aquesta anàlisi també ha de permetre determinar quines alternatives no podran donar lloc a una traducció vàlida a la petició U, permetent així, considerar únicament aquelles alternatives que sí proporcionaran una traducció vàlida a U. / Deductive databases generalize relational databases by including not only base facts and integrity constraints, but also deductive rules. Several problems may arise when a deductive database is updated. The problems that are addressed in this thesis are those of integrity maintenance and view updating. Integrity maintenance is aimed to ensure that, after a database update, integrity constraints remain satisfied. When these integrity constraints are violated by some update, such violations must be repaired by performing additional updates. The second problem we deal with is view updating. In a deductive database, derived facts are not explicitly stored into the database and they are deduced from base facts using deductive rules. Therefore, requests to update view (or derived) facts must be appropriately translated into correct updates of the underlying base facts. There is a close relationship between updating a deductive database and maintaining integrity constraints because, in general, integrity constraints can only be violated when performing an update. For instance, updates of base facts obtained as a result of view updating could violate some integrity constraint. On the other hand, to repair an integrity constraint could require to solve the view update problem when integrity constraint may be defined by some derived predicate.In this thesis, we propose a method that deals satisfactorily and efficiently with both problems in an integrated way. In this sense, given an update request, our method automatically translates it into all possible ways of changing the extensional database such that the update request is satisfied and no integrity constraint is violated. Concretely, we formally define the proposed method and we prove its soundness and completeness. The method is sound and complete in the sense that it provides all possible ways to satisfy an update request and that each provided solution satisfies the update request and does not violate any integrity constraint. Moreover, to compare how our method extends previous work in the area, we have proposed a general framework that allows us to classify and to compare previous research in the field of view updating and integrity constraint maintenance. This framework is based on taking into account five relevant dimensions that participate into this process, i.e. the kind of update requests, the database schema considered, the problem addressed, the solutions obtained and the technique used to obtain these solutions. Efficiency issues are also addressed in our approach, either for integrity maintenance as well as for view updating.To perform integrity maintenance efficiently, we propose a technique for determining the order in which integrity constraints should be handled. This technique is based on the generation at compile time of a graph, the Precedence Graph, which states the relationships between potential violations and potential repairs of integrity constraints. This graph is used at run-time to determine the proper order to check and repair integrity constraints. This order reduces significantly the number of times that each integrity constraint needs to be reconsidered after any integrity constraint repair. To improve efficiency during view updating, we propose to perform an initial analysis of the update request, the database contents and the rules of the database. The purpose of this analysis is to minimize the number of accesses to the base facts needed to translate a view update request and to explore only relevant alternatives that may lead to valid solutions of the update request. Furthermore, a detailed comparison with respect to some methods for integrity maintenance that consider efficiency issues is also provided, showing several contributions of our approach.
3

Definition of external schemas and derived classes in object oriented databases

Samos Jiménez, José 14 May 1997 (has links)
El principal objetivo de esta tesis es ampliar el estudio de los esquemas externos en BDOO, en particular, su proceso de definición. Una nueva metodología de definición de esquemas externos que simplifica considerablemente dicho proceso y los resultados obtenidos es presentada. Se considera como referencia el entorno ANSI/SPARC. Los sistemas de definición del esquema conceptual y los esquemas externos están basados en un diccionario de datos.En BDOO, los esquemas externos pueden contener clases del esquema conceptual así como clases derivadas definidas a partir de clases previamente existentes (derivadas o no); las clases derivadas ofrecen vistas de la información contenida en las clases a partir de las que son definidas. La definición de clases derivadas es una cuestión importante en la definición de esquemas externos en BDOO. Por tanto, éste es el segundo tema de investigación. Dos de los problemas principales de la definición de clases derivadas son estudiados: La generación de identificadores para los objetos de las clases derivadas, y la transmisión de modificaciones entre los objetos de las clases derivadas y los de las clases a partir de los que son definidos.Uno de los usos principales de los esquemas externos es proporcionar un mecanismo que soporte la simulación de cambios del esquema. La información en los esquemas externos ha de ser derivada a partir del esquema conceptual; el tipo de cambios del esquema que pueden ser simulados usando esquemas externos es condicionado por este hecho. Por tanto, el tercer objetivo es presentar un mecanismo que soporte la simulación de un espectro más amplio de cambios en el esquema. Este mecanismo está basado en la definición de esquemas externos pero incorpora ampliaciones adicionales. Para proporcionar mayor flexibilidad en este área, proponemos la definición de clases derivadas que puedan contener información no derivada en su intensión y extensión. Cuando un esquema externo con información no derivada ha de ser definido, el esquema conceptual ha de ser modificado para incluir la información no derivada del nuevo esquema. Para evitar modificaciones innecesarias del esquema conceptual el uso de un entorno de prueba para la definición de esquemas externos temporales es propuesto. / The main target of this thesis is to broaden the study of external schemas in OODBs, in particular, the external schema definition process. A new external schema definition methodology that considerably simplifies the process of definition and the results obtained, is presented. The ANSI/SPARC framework is taken as a reference. The systems of conceptual and external schema definition are based on a data dictionary.In OODBs, external schemas can contain classes from the conceptual schema as well as derived classes defined from previously existing classes (derived or non-derived); derived classes offer views of the information contained in the classes from which they are defined. The definition of derived classes is an important issue in the definition of external schemas in OODBs. Therefore, the definition of derived classes is the second focus of research. Two of the main problems of defining derived classes are studied: the generation of identifiers for the objects of the derived classes; and the transmission of modifications between the objects of the derived classes and those of the classes from which they are defined. One of the main uses of external schemas is to provide a mechanism that supports the simulation of schema changes. Information in external schemas has to be derived from the conceptual schema; the kind of schema changes that can be simulated using external schemas is conditioned by this fact. Therefore, the third target is to present a mechanism that supports the simulation of a wider spectrum of schema changes. This mechanism is based on the definition of external schemas but incorporates some additional extensions. In order to provide more flexibility in this area, we propose the definition of derived classes that can contain non-derived information in their intension as well as in their extension: partially derived classes. When an external schema with non-derived information is to be defined, the conceptual schema has to be modified in order to include the non-derived information of the new schema. In order to avoid unnecessary modifications of the conceptual schema the use of a test environment for the definition of temporal external schemas is also proposed.
4

Flexible techniques for heterogeneous XML data retrieval

Sanz Blasco, Ismael 31 October 2007 (has links)
The progressive adoption of XML by new communities of users has motivated the appearance of applications that require the management of large and complex collections, which present a large amount of heterogeneity. Some relevant examples are present in the fields of bioinformatics, cultural heritage, ontology management and geographic information systems, where heterogeneity is not only reflected in the textual content of documents, but also in the presence of rich structures which cannot be properly accounted for using fixed schema definitions. Current approaches for dealing with heterogeneous XML data are, however, mainly focused at the content level, whereas at the structural level only a limited amount of heterogeneity is tolerated; for instance, weakening the parent-child relationship between nodes into the ancestor-descendant relationship. The main objective of this thesis is devising new approaches for querying heterogeneous XML collections. This general objective has several implications: First, a collection can present different levels of heterogeneity in different granularity levels; this fact has a significant impact in the selection of specific approaches for handling, indexing and querying the collection. Therefore, several metrics are proposed for evaluating the level of heterogeneity at different levels, based on information-theoretical considerations. These metrics can be employed for characterizing collections, and clustering together those collections which present similar characteristics. Second, the high structural variability implies that query techniques based on exact tree matching, such as the standard XPath and XQuery languages, are not suitable for heterogeneous XML collections. As a consequence, approximate querying techniques based on similarity measures must be adopted. Within the thesis, we present a formal framework for the creation of similarity measures which is based on a study of the literature that shows that most approaches for approximate XML retrieval (i) are highly tailored to very specific problems and (ii) use similarity measures for ranking that can be expressed as ad-hoc combinations of a set of --basic' measures. Some examples of these widely used measures are tf-idf for textual information and several variations of edit distances. Our approach wraps these basic measures into generic, parametrizable components that can be combined into complex measures by exploiting the composite pattern, commonly used in Software Engineering. This approach also allows us to integrate seamlessly highly specific measures, such as protein-oriented matching functions.Finally, these measures are employed for the approximate retrieval of data in a context of highly structural heterogeneity, using a new approach based on the concepts of pattern and fragment. In our context, a pattern is a concise representations of the information needs of a user, and a fragment is a match of a pattern found in the database. A pattern consists of a set of tree-structured elements --- basically an XML subtree that is intended to be found in the database, but with a flexible semantics that is strongly dependent on a particular similarity measure. For example, depending on a particular measure, the particular hierarchy of elements, or the ordering of siblings, may or may not be deemed to be relevant when searching for occurrences in the database. Fragment matching, as a query primitive, can deal with a much higher degree of flexibility than existing approaches. In this thesis we provide exhaustive and top-k query algorithms. In the latter case, we adopt an approach that does not require the similarity measure to be monotonic, as all previous XML top-k algorithms (usually based on Fagin's algorithm) do. We also presents two extensions which are important in practical settings: a specification for the integration of the aforementioned techniques into XQuery, and a clustering algorithm that is useful to manage complex result sets.All of the algorithms have been implemented as part of ArHeX, a toolkit for the development of multi-similarity XML applications, which supports fragment-based queries through an extension of the XQuery language, and includes graphical tools for designing similarity measures and querying collections. We have used ArHeX to demonstrate the effectiveness of our approach using both synthetic and real data sets, in the context of a biomedical research project.
5

Restauradores en Canton Ticino entre Ottocento y Novecento. Catalogación y gestión de datos

Giner Cordero, Ester 19 February 2009 (has links)
El objetivo de esta tesis doctoral titulada: "Restauradores en Canton Ticino entre Ottocento y Novecento. Catalogación y gestión de datos" es el de individualizar y clasificar los personajes más relevantes promotores de la revalorización del patrimonio histórico-artístico en su país, concretamente en el campo de la restauración de las pinturas murales, desde los pintores-restauradores más conocidos como Edoardo Berta, Emilio Ferrazzini y Tita Pozzi a otros menos distinguidos como Carlo Cotti, Ottorino Olgiati, Mario Moglia, Nino Facchinetti, Carlo Mazzi y Pompeo Maino. La información recogida entre la hetereogeneidad de documentos que componen archivos públicos, archivos privados y bibliotecas ha sido analizada y ordenada con la finalidad de caracterizar la praxis ejecutiva de cada uno de los personajes individualizados, así como para servir a futuras investigaciones, a restauradores profesionales, a historiadores y a conservadores entre otros. También por este último motivo han sido estudiados los más recientes programas de base de datos factibles a contener, relacionar y visualizar la documentación elaborada, atendiendo a requisitos indispensables como el uso de una terminología normalizada, permitir el libre acceso a los datos y la creación de una red amplia y "viva" que favorezca la difusión de la memoria. / Giner Cordero, E. (2009). Restauradores en Canton Ticino entre Ottocento y Novecento. Catalogación y gestión de datos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/4141 / Palancia
6

Suelo-paisaje-erosión. Erosión por cárcavas y barrancos en el Alt Penedès - Anoia (Catalunya). Un enfoque de estudio mediante tecnologías de la información espacial: bases de datos, Sistemas de Información Geográfica y teledetección = Soil-landscape-erosion. Gully erosion in the Alt Penedès - Anoia (Catalonia) : a spatial information technology approach: spatial databases, Geographical Information Systems and remote sensing

Martínez Casasnovas, José Antonio 12 November 1998 (has links)
Aquesta investigació suposa una contribució al desenvolupament de metodologies queamplien l'aplicabilitat dels sistemes d'informació geogràfica (SIG), la teledetecció i lesbases de dades en l'anàlisi del territori. En concret, la investigació es centra en l'anàlisi deles relacions sòl-paisatge, de les propietats dels sòls y dels processos d'erosió hídrica,particularment els processos d'erosió per xaragalls i barrancs. La investigació se porta aterme en les comarques de l'Alt Penedès y l'Anoia (Catalunya), una àrea on la vinya per ala producció de vins d'alta qualitat i caves és el principal cultiu, però on la forma actual del'ús i maneig del sòl, amb escasses mesures de conservació, condiciona la sostenibilitatfutura dels usos agrícolas presents.Un dels resultats principals de la investigació és el sistema d'informació de sòls (SIS),desenvolupat a una escala semidetallada a nivell de tota l'àrea d'estudi. Aquest SIS hapermès analitzar la distribució espacial dels principals tipus de sòl, les seves propietats i elseu comportament davant l'acció dels processos erosius i de les actuacions antròpiques.També constitueix l'estructura sobre la qual es poden desenvolupar bases de dadesespacials de sòls més detallades.Una altra aportació és el conjunt de metodologies basades en l'anàlisi multitemporal defotografies aèries, de models digitals d'elevacions (MDE), i també en la classificaciómultiespectral d'imatges de satèl·lit i en les operacions d'anàlisi espacial mitjançant SIG,que conduexen a l'anàlisi de processos d'erosió per xaragalls i barrancs. L'aplicaciód'aquestes metodologies a l'àrea de l'Alt Penedès - Anoia confirma la important influènciade l'acció antròpica en l'acceleració dels processos d'erosió actual. Aquesta acceleraciódels processos erosius es reflecteix principalment en:a) les propietats dels sòls, amb la posada en superfície de materials d'horitzontssubjacents, rics en carbonat càlcic, calcilutites o arenisques,b) 1' anàlisi morfomètric i morfogràfic de les geoformes, que mostra un modelat delpaisatge amb vessants complexes i barrancs, i una alta densitat de xaragallsincipients,c) l'anàlisi de les taxes d'erosió per xaragalls i barrancs, que han estat particularmentelevades des de la deforestació generalitzada amb roturació de terres per a laplantació de vinya, a partir del segle XVI, sobretot, a partir de la mecanització delscultius.La investigació realitzada confirma la importancia de combinar tècniques de camp ilaboratori amb tècniques de teledetecció per a l'adquisició de dades i coneixement delsprocessos d'erosió, i amb tècniques de SIG amb finalitat de modelització. / La presente investigación supone una contribución al desarrollo de metodologías queamplíen la aplicabilidad de los sistemas de información geográfica (SIG), la teledeteccióny las bases de datos al análisis del territorio. En concreto, la investigación se centra en elanálisis de las relaciones suelo-paisaje, de las propiedades de los suelos y de los procesosde erosión hídrica, particularmente los procesos de erosión por cárcavas y barrancos. Lainvestigación se desarrolla en las comarcas de l'Alt Penedès y l'Anoia (Cataluña), un áreadonde la viña para producción de vinos de alta calidad y cavas es el principal cultivo, perodonde la forma actual de los usos y manejo del suelo, con escasas medidas deconservación, condiciona la sostenibilidad futura de los presentes usos agrícolas.Uno de los resultados principales de la investigación es el sistema de información de suelos(SIS), desarrollado a una escala semidetallada a nivel de toda el área de estudio. Este SISha permitido analizar la distribución espacial de los principales tipos de suelo, suspropiedades y su comportamiento frente a la acción de los procesos erosivos y actuacionesantrópicas. También, constituye la estructura sobre la cual poder desarrollar bases de datosespaciales de suelos más detalladas.Otra de las aportaciones es el conjunto de metodologías, basadas en el análisismultitemporal de fotografías aéreas y de modelos digitales de elevaciones (MDE), en laclasificación multiespectral de imágenes de satélite y en operaciones de análisis espacialmediante SIG, conducentes al análisis de procesos de erosión por cárcavas y barrancos. Laaplicación de estas metodologías al área del Alt Penedès - Anoia ha permitido confirmar laimportante influencia de la acción antrópica en la aceleración de los procesos de erosiónactual, que se ve reflejada principalmente en:a) las propiedades de los suelos, con la puesta en superficie de materiales dehorizontes subyacentes ricos en carbonato calcico, calcilutitas o areniscas,b) el análisis morfométrico y morfográfico de las geoformas, que muestra unmodelado del paisaje con vertientes complejas y barrancos, y una alta densidad decárcavas,c) el análisis de las tasas de erosión por cárcavas y barrancos, que han sidoparticularmente elevadas a partir de la deforestación generalizada con roturación detierras para la plantación de viña a partir del siglo XVI, y sobre todo a partir de lamecanización de los cultivos.La investigación realizada confirma la importancia de combinar técnicas de campo ylaboratorio con las técnicas de teledetección para la adquisición de datos y conocimientode los procesos de erosión, y con las técnicas de SIG con fines de modelización. / This research represents a contribution to the development of methodologies to extend theapplicability of geographical information systems (GIS), remote sensing and spatialdatabases to terrain analysis, particularly soil-landscape relationships, soil properties andhydric erosion processes, and more specifically gully erosion processes. The research iscarried out in the l'Alt Penedès y l'Anoia (Catalonia), an area where vineyards for highquality and "cava" production are the main crop, but where the present manner of soil useand management, with few control measures, determines the future sustainability of thepresent agricultural uses.One of the main results of the present research is the soil information system (SIS), thatcontains semi-detailed scale information about the soils of the study area. It allowed theanalysis of the spatial distribution of the main soil types, their properties and theirbehaviour in front of the actuation of erosion processes and anthropic transformations.Also, it constitutes the basic structure from which more detailed soil spatial databases canbe developed.Another contribution is the set of methodologies, based on the multitemporal analysis ofaerial photographs and digital elevation models (DEM), multispectral classification ofsatellite images and GIS spatial analysis, that is addressed to the analysis of gully erosionprocesses. The application of those methodologies to the Alt Penedès - Anoia arearevealed the important influence of the anthropic factor in the acceleration of the presenterosion processes, that is observed through:a) the soil properties, with the presence on surface of materials that are rich in calciumcarbonate, calcilutites or sandstones from subsurface layers,b) the morphometric and morphographic analysis of the geoforms, which shows ashape of the landscape with complex slopes and large gullies, and a high density ofgullies,c) the analysis of the rates of gully erosion, that have been particularly high since thegeneralised deforestation to plant vineyards in the XVI Century and, above all,since the advent of mechanisation.This research confirms the importance of combining field and laboratory techniques withremote sensing techniques for data acquisition and knowledge concerning the occuringerosion processes, and with GIS techniques for modelling.
7

Entorno virtual para el aprendizaje y la evaluación automática en bases de datos

Soler i Masó, Josep 04 November 2010 (has links)
La enseñanza y evaluación automática a través de un sistema Computer Based Assessment (CBA) requiere de software especializado que se adapte a la tipología de actividades a tratar y evaluar. En esta tesis se ha desarrollado un entorno CBA que facilita el aprendizaje y evaluación de los principales temas de una asignatura de bases de datos. Para ello se han analizado las herramientas existentes en cada uno de estos temas (Diagramas Entidad/Relación, diagramas de clases, esquemas de bases de datos relacionales, normalización, consultas en álgebra relacional y lenguaje SQL) y para cada uno de ellos se ha analizado, diseñado e implementado un módulo de corrección y evaluación automática que aporta mejoras respecto a los existentes. Estos módulos se han integrado en un mismo entorno al que hemos llamado ACME-DB. / Teaching and automatic evaluation through Computer Based Assessment (CBA) requires of specialized software tools capable to correct different type of activities. In this work, we have analyzed the main topics of a database course (entity/ relationship diagrams, class diagrams, relational database schemas, normalization, relational algebra and SQL) and for each one of them we have reported the state of art on CBA tools. Afterwards, we have proposed a new CBA environment for teaching and learning database. This environment, denoted ACME-DB, is composed of different modules capable to automatically correct and evaluate exercises of main topics of a database course providing improvements over existing tools.

Page generated in 0.0886 seconds