• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 38
  • 38
  • 12
  • 5
  • 4
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 119
  • 73
  • 20
  • 16
  • 16
  • 15
  • 14
  • 13
  • 13
  • 13
  • 11
  • 10
  • 9
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Les poèmes en langue française mis en musique par des compositeurs brésiliens

Souza, David 12 November 2023 (has links)
Le style artistique parisien et la langue française ont tous deux attiré des artistes du monde entier à travers l'histoire. Suivant cette tendance, de nombreux compositeurs brésiliens du début du XXe siècle se sont inspirés de cette culture pour créer des œuvres pour voix et piano à partir de poèmes en français. Cette thèse nous permet de découvrir une large collection de pièces de ce type de répertoire. Cela nous aide également à localiser l'emplacement de chaque composition. Ce document révèle aussi l'influence du sens musical parisien sur les compositeurs brésiliens tels que Villa-Lobos, Mignone, Nepomuceno et plusieurs autres. L'auteur décrit la relation entre le texte et la musique et explique le défi que représente la mise en musique de la langue française. Il appuie ses données sur des discussions de musiciens et d'experts. Son expérimentation personnelle sur des sujets tels que la prononciation et les subtilités de la langue française à travers son exploration de cette musique fournit une preuve significative des résultats de ses recherches. Cette recherche vise principalement les chanteurs brésiliens qui ressentent un intérêt particulier pour les collections musicales de ce type. / The Parisian art style and the French language have both attracted artists around the world through history. In that tendency, many Brazilian composers of the turn of the 20th century were inspired by that culture to create works for voice and piano using poems in French. This dissertation enables us to discover a large collection of pieces of that kind of repertoire. It also helps us to track down the location of each composition. This document also discloses the influence of the Parisian musical savvy on Brazilian composers such as Villa-Lobos, Mignone, Nepomuceno and many others. The author describes the relationship between text and music and explains the challenge that setting the French language to music represents. He supports his information on discussions of musicians and experts. His personal experimentation on matters such as pronunciation and the French language subtleties through his exploration of this music provides significant evidence of the results of his research. The main target of this research is Brazilian singers who feel a particular interest for music collections of this kind.
52

L'absence aura tes yeux suivi de Transformations des poèmes de Miron dans 12 hommes rapaillés chantent Gaston Miron / Transformations des poèmes de Miron dans 12 hommes rapaillés chantent Gaston Miron

Caron Poirier, Arianne 07 March 2024 (has links)
Ce mémoire en recherche-création regroupe une exploration de l’écriture poétique et une étude des transformations permettant le passage du poème vers la chanson dans 12 hommes rapaillés chantent Gaston Miron. La première partie de ce mémoire consiste en un recueil de poèmes, L’absence aura tes yeux, dont l’écriture concorde avec la période la plus active de mon travail de recherche sur Gaston Miron. Dès le début de la rédaction de ce mémoire, j’ai souhaité être attentive à la présence de Miron dans mon travail poétique afin de rendre compte de son influence dans ma démarche créatrice. Mon recueil se veut donc une sorte de témoin de cette relation particulière que j’ai vécue avec le poète et son oeuvre tout au long de mon travail de recherche et d’écriture. En apprivoisant Miron, c’est ma propre expérience de l’écriture que j’ai revisitée, et sa présence a teinté, intimement, ma vision de la poésie et mon rapport personnel à ce genre littéraire. Les passages en italique dans mes poèmes sont par ailleurs des emprunts poétiques à Gaston Miron. L’absence aura tes yeux est le récit de la destruction, celle devant laquelle nous sommes impuissants, mais aussi celle que l’on s’assène à force de rigueur envers soi-même. D’un doux contrepoids, c’est aussi le récit de l’amour incandescent, celui dont la lumière pénètre jusque dans les bas-fonds de l’âme pour réparer les choses que l’on croyait brisées. La deuxième partie de ce mémoire consiste en l’analyse du projet 12 hommes rapaillés chantent Gaston Miron entrepris par Gilles Bélanger et qui a été réalisé à partir des poèmes issus des recueils L’homme rapaillé et Poèmes épars. J’y observe les caractéristiques formelles de la poésie de Miron, mais aussi les manipulations qui ont permis la transformation de certains de ses poèmes en chansons.
53

Comparações de populações discretas / Comparison of discrete populations

Watanabe, Alexandre Hiroshi 19 April 2013 (has links)
Um dos principais problemas em testes de hipóteses para a homogeneidade de curvas de sobrevivência ocorre quando as taxas de falha (ou funções de intensidade) não são proporcionais. Apesar do teste de Log-rank ser o teste não paramétrico mais utilizado para se comparar duas ou mais populações sujeitas a dados censurados, este teste apresentada duas restrições. Primeiro, toda a teoria assintótica envolvida com o teste de Log-rank, tem como hipótese o fato das populações envolvidas terem distribuições contínuas ou no máximo mistas. Segundo, o teste de Log-rank não apresenta bom comportamento quando as funções intensidade cruzam. O ponto inicial para análise consiste em assumir que os dados são contínuos e neste caso processos Gaussianos apropriados podem ser utilizados para testar a hipótese de homogeneidade. Aqui, citamos o teste de Renyi e Cramér-von Mises para dados contínuos (CCVM), ver Klein e Moeschberger (1997) [15]. Apesar destes testes não paramétricos apresentar bons resultados para dados contínuos, esses podem ter problemas para dados discretos ou arredondados. Neste trabalho, fazemos um estudo simulação da estatística de Cramér von-Mises (CVM) proposto por Leão e Ohashi [16], que nos permite detectar taxas de falha não proporcionais (cruzamento das taxas de falha) sujeitas a censuras arbitrárias para dados discretos ou arredondados. Propomos também, uma modificação no teste de Log-rank clássico para dados dispostos em uma tabela de contingência. Ao aplicarmos as estatísticas propostas neste trabalho para dados discretos ou arredondados, o teste desenvolvido apresenta uma função poder melhor do que os testes usuais / One of the main problems in hypothesis testing for homogeneity of survival curves occurs when the failure rate (or intensity functions) are nonproportional. Although the Log-rank test is a nonparametric test most commonly used to compare two or more populations subject to censored data, this test presented two constraints. First, all the asymptotic theory involved with the Log-rank test, is the hypothesis that individuals and populations involved have continuous distributions or at best mixed. Second, the log-rank test does not show well when the intensity functions intersect. The starting point for the analysis is to assume that the data is continuous and in this case suitable Gaussian processes may be used to test the assumption of homogeneity. Here, we cite the Renyi test and Cramér-von Mises for continuous data (CCVM), and Moeschberger see Klein (1997) [15]. Despite these non-parametric tests show good results for continuous data, these may have trouble discrete data or rounded. In this work, we perform a simulation study of statistic Cramér-von Mises (CVM) proposed by Leão and Ohashi [16], which allows us to detect failure rates are nonproportional (crossing of failure rates) subject to censure for arbitrary data discrete or rounded. We also propose a modification of the test log-rank classic data arranged in a contingency table. By applying the statistics proposed in this paper for discrete or rounded data, developed the test shows a power function better than the usual testing
54

Résolution par des méthodes de point intérieur de problèmes de programmation convexe posés par l’analyse limite.

PASTOR, Franck 26 October 2007 (has links)
Résumé Nous présentons en premier lieu dans ce travail les principales notions de la théorie de l'Analyse Limite (AL) — ou théorie des charges limites — en mécanique. Puis nous proposons une méthode de point intérieur destinée à résoudre des problèmes de programmation convexe posés par la méthode statique de l'AL, en vue d'obtenir des bornes inférieures de la charge limite (ou de ruine) d'un système mécanique. Les principales caractéristiques de cette méthode de point intérieur sont exposées en détail, et particulièrement son itération type. En second lieu, nous exposons l'application de cet algorithme sur un problème concret d'analyse limite, sur une large gamme de tailles numériques, et nous comparons pour validation les résultats obtenus avec ceux déjà existants ainsi qu'avec ceux calculés à partir de versions linéarisées du problème statique. Nous analysons également les résultats obtenus pour des problèmes classiques avec matériaux de Gurson, pour lesquels la linéarisation ou la programmation conique ne s'applique pas. La deuxième partie de cet ouvrage a trait à la méthode cinématique de l'analyse limite, qui, elle, s'occupe de fournir des bornes supérieures des charges limites. En premier lieu, nous traitons de l'équivalence entre la méthode cinématique classique et la méthode cinématique mixe, en partant d'une l'approche variationnelle fournie précédemment par Radenkovic et Nguyen. Ensuite, prenant en compte les exigences particulières aux formulations numériques, nous présentons une méthode mixte originale, parfaitement cinématique, utilisant aussi bien des champs de vitesses linéaires que quadratiques, continus ou discontinus. Son modus operandi pratique est tiré de l'analyse des conditions d'optimalité de Karush, Kuhn et Tucker, fournissant par là un exemple significatif d'interaction fructueuse entre la mécanique et la programmation mathématique. La méthode est testée sur des problèmes classiques avec les critères de plasticité de von Mises/Tresca et Gurson. Ces test démontrent l'efficacité remarquable de cette méthode mixte — qui par ailleurs n'utilise que le critère de plasticité comme information sur le matériau — et sa robustesse, laquelle s'avère même supérieure à celle de codes commerciaux récents de programmation conique. Enfin, nous présentons une approche de décomposition, elle aussi originale, des problèmes de bornes supérieures en analyse limite. Cette approche est basée à la fois sur la méthode cinématique mixte et l'algorithme de point intérieur précédents, et elle est conçue pour utiliser jusqu'à des champs de vitesse quadratiques discontinus. Détaillée dans le cas de la déformation plane, cette approche apparaît très rapidement convergente, ainsi que nous le vérifions sur le problème du barreau comprimé de von Mises/Tresca dans le cas de champs de vitesse linéaires continus. Puis elle est appliquée, dans le cas de champs quadratiques discontinus, au problème classique de la stabilité du talus vertical de Tresca, avec des résultats particulièrement remarquables puisqu'ils améliorent nettement les solutions cinématiques connues jusqu'à présent dans la littérature sur le sujet. Cette caractéristique de forte convergence qualifie particulièrement cette méthode de décomposition comme algorithme de base pour une parallélisation directe— ou récursive — de l'approche par éléments finis de l'analyse limite. Abstract Firstly, the main notions of the theory of Limit analysis (LA) in Mechanics —or collapse load theory – is presented. Then is proposed an Interior Point method to solve convex programming problems raised by the static method of LA, in order to obtain lower bounds to the collapse (or limit) load of a mechanical system. We explain the main features of this Interior Point method, describing in particular its typical iteration. Secondly, we show and analyze the results of its application to a practical Limit Analysis problem, for a wide range of sizes, and we compare them for validation with existing results and with those of linearized versions of the static problem. Classical problems are also analyzed for Gurson materials to which linearization or conic programming does not apply. The second part of this work focuses on the kinematical method of Limit Analysis, aiming this time to provide upper bounds on collapse loads. In a first step, we detail the equivalence between the classical an general mixed approaches, starting from an earlier variational approach of Radenkovic and Nguyen. In a second step, keeping in mind numerical formulation requirements, an original purely kinematical mixed method—using linear or quadratic, continuous or discontinuous velocity fields as virtual variables—is proposed. Its practical modus operandi is deduced from the Karush-Kuhn-Tucker optimality conditions, providing an example of crossfertilization between mechanics and mathematical programming. The method is tested on classical problems for von Mises/tresca and Gurson plasticity criteria. Using only the yield criterion as material data, it appears very efficient and robust, even more reliable than recent conic commercial codes. Furthermore, both static and kinematic present approaches give rise to the first solutions of problem for homogeneous Gurson materials. Finally, an original decomposition approach of the upper bound method of limit analysis is proposed. It is based on both previous kinematical approach and interior point solver, using up to discontinuous quadratic velocity. Detailed in plane strain, this method appears very rapidly convergent, as verified in the von Mises/Tresca compressed bar problem in the linear continuous velocity case. Then the method is applied, using discontinuous quadratic velocity fields, to the classical problem of the stability of a Tresca vertical cut, with very significant results as they notably improved the kinematical solutions of the literature. Moreover its strong convergence qualifies this decomposition scheme as a suitable algorithm for a direct—or recursive—parallelization of the LA finite element approach.
55

Adaptyvios genetinių algoritmų strategijos mechaninių struktūrų formai optimizuoti / Shape Optimization of Mechanical Structures Using Genetic Algorithm with Adaptive Strategies

Valackaitė, Laisvūnė 25 June 2014 (has links)
Šiame baigiamajame darbe optimizuojama plokščiojo kūno forma esant žinomai apkrovai ir kraštinėms sąlygoms. Aptariami pagrindiniai optimizavimo tipai, globaliojo optimizavimo ir kontinuumo diskretizavimo metodai. Forma optimizuojama trimis skirtingais neadaptyviais genetiniais algoritmais ir trimis adaptyviais, taikant migracijos strategijas. Poslinkiai ir von Mises įtempimai skaičiuojami baigtinių elementų metodu. Darbo užduotis realizuota C++ kalba. Darbą sudaro 9 dalys: įvadas, kūno formos modeliavimo metodų apžvalga, baigtinių elementų metodas, genetiniai algoritmai, kūno formos optimizavimo uždavinys, rezultatų palyginimas, išvados, literatūros sąrašas, priedai. Darbo apimtis - 62 p. teksto be priedų, 39 iliustr., 5 lent., 24 bibliografinių šaltinių. / The task of Master thesis is to optimize shape of plane body with given loading and boundary conditions. The classes of structural optimization problems, the methods of global optimization and discretization of continual structures are discussed. For shape optimization three different not adaptive and three adaptive genetic algorithms with migration strategy are used, displacements and von Mises stresses are calculated using finite element method. The program was created using C++ language. The work consists of 9 parts: introduction, overview of methods used for shape optimization, finite element method, genetic algorithms, shape optimization of plane body, results, conclusions, references, appendixes. Work consist of 62 p. text without appendixes, 39 pictures, 5 tables, 24 bibliographical entries. Appendixes are included.
56

Análise de resíduos em modelos de regressão von Mises. / Analysis of residues in von Mises regression models.

LEAL, Grayci-Mary Gonçalves. 10 July 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-07-10T16:48:23Z No. of bitstreams: 1 GRAYCI-MARY GONÇALVES LEAL - DISSERTAÇÃO PPGMAT 2006..pdf: 956853 bytes, checksum: 4fd52ea4cb6e8e47a91cfe0b76a5c4bb (MD5) / Made available in DSpace on 2018-07-10T16:48:23Z (GMT). No. of bitstreams: 1 GRAYCI-MARY GONÇALVES LEAL - DISSERTAÇÃO PPGMAT 2006..pdf: 956853 bytes, checksum: 4fd52ea4cb6e8e47a91cfe0b76a5c4bb (MD5) Previous issue date: 2006-04 / Capes / Dados envolvendo medidas angulares estão presentes nas mais diversas áreas do conhecimento. Para analisá-los é necessário utilizar uma teoria estatística específica e apropriada, diferente da que utilizamos para dados lineares. Particularmente, quando o interesse for formular, ajustar e fazer diagnósticos em modelos de regressão, uma vez que, neste contexto, a natureza da variável deve ser considerada. Neste trabalho, utilizamos os modelos de regressão von Mises para investigar a associação tipo circular-linear e apresentamos dois resíduos padronizados que foram obtidos a partir da componente da função desvio e cujas distribuições de probabilidades podem ser aproximadas pela distribuição normal padrão, definida para dados lineares. / Datainvolvingangulararepresentinthemostdiverseareasofscience. Toanalyze them is necessary to introduce an appropriate theory and to study specific and appropriate statistics as well, different from that we use for linear data. When the interest is to formulate, to adjust and to make diagnostics on regression models, the nature of the variables must be considered. In this work, we use the von Mises regression models to investigate the circular-linear association and discuss two standardized residuals defined from the component of the deviance function whose probability distributions can be approximated by the normal standard distribution defined for linear data.
57

Comparações de populações discretas / Comparison of discrete populations

Alexandre Hiroshi Watanabe 19 April 2013 (has links)
Um dos principais problemas em testes de hipóteses para a homogeneidade de curvas de sobrevivência ocorre quando as taxas de falha (ou funções de intensidade) não são proporcionais. Apesar do teste de Log-rank ser o teste não paramétrico mais utilizado para se comparar duas ou mais populações sujeitas a dados censurados, este teste apresentada duas restrições. Primeiro, toda a teoria assintótica envolvida com o teste de Log-rank, tem como hipótese o fato das populações envolvidas terem distribuições contínuas ou no máximo mistas. Segundo, o teste de Log-rank não apresenta bom comportamento quando as funções intensidade cruzam. O ponto inicial para análise consiste em assumir que os dados são contínuos e neste caso processos Gaussianos apropriados podem ser utilizados para testar a hipótese de homogeneidade. Aqui, citamos o teste de Renyi e Cramér-von Mises para dados contínuos (CCVM), ver Klein e Moeschberger (1997) [15]. Apesar destes testes não paramétricos apresentar bons resultados para dados contínuos, esses podem ter problemas para dados discretos ou arredondados. Neste trabalho, fazemos um estudo simulação da estatística de Cramér von-Mises (CVM) proposto por Leão e Ohashi [16], que nos permite detectar taxas de falha não proporcionais (cruzamento das taxas de falha) sujeitas a censuras arbitrárias para dados discretos ou arredondados. Propomos também, uma modificação no teste de Log-rank clássico para dados dispostos em uma tabela de contingência. Ao aplicarmos as estatísticas propostas neste trabalho para dados discretos ou arredondados, o teste desenvolvido apresenta uma função poder melhor do que os testes usuais / One of the main problems in hypothesis testing for homogeneity of survival curves occurs when the failure rate (or intensity functions) are nonproportional. Although the Log-rank test is a nonparametric test most commonly used to compare two or more populations subject to censored data, this test presented two constraints. First, all the asymptotic theory involved with the Log-rank test, is the hypothesis that individuals and populations involved have continuous distributions or at best mixed. Second, the log-rank test does not show well when the intensity functions intersect. The starting point for the analysis is to assume that the data is continuous and in this case suitable Gaussian processes may be used to test the assumption of homogeneity. Here, we cite the Renyi test and Cramér-von Mises for continuous data (CCVM), and Moeschberger see Klein (1997) [15]. Despite these non-parametric tests show good results for continuous data, these may have trouble discrete data or rounded. In this work, we perform a simulation study of statistic Cramér-von Mises (CVM) proposed by Leão and Ohashi [16], which allows us to detect failure rates are nonproportional (crossing of failure rates) subject to censure for arbitrary data discrete or rounded. We also propose a modification of the test log-rank classic data arranged in a contingency table. By applying the statistics proposed in this paper for discrete or rounded data, developed the test shows a power function better than the usual testing
58

[en] AN EXPERIMENTAL STUDY OF THE VALIDITY OF THE VON MISES YIELDING CRITERION FOR ELASTO-VISCOPLASTIC MATERIALS / [pt] ESTUDO EXPERIMENTAL DA VALIDADE DO CRITÉRIO DE FALHA DE VON MISES PARA MATERIAIS ELASTOVISCOPLÁSTICOS

LUIZ UMBERTO RODRIGUES SICA 17 May 2021 (has links)
[pt] É uma prática usual em reologia medir o tensão limite de escoamento. Nessas medidas, a tensão limite de escoamento é definida como o máximo valor absoluto de tensão ao qual abaixo não ocorrem escoamentos irreversíveis. Sendo assim, tensão limite de escoamento aparente estimada é usada em conjunto com o critério de von Mises em qualquer escoamento complexo. Este critério compara esta medida a intensidade do segundo invariante do tensor deviatórico das tensões. Acontece que, para escoamento simples de cisalhamento, o mesmo é composto por tensões cisalhantes e diferenças de tensão normais, mas a contribuição do último nunca foi considerada na determinação experimental da tensão limite de escoamento. Em vista de avaliar a importância da contribuição das diferenças de tensões normais na tensão limite de escoamento aparente, foram realizadas uma sequência de testes de creep para cada material, estimando a tensão crítica que representa o valor médio obtido entre os valores das curvas de tensão nas quais o material escoa e não escoa com uma tolerância considerável. Depois disso, foram propostos testes para avaliar os valores de N1 − N2 e apenas N1 no nível de tensão crítica. E em seguida avaliando-se adequadamente a tensão limite de escoamento. Observou-se que, para alguns materiais, a contribuição das diferenças de tensões normais é muito maior do que a contribuiçõ da tensão cisalhante. Por fim, a validade do critério de von Mises para materiais elasto-viscoplásticos foi avaliada. Para este fim, com o intuito de generalizar o estudo, ensaios de compressão a volume constante e de tração foram realizados avaliando-se as correspondentes tensões limites de escoamento. Como conclusão mais importante, o critério de von Mises não foi considerado adequado como critério de falha para os materiais elasto-viscoplásticos analisados. / [en] It is usual practice in rheology to measure the yield stress in a simple shear flow. In these measurements, the yield stress is identified as the maximum value of the shear stress below which no irreversible flow occurs. Then, the thus determined yield stress is used in conjunction with the von Mises criterion in any complex flow. The latter compares it with the intensity of the deviatoric stress tensor. It happens that for simple shear flow the intensity of the deviatoric stress is composed of both the shear stress and the normal stress differences, but the contribution of the latter is never considered in the experimental determination of the yield stress. In view of assess the importance of the contribution of the normal stresses to the yield stress, a sequence o standard constant shear stress tests were performed for each material, estimating the critical stress which represents the mean value obtained between the stress values of the curves in which the material flows and does not flow with an accurate tolerance. After that, proposed tests were performed in order to obtain the values of N1 − N2 and solely N1 at the critical stresses. Following the appropriate yield stress evaluation. It was observed that for some materials the normal stress contribution is much larger than the shear stress contribution. Furthermore, the validity of the von Mises yielding criterion for elasto-viscoplastic materials was evaluated. For this purpose, in order to generalize the study for different flow conditions, constant volume squeeze flow and traction tests were performed evaluating the corresponding yield stresses. As the most important conclusion, the von Mises yielding criterion was considered not to be accurate representing yielding for the elastoviscoplastic materials analyzed.
59

Partitioning XML data, towards distributed and parallel management / Méthode de Partitionnement pour le traitement distribué et parallèle de données XML.

Malla, Noor 21 September 2012 (has links)
Durant cette dernière décennie, la diffusion du format XML pour représenter les données générées par et échangées sur le Web a été accompagnée par la mise en œuvre de nombreux moteurs d’évaluation de requêtes et de mises à jour XQuery. Parmi ces moteurs, les systèmes « mémoire centrale » (Main-memory Systems) jouent un rôle très important dans de nombreuses applications. La gestion et l’intégration de ces systèmes dans des environnements de programmation sont très faciles. Cependant, ces systèmes ont des problèmes de passage à l’échelle puisqu’ils requièrent le chargement complet des documents en mémoire centrale avant traitement.Cette thèse présente une technique de partitionnement des documents XML qui permet aux moteurs « mémoire principale » d’évaluer des expressions XQuery (requêtes et mises à jour) pour des documents de très grandes tailles. Cette méthode de partitionnement s’applique à une classe de requêtes et mises à jour pertinentes et fréquentes, dites requêtes et mises à jour itératives.Cette thèse propose une technique d'analyse statique pour reconnaître les expressions « itératives ». Cette analyse statique est basée sur l’extraction de chemins à partir de l'expression XQuery, sans utilisation d'information supplémentaire sur le schéma. Des algorithmes sont spécifiés, utilisant les chemins extraits par l’étape précédente, pour partitionner les documents en entrée en plusieurs parties, de sorte que la requête ou la mise à jour peut être évaluée sur chaque partie séparément afin de calculer le résultat final par simple concaténation des résultats obtenus pour chaque partie. Ces algorithmes sont mis en œuvre en « streaming » et leur efficacité est validée expérimentalement.En plus, cette méthode de partitionnement est caractérisée également par le fait qu'elle peut être facilement implémentée en utilisant le paradigme MapReduce, permettant ainsi d'évaluer une requête ou une mise à jour en parallèle sur les données partitionnées. / With the widespread diffusion of XML as a format for representing data generated and exchanged over the Web, main query and update engines have been designed and implemented in the last decade. A kind of engines that are playing a crucial role in many applications are « main-memory » systems, which distinguish for the fact that they are easy to manage and to integrate in a programming environment. On the other hand, main-memory systems have scalability issues, as they load the entire document in main-memory before processing. This Thesis presents an XML partitioning technique that allows main-memory engines to process a class of XQuery expressions (queries and updates), that we dub « iterative », on arbitrarily large input documents. We provide a static analysis technique to recognize these expressions. The static analysis is based on paths extracted from the expression and does not need additional schema information. We provide algorithms using path information for partitioning the input documents, so that the query or update can be separately evaluated on each part in order to compute the final result. These algorithms admit a streaming implementation, whose effectiveness is experimentally validated. Besides enabling scalability, our approach is also characterized by the fact that it is easily implementable into a MapReduce framework, thus enabling parallel query/update evaluation on the partitioned data.
60

SGBD sémantiques pour un environnement bureatique : intégrité et gestion de transactions

Pedraza Linares, Esperanza 25 November 1988 (has links) (PDF)
Ce travail traite deux problèmes rencontrés dans les environnements où l'on utitlise un SGBD de haut niveau sémantique et où les traitements réalisés sont peu structurés et évolutifs et se font sur des objets complexes et volumineux. II s"appui sur l'expérience acquise dans la réalisation des projets TIGRE ET DOEOIS. Le premier aspect porte sur la cohérence sémantique, ce qui concerne plus particulièrement les contraintes implicitement établies lors de la définition du schéma conceptuel de la base. La sémantique introduite dans les modèles que nous avons utilisés, est réalisée en intégrant des concepts déjà existants comme celui d'agrégation et de spécialisation qui se traduisent au niveau du schéma conceptuel par des dépendances existentielles entre les entités. Nous proposons pour les opérations de mise à jour, un ensemble de règles de propagations pour assurer que la base de données soit cohérente par rapport à son propre schéma conceptuel. Le deuxième aspect prend en compte l'exécution des opérations elles mêmes. Fournir la notion de transaction, c'est donner au programmeur d'application le moyen de définir' une séquence d'opérations comme étant un tout qui permet à la base de données d'évoluer entre deux états cohérents. Le problème que nous nous posons est de fournir un support pour l'exécution des applications qui assure le maintien de la cohérence, compte tenu des données et des caractéristiques des traitements faits aux données dans l'activité bureautique. Cet étude a abouti à la réalisation d'un mécanisme transactionnel simple et fléxible.

Page generated in 0.0332 seconds