• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 2
  • Tagged with
  • 7
  • 7
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Gestion d'objets persistants : du langage de programmation au système

Dechamboux, Pascal 03 February 1993 (has links) (PDF)
Cette these decrit la definition et la mise en oeuvre dun langage de programmation pour bases de donnees : le langage a objets Peplom (PErsistent Programming Language for Object Management). Lapproche adoptee a pour but doffrir une su^rete importante du langage, une implementation efficace et de la flexibilite pour le schema des definitions (types, modules, etc...). Le langage propose nest pas totalement nouveau puisquil est syntaxiquement base sur le langage C/C++ ce qui lui confere une conformite avec les standards. La these presente dans un premier temps un etat de lart en deux parties. La premiere partie sattache a etudier les systemes de types sous langle des modeles de memoire necessaires a leur implantation. La deuxieme partie analyse les SGBD a objets existants et les compare suivant un certain nombre de criteres. Le langage Peplom est ensuite decrit en insistant surtout sur leffort dintegration de concepts. Un typage fort et lintroduction orthogonale des concepts bases de donnees dans le langage de programmation lui confere une grande su^rete. Par ailleurs, Peplom apporte une solution interessante au probleme de structuration des programmes qui seffectue a deux niveaux : les types abstraits structurent les definitions des entites modelisees alors que les modules structurent les donnees manipulees. La production de programmes avec le langage Peplom seffectue en deux phases. La premiere phase consiste a saisir les definitions composant lapplication. Celles-ci sont memorisees de maniere incrementale dans un dictionnaire gere par le compilateur. Le dictionnaire autorise les incoherences transitoires de la description des programmes, offrant ainsi une grande flexibilite pour le programmeur et une bonne base pour levolution de schemas. La deuxieme phase realise la generation dapplications executables. Le generateur produit du code supportant le modele structurel et semantique des donnees. Il sappuie sur la couche systeme consistant simplement en un gestionnaire de memoire (persistante et temporaire). Les performances du prototype implante sont comparables a celles des systemes C++ persistants offrant moins de fonctionnalites.
2

Incomplete and Uncertain Information in Relational Databases

Zimanyi, Esteban 01 January 1992 (has links)
<p align="justify">In real life it is very often the case that the available knowledge is imperfect in the sense that it represents multiple possible states of the external world, yet it is unknown which state corresponds to the actual situation of the world. Imperfect knowledge can be of two different categories. Knowledge is incomplete if it represents different states, one of which is true in the external world. On the contrary, knowledge is uncertain if it represents different states which may be satisfied or are likely to be true in the external world.</p> <p align="justify">Imperfect knowledge can be considered under two different perspectives: using either an algebraic or a logical approach. We present both approaches in relation with the standard relational model, providing the necessary background for the subsequent development.</p> <p align="justify">The study of imperfect knowledge has been an active area of research, in particular in the context of relational databases. However, due to the complexity of manipulating imperfect knowledge, little practical results have been obtained so far. In this thesis we provide a survey of the field of incompleteness and uncertainty in relational databases;it can be used also as an introductory tutorial for understanding the intuitive semantics and the problems encountered when representing and manipulating such imperfect knowledge. The survey concentrates in giving an unifying presentation of the different approaches and results found in the literature, thus providing a state of the art in the field.</p> <p align="justify">The rest of the thesis studies in detail the manipulation of one type of incomplete knowledge, namely disjunctive information, and one type of uncertain knowledge, namely probabilistic information. We study both types of imperfect knowledge using similar approaches, that is through an algebraic and a logical framework. The relational algebra operators are generalized for disjunctive and probabilistic relations, and we prove the correctness of these generalizations. In addition, disjunctive and probabilistic databases are formalized using appropriate logical theories and we give sound and complete query evaluation algorithms.</p> <p align="justify">A major implication of these studies is the conviction that viewing incompleteness and uncertainty as different facets of the same problem would allow to achieve a deeper understanding of imperfect knowledge, which is absolutely necessary for building information systems capable of modeling complex real-life situations. </p>
3

Fuzzy Gradual Pattern Mining Based on Multi-Core Architectures / Fouille de motifs graduels flous basée sur architectures multi-coeur

Quintero Flores, Perfecto Malaquias 19 March 2013 (has links)
Les motifs graduels visent à décrire des co-variations au sein des données et sont de la forme plus l'âge est important, plus le salaire est élevé. Ces motifs ont fait l'objet de nombreux travaux en fouille de données ces dernières années, du point de vue des définitions que peuvent avoir de tels motifs et d'un point de vue algorithmique pour les extraire efficacement. Ces définitions et algorithmes considèrent qu'il est possible d'ordonner de manière stricte les valeurs (par exemple l'âge, le salaire). Or, dans de nombreux champs applicatifs, il est difficile voire impossible d'ordonner de cette manière. Par exemple, quand l'on considère l'expression de gènes, dire que l'expression d'un gène est plus importante que l'expression d'un autre gène quand leurs expressions ne diffèrent qu'à la dixième décimale n'a pas de sens d'un point de vue biologique. Ainsi, nous proposons dans cette thèse une approche fondée sur les ordres flous. Les algorithmes étant très consommateurs tant en mémoire qu'en temps de calcul, nous proposons des optimisations d'une part du stockage des degrés flous et d'autre part de calcul parallélisé. Les expérimentations que nous avons menées sur des bases de données synthétiques et réelles montrent l'intérêt de notre approche. / Gradual patterns aim at describing co-variations of data such as the older, the higher the salary. They have been more and more studied from the data mining point of view in recent years, leading to several ways of defining their meaning and and several algorithms to automatically extract them.They consider that data can be ordered regarding the values taken on the attributes (e.g. the age and the salary).However, in many application domains, it is hardly possible to consider that data values are crisply ordered. For instance, when considering gene expression, it is not true, from the biological point of view, to say that Gene 1 is more expressed than Gene 2 if the levels of expression only differ from the tenth decimal. This thesis thus considers fuzzy orderings and propose both formal definitions and algorithms to extract gradual patterns considering fuzzy orderings. As these algorithms are both time and memory consuming, we propose some optimizations based on an efficient storage of the fuzzy ordering informationcoupled with parallel algorithms. Experimental results run on synthetic and real database show the interest or our proposal.
4

Vers une maîtrise des incertitudes en calculs des structures composites

Rollet, Yannis 26 September 2007 (has links) (PDF)
Les exigences de sécurité dans le domaine aéronautique imposent de tenir compte des diverses incertitudes affectant les structures, notamment la variabilité matériau. Malgré son essor la simulation numérique considère actuellement cette problématique de façon simplifiée, par exemple en usant d'abattements sur les valeurs de propriétés utilisées dans les calculs. Mais l'emploi accru des matériaux composites, par nature plus sensibles aux incertitudes, demande l'introduction de méthodes plus précises afin d'assurer une meilleure robustesse du dimensionnement. Pour cela, il a été développé une nouvelle démarche dite d'Analyse de Variabilité respectant certaines contraintes de la simulation numérique telle l'indépendance vis-à-vis du code de calcul (non-intrusivité) et la parcimonie des calculs. Face à la grande diversité des techniques de transport d'incertitudes, le choix a été fait de construire une démarche en s'appuyant sur les techniques de surfaces de réponses. Afin d'exploiter au mieux les diverses formes retenues (polynômes en les paramètres incertains, chaos polynomial, krigeage) pour construire l'approximation, la démarche a été rendue progressive. Des méthodes de validation croisée (leave-k-out, bootstrap) ont été utilisées pour évaluer la qualité de l'approximation. Ainsi, il est possible d'afficher une estimation des effets des incertitudes (par exemple sous la forme de barres d'erreur) mais également de quantifier la confiance dans cette estimation. La validation de la démarche s'est tout d'abord appuyée sur des exemples mathématiques, puis sur des situations mécaniques simples et analytiques. Les résultats obtenus montrent notamment une bonne cohérence vis-à-vis des simulations de Monte-Carlo pour un coût de calcul nettement inférieur. Les incertitudes considérées portent aussi bien sur des paramètres géométriques que matériau, avec notamment des caractéristiques propres aux composites (angles d'empilement, épaisseur des plis). L'application de la démarche à divers exemples (plaque multiperforée, assemblage boulonné,...) de calcul de structures par la méthode des éléments finis a souligné son applicabilité pour un surcoût de calcul raisonnable. Pour finir, le problème de la réduction des effets des incertitudes a été abordé sous des angles classiques comme la réduction des incertitudes d'entrée ou l'amélioration de la qualité des modèles utilisés. Enfin, une méthode plus originale, dite de consolidation de bases de données, utilisant les corrélations entre paramètres mesurés aux diverses échelles des composites a été proposée.
5

Objets historiques et annotations pour les environnements logiciels

Casallas, Rubby 24 May 1996 (has links) (PDF)
Dans un environnement guide par les procedes de fabrication de logiciel (EGPFL), la gestion de l'information est un probleme complexe qui doit concilier deux besoins : gerer le produit logiciel et gerer les procedes de fabrication. Outre la grande quantite d'entites diverses et fortement interdependantes, la gestion du produit doit prendre en compte l'aspect evolutif et les facteurs de variation du logiciel, ainsi que la nature cooperative des activites de fabrication des logiciels. La gestion des procedes recouvre la modelisation, l'execution, l'evaluation et la supervision des procedes. Diverses informations doivent alors etre prises en compte : la trace d'execution des procedes, les evenements survenus dans l'environnement et les mesures de qualite. Nous proposons les objets historiques annotes pour gerer l'information d'un EGPFL. L'objet historique constitue la notion de base d'un modele a objets historique permettant de representer a la fois les entites logicielles et leur evolution. La notion d'annotation vient, quant a elle, enrichir ce modele pour permettre d'introduire des informations qui denotent des faits (notes, mesures, observations, etc) pouvant etre ponctuellement associes aux entites de l'EGPFL. Un langage de requetes est defini afin d'acceder aux differentes informations. Grace a ce langage, l'EGPFL dispose d'un service puissant pour rassembler, a partir de la base d'objets, les diverses informations necessaires a l'evaluation et au controle des procedes de fabrication. Nous proposons egalement d'exploiter les possibilites offertes par notre modele pour definir des evenements et, eventuellement, en conserver un historique. Les evenements permettent d'identifier des situations liant des informations provenant aussi bien de l'etat courant que des etats passes de l'EGPFL. C'est pourquoi la definition d'un evenement peut comporter des conditions exprimees dans le langage de requetes. L'emploi d'annotations permet d'enregistrer les occurrences d'evenements, ainsi qu'une partie de l'etat du systeme. Une implantation du modele est proposee dans le systeme Adele.
6

Indexation 3D de bases de donnees d'objets par graphes de Reeb ameliores

TUNG, Tony 10 June 2005 (has links) (PDF)
La rapide avancée de la technologique numérique a permis d'améliorer les méthodes d'acquisition et de rendu de modèles 3D. On peut constater qu'aujourd'hui les bases de données d'objets 3D sont présentes dans beaucoup de domaines, qu'ils soient ludiques (jeux, multimédia) ou scientifiques (applications médicales, industrielles, héritage culturel, etc.). La facilité d'acquisition et de reconstruction des modèles 3D, ainsi que leur modélisation permettent de créer de grandes bases de données, et il devient difficile de naviguer dans ces bases pour retrouver des informations. L'indexation des objets 3D apparaît donc comme une solution nécessaire et prometteuse pour gérer ce nouveau type de données. Notre étude s'insérant dans le cadre du projet européen SCULPTEUR IST-2001-35372 dont des partenaires étaient des musées, nous avons donc travaillé avec des bases de données de modèles 3D muséologiques. L'indexation des éléments d'une base de données consiste à définir une méthode permettant d'effectuer des comparaisons parmi les composants de cette base. Actuellement, une des principales applications consiste à effectuer des requêtes de similarité : étant donné une "clé'' de recherche, on extrait de la base de données les éléments ayant la clé la plus similaire.<br /><br />Nous présentons dans ce mémoire une méthode d'indexation de modèles 3D appliquée aux recherches par similarité de forme et d'aspect dans des bases de données d'objets 3D. L'approche repose sur la méthode d'appariement de graphes de Reeb multirésolution proposée par [Hilaga et al, 01]. Dans le cadre de notre étude, nous travaillons avec des maillages de modèles 3D de géométrie plus ou moins complexes, à différents niveaux de résolution, et parfois texturés. L'approche originale, basée sur la topologie des objets 3D, s'est avérée insuffisante pour obtenir des appariements satisfaisants. C'est pourquoi nous proposons d'étendre les critères de cohérence topologique pour les appariements et de fusionner au graphe des informations géométriques et visuelles pour améliorer leur mise en correspondance et l'estimation de la similarité entre modèles. Ces attributs sont librement pondérables afin de s'adapter au mieux aux requêtes d'un utilisateur. Nous obtenons une représentation souple, multicritère et multirésolution que nous nommons graphe de Reeb multirésolution augmenté (aMRG). Nous comparons cette approche à un ensemble varié de méthodes d'indexation. Elle se révèle être très performante pour retrouver les objets de formes similaires et discerner les différentes classes de formes 3D.
7

Incomplete and uncertain information in relational databases

Zimanyi, Esteban 01 January 1992 (has links)
<p align="justify">In real life it is very often the case that the available knowledge is imperfect in the sense that it represents multiple possible states of the external world, yet it is unknown which state corresponds to the actual situation of the world. Imperfect knowledge can be of two different categories. Knowledge is incomplete if it represents different states, one of which is true in the external world. On the contrary, knowledge is uncertain if it represents different states which may be satisfied or are likely to be true in the external world.</p><p><p align="justify">Imperfect knowledge can be considered under two different perspectives: using either an algebraic or a logical approach. We present both approaches in relation with the standard relational model, providing the necessary background for the subsequent development.</p><p><p align="justify">The study of imperfect knowledge has been an active area of research, in particular in the context of relational databases. However, due to the complexity of manipulating imperfect knowledge, little practical results have been obtained so far. In this thesis we provide a survey of the field of incompleteness and uncertainty in relational databases;it can be used also as an introductory tutorial for understanding the intuitive semantics and the problems encountered when representing and manipulating such imperfect knowledge. The survey concentrates in giving an unifying presentation of the different approaches and results found in the literature, thus providing a state of the art in the field.</p><p><p align="justify">The rest of the thesis studies in detail the manipulation of one type of incomplete knowledge, namely disjunctive information, and one type of uncertain knowledge, namely probabilistic information. We study both types of imperfect knowledge using similar approaches, that is through an algebraic and a logical framework. The relational algebra operators are generalized for disjunctive and probabilistic relations, and we prove the correctness of these generalizations. In addition, disjunctive and probabilistic databases are formalized using appropriate logical theories and we give sound and complete query evaluation algorithms.</p><p><p align="justify">A major implication of these studies is the conviction that viewing incompleteness and uncertainty as different facets of the same problem would allow to achieve a deeper understanding of imperfect knowledge, which is absolutely necessary for building information systems capable of modeling complex real-life situations. </p> / Doctorat en sciences, Spécialisation Informatique / info:eu-repo/semantics/nonPublished

Page generated in 0.0759 seconds