• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 102
  • 63
  • 9
  • Tagged with
  • 169
  • 89
  • 34
  • 34
  • 27
  • 26
  • 25
  • 23
  • 19
  • 19
  • 19
  • 18
  • 17
  • 17
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

From possibilistic similarity measures to possibilistic decision trees. / Mesures de similarité et arbres de décision possibilistes

Jenhani, Ilyes 01 February 2010 (has links)
Cette thèse traite deux problèmes importants dans les domaine de l'apprentissage automatique et du raisonnement dans l'incertain : comment évaluer une relation de similarité entre deux informations incertaines et comment assurer la classification \`a partir de données incertaines. Notre première principale contribution est de proposer une approche, appelée arbre de décision possibiliste, qui permet de construire des arbres de décision à partir de données d'apprentissage imparfaites. Plus précisément, elle traite des données caractérisées par des classes incertaines o\`u l'incertitude est modélisée avec la théorie des possibilités quantitative. Nous avons développé trois approches d'arbres de décision possibilistes. Pour chacune des approches, nous avons été confrontés à résoudre plusieurs problèmes pour pouvoir construire des arbres de décision possibilistes, tels que, comment définir une mesure de sélection d'attributs quand les classes sont représentes par des distributions de possibilité, comment trouver les critères d'arrêt et comment les feuilles vont être étiquetées dans ce contexte incertain. La première approche, appelée arbre de décision possibiliste basée sur la non- spécificité, utilise le concept de non-spécificité relatif à la théorie des possibilités dans la définition de sa mesure de sélection d'attributs. Cette approche maintient les distributions de possibilité durant toutes les étapes de la procédure de construction et ce particulièrement, au moment de l'évaluation de la quantité d'information apportée par chaque attribut. En revanche, la deuxième et la troisième approches, appelées arbre de décision possibiliste basé sur la similarité et arbre de décision possibiliste basé sur le clustering, éliminent automatiquement les distributions de possibilité dans leurs mesures de sélection d'attributs. Cette stratégie a permis d'étendre le ratio de gain et, par conséquent, d'étendre l'algorithme C4.5 pour qu'il puisse traiter des données libellées par des classes possibilistes. Ces deux dernières approches sont principalement basées sur le concept de similarité entre les distributions de possibilité étudié dans la thèse.La deuxième principale contribution de cette thèse concerne l'analyse des mesures de similarité en théorie des possibilités. En effet, un challenge important était de fournir une analyse des mesures de similarité possibiliste conduite par les propriétés qu'elles doivent satisfaire. Après avoir montré le rôle important de la notion d'incohérence dans l'évaluation de la similarité en théorie des possibilités, une nouvelle mesure, appelée affinité de l'information a été proposée. Cette mesure satisfait plusieurs propriétés que nous avons établies. A la fin de cette thèse, nous avons proposé des expérimentations pour comparer et montrer la faisabilité des approches d'arbres de décision possibilistes que nous avons développées. / This thesis concerns two important issues in machine learning and reasoning under uncertainty: how to evaluate a similarity relation between two uncertain pieces of information, and how to perform classification from uncertain data. Our first main contribution is to propose a so-called possibilistic decision tree which allows to induce decision trees from training data afflicted with imperfection. More precisely, it handles training data characterized by uncertain class labels where uncertainty is modeled within the quantitative possibility theory framework. We have developed three possibilistic decision tree approaches. For each approach, we were faced and solved typical questions for inducing possibilistic decision trees such as how to define an attribute selection measure when classes are represented by possibility distributions, how to find the stopping criteria and how leaves should be labeled in such uncertain context. The first approach, so-called, non-specificity-based possibilistic decision tree uses the concept of non-specificity relative to possibility theory in its attribute selection measure component. This approach keeps up the possibility distributions within all the stages of the building procedure and especially when evaluating the informativeness of the attributes in the attribute selection step. Conversely, the second and the third approaches, so-called similarity-based possibilistic decision tree and clustering-based possibilistic decision tree, automatically, get rid of possibility distributions in their attribute selection measure. This strategy has allowed them to extend the gain ratio criterion and hence to extend the C4.5 algorithm to handle possibilistic labeled data. These two possibilistic decision tree approaches are mainly based on the concept of similarity between possibility distributions.This latter issue constitutes our second main contribution in this thesis. In fact, an important challenge was to provide a property-based analysis of possibilistic similarity measures. After showing the important role that inconsistency could play in assessing possibilistic similarity, a new inconsistency-based possibilistic similarity measure, so-called information affinity has been proposed. This measure satisfies a set of natural properties that we have established. Finally, we have conducted experiments to show the feasibility and to compare the different possibilistic decision tree approaches developed in this thesis.
2

Métaphore et similarité

Blais, Kate 02 October 2023 (has links)
Les philosophes du langage des années soixante-dix et quatre-vingt ont fait resurgir une problématique qui avait déjà intéressé Aristote, la métaphore. La métaphore est un phénomène mystérieux, puisque ce que les auditeurs comprennent n'est pas ce qu'ils entendent littéralement. Quand Roméo affirme que Juliette est le soleil, il ne signifie pas que Juliette est un astre situé à des millions de kilomètres de la Terre, mais probablement qu'elle est le centre de son univers et sa raison de vivre. Expliquer qu'un locuteur ne retient pas la première signification, la signification littérale, mais passe à la deuxième, la signification métaphorique, n'est pas chose aisée et plusieurs façons d'en rendre compte ont été proposées. Une chose est néanmoins évidente : la métaphore fait assurément intervenir des rapports de similarité. Si la métaphore « Juliette est le soleil » a un sens, c'est que Juliette a quelque chose en commun avec le soleil. Mon point de départ est l'idée d'Aristote qui disait : « Bien faire les métaphores, c'est voir le semblable » (Poétique, 1459b). Je considère qu'une théorie adéquate de la métaphore doit proposer une explication valide des liens qui existent entre métaphore et similarité. J'examine ici la façon dont les trois théories classiques de la métaphore, le comparativisme de Robert Fogelin, la théorie pragmatique de John Searle et la théorie non cognitiviste de Donald Davidson ont arrimé ces deux éléments que je juge inséparables. Je montre qu'aucune d'elles ne l'a fait de manière satisfaisante. / In the 1970s and 1980s, philosophers of language resumed the study of metaphor initiated by Aristotle. Metaphor is a mysterious phenomenon, since what the person hearing the metaphor understands is not the same as what he or she literally hears. When Romeo says, "Juliet is the Sun", he does not mean that she is a celestial body millions of kilometers away from the Earth, but most probably that she is the center of his universe and his reason to live. To explain that the person who hears the metaphor does not understand the first but the second meaning it conveys is by no means obvious. Many attempts have been made to explain this phenomenon. It seems clear that metaphor involves relationships of similarity. If the metaphor "Juliet is the Sun" conveys any sense, it is because Juliet shares some properties with the Sun. They look alike in some way. My analysis shares Aristotle's intuition that "to make good metaphors implies an eye for resemblances" (Poetics, 1459a). I consider that an adequate theory of metaphor must explain the relationships between metaphor and similarity. I examine the three classical theories of metaphor: Robert Fogelin's comparativism, John Searle's pragmatism and Donald Davidson's non-cognitivism and I show that none is satisfactory.
3

Contributions à l'alignement d'ontologies OWL par agrégation de similarités / Contributions to OWL ontologies alignment using similarity aggregation

Zghal, Sami 21 December 2010 (has links)
Dans le cadre de cette thèse, nous avons proposé plusieurs méthodes d'alignement à savoir: la méthode EDOLA, la méthode SODA et la méthode OACAS. Les trois méthodes procèdent dans une première phase à la transformation des deux ontologies à aligner sous la forme d'un graphe, O-Graph, pour chaque ontologie. Ces graphes permettent la représentation des ontologies sous une forme facile à l'exploitation. La méthode EDOLA est une approche se basant sur un modèle de calcul des similarités locale et globale. Ce modèle suit la structure du graphe pour calculer les mesures de similarité entre les noeuds des deux ontologies. Le module d'alignement associe pour chaque catégorie de noeuds une fonction d'agrégation. La fonction d'agrégation prend en considération toutes les mesures de similarités entre les couples de noeuds voisins au couple de noeud à apparier. La méthode SODA est une amélioration de la méthode EDOLA. En effet, la méthode SODA opère sur les ontologies OWL-DL, pour les aligner, à la place des ontologies décrites en OWL-Lite. La méthode SODA est une approche structurelle pour l'alignement d'ontologies OWL-DL. Elle opère en 3 étapes successives. La première étape permet de calculer la similarité linguistique à travers des mesures de similarité plus adaptées aux descripteurs des constituants des ontologies à apparier. La seconde étape détermine la similarité structurelle en exploitant la structure des deux graphes O-Graphs. La troisième étape déduit la similarité sémantique, en prenant en considération les deux types de similarités déjà calculées. La méthode d'alignement, OACAS, opère en 3 étapes successives pour produire l'alignement. La première étape permet de calculer la similarité linguistique composée. La similarité linguistique composée prend en considération tous les descripteurs des entités ontologiques à aligner. La seconde étape détermine la similarité de voisinage par niveau. La troisième étape agrège les composants de la similarité linguistique composée et la similarité de voisinage par niveau pour déterminer la similarité agrégée. / In this thesis, we have proposed three ontology alignment methods: EDOLA (Extended Diameter OWL-Lite Alignment) method, SODA (Structural Ontology OWL-DL Alignment) method and OACAS (Ontologies Alignment using Composition and Aggregation of Similarities) method. These methods rely on aggregation and composition of similarities and check the spread structure of the ontologies to be aligned. EDOLA method allows to align OWL-Lite ontologies whereas SODA and OACAS consider OWL-DL ontologies. The three proposed methods operate in a first step by transforming both ontologies to aligned as a graph, named O-Graph, for each ontology. This graph reproduces OWL ontologies to be easily manipulated during the alignment process. The obtained graphs describe all the information contained in the ontologies: entities, relations between entities and instances. Besides, the EDOLA method is a new approach that computes local and global similarities using a propagation technique of similarities through the O-Graphs. This model explores the structure of the considered O-Graphs to compute the similarity values between the nodes of both ontologies. The alignment model associates for each category of nodes an aggregation function. This function takes in consideration all the similarity measures of the couple of nodes to match. This aggregation function explores all descriptive information of this couple. EDOLA operates in two succesive steps. The first step computes the local similarity, terminological one, whereas the second step computes the global one. The SODA method is an improved version of EDOLA. In fact, it uses OWL-DL ontologies. SODA method is a structures approach for OWL-DL ontologies. The method operates in three successive steps and explores the structure the ontologies using O-Graphs. The first step computes linguistic similarity using appropriate similarity measures corresponding to the descriptors of ontological entities. The second step allows to compute structural similarity using the two graphs O-Graphs. The third step deduces the semantic similarity, by combining both similarities already computed, in order to outperform the alignment task.
4

3D-mesh segmentation : automatic evaluation and a new learning-based method / Segmentation de maillages 3D : évaluation automatique et une nouvelle méthode par apprentissage

Benhabiles, Halim 18 October 2011 (has links)
Dans cette thèse, nous abordons deux problèmes principaux, à savoir l'évaluation quantitative des algorithmes de segmentation de maillages ainsi que la segmentation de maillages par apprentissage en exploitant le facteur humain.Tout d'abord, nous proposons un benchmark dédié à l'évaluation des algorithmes de segmentation de maillages 3D. Le benchmark inclut un corpus de segmentation vérités-terrains réalisées par des volontaires ainsi qu'une nouvelle métrique de similarité pertinente qui quantifie la cohérence entre ces segmentations vérités-terrains et celles produites automatiquement par un algorithme donné sur les mêmes modèles. De plus, nous menons un ensemble d'expérimentations, y compris une expérimentation subjective, pour respectivement démontrer et valider la pertinence de notre benchmark. Nous proposons ensuite un algorithme de segmentation par apprentissage. Pour cela, l'apprentissage d'une fonction d'arête frontière est effectué, en utilisant plusieurs critères géométriques, à partir d'un ensemble de segmentations vérités-terrains. Cette fonction est ensuite utilisée, à travers à une chaîne de traitement pour segmenter le maillage en entrée. Nous montrons, à travers une série d'expérimentations s'appuyant sur différents benchmarks, les excellentes performances de notre algorithme par rapport à ceux de l'état de l'art. Enfin, nous proposons une application de notre algorithme de segmentation pour l'extraction de squelettes cinématiques pour les maillages 3D dynamiques, et présentons quelques résultats prometteurs. / In this thesis, we address two main problems namely the quantitative evaluation of mesh segmentation algorithms and learning mesh segmentation by exploiting the human factor. First, we propose a benchmark dedicated to the evaluation of mesh segmentation algorithms. The benchmark includes a human-made ground-truth segmentation corpus and a relevant similarity metric that quantifies the consistency between these ground-truth segmentations and automatic ones produced by a given algorithm on the same models. Additionally, we conduct extensive experiments including subjective ones to respectively demonstrate and validate the relevance of our benchmark. Then, we propose a new learning mesh segmentation algorithm. A boundary edge function is learned, using multiple geometric criteria, from a set of human segmented training meshes and then used, through a processing pipeline, to segment any input mesh. We show, through a set of experiments using different benchmarks, the performance superiority of our algorithm over the state-of-the-art. Finally, we propose an application of our segmentation algorithm for kinematic skeleton extraction of dynamic 3D-meshes, and present some early promising results.
5

Optimisation des requêtes de similarité dans les espaces métriques répondant aux besoins des usagers

Ribeiro Porto Ferreira, Monica 22 October 2012 (has links) (PDF)
La complexité des données contenues dans les grandes bases de données a augmenté considérablement. Par conséquent, des opérations plus élaborées que les requêtes traditionnelles sont indispensable pour extraire toutes les informations requises de la base de données. L'intérêt de la communauté de base de données a particulièrement augmenté dans les recherches basées sur la similarité. Deux sortes de recherche de similarité bien connues sont la requête par intervalle (Rq) et par k-plus proches voisins (kNNq). Ces deux techniques, comme les requêtes traditionnelles, peuvent être accélérées par des structures d'indexation des Systèmes de Gestion de Base de Données (SGBDs).Une autre façon d'accélérer les requêtes est d'exécuter le procédé d'optimisation des requêtes. Dans ce procédé les données métriques sont recueillies et utilisées afin d'ajuster les paramètres des algorithmes de recherche lors de chaque exécution de la requête. Cependant, bien que l'intégration de la recherche de similarités dans le SGBD ait commencé à être étudiée en profondeur récemment, le procédé d'optimisation des requêtes a été développé et utilisé pour répondre à des requêtes traditionnelles. L'exécution des requêtes de similarité a tendance à présenter un coût informatique plus important que l'exécution des requêtes traditionnelles et ce même en utilisant des structures d'indexation efficaces. Deux stratégies peuvent être appliquées pour accélérer l'execution de quelques requêtes, et peuvent également être employées pour répondre aux requêtes de similarité. La première stratégie est la réécriture de requêtes basées sur les propriétés algébriques et les fonctions de coût. La deuxième stratégie est l'utilisation des facteurs externes de la requête, tels que la sémantique attendue par les usagers, pour réduire le nombre des résultats potentiels. Cette thèse vise à contribuer au développement des techniques afin d'améliorer le procédé d'optimisation des requêtes de similarité, tout en exploitant les propriétés algébriques et les restrictions sémantiques pour affiner les requêtes.
6

Suivi des communautés dans les réseaux sociaux dynamiques

Tajeuna, Etienne Gaël January 2016 (has links)
Le suivi des groupes d’utilisateurs ou communautés dans les réseaux sociaux dynamiques a suscité l’intérêt de plusieurs chercheurs. Plusieurs méthodes ont été proposées pour mener à bien ce processus. Dans les méthodes existantes, pour suivre une communauté dans le temps, une approche de comparaison séquentielle des communautés en termes de noeuds est effectuée. Ces comparaisons des communautés sont faites par le biais des mesures de similarités basées soit sur le Coefficient de Jaccard, soit sur un Coefficient de Jaccard modifié. Cependant, suivre une communauté donnée à partir de ces mesures de similarités pourrait au terme de sa durée de vie conduire à une communauté qui n’a aucun noeud en commun avec la communauté initialement observée. De plus, l’usage de ces mesures de similarité pourrait également limiter la détection des changements ou transitions possibles que subirait une communauté dans le temps. Par ailleurs, parmi les méthodes existantes, très peu d’auteurs se sont intéressés à l’étude de l’évolution de la structure des communautés dans le temps. L’objet de ce mémoire est principalement basé sur la question de suivi des communautés et de détection des changements ou des transitions que pourrait subir une communauté dans le temps. Par ailleurs nous présentons une ébauche des perspectives futures au travail élaboré dans ce mémoire à savoir l’analyse de l’évolution de la structure des communautés dans le temps. La contribution majeure présentée dans le chapitre deux de ce mémoire est liée à une nouvelle approche permettant de modéliser et suivre les communautés. Dans notre modèle, nous construisons premièrement une matrice qui dénombre le nombre de noeuds partagés par deux communautés. Chaque ligne de cette matrice est par la suite utilisée pour représenter les noeuds partagés par une communauté et toutes les autres communautés détectées dans le temps. Cette représentation nous permet d’avoir une traçabilité de la communauté à comparer. Par la suite, nous proposons une nouvelle mesure de similarité appelée « transition mutuelle » pour effectuer le suivi et la détection des changements dans les réseaux dynamiques. Dans le dernier chapitre, nous présentons une ébauche de nos futurs travaux. Dans ce chapitre, nous tentons de prédire la structure que pourrait prendre une communauté à un instant inconnu. Pour mener à bien cette opération, nous utilisons un modèle supervisé deux-tiers. Dans le premier tiers, encore vu comme étape d’apprentissage, on extrait des caractéristiques ou variables explicatives liées aux différentes communautés. Comme caractéristiques nous observons entre deux instants le nombre de noeuds qui joint, quitte et reste dans une communauté. Ces caractéristiques extraites sur deux instants distincts sont projetées dans un nouvel espace orthonormé. Cette projection dans un nouvel espace permet de se rassurer que les nouvelles variables sont indépendantes. Une transition étant définie entre deux instants, nous utilisons la variation des nouvelles variables explicatives pour définir chacun des phénomènes comme des classes. Dans le deuxième tiers, nous utilisons le modèle de machine à support de vecteurs (SVM) pour analyser l’évolution de la structure d’une communauté dans le temps. Une série de tests sur des données réelles a été effectuée pour évaluer les approches proposées dans ce mémoire.
7

Indexation aléatoire et similarité inter-phrases appliquées au résumé automatique / Random indexing and inter-sentences similarity applied to automatic summarization

Vu, Hai Hieu 29 January 2016 (has links)
Face à la masse grandissante des données textuelles présentes sur le Web, le résumé automatique d'une collection de documents traitant d'un sujet particulier est devenu un champ de recherche important du Traitement Automatique des Langues. Les expérimentations décrites dans cette thèse s'inscrivent dans cette perspective. L'évaluation de la similarité sémantique entre phrases est l'élément central des travaux réalisés. Notre approche repose sur la similarité distributionnelle et une vectorisation des termes qui utilise l'encyclopédie Wikipédia comme corpus de référence. Sur la base de cette représentation, nous avons proposé, évalué et comparé plusieurs mesures de similarité textuelle ; les données de tests utilisées sont celles du défi SemEval 2014 pour la langue anglaise et des ressources que nous avons construites pour la langue française. Les bonnes performances des mesures proposées nous ont amenés à les utiliser dans une tâche de résumé multi-documents, qui met en oeuvre un algorithme de type PageRank. Le système a été évalué sur les données de DUC 2007 pour l'anglais et le corpus RPM2 pour le français. Les résultats obtenus par cette approche simple, robuste et basée sur une ressource aisément disponible dans de nombreuses langues, se sont avérés très encourageants / With the growing mass of textual data on the Web, automatic summarization of topic-oriented collections of documents has become an important research field of Natural Language Processing. The experiments described in this thesis were framed within this context. Evaluating the semantic similarity between sentences is central to our work and we based our approach on distributional similarity and vector representation of terms, with Wikipedia as a reference corpus. We proposed several similarity measures which were evaluated and compared on different data sets: the SemEval 2014 challenge corpus for the English language and own built datasets for French. The good performance showed by our measures led us to use them in a multi-document summary task, which implements a pagerank-type algorithm. The system was evaluated on the DUC 2007 datasets for English and RPM2 corpus for French. This simple approach, based on a resource readily available in many languages, proved efficient, robust and the encouraging outcomes open up real prospects of improvement.
8

Optimizing similarity queries in metric spaces meeting user's expectation / Optimisation des requêtes de similarité dans les espaces métriques répondant aux besoins des usagers / Otimização de operações de busca por similaridade em espaços métricos atendendo à expectativa do usuário

Ribeiro porto ferreira, Monica 22 October 2012 (has links)
La complexité des données contenues dans les grandes bases de données a augmenté considérablement. Par conséquent, des opérations plus élaborées que les requêtes traditionnelles sont indispensable pour extraire toutes les informations requises de la base de données. L'intérêt de la communauté de base de données a particulièrement augmenté dans les recherches basées sur la similarité. Deux sortes de recherche de similarité bien connues sont la requête par intervalle (Rq) et par k-plus proches voisins (kNNq). Ces deux techniques, comme les requêtes traditionnelles, peuvent être accélérées par des structures d'indexation des Systèmes de Gestion de Base de Données (SGBDs).Une autre façon d'accélérer les requêtes est d'exécuter le procédé d'optimisation des requêtes. Dans ce procédé les données métriques sont recueillies et utilisées afin d'ajuster les paramètres des algorithmes de recherche lors de chaque exécution de la requête. Cependant, bien que l'intégration de la recherche de similarités dans le SGBD ait commencé à être étudiée en profondeur récemment, le procédé d'optimisation des requêtes a été développé et utilisé pour répondre à des requêtes traditionnelles. L'exécution des requêtes de similarité a tendance à présenter un coût informatique plus important que l'exécution des requêtes traditionnelles et ce même en utilisant des structures d'indexation efficaces. Deux stratégies peuvent être appliquées pour accélérer l'execution de quelques requêtes, et peuvent également être employées pour répondre aux requêtes de similarité. La première stratégie est la réécriture de requêtes basées sur les propriétés algébriques et les fonctions de coût. La deuxième stratégie est l'utilisation des facteurs externes de la requête, tels que la sémantique attendue par les usagers, pour réduire le nombre des résultats potentiels. Cette thèse vise à contribuer au développement des techniques afin d'améliorer le procédé d'optimisation des requêtes de similarité, tout en exploitant les propriétés algébriques et les restrictions sémantiques pour affiner les requêtes. / The complexity of data stored in large databases has increased at very fast paces. Hence, operations more elaborated than traditional queries are essential in order to extract all required information from the database. Therefore, the interest of the database community in similarity search has increased significantly. Two of the well-known types of similarity search are the Range (Rq) and the k-Nearest Neighbor (kNNq) queries, which, as any of the traditional ones, can be sped up by indexing structures of the Database Management System (DBMS). Another way of speeding up queries is to perform query optimization. In this process, metrics about data are collected and employed to adjust the parameters of the search algorithms in each query execution. However, although the integration of similarity search into DBMS has begun to be deeply studied more recently, the query optimization has been developed and employed just to answer traditional queries.The execution of similarity queries, even using efficient indexing structures, tends to present higher computational cost than the execution of traditional ones. Two strategies can be applied to speed up the execution of any query, and thus they are worth to employ to answer also similarity queries. The first strategy is query rewriting based on algebraic properties and cost functions. The second technique is when external query factors are applied, such as employing the semantic expected by the user, to prune the answer space. This thesis aims at contributing to the development of novel techniques to improve the similarity-based query optimization processing, exploiting both algebraic properties and semantic restrictions as query refinements. / A complexidade dos dados armazenados em grandes bases de dados tem aumentadosempre, criando a necessidade de novas operaoes de consulta. Uma classe de operações de crescente interesse são as consultas por similaridade, das quais as mais conhecidas sãoas consultas por abrangência (Rq) e por k-vizinhos mais próximos (kNNq). Qualquerconsulta é agilizada pelas estruturas de indexaçãodos Sistemas de Gerenciamento deBases de Dados (SGBDs). Outro modo de agilizar as operações de busca é a manutençãode métricas sobre os dados, que são utilizadas para ajustar parâmetros dos algoritmos debusca em cada consulta, num processo conhecido como otimização de consultas. Comoas buscas por similaridade começaram a ser estudadas seriamente para integração emSGBDs muito mais recentemente do que as buscas tradicionais, a otimização de consultas,por enquanto, é um recurso que tem sido utilizado para responder apenas a consultastradicionais.Mesmo utilizando as melhores estruturas existentes, a execução de consultas por similaridadetende a ser mais custosa do que as operações tradicionais. Assim, duas estratégiaspodem ser utilizadas para agilizar a execução de qualquer consulta e, assim, podem serempregadas também para responder às consultas por similaridade. A primeira estratégiaé a reescrita de consultas baseada em propriedades algébricas e em funções de custo. Asegunda técnica faz uso de fatores externos à consulta, tais como a semântica esperadapelo usuário, para restringir o espaço das respostas. Esta tese pretende contribuir parao desenvolvimento de técnicas que melhorem o processo de otimização de consultas porsimilaridade, explorando propriedades algébricas e restrições semânticas como refinamentode consultas
9

Les variations des processus auto-similaires : Contributions à l'étude des draps browniens fractionnaires et de la solution de l'équation stochastique des ondes / Variations of self-similar processes : Contributions to the study of the fractionals Brownians sheets and solution of stochastic waves equation

Khalil, Marwa 05 December 2017 (has links)
Cette thèse est divisée en trois chapitres distincts, ayant comme dénominateur commun l'analyse stochastique de certains champs gaussiens. Les processus stochastiques multiparamétriques qui apparaissent dans ce manuscrit sont généralement auto-similaires. L'auto-similarité est la propriété qu’un processus stochastique préserve sa loi après un changement d'échelle du temps. Dans une première partie, nous avons mis en évidence des nouveaux aspects du drap brownien fractionnaire en utilisant essentiellement la notion de la transformation de Lamperti. Un focus sur l'équation différentielle stochastique vérifiée par cette transformée, a été aussi évoqué. Dans une deuxième partie, nous avons analysé le comportement asymptotique en loi des variations quadratiques spatiales des processus qui sont des solutions de deux types d'équations différentielles stochastiques partielles des ondes perturbées par deux sortes des bruits gaussiens auto-similaires. L'outil principal de notre raisonnement était des nouveaux critères basés sur le calcul stochastique de Malliavin et combinés avec la méthode classique de Stein. En guise d'application, nous avons construit un estimateur de l'indice de Hurst H du bruit fractionnaire en se basant sur les variations quadratiques étudiées. / This thesis is divided into three distinct chapters with a common denominator which is the stochastic analysis of some Gaussian fields. The multi-parameter stochastic processes that appeared in this manuscript are generally self-similar. Self-similarity is the property that a stochastic process preserves its law after a scaling of time. Firstly, we deduced new aspects of the fractional Brownian sheet, using essentially the notion of the Lamperti transform. A Focus on the stochastic differential equation verified by this transform sheet was also mentioned. Secondly, we analyzed the asymptoticbehavior of the spatial quadratic variations of processes that are solutions of two types of stochastic wave equations perturbed by two kinds of self-similar Gaussian noises. The main tool in our reasoning was new criteria based on the Malliavin calculus and combined with the classical method of Stein. As an application, we constructed, by the aid of the quadratic variations, an estimator of the Hurst index H of the fractional noise.
10

Étude du processus de Mumford

Li, Xiaolong 03 March 2006 (has links) (PDF)
Le processus de Mumford bidimensionnel est un processus gaussien réel à accroissements stationnaires généralisé qui a été introduit par Mumford et Gidas, en vue de modéliser certaines images naturelles comme les nuages. Nous nous propposons d'étudier la généralisation d'un tel processus.

Page generated in 0.0353 seconds