• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 3
  • Tagged with
  • 15
  • 15
  • 15
  • 7
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Combinaison d'informations hétérogènes dans le cadre unificateur des ensembles aléatoires : approximations et robustesse

Florea, Mihai Cristian. 13 April 2018 (has links)
Dans ce travail nous nous intéressons aux problèmes liés à la combinaison d'informations en provenance de sources multiples. Nous proposons de représenter les informations en provenance de la théorie des ensembles flous (FST) et de la théorie de l'évidence (DST) dans le cadre unificateur des ensembles aléatoires (RST). Le processus de combinaison fait face à deux problématiques majeures : (1) une explosion du temps de calcul dû au grand nombre d'éléments focaux, et (2) la combinaison d'informations en conflit total. Nous proposons dans un premier temps de réduire le temps de calcul du processus de combinaison, en appliquant une approximation directe aux informations de la FST qui s'avère très efficace lorsque la cardinalité du cadre de discernement est élevée. Dans un deuxième temps nous proposons une formulation générale pour les règles de combinaison de la RST, ainsi qu'une nouvelle classe de règles adaptatives qui a l'avantage de (a) prendre en compte de manière automatique la fiabilité des sources, (b) combiner des informations définies sur des cadres de discernement différents et homogènes. Elle possède un comportement similaire à la règle conjonctive lorsque les sources sont en accord et un comportement similaire à la règle disjonctive lorsque les sources sont en désaccord.
2

Représentation et évaluation de structures argumentatives

Megzari, Idriss El 24 April 2018 (has links)
Dans des domaines comme l'aéronautique, l'énergie, le médical ou encore les technologies de l'information en général, les besoins de formuler des arguments de sûreté, sécurité, confidentialité, etc. sont de plus en plus présents. Or, la représentation et l'évaluation de ces arguments n'est pas une chose aisée et fait l'objet de nombreux débats depuis les dix dernières années particulièrement. Une structure argumentative est une modélisation d'un argument ayant comme but d'expliciter les liens (l'argument) reliant une affirmation modélisant une propriété d'un système aux preuves qui la supportent. Les deux principaux défis reliés aux structures argumentatives sont les langages de représentation et les méthodes permettant d'évaluer le niveau de confiance que l'on peut attribuer à l'argument modélisé. S'intéressant à ces deux problématiques, ce mémoire investigue d'une part des langages permettant de représenter des structures argumentatives, et d'une autre part la théorie de l'évidence de Dempster-Shafer. En particulier, ce mémoire présente les langages GSN et TCL, la correspondance entre ces deux langages ainsi que de possibles extensions permettant d'en augmenter l'expressivité. La théorie de l'évidence de Dempster-Shafer y est aussi présentée et y fait l'objet d'une extension qui évite de traiter les cas limites comme des cas particuliers. La théorie de l'évidence de Dempster-Shafer permet de construire un modèle de confiance global à partir d'évaluations locales. Ces dernières sont obtenues en évaluant chaque composante d'une structure argumentative de façon indépendante. Des approches de construction des structures argumentatives ainsi que d'évaluation de leurs éléments sont développées et appliquées dans le cas de deux exemples provenant de deux contextes différents : la conformité avec l'exemple de l'ISO-27001 et la sûreté avec l'exemple d'une pompe à perfusion.
3

Application du calcul d'incidence à la fusion de données

Dumas, Marc-André 11 April 2018 (has links)
Le calcul d'incidence généralisé est une technique hybride symbolique-numérique qui présente un potentiel intéressant pour la fusion de données, notamment par sa correspondance possible avec la théorie de l'évidence. Ce mémoire présente une série de modifications au calcul d'incidence généralisé afin qu'il puisse être utilisé pour éliminer le problème de bouclage d'information, un problème important de la fusion de données qui fait que les données corrélées prennent une importance plus grande. Ces modifications permettent aussi de représenter divers types de combinaisons à l'aide de l'approche des univers possibles. Il est notamment possible d'effectuer des combinaisons de Yager associatives et des parallèles peuvent être faits avec la théorie de Dezert et Smarandache. / Generalized Incidence Calculus is a hybrid symbolic-numeric approach to data fusion that presents many interesting characteristics, in particular a correspondence with the Theory of Evidence. This master's thesis presents modifications to Generalized Incidence Calculus for its application to eliminate the Data Looping problem which makes combination of correlated data take more importance. Those modifications also allow the representation of alternative combinations of the Theory of Evidence by using a possible worlds approach. In particular, it is possible to associatively combine data using the Yager combination and parallels can be made with the Dezert-Smarandache Theory.
4

Cartographie de paramètres forestiers par fusion évidentielle de données géospatiales multi-sources application aux peuplements forestiers en régénération et feuillus matures du Sud du Québec

Mora, Brice January 2009 (has links)
Foresters are faced with difficulties to obtain sub-polygon information with the mapping methods available nowadays. The main objective of this work consisted in the development of new methods able to improve the map accuracy of regenerating forest stands and mature forest stands in the South of Québec, Canada. The Dempster-Shafer Theory (DST) and the Dezert-Smarandache Theory (DSmT) showed their ability to integrate multiple heterogenous data sources to go further than the classical classification procedures like the maximum likelihood or the spectral unmixing, in terms of map accuracy. Improvement on the ability to map regenerating stands, passed from 82.7% with the maximum likelihood method to 91.1% with the Free DSm model with a total transfer of the mass of the"Union" class to the"Intersection" class (+ 8.4%). For the mature stands, the improvement passed from 63.8% with the K nearest neighbour to 79.5% with the DST according to a classical belief structuration and the hybrid decision rule for which the conflict threshold was fixed at 10% (+ 15.7%). Our results with DST and a bayesian belief structuration showed the difficulty to model the uncertainty in the fusion process. This is probably due to the lack of scientific knowledge about the influence of the biophysical and climatic parameters on the mapped forest stands and to the necessity to model specifically the uncertainty for each source. Our work showed concrete improvement when mapping forest stands with DST which is encouraging to continue explorating the fundamental principle of the proposed hybrid decision rule. This means a particular focus on the difference between the fused masses of each potential class after the fusion, to choose the best hypothesis.
5

Modélisation prédictive de l'occupation des sols en contexte agricole intensif<BR />Application à la couverture hivernale des sols en Bretagne

Corgne, Samuel 10 December 2004 (has links) (PDF)
La couverture hivernale des sols a un impact avéré sur la qualité de l'eau, en influant sur le transfert des flux de polluants d'origine agricole au sein de bassins versants. sa prédiction, si elle peut constituer une aide à la programmation d'actions dans le cadre de programmes de restauration de la qualité de l'eau, pose cependant un certain nombre de problèmes d'ordre méthodologique. L'objectif de ce travail est de développer une méthode reproductible qui permette d'effectuer une prédiction à court terme de la couverture hivernale des sols. Une approche approximative reposant sur un modèle expert utilisant la règle des évidences de dempster-Shafer a été retenue, car elle permet de prendre en compte l'imprécision et les lacunes de connaissances liées à cette problématique et aux données disponibles, et d'associer un degré de confiance aux résultats produits. Des prédictions de la couverture hivernale des sols sont d'abord effectuées sur un site expérimental localisé en Bretagne selon les deux hypothèses "sols couverts" et "sols nus à peu couverts". Après avoir déterminé les dynamiques spatio-temporelles des changements passés, notamment à partir d'une série multitemporelle d'images de télédétection, et avoir défini les facteurs motivant les changements passés et à venir, la fusion des sources d'informations qui représentent ces facteurs est réalisée avec la règle de Dempster-Shafer. Les résultats sont mitigés: les prédictions sont cohérentes à l'échelle du bassin versant mais l'affectation spatiale des prédictions à l'échelle parcellaire, qui est bonne pour la classe "sols couverts" reste problématique pour la classe "sols nus à peu couverts" en raison du niveau de conflit élévé entre les sources d'information pour cette hypothèse. L'utilisation de la théorie récente de Dezert-Smarandache, qui autorise la prise en compte d'informations paradoxales, permet d'améliorer les scores de prédictions pour la classe "sols nus à peu couverts". Une évaluation de la reproductibilité de l'approche prédictive développée est alors effectuée à travers l'application du modèle sur un bassin versant plus étendu et où les données sont moins nombreuses. Si la classe "sols couverts" reste bien évaluée avec les deux règles de fusion, l'affectation spatiale de la classe "sols nus à peu couverts" est en revanche toujours affectée d'un faible taux de prédiction correcte, illustrant la nécessité de l'intégration de nouvelles sources d'information dans le modèle pour cette hypothèse aux fortes variabilités spatiotemporelles.
6

Définition d'une fonction de pronostic des systèmes techniques multi composants prenant en compte les incertitudes à partir des pronostics de leurs composants / Definition of a generic prognostic function of technical multi-component systems taking into account the uncertainties of the predictions of their components

Le Maitre Gonzalez, Esteban Adolfo 24 January 2019 (has links)
Face au défi des entreprises pour le maintien de leurs équipements au maximum de leur fiabilité, de leur disponibilité, de leur rentabilité et de leur sécurité au coût de maintenance minimum, des stratégies de maintenance telles que le CBM et le PHM ont été développées. Pour mettre en œuvre ces stratégies, comme pour la planification des activités de production il est nécessaire de connaître l’aptitude des systèmes à réaliser les futures tâches afin de réaliser le séquencement des opérations de production et de maintenance. Cette thèse présente les éléments d'une fonction générique qui évalue la capacité des systèmes techniques multi-composants à exécuter les tâches de production de biens ou de services assignées. Ce manuscrit présente une proposition de modélisation de systèmes techniques multi-composants représentant les différentes entités qui les composent, leurs états et leurs relations. Plusieurs types d’entités ont été identifiés. Pour chacun d’eux, des inférences sont proposées pour définir à l’intérieur du système l’aptitude de l’entité à accomplir les futures tâches de production à partir des évaluations de son état présent et futur et des évaluations des états présents et futurs des autres entités avec lesquelles elle est en relation. Ces évaluations des états présents et futurs sont basées sur l’exploitation de pronostics locaux des composants. Ces pronostics sont des prévisions qui intrinsèquement comportent des incertitudes pouvant être aléatoires ou épistémiques. La fonction proposée et les inférences prennent en compte ces deux formes d’incertitudes. Pour cela, les traitements et la fonction proposée exploite des éléments de la théorie de Dempster-Shafer. La modélisation des systèmes multi-composants pouvant être représentée sous la forme de graphes dont les états des nœuds dépendent de données comportant des incertitudes, des éléments des réseaux bayésiens sont également utilisés. Cette fonction fournit des indicateurs, sur l’aptitude de chaque entité du système à accomplir les futures tâches de production mais aussi indique les composants nécessitant une intervention afin d’améliorer cette aptitude. Ainsi, ces indicateurs constituent les éléments d'aide à la décision pour la planification des opérations de maintenance de façon conditionnelle et préventive, mais aussi pour la planification des opérations de production. / One major challenge of companies consists in maintaining their technical production resources at the maximum level of reliability, availability, profitability and safety for a minimum maintenance cost, maintenance strategies such as CBM and PHM have been developed. To implement these strategies, as with production activity planning, it is necessary to know the ability of systems to perform future tasks to order production and maintenance operations. This thesis presents the generic function that evaluates the ability of multi-component technical systems to perform the production tasks of goods or services. This manuscript presents a proposal for the modelling of multi-component technical systems representing the different entities that compose them, their states and their relationships. Several types of entities have been identified. For each of them, inferences are proposed to define within the system the entity's ability to perform future production tasks based on its own assessment of its present and future state and the assessments of the present and future states of the other entities with which it is involved. These assessments of present and future states are based on the use of local prognoses of components. These prognoses are predictions that inherently involve uncertainties that may be aleatory or epistemic. The proposed function and inferences take into account these two kinds of uncertainty. To do this, the inferences and the proposed function uses elements of the Dempster-Shafer theory. Since the modelling of multi-component systems can be represented in the form of graphs whose node states depend on data with uncertainties, elements of Bayesian networks are also used. This function provides indicators on the ability of each system entity to perform future production tasks but also indicates the components that require maintenance to improve this ability. Thus, these indicators constitute the elements of decision support for the planning of maintenance operations in a conditional and preventive way, but also for the planning of production tasks.
7

Segmentation des images IRM multi-échos tridimensionnelles pour la détection des tumeurs cérébrales par la théorie de l'évidence

Capelle-Laizé, Anne-Sophie 03 December 2003 (has links) (PDF)
L'imagerie par résonance magnétique (IRM) est, aujourd'hui, un outil puissant permettant l'observation in vivo de l'anatomie cérébrale. Utilisée en routine clinique, la multiplicité des pondérations d'acquisition permet aux médecins d'accéder à une information riche, abondante, et donc particulièrement adaptée au diagnostic de tumeurs cérébrales.<br /> <br />Cette thèse porte sur la problématique de segmentation des images IRM cérébrales pour l'aide au diagnostic des tumeurs cérébrales. Il s'agit donc de développer des méthodes de segmentation précises et fiables permettant la localisation des tumeurs cérébrales, en particulier infiltrantes dont les frontières ne sont pas nettes.<br />L'approche de segmentation adoptée est une approche multi-échos - donc multi-sources - fondée sur la théorie de l'évidence (ou théorie de Dempster-Shafer) apte à gérer l'incertitude des données à traiter et l'aspect multi-sources des informations manipulées. Dans un premier temps, nous nous attachons à montrer l'aptitude de la théorie de l'évidence à traiter les informations imprécises et incertaines que sont les images IRM au travers d'une démarche de type reconnaissance des formes crédibiliste. Dans un second temps, nous proposons une méthode d'intégration d'informations contextuelles fondée sur une combinaison pondérée de fonctions de croyance. La méthode de segmentation ainsi définie est appliquée à différents volumes cérébraux permettant une détection des zones tumorales. Des comparaisons avec des segmentations menées par des experts cliniciens et des méthodes de la littérature montrent l'intérêt des outils méthodologiques proposés à définir les volumes tumoraux recherchés. Enfin, nous nous sommes intéressées au conflit généré par le processus d'intégration des informations contextuelles. Nous montrons que le conflit est une information à part entière, représentative de la position des frontières entre les différentes structures anatomiques de la scène observée (le cerveau). Cette information frontière peut être utilisée en coopération avec la segmentation région initialement obtenue permettant ainsi d'obtenir un processus de segmentation complet reposant sur une approche de type "régions" et une approche de type "contours"
8

Multi-focus image fusion using local variability / Fusion d'image en utilisant la variabilité locale

Wahyuni, Ias Sri 28 February 2018 (has links)
Dans cette thèse, nous nous intéressons aux méthodes de la fusion d'images multi focales. Cette technique consiste à fusionner plusieurs images capturées avec différentes distances focales de la même scène. Cela permet d'obtenir une image de meilleure qualité à partir des deux images sources. Nous proposons une méthode de fusion d'images s'appuyant sur les techniques des pyramides Laplaciennes en utilisant comme règle de sélection les transformées d'ondelettes discretes(DWT: Discrete Wavelet Transform). Nous développons, par la suite, deux méthodes de fusion d'images multi focales basée sur la variabilité locale de chaque pixel. Elle tient en compte les informations dans la région environnante des pixels. La première consiste à utiliser la variabilité locale comme information dans la méthode de Dempster-Shafer. La seconde utilise une métrique basée sur la variabilité locale. En effet, la fusion proposée effectue une pondération de chaque pixel par une exponentielle de sa variabilité locale. Une étude comparative entre les méthodes proposées et celles existantes a été réalisée. Les résultats expérimentaux démontrent que nos méthodes proposées donnent des meilleurs fusions, tant dans la perception visuelle que dans l'analyse quantitative. / In this thesis, we are interested in the multi-focus image fusion method. This technique consists of fusing several captured images with different focal lengths of the same scene to obtain an image with better quality than the two source images. We propose an image fusion method based on Laplacian pyramid technique using Discrete Wavelet Transform (DWT) as a selection rule. We then develop two multi-focus image fusion methods based on the local variability of each pixel. It takes into account the information in the surrounding pixel area. The first method is to use local variability as an information in the Dempster-Shafer theory. The second method uses a metric based on local variability. Indeed, the proposed fusion method weighs each pixel by an exponential of its local variability. A comparative study between the proposed methods and the existing methods was carried out. The experimental results show that our proposed methods give better fusions, both in visual perception and in quantitative analysis.
9

Étude des algorithmes d'approximation de fonctions de croyance généralisées

Djiknavorian, Pascal 20 April 2018 (has links)
La recherche présentée ici consiste à résoudre le problème de difficulté calculatoire de la fusion d’informations dans le cadre de la théorie de l’évidence de Dempster-Shafer, ainsi que celui de la théorie de Dezert-Smarandache. On présente des études sur l’utilisation d’une variété d’algorithmes d’approximation connus ainsi que sur un nouvel algorithme d’approximation. On présente aussi une étude sur les métriques connues de distance entre corps d’évidence ainsi que deux nouvelles métriques. Enfin, on montre une étude de la possibilité d’employer une méthode d’optimisation afin de sélectionner automatiquement les paramètres d’approximation à l’aide de critères de performance. Mots-clés : Dezert, Smarandache, Dempster, Shafer, Fusion, Fonctions de croyance. / This research is about the solving of the computational difficulty of data fusion in the evidence theory of Dempster-Shafer theory and Dezert-Smarandache theory. We study the use of a variety of known approximation algorithms as well as a new approximation algorithm that we propose. We also study known metrics between bodies of evidence as well as two new metrics that we develop. Finally, we study the possibility of using an optimization method to automatically select the parameters of approximation with performance criteria. Keywords: Dezert, Smarandache, Dempster, Shafer, Fusion, Belief functions.
10

Relating Dependent Terms in Information Retrieval

Shi, Lixin 11 1900 (has links)
Les moteurs de recherche font partie de notre vie quotidienne. Actuellement, plus d’un tiers de la population mondiale utilise l’Internet. Les moteurs de recherche leur permettent de trouver rapidement les informations ou les produits qu'ils veulent. La recherche d'information (IR) est le fondement de moteurs de recherche modernes. Les approches traditionnelles de recherche d'information supposent que les termes d'indexation sont indépendants. Pourtant, les termes qui apparaissent dans le même contexte sont souvent dépendants. L’absence de la prise en compte de ces dépendances est une des causes de l’introduction de bruit dans le résultat (résultat non pertinents). Certaines études ont proposé d’intégrer certains types de dépendance, tels que la proximité, la cooccurrence, la contiguïté et de la dépendance grammaticale. Dans la plupart des cas, les modèles de dépendance sont construits séparément et ensuite combinés avec le modèle traditionnel de mots avec une importance constante. Par conséquent, ils ne peuvent pas capturer correctement la dépendance variable et la force de dépendance. Par exemple, la dépendance entre les mots adjacents "Black Friday" est plus importante que celle entre les mots "road constructions". Dans cette thèse, nous étudions différentes approches pour capturer les relations des termes et de leurs forces de dépendance. Nous avons proposé des méthodes suivantes: ─ Nous réexaminons l'approche de combinaison en utilisant différentes unités d'indexation pour la RI monolingue en chinois et la RI translinguistique entre anglais et chinois. En plus d’utiliser des mots, nous étudions la possibilité d'utiliser bi-gramme et uni-gramme comme unité de traduction pour le chinois. Plusieurs modèles de traduction sont construits pour traduire des mots anglais en uni-grammes, bi-grammes et mots chinois avec un corpus parallèle. Une requête en anglais est ensuite traduite de plusieurs façons, et un score classement est produit avec chaque traduction. Le score final de classement combine tous ces types de traduction. Nous considérons la dépendance entre les termes en utilisant la théorie d’évidence de Dempster-Shafer. Une occurrence d'un fragment de texte (de plusieurs mots) dans un document est considérée comme représentant l'ensemble de tous les termes constituants. La probabilité est assignée à un tel ensemble de termes plutôt qu’a chaque terme individuel. Au moment d’évaluation de requête, cette probabilité est redistribuée aux termes de la requête si ces derniers sont différents. Cette approche nous permet d'intégrer les relations de dépendance entre les termes. Nous proposons un modèle discriminant pour intégrer les différentes types de dépendance selon leur force et leur utilité pour la RI. Notamment, nous considérons la dépendance de contiguïté et de cooccurrence à de différentes distances, c’est-à-dire les bi-grammes et les paires de termes dans une fenêtre de 2, 4, 8 et 16 mots. Le poids d’un bi-gramme ou d’une paire de termes dépendants est déterminé selon un ensemble des caractères, en utilisant la régression SVM. Toutes les méthodes proposées sont évaluées sur plusieurs collections en anglais et/ou chinois, et les résultats expérimentaux montrent que ces méthodes produisent des améliorations substantielles sur l'état de l'art. / Search engine has become an integral part of our life. More than one-third of world populations are Internet users. Most users turn to a search engine as the quick way to finding the information or product they want. Information retrieval (IR) is the foundation for modern search engines. Traditional information retrieval approaches assume that indexing terms are independent. However, terms occurring in the same context are often dependent. Failing to recognize the dependencies between terms leads to noise (irrelevant documents) in the result. Some studies have proposed to integrate term dependency of different types, such as proximity, co-occurrence, adjacency and grammatical dependency. In most cases, dependency models are constructed apart and then combined with the traditional word-based (unigram) model on a fixed importance proportion. Consequently, they cannot properly capture variable term dependency and its strength. For example, dependency between adjacent words “black Friday” is more important to consider than those of between “road constructions”. In this thesis, we try to study different approaches to capture term relationships and their dependency strengths. We propose the following methods for monolingual IR and Cross-Language IR (CLIR): We re-examine the combination approach by using different indexing units for Chinese monolingual IR, then propose the similar method for CLIR. In addition to the traditional method based on words, we investigate the possibility of using Chinese bigrams and unigrams as translation units. Several translation models from English words to Chinese unigrams, bigrams and words are created based on a parallel corpus. An English query is then translated in several ways, each producing a ranking score. The final ranking score combines all these types of translations. We incorporate dependencies between terms in our model using Dempster-Shafer theory of evidence. Every occurrence of a text fragment in a document is represented as a set which includes all its implied terms. Probability is assigned to such a set of terms instead of individual terms. During query evaluation phase, the probability of the set can be transferred to those of the related query, allowing us to integrate language-dependent relations to IR. We propose a discriminative language model that integrates different term dependencies according to their strength and usefulness to IR. We consider the dependency of adjacency and co-occurrence within different distances, i.e. bigrams, pairs of terms within text window of size 2, 4, 8 and 16. The weight of bigram or a pair of dependent terms in the final model is learnt according to a set of features. All the proposed methods are evaluated on several English and/or Chinese collections, and experimental results show these methods achieve substantial improvements over state-of-the-art baselines.

Page generated in 0.4569 seconds