• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 15
  • 8
  • 5
  • 5
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 51
  • 11
  • 11
  • 9
  • 8
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

An Advanced Skyline Approach for Imperfect Data Exploitation and Analysis / Modèle Skyline pour l'analyse et l'exploitation des données incertaines

Elmi, Saïda 15 September 2017 (has links)
Ce travail de thèse porte sur un modèle de requête de préférence, appelée l'opérateur Skyline, pour l'exploitation de données imparfaites. L'imperfection de données peut être modélisée au moyen de la théorie de l'évidence. Ce type de données peut être géré dans des bases de données imparfaites appelées bases de données évidentielles. D'autre part, l'opérateur skyline est un outil puissant pour extraire les objets les plus intéressants dans une base de données.Dans le cadre de cette thèse, nous définissons une nouvelle sémantique de l'opérateur Skyline appropriée aux données imparfaites modélisées par la théorie de l'évidence. Nous introduisons par la suite la notion de points marginaux pour optimiser le calcul distribué du Skyline ainsi que la maintenance des objets Skyline en cas d'insertion ou de suppression d'objets dans la base de données.Nous modélisons aussi une fonction de score pour mesurer le degré de dominance de chaque objet skyline et définir le top-k Skyline. Une dernière contribution porte sur le raffinement de la requête Skyline pour obtenir les meilleurs objets skyline appelés objets Etoile ou Skyline stars. / The main purpose of this thesis is to study an advanced database tool named the skyline operator in the context of imperfect data modeled by the evidence theory. In this thesis, we first address, on the one hand, the fundamental question of how to extend the dominance relationship to evidential data, and on the other hand, it provides some optimization techniques for improving the efficiency of the evidential skyline. We then introduce efficient approach for querying and processing the evidential skyline over multiple and distributed servers. ln addition, we propose efficient methods to maintain the skyline results in the evidential database context wben a set of objects is inserted or deleted. The idea is to incrementally compute the new skyline, without reconducting an initial operation from the scratch. In the second step, we introduce the top-k skyline query over imperfect data and we develop efficient algorithms its computation. Further more, since the evidential skyline size is often too large to be analyzed, we define the set SKY² to refine the evidential skyline and retrieve the best evidential skyline objects (or the stars). In addition, we develop suitable algorithms based on scalable techniques to efficiently compute the evidential SKY². Extensive experiments were conducted to show the efficiency and the effectiveness of our approaches.
42

Approche intégrée d’aide à la décision basée sur la propagation de l’imperfection de l’information – application à l’efficacité des mesures de protection torrentielle / Imperfect information propagation-based integrated decision-aiding approach applied to assess torrential protective systems’ effectiveness

Carladous, Simon 05 April 2017 (has links)
Depuis le 19ème siècle, de nombreux dispositifs de protection ont été implantés en montagne pour réduire le risque torrentiel. L'évaluation multi-échelle de leur efficacité est nécessaire pour comparer et choisir les stratégies de maintenance et de gestion de l’occupation des sols. Le chapitre I met en évidence les ambiguïtés du concept d’efficacité évalué selon plusieurs critères dans un contexte d’information imparfaite, issue de sources multiples, inégalement fiables. Pour aider l’évaluation multidimensionnelle, le problème de décision est décomposé en plusieurs sous-problèmes formulés, modélisés, traités puis intégrés. L’état de l’art du chapitre II permet de retenir les méthodes de la sûreté de fonctionnement (SdF) et d'aide à la décision (AD) basées sur le Raisonnement Évidentiel, associant les ensembles flous, les possibilités, les fonctions de croyance et la fusion d’information pour traiter chaque problème. Le chapitre III explicite le concept d'efficacité puis propose une adaptation des méthodes de la SdF à la formulation multi-échelle des problèmes. Le chapitre IV adapte les méthodes d'AD basées sur le Raisonnement Évidentiel, les améliore pour mieux représenter la connaissance disponible et évaluer la qualité d’une décision, et les associe. Le chapitre V propose une méthodologie séquentielle qui intègre ces méthodes pour évaluer les mesures de protection, de l’échelle de l’ouvrage à celle du bassin d’enjeux. Enfin, le chapitre VI discute les résultats, identifie les apports respectifs de l'intégration et des nouvelles méthodes, puis décrit les perspectives de déploiement opérationnel de la méthodologie développée. / Many torrential protective check dams have been built in French mountainous areas since the 19th century. They aim to reduce risk in torrential watersheds. Analysis of their effectiveness is needed to assess residual risk and to choose the best maintenance strategy in a context of reduced budgets. Chapter I introduces main issues due both to definition of effectiveness concept and also the several criteria and system scales that have to be assessed. Moreover, required expertise is based on imperfect information, provided by several sources with different reliability levels. To help such decisions, this thesis proposes to break down general assessment into several smaller decision-making problems. In chapter II, dependability analysis tools and Evidential Reasoning based-decision-aiding methods (ER-DAMs), using fuzzy sets and possibility theories, are chosen to help individual decisions. Chapters III to V then introduce new developments. Effectiveness concept is first defined. A multi-scale dependability analysis helps to describe each decision-making problem. ER-DAMs are then adapted to help effectiveness assessment at each system’s scale. Technical improvements are provided to these methods for a better knowledge representation and final decision. Improved methods are then associated. Finally, individual problems and associated methods are integrated in a generic methodology to help torrential protective measures’ effectiveness assessment at watershed scale. The last chapter VI focuses on discussion of integrative aspects and of ER-DAMs’ specific developments. It gives some elements to improve methods but also to help operational implementation of the generic methodology.
43

Biologiskt material som records

Evengård, Matilda January 2022 (has links)
This thesis examines the challenges of considering biological material as records and how its evidential value can be understood. In addition, it examines how the view of evidential value of biomaterial can be transferred to digital material. This is done by interviewing people who work with biological material professionally, thereby using their experience and expertise on the subject matter. The thesis is based on a qualitative approach with focus groups and individual interviews as a collection method for the empirical material. The results are interpreted using the theoretical starting point for how central concepts are defined and how biological material could fit with these and could be understood as records, in order to understand biomaterial from an archival scientific perspective. The result shows that biological material can be a source for both information and evidence, as well as evidence of activities. Furthermore, that the handling and the documentation, and thus the trustworthiness, of the biomaterial is of great importance for its evidential value. The result also implicates that the traditional notions of records is only to some extent applicable when considering biological material as records. Thus, one of the main challenges is the trait of being non-textual.
44

High Fidelity Localization and Map Building from an Instrumented Probe Vehicle

Thornton, Douglas Anthony 24 May 2017 (has links)
No description available.
45

Social Network Analysis : Link prediction under the Belief Function Framework / Analyse des réseaux sociaux : Prédiction de liens dans le cadre des fonctions de croyance

Mallek, Sabrine 03 July 2018 (has links)
Les réseaux sociaux sont de très grands systèmes permettant de représenter les interactions sociales entre les individus. L'analyse des réseaux sociaux est une collection de méthodes spécialement conçues pour examiner les aspects relationnels des structures sociales. L'un des défis les plus importants dans l'analyse de réseaux sociaux est le problème de prédiction de liens. La prédiction de liens étudie l'existence potentielle de nouvelles associations parmi des entités sociales non connectées. La plupart des approches de prédiction de liens se concentrent sur une seule source d'information, c'est-à-dire sur les aspects topologiques du réseau (par exemple le voisinage des nœuds) en supposant que les données sociales sont entièrement fiables. Pourtant, ces données sont généralement bruitées, manquantes et sujettes à des erreurs d'observation causant des distorsions et des résultats probablement erronés. Ainsi, cette thèse propose de gérer le problème de prédiction de liens sous incertitude. D'abord, deux nouveaux modèles de graphes de réseaux sociaux uniplexes et multiplexes sont introduits pour traiter l'incertitude dans les données sociales. L'incertitude traitée apparaît au niveau des liens et est représentée et gérée à travers le cadre de la théorie des fonctions de croyance. Ensuite, nous présentons huit méthodes de prédiction de liens utilisant les fonctions de croyance fondées sur différentes sources d'information dans les réseaux sociaux uniplexes et multiplexes. Nos contributions s'appuient sur les informations disponibles sur le réseau social. Nous combinons des informations structurelles aux informations des cercles sociaux et aux attributs des nœuds, ainsi que l'apprentissage supervisé pour prédire les nouveaux liens. Des tests sont effectués pour valider la faisabilité et l'intérêt de nos approches à celles de la littérature. Les résultats obtenus sur les données du monde réel démontrent que nos propositions sont pertinentes et valables dans le contexte de prédiction de liens. / Social networks are large structures that depict social linkage between millions of actors. Social network analysis came out as a tool to study and monitor the patterning of such structures. One of the most important challenges in social network analysis is the link prediction problem. Link prediction investigates the potential existence of new associations among unlinked social entities. Most link prediction approaches focus on a single source of information, i.e. network topology (e.g. node neighborhood) assuming social data to be fully trustworthy. Yet, such data are usually noisy, missing and prone to observation errors causing distortions and likely inaccurate results. Thus, this thesis proposes to handle the link prediction problem under uncertainty. First, two new graph-based models for uniplex and multiplex social networks are introduced to address uncertainty in social data. The handled uncertainty appears at the links level and is represented and managed through the belief function theory framework. Next, we present eight link prediction methods using belief functions based on different sources of information in uniplex and multiplex social networks. Our proposals build upon the available information in data about the social network. We combine structural information to social circles information and node attributes along with supervised learning to predict new links. Tests are performed to validate the feasibility and the interest of our link prediction approaches compared to the ones from literature. Obtained results on social data from real-world demonstrate that our proposals are relevant and valid in the link prediction context.
46

Identification of a suspect before being charged: legitimate freedom of speech or a threat to a fair trial?

Burgess, Craig Neilson January 2005 (has links)
Identification of a person suspected of a heinous crime before being charged risks prejudicing a fair trial. Present laws place this type of publicity outside the reach of sub judice contempt. This thesis argues there should be a change in the law of sub judice contempt making it an offence for the media to publish the fact that a person is under investigation until the person has been charged.
47

Interpretar o enunciado ou dialogar com a enunciação? uma análise sobre processos de leitura no ENEM

Branchini, Camila Sabatin 31 March 2014 (has links)
Made available in DSpace on 2016-06-02T20:25:22Z (GMT). No. of bitstreams: 1 6209.pdf: 2462135 bytes, checksum: 43d5f64f04fc2290144f84bdeb8dbe70 (MD5) Previous issue date: 2014-03-31 / Financiadora de Estudos e Projetos / This paper discusses the reading concepts that are present on the Enem items, specifically on the tests of Languages, Codes and Their Technologies (LCT), in editions from 2009 to 2013. For this, we adopted as the main theoretical reference of this research the notion of discursive genders, (BAKHTIN, 2010; 2011; MARCUSCHI, 2005) the concept of enuciate and enunciation (BAKHTIN, 2010; BRAIT, 2012; FLOWERS, 2009; GERALDI, 1993) as a basis to substantiate the reading conceptions (BAKHTIN, 2010; GERALDI, 2010; KLEIMAN, 1989; 2006; MARCUSCHI, 2005; Matrix Reference Enem, 2009; FREIRE, 1997; ROJO, 2004.) To support the goals of the Enem test as an instrument of government review, we did a recap of the structure and objectives of the Enem evaluation, through the notion of competence and skill as part of a historical, social, political and economic context that enter politics public in education and become part of the official discourse of the documents (LDB, PCN, PCNE). Contextualization that makes clear how changed the way of evaluate. Others researches has hunched on this content, it points to the relevance of the chosen corpus. Launch a new look, new readings on the corpus, shows the need for ever more clearly the social importance of Enem forming a new way to evaluate We have chosen, for that, two items of each year, starting in 2009, when the advent of the New Enem, to 2013, last evaluation. This choice had as criterions issues related to mother language which utilizes the genders as basis for discussion on the enounced of the questions in the test. From a theoretical-methodological assumptions, regarding the form of analysis developed within the humanities, allowed us to analyze the corpus by the perspective of sociological method and/or Bakhtin's discourses and Ginzburg qualitative method (the paradigm called evidentiary). Were made hipoteses about the interpretive walk performed by the candidates at the time they read the enounced of the objective questions proposed on Enem test. From the analyzed editions, we adopted as corpus 10 items of the LCT test which works issues related to mother language. Then, we trace an overview of the types of reads that the candidate/reader made over five years of evaluation, considering that it depends of some elements, such as how they prepared the enounced of the item, the enunciative context, previous knowledge of the candidate. We conclude that the evaluative profile of ENEM tends to approach the reading under the bias of linguistic structure, grammaticalized, often part of the theme, and a few times, considers the enunciation, the dialogue, the interaction, ie, the discursive bias. / Este trabalho aborda as concepções de leitura que se apresentam nos itens do Enem, especificamente na prova de Linguagens, Códigos e Suas Tecnologias (LCT), nas edições de 2009 a 2013. Para tanto, adotamos como principais referências teóricas desta pesquisa a noção de gêneros discursivos (BAKHTIN, 2010; 2011; MARCUSCHI, 2005), o conceito de enunciado e enunciação (BAKHTIN, 2010; BRAIT, 2012; FLORES, 2009; GERALDI, 1993) como base para fundamentar as concepções de leitura (BAKHTIN, 2010; GERALDI, 2010; KLEIMAN, 1989; 2006; MARCUSCHI, 2005; Matriz de Referência Enem, 2009; FREIRE, 1997; ROJO, 2004). Para fundamentar os objetivos da prova do Enem, enquanto instrumento de avaliação governamental, fizemos uma recapitulação da estrutura e objetivos da avaliação do Enem, passando pela noção de competência e habilidade como parte de um contexto histórico, social, político e econômico que adentram as políticas públicas na área da educação e começam a fazer parte do discurso oficial dos documentos (LDB, PCN, PCNEM). Contextualização que deixa clara as mudanças na forma de se avaliar. Outras pesquisas têm se debruçado sobre esse conteúdo, isso aponta para relevância do corpus escolhido. Lançar um novo olhar, novas leituras sobre o corpus, mostrar a necessidade de ter cada vez mais clareza da importância social do Enem como formadora de uma nova maneira de avaliar. Escolhemos, para isso, dois itens de cada ano, a se iniciar em 2009, quando do advento do Novo Enem, a 2013, última avaliação. Essa escolha teve como critério questões relacionadas à língua materna e que usavam os gêneros como base para discussão do enunciado da prova. A partir dos pressupostos teórico-metodológicos, referentes à forma de análise desenvolvida no âmbito das ciências humanas, permitiu-nos analisar o corpus sob a perspectiva do método sociológico e/ou discursivo de Bakhtin e do método qualitativo de Ginzburg (o chamado paradigma indiciário). Foram feitas hipóteses a respeito da caminhada interpretativa realizada pelos candidatos no momento em que leem os enunciados propostos pelas questões objetivas da prova do Enem. A partir das edições analisadas, adotamos como corpus 10 itens da prova de LCT que trabalham questões relacionadas à língua materna. Em seguida, traçamos um panorama dos tipos de leitura que o candidato/leitor fez ao longo de cinco anos de prova, considerando que isso depende de alguns elementos, tais como a forma como se elaborou o enunciado do item, o contexto enunciativo, os conhecimentos prévios do candidato. Concluímos que o perfil avaliativo do ENEM tende a abordar a leitura sob o viés da estrutura linguística, gramaticalizada, muitas vezes, de parte do tema, e, poucas vezes, considera a enunciação, o diálogo, a interação, isto é, o viés discursivo.
48

Sound source localization with data and model uncertainties using the EM and Evidential EM algorithms / Estimation de sources acoustiques avec prise en compte de l'incertitude de propagation

Wang, Xun 09 December 2014 (has links)
Ce travail de thèse se penche sur le problème de la localisation de sources acoustiques à partir de signaux déterministes et aléatoires mesurés par un réseau de microphones. Le problème est résolu dans un cadre statistique, par estimation via la méthode du maximum de vraisemblance. La pression mesurée par un microphone est interprétée comme étant un mélange de signaux latents émis par les sources. Les positions et les amplitudes des sources acoustiques sont estimées en utilisant l’algorithme espérance-maximisation (EM). Dans cette thèse, deux types d’incertitude sont également pris en compte : les positions des microphones et le nombre d’onde sont supposés mal connus. Ces incertitudes sont transposées aux données dans le cadre théorique des fonctions de croyance. Ensuite, les positions et les amplitudes des sources acoustiques peuvent être estimées en utilisant l’algorithme E2M, qui est une variante de l’algorithme EM pour les données incertaines.La première partie des travaux considère le modèle de signal déterministe sans prise en compte de l’incertitude. L’algorithme EM est utilisé pour estimer les positions et les amplitudes des sources. En outre, les résultats expérimentaux sont présentés et comparés avec le beamforming et la holographie optimisée statistiquement en champ proche (SONAH), ce qui démontre l’avantage de l’algorithme EM. La deuxième partie considère le problème de l’incertitude du modèle et montre comment les incertitudes sur les positions des microphones et le nombre d’onde peuvent être quantifiées sur les données. Dans ce cas, la fonction de vraisemblance est étendue aux données incertaines. Ensuite, l’algorithme E2M est utilisé pour estimer les sources acoustiques. Finalement, les expériences réalisées sur les données réelles et simulées montrent que les algorithmes EM et E2M donnent des résultats similaires lorsque les données sont certaines, mais que ce dernier est plus robuste en présence d’incertitudes sur les paramètres du modèle. La troisième partie des travaux présente le cas de signaux aléatoires, dont l’amplitude est considérée comme une variable aléatoire gaussienne. Dans le modèle sans incertitude, l’algorithme EM est utilisé pour estimer les sources acoustiques. Dans le modèle incertain, les incertitudes sur les positions des microphones et le nombre d’onde sont transposées aux données comme dans la deuxième partie. Enfin, les positions et les variances des amplitudes aléatoires des sources acoustiques sont estimées en utilisant l’algorithme E2M. Les résultats montrent ici encore l’avantage d’utiliser un modèle statistique pour estimer les sources en présence, et l’intérêt de prendre en compte l’incertitude sur les paramètres du modèle. / This work addresses the problem of multiple sound source localization for both deterministic and random signals measured by an array of microphones. The problem is solved in a statistical framework via maximum likelihood. The pressure measured by a microphone is interpreted as a mixture of latent signals emitted by the sources; then, both the sound source locations and strengths can be estimated using an expectation-maximization (EM) algorithm. In this thesis, two kinds of uncertainties are also considered: on the microphone locations and on the wave number. These uncertainties are transposed to the data in the belief functions framework. Then, the source locations and strengths can be estimated using a variant of the EM algorithm, known as Evidential EM (E2M) algorithm. The first part of this work begins with the deterministic signal model without consideration of uncertainty. The EM algorithm is then used to estimate the source locations and strengths : the update equations for the model parameters are provided. Furthermore, experimental results are presented and compared with the beamforming and the statistically optimized near-field holography (SONAH), which demonstrates the advantage of the EM algorithm. The second part raises the issue of model uncertainty and shows how the uncertainties on microphone locations and wave number can be taken into account at the data level. In this case, the notion of the likelihood is extended to the uncertain data. Then, the E2M algorithm is used to solve the sound source estimation problem. In both the simulation and real experiment, the E2M algorithm proves to be more robust in the presence of model and data uncertainty. The third part of this work considers the case of random signals, in which the amplitude is modeled by a Gaussian random variable. Both the certain and uncertain cases are investigated. In the former case, the EM algorithm is employed to estimate the sound sources. In the latter case, microphone location and wave number uncertainties are quantified similarly to the second part of the thesis. Finally, the source locations and the variance of the random amplitudes are estimated using the E2M algorithm.
49

Exploitation of map data for the perception of intelligent vehicles / Exploitation des données cartographiques pour la perception de véhicules intelligents

Kurdej, Marek 05 February 2015 (has links)
La plupart des logiciels contrôlant les véhicules intelligents traite de la compréhension de la scène. De nombreuses méthodes existent actuellement pour percevoir les obstacles de façon automatique. La majorité d’entre elles emploie ainsi les capteurs extéroceptifs comme des caméras ou des lidars. Cette thèse porte sur les domaines de la robotique et de la fusion d’information et s’intéresse aux systèmes d’information géographique. Nous étudions ainsi l’utilité d’ajouter des cartes numériques, qui cartographient le milieu urbain dans lequel évolue le véhicule, en tant que capteur virtuel améliorant les résultats de perception. Les cartes contiennent en effet une quantité phénoménale d’information sur l’environnement : sa géométrie, sa topologie ainsi que d’autres informations contextuelles. Dans nos travaux, nous avons extrait la géométrie des routes et des modèles de bâtiments afin de déduire le contexte et les caractéristiques de chaque objet détecté. Notre méthode se base sur une extension de grilles d’occupations : les grilles de perception crédibilistes. Elle permet de modéliser explicitement les incertitudes liées aux données de cartes et de capteurs. Elle présente également l’avantage de représenter de façon uniforme les données provenant de différentes sources : lidar, caméra ou cartes. Les cartes sont traitées de la même façon que les capteurs physiques. Cette démarche permet d’ajouter les informations géographiques sans pour autant leur donner trop d’importance, ce qui est essentiel en présence d’erreurs. Dans notre approche, le résultat de la fusion d’information contenu dans une grille de perception est utilisé pour prédire l’état de l’environnement à l’instant suivant. Le fait d’estimer les caractéristiques des éléments dynamiques ne satisfait donc plus l’hypothèse du monde statique. Par conséquent, il est nécessaire d’ajuster le niveau de certitude attribué à ces informations. Nous y parvenons en appliquant l’affaiblissement temporel. Étant donné que les méthodes existantes n’étaient pas adaptées à cette application, nous proposons une famille d’opérateurs d’affaiblissement prenant en compte le type d’information traitée. Les algorithmes étudiés ont été validés par des tests sur des données réelles. Nous avons donc développé des prototypes en Matlab et des logiciels en C++ basés sur la plate-forme Pacpus. Grâce à eux nous présentons les résultats des expériences effectués en conditions réelles. / This thesis is situated in the domains of robotics and data fusion, and concerns geographic information systems. We study the utility of adding digital maps, which model the urban environment in which the vehicle evolves, as a virtual sensor improving the perception results. Indeed, the maps contain a phenomenal quantity of information about the environment : its geometry, topology and additional contextual information. In this work, we extract road surface geometry and building models in order to deduce the context and the characteristics of each detected object. Our method is based on an extension of occupancy grids : the evidential perception grids. It permits to model explicitly the uncertainty related to the map and sensor data. By this means, the approach presents also the advantage of representing homogeneously the data originating from various sources : lidar, camera or maps. The maps are handled on equal terms with the physical sensors. This approach allows us to add geographic information without imputing unduly importance to it, which is essential in presence of errors. In our approach, the information fusion result, stored in a perception grid, is used to predict the stateof environment on the next instant. The fact of estimating the characteristics of dynamic elements does not satisfy the hypothesis of static world. Therefore, it is necessary to adjust the level of certainty attributed to these pieces of information. We do so by applying the temporal discounting. Due to the fact that existing methods are not well suited for this application, we propose a family of discoun toperators that take into account the type of handled information. The studied algorithms have been validated through tests on real data. We have thus developed the prototypes in Matlab and the C++ software based on Pacpus framework. Thanks to them, we present the results of experiments performed in real conditions.
50

Raisonnement approximatif pour la détection et l'analyse de changements / Approximate reasoning for the detection and analysing of changes

Haouas, Fatma 25 September 2019 (has links)
Cette thèse est le fruit de l’interaction de deux disciplines qui sont la détection de changements dans des images multitemporelles et le raisonnement évidentiel à l’aide de la théorie de Dempster-Shafer (DST). Aborder le problème de détection et d’analyse de changements par la DST nécessite la détermination d’un cadre de discernement exhaustif et exclusif. Ce problème s’avère complexe en l’absence des informations a priori sur les images. Nous proposons dans ce travail de recherche un nouvel algorithme de clustering basé sur l’algorithme Fuzzy-C-Means (FCM) afin de définir les classes sémantiques existantes. L’idée de cet algorithme est la représentation de chaque classe par un nombre varié de centroïdes afin de garantir une meilleure caractérisation de classes. Afin d’assurer l’exhaustivité du cadre de discernement, un nouvel indice de validité de clustering permettant de déterminer le nombre optimal de classes sémantiques est proposé. La troisième contribution consiste à exploiter la position du pixel par rapport aux centroïdes des classes et les degrés d’appartenance afin de définir la distribution de masse qui représente les informations. La particularité de la distribution proposée est la génération d’un nombre réduit des éléments focaux et le respect des axiomes mathématiques en effectuant la transformation flou-masse. Nous avons souligné la capacité du conflit évidentiel à indiquer les transformations multi-temporelles. Nous avons porté notre raisonnement sur la décomposition du conflit global et l’estimation des conflits partiels entre les couples des éléments focaux pour mesurer le conflit causé par le changement. Cette stratégie permet d’identifier le couple de classes qui participent dans le changement. Pour quantifier ce conflit, nous avons proposé une nouvelle mesure de changement notée CM. Finalement, nous avons proposé un algorithme permettant de déduire la carte binaire de changements à partir de la carte de conflits partiels. / This thesis is the interaction result of two disciplines that are the change detection in multitemporal images and the evidential reasoning using the Dempster-Shafer theory (DST). Addressing the problem of change detection and analyzing by the DST, requires the determination of an exhaustive and exclusive frame of discernment. This issue is complex when images lake prior information. In this research work, we propose a new clustering algorithm based on the Fuzzy-C-Means (FCM) algorithm in order to define existing semantic classes. The idea of this algorithm is the representation of each class by a varied number of centroids in order to guarantee a better characterization of classes. To ensure the frame of discernment exhaustiveness, we proposed a new cluster validity index able to identify the optimal number of semantic classes. The third contribution is to exploit the position of the pixel in relation to class centroids and its membership distribution in order to define the mass distribution that represents information. The particularity of the proposed distribution, is the generation of a reduced set of focal elements and the respect of mathematical axioms when performing the fuzzy-mass transformation. We have emphasized the capacity of evidential conflict to indicate multi-temporal transformations. We reasoned on the decomposition of the global conflict and the estimation of the partial conflicts between the couples of focal elements to measure the conflict caused by the change. This strategy allows to identify the couple of classes that participate in the change. To quantify this conflict, we proposed a new measure of change noted CM. Finally, we proposed an algorithm to deduce the binary map of changes from the partial conflicts map.

Page generated in 0.0754 seconds