1 |
Contribution à la modélisation et au traitement de l'incertain dans les analyses de risques multidisciplinaires de systèmes industriels : application à la source froide d'une unité de production d'énergie / Contribution to uncertainties modeling and processing within multidisciplinary risks analyses of industrial systems : Application to the Heat Sink system of an energy power plantFallet-Fidry, Geoffrey 10 December 2012 (has links)
La complexité croissante des systèmes industriels nécessite de démontrer que l?ensemble des risques est maitrisé. Parmi les approches développées en ce sens, l'AiDR, développée par EDF R&D et le CRAN, apparait comme une solution intéressante grâce à un modèle unifié multidisciplinaire, générique et outillé. Elle dispose cependant d'un potentiel d'amélioration pour la modélisation et le traitement des connaissances (issues du REX statistique et d'avis d'experts). Celles-ci sont souvent entachées d'incertain influant sur la pertinence des résultats fournis aux décideurs. Si l'incertain dû au caractère aléatoire des phénomènes physiques est bien appréhendé par la théorie des probabilités, l'incertain dû à l'imperfection des connaissances (incertain épistémique) l'est beaucoup moins. L'un des enjeux est donc de disposer d'une approche adaptée à la modélisation et au traitement conjoint des deux incertains. En ce sens, la théorie de l'évidence constitue une alternative intéressante pour modéliser et traiter de façon plus cohérente et plus flexible les deux incertains. Nos travaux proposent trois contributions majeures. Tout d'abord, la formalisation de l'élicitation des risques par avis d'experts par des outils de collecte plus flexibles et plus complets. Ensuite, nous proposons un modèle de risques évidentiel pour représenter de façon cohérente les différentes expressions des connaissances et apprécier les risques. Enfin, nous proposons des supports pour la prise de décision en univers incertain pour la représentation des résultats et l'identification des contributeurs à l'incertain et à sa réduction. L'application de ces contributions sur un cas industriel réel met en évidence leur faisabilité et leurs apports au regard d'approches plus conventionnelles. Elle permet également de dégager des perspectives pour le développement de l'AiDR / The increasing complexity of industrial systems involves to demonstrate that all the risks are under control. Among the approaches developed, the IRA (developed from several years ago by EDF and CRAN) seems to be a relevant solution by proposing multidisciplinary, generic and unified model. However, these approaches should be improved with regards to modeling and processing of knowledge (provided by statistical experience feedback and expert judgments). This knowledge contains different types of uncertainty that influence the relevance of the results provided to the decision-makers. If the probabilistic framework is well adapted to deal with the uncertainties due to the natural variability of a physical phenomenon, it will be better to choose another framework to deal with the uncertainties due to the lack or imperfection of knowledge (epistemic uncertainties). One issue is to develop an approach adapted to the modeling and to the treatment of the two types of uncertainties. In that way, the evidence theory is an interesting framework to provide more coherent and more flexible modeling and processing of knowledge and uncertainties. Our works propose three main contributions. The first one concerns the formalization of the risks quantification by expert judgments by proposing more complete and flexible assessment tools. The second contribution provides an evidential risks model allowing to represent the different knowledge expressions a more coherent way and to estimate all the risks. Finally, in the last contribution, some tools are proposed for decision-making in uncertain environment. The implementation of these contributions on a real industrial application highlights their feasibility as well as their contributions with regard to more conventional approaches. It also allows us to identify new prospects development for the IRA approach
|
2 |
Contribution à la modélisation et au traitement de l'incertain dans les analyses de risques multidisciplinaires de systèmes industriels - Application à la Source Froide d'une unité de production d'énergieFallet-Fidry, Geoffrey 10 December 2012 (has links) (PDF)
Face à la complexité croissante des systèmes industriels, il est aujourd'hui primordial de démontrer que l'ensemble des risques est maitrisé. En ce sens, différentes approches ont été développées ces dernières années afin de proposer une vision globale des risques techniques, humains, organisationnels et environnementaux. Parmi elles, celle développée depuis plusieurs années par EDF et intitulée AidR (Analyse intégrée Des Risques) apparait comme une solution intéressante en proposant un modèle unifié à la fois multidisciplinaire, générique et outillé. Cependant, ces approches disposent aujourd'hui d'un potentiel d'amélioration en termes de modélisation et de traitement des connaissances (issues principalement du retour d'expérience statistique et des avis d'expert). En effet, ces connaissances sont bien souvent entachées d'incertain qui influe sur l'ensemble du processus d'appréciation des risques et donc sur la pertinence des résultats issus de ces études. Si l'incertain dû au caractère aléatoire des phénomènes physiques est généralement bien appréhendé grâce à la théorie des probabilités, l'incertain dû à l'imperfection des connaissances l'est beaucoup moins. L'un des enjeux majeurs actuels est donc de disposer d'une approche adaptée à la modélisation et au traitement conjoints des différents incertains afin de fournir des résultats les plus pertinents possibles aux décideurs. Pour satisfaire à cet objectif, la théorie de l'évidence constitue une alternative intéressante pour modéliser et traiter de façon à la fois plus cohérente et plus flexible des connaissances et leur incertain. En s'appuyant sur cette théorie, nos travaux proposent trois contributions majeures pour la modélisation et le traitement de l'incertain. La première concerne la formalisation de l'élicitation des risques par avis d'experts en proposant différents outils pour une collecte flexible et plus complète de ces derniers (identification des risques). La seconde contribution aboutit à un modèle de risques évidentiel permettant de représenter de façon cohérente les différentes expressions des connaissances et d'apprécier les différents risques (analyse des risques). Enfin, la dernière contribution porte sur la proposition de supports à la prise de décision en univers incertain (évaluation des risques). Ces supports concernent à la fois la représentation des résultats et des éléments pour l'identification des contributeurs à l'incertain et à sa réduction. L'application de ces contributions sur un cas réel de l'industriel EDF permet ensuite de mettre en évidence leur faisabilité ainsi que leurs apports au regard d'approches plus conventionnelles. Elle nous permet également de dégager de nouvelles perspectives de recherche pour le développement de cette méthodologie.
|
3 |
Modèles graphiques évidentielsBoudaren, Mohamed El Yazid 12 January 2014 (has links) (PDF)
Les modélisations par chaînes de Markov cachées permettent de résoudre un grand nombre de problèmes inverses se posant en traitement d'images ou de signaux. En particulier, le problème de segmentation figure parmi les problèmes où ces modèles ont été le plus sollicités. Selon ces modèles, la donnée observable est considérée comme une version bruitée de la segmentation recherchée qui peut être modélisée à travers une chaîne de Markov à états finis. Des techniques bayésiennes permettent ensuite d'estimer cette segmentation même dans le contexte non-supervisé grâce à des algorithmes qui permettent d'estimer les paramètres du modèle à partir de l'observation seule. Les chaînes de Markov cachées ont été ultérieurement généralisées aux chaînes de Markov couples et triplets, lesquelles offrent plus de possibilités de modélisation tout en présentant des complexités de calcul comparables, permettant ainsi de relever certains défis que les modélisations classiques ne supportent pas. Un lien intéressant a également été établi entre les modèles de Markov triplets et la théorie de l'évidence de Dempster-Shafer, ce qui confère à ces modèles la possibilité de mieux modéliser les données multi-senseurs. Ainsi, dans cette thèse, nous abordons trois difficultés qui posent problèmes aux modèles classiques : la non-stationnarité du processus caché et/ou du bruit, la corrélation du bruit et la multitude de sources de données. Dans ce cadre, nous proposons des modélisations originales fondées sur la très riche théorie des chaînes de Markov triplets. Dans un premier temps, nous introduisons les chaînes de Markov à bruit M-stationnaires qui tiennent compte de l'aspect hétérogène des distributions de bruit s'inspirant des chaînes de Markov cachées M-stationnaires. Les chaînes de Markov cachée ML-stationnaires, quant à elles, considèrent à la fois la loi a priori et les densités de bruit non-stationnaires. Dans un second temps, nous définissons deux types de chaînes de Markov couples non-stationnaires. Dans le cadre bayésien, nous introduisons les chaînes de Markov couples M-stationnaires puis les chaînes de Markov couples MM-stationnaires qui considèrent la donnée stationnaire par morceau. Dans le cadre évidentiel, nous définissons les chaînes de Markov couples évidentielles modélisant l'hétérogénéité du processus caché par une fonction de masse. Enfin, nous présentons les chaînes de Markov multi-senseurs non-stationnaires où la fusion de Dempster-Shafer est employée à la fois pour modéliser la non-stationnarité des données (à l'instar des chaînes de Markov évidentielles cachées) et pour fusionner les informations provenant des différents senseurs (comme dans les champs de Markov multi-senseurs). Pour chacune des modélisations proposées, nous décrivons les techniques de segmentation et d'estimation des paramètres associées. L'intérêt de chacune des modélisations par rapport aux modélisations classiques est ensuite démontré à travers des expériences menées sur des données synthétiques et réelles
|
4 |
Contribution à l'analyse et à l'interprétation du mouvement humain: application à la reconnaissance de posturesGirondel, Vincent 19 June 2006 (has links) (PDF)
Le travail de recherche présenté dans ce mémoire de thèse est dédié à l'analyse et à l'interprétation du mouvement humain avec application à la reconnaissance de postures. L'analyse et l'interprétation du mouvement humain en vision par ordinateur ont de nombreux domaines d'applications tels que la vidéosurveillance, les applications de réalité mixte et les interfaces homme-machine avancées. Nous proposons ici un système temps-réel permettant une analyse et une interprétation du mouvement humain.<br /><br />L'analyse du mouvement humain fait intervenir plusieurs processus de traitement d'images tels que la segmentation d'objets en mouvement, le suivi temporel, la détection de peau, les modèles de corps humain et la reconnaissance d'actions ou de postures. Nous proposons une méthode de suivi temporel en deux étapes permettant de suivre au cours du temps une ou plusieurs personnes même si elles s'occultent entre elles. Cette méthode est basée sur un calcul d'intersection de boîtes englobantes rectangulaires et sur un filtrage partiel de Kalman. Puis nous explicitons une méthode de détection de peau par une approche couleur afin de localiser leurs visages et leurs mains. Toutes ces étapes préliminaires donnent accès à de nombreuses informations bas-niveau. Dans une dernière partie, nous utilisons une partie de ces informations pour reconnaître les postures statiques de personnes parmi les quatre postures suivantes: debout, assis, accroupi et couché. De nombreux résultats illustrent les avantages et les limitations des méthodes proposées, ainsi que leur efficacité et robustesse.
|
5 |
Architecture logique d'un système multi agents de suivi multi caméra distribué : exploitation du modèle de croyance transférable / Logical architecture of multi-agent system for distributed multi-camera tracking : use of Transferable Belief ModelAtohoun, Béthel Christian A.R.K. 03 December 2013 (has links)
Cette thèse présente l'utilisation conjointe de la théorie de l'évidente et du suivi multi-hypothèses pour la modélisation et la gestion d'un système de suivi multi-caméras dans un environnement autoroutier. Le suivi est basé sur la ré-identification des objets (véhicules) sur la base d'information visio-temporelles. Une concrétisation de ces concepts se traduit par la conception et la mise en oeuvre d'une architecture logicielle multi-agents de gestion du suivi multi-caméras. Après une présentation de l'état de l'art sur les cadres de gestion de l'incertain et celui relatif à fusion de l'information pour la mise en correspondance, et sur les systèmes multi-agents, notre apport dans ce travail se situe à trois niveaux. Le premier a été une adaptation de la phase de décision du modèle de croyance transférable pour y intégrer l'utilisation du suivi multi-hypothèses comme outil de levée d'ambigüité rn cas d'indécision face à une situation de mise en correspondance. Le second apport a été celui de proposer une architecture logicielle à base d'agents pour la gestion du système du suivi multi-caméras. Nous en avons proposé la modélisation globale ainsi que celle des agents et de leurs interactions en utilisant une démarche personnelle d'analyse mais toutefois inspirée de langages et outils de modélisation tels que Agent UML et MaSE pour ne citer que ceux-là, du fait qu'il n'existe pas réellement un standard normalisé à ce jour dans ce domaine. Notre troisième apport a été de faire un début d'implémentation de notre architecture logicielle à base d'agent en nous basant sur la plateforme JADE (Java Agent DEvelopment Framework). Quelques expérimentations et discussions des résultats sont présentées à la fin pour déboucher sur nos conclusions et perspectives. / This thesis presents the joint use of the theory of evidence and multiple hypothesis tracking for modeling and managing a system for monitoring multiple cameras in a motorway. The tracking is based on the re-identification of objects (vehicles) on the basis of visuals and times informations. A realization of these concepts results in the design and implementation of a software architecture for multiple agents management of multiple camera tracking system. After presenting the state of the art on the frameworks of uncertainty management and that on information fusion for the matching, and the multi-agent systems, our contribution in this work is on two or three levels. The first was an adaptation of the decision phase of the transferable belief model to incorporate the use of multi-hypotheses tracking as a tool of ambiguity survey in case of indecision in matching situation. The second contribution was a proposition of agent-based software architecture for management of a multiple cameras tracking system. We have proposed the global system modeling as well as agents and their interactions modeling using a personal analysis method but nevertheless inspired by modelisation languages and tolls such as Agent UML, MaSE and others, because there is not yet a standard and normalized tool on the subject. Our third contribution was to begin an implementation of our agent-based software architecture using JADE (Java Agent Development Framework). Some experiment and discussions are presented at the end to lead to our conclusions and perspectives.
|
6 |
Susceptibilité du bassin de Barcelonnette (Alpes du Sud, France) aux 'mouvements de versant' : cartographie morphodynamique, analyse spatiale et modélisation probabilisteThiery, Yannick 17 December 2007 (has links) (PDF)
Des méthodologies d'analyse spatiale probabiliste fondées sur les SIG ont été développées pour cartographier la susceptibilité et l'aléa aux ‘mouvements de versant' à méso-échelle (1/50 000ème-1/25 000ème), mais peu ou pas à l'échelle du 1/10 000ème, échelle de la cartographie réglementaire des risques. En France, le zonage des PPR est basé sur une approche ‘expert' jugée assez subjective en raison des erreurs d'appréciation de l'expert. Ainsi, cette recherche a pour objectif de tester la validité de méthodes d'analyse spatiale et de modélisations probabilistes à cette échelle du 1/10 000ème. La démarche repose, en complément d'un zonage de type ‘expert', sur la sélection de trois méthodes d'analyse spatiale par SIG fondées sur les Logiques floues, la Théorie de l'évidence et les Régressions logistiques. Ces trois méthodes étant sensibles aux variables à introduire (variables à modéliser et variables prédictives), la procédure comporte trois étapes : acquisition des variables à partir d'une cartographie morphodynamique, choix des variables par une analyse de sensibilité, comparaison des résultats pour déterminer la méthode la plus adaptée. Une néo-variable prédictive ayant un sens ‘géomorphologique' et combinant plusieurs variables augmente la performance de chaque approche. Les meilleurs résultats acquis dans le bassin de Barcelonnette sont transposés sur un site secondaire pour tester leur validité. Un passage vers l'aléa est tenté par des modèles numériques à base physique. Cette thèse montre qu'il est possible d'obtenir des résultats performants à condition d'avoir une procédure de calage rigoureuse et d'introduire une vision experte dans le processus de calcul.
|
7 |
Surveillance multi-capteurs des opérations de perçage/fraisurage aéronautiquesLe Moal, Gwénolé 19 December 2012 (has links) (PDF)
L'assemblage de structures aéronautiques nécessite de nombreuses opérations de perçage et de fraisurage. Les deux problématiques principales concernant ces opérations sont que les alésages réalisés correspondent aux standards de qualité exigés, et que les outils coupants soient utilisés de manière optimale afin de réduire les coûts. Ces deux objectifs nécessitent l'implémentation d'une solution de surveillance en ligne des opérations de perçage. De nombreuses études ont été réalisées à ce sujet. Pourtant, une grande partie des méthodologies développées ont peu de chance de quitter les laboratoires au profit des sites de production industrielle en raison de leur difficulté d'implémentation et de leur manque de robustesse. L'utilisation de plusieurs capteurs, couplés à des techniques avancées de traitement de l'information a permis une meilleure appréhension de la complexité du procédé de perçage et une augmentation de la flexibilité des systèmes de surveillance. Cependant, la majorité des études ont été réalisées en laboratoire et dans des conditions favorables, et les problématiques relatives à la flexibilité des conditions opératoires, ou encore à la qualité des données issues des capteurs n'ont pas été abordées. Cette étude a pour but de démontrer les améliorations potentielles que peuvent apporter les développements récents concernant la modélisation et la fusion de connaissances imparfaites pour la surveillance robuste des opérations de perçage. Une approche sera proposée pour l'implémentation industrielle de systèmes de surveillance de procédés. La méthodologie proposée doit pouvoir être transposée à un champ d'application plus large incluant la plupart des procédés de fabrication automatisés.
|
8 |
Certitude, évidence et vérité chez Descartes : La question du fondement cartésien de la connaissance / Certainty, evidence and truth in Descartes : The question of the cartesian foundation of knowledgePeretti, François-Xavier de 01 March 2014 (has links)
Une des interprétations dominantes de la philosophie de Descartes consiste à considérer que Dieu garantit une parfaite correspondance entre l'ordre des raisons et l'ordre des choses, de sorte que nos idées peuvent être tenues pour conformes à la réalité telle qu'elle est hors de notre pensée. Nous suggérons que Descartes n'a jamais espéré faire jouer ce rôle à Dieu dans sa théorie de la connaissance et qu'il n'a pas plus prétendu que nous soyons assurés de disposer d'idées adéquates à ce qu'est la réalité hors de notre pensée. Pour cela, nous soutenons que l'importance accordée par Descartes à l'hypothèse d'un Dieu trompeur, est largement surestimée par les commentateurs, et qu'elle ne sert qu'à justifier, par contrecoup, le rôle que la véracité divine ne joue pas dans sa philosophie première. Nous défendons la thèse selon laquelle le fondement de la vérité revient, en ultime instance, chez Descartes, à l'"ego cogitans", de sorte que la vérité, du point de vue de l'esprit humain, n'est pas ce à quoi la pensée doit d'être conforme, mais ce qui ne peut qu'être conforme à notre pensée. Par conséquent, nous suggérons que l'ego joue, par défaut, dans la philosophie première de Descartes, le rôle trop souvent accordé à Dieu par ses commentateurs. / One of the dominant interpretations of Descartes' philosophy consists in considering that God assures a perfect conformity between the order of reasons and the order of things, in such a way that our ideas can be regarded in accordance with the reality such as it is out of our thought. We suggest that Descartes has never hoped that God could play this part in his theory of knowledge and that he has no more claim that we would be certain of having adequate ideas according to the reality as it is out of our thought. In this aim, we argue that the importance conceded by Descartes in favour of the deceiving God argument is widely over-valued by the scholars, and that it is used only to justify, by repercussion, the part that the veracity of God doesn't play in Descartes' first philosophy. We defend the thesis from which the foundation of the truth in Descartes' philosophy is, in the final analysis, built on the "ego cogitans" in such a way that the truth, for the human mind, is not what the mind has to conform to, but what is necessary conformed to our mind. Consequently, we suggest that the ego, in Descartes' first philosophy, plays, in absence, the role too frequently awarded to God by the scholars.
|
9 |
Représentation et propagation de connaissances imprécises et incertaines: Application à l'évaluation des risques liés aux sites et sols pollués.Baudrit, Cédric 19 October 2005 (has links) (PDF)
Actuellement, les choix relatifs à la gestion des sites potentiellement pollués s'appuient, notamment,<br />sur une évaluation des risques pour l'homme et l'environnement. Cette évaluation est effectuée à l'aide de modèles qui simulent le transfert de polluant depuis une source de pollution vers une cible vulnérable, pour différents scénarii d'exposition. La sélection des valeurs des paramètres de ces modèles s'appuie autant que possible sur les données recueillies lors des investigations de terrain (phase de diagnostic de site). Or pour des raisons de délais et de coûts, l'information recueillie lors de cette phase de diagnostic est toujours incomplète; elle est donc entachée d'incertitude. De même, les modèles de transferts et d'exposition présentent également des incertitudes à intégrer dans les procédures. Cette notion globale d'incertitude doit être prise en compte dans l'évaluation du risque pour que les résultats soient utiles lors la phase décisionnelle.<br /><br />L'incertitude sur les paramètres peut avoir deux origines. La première provient du caractère aléatoire de l'information due à une variabilité naturelle résultant de phénomènes stochastiques. On parle alors d'incertitudes de variabilité ou d'incertitudes stochastiques. La seconde est liée au caractère imprécis de l'information lié à un manque de connaissance et qui résulte par exemple d'erreurs systématiques lors de mesures ou d'avis d'experts.<br />On parle alors d'incertitudes épistémiques. Dans le calcul de risque, ces deux notions sont souvent confondues alors qu'elles devraient être traitées de manière différente.<br /><br />L'incertitude en évaluation des risques a surtout été appréhendée dans un cadre purement probabiliste.<br />Cela revient à supposer que la connaissance sur les paramètres des modèles est toujours de nature aléatoire (variabilité). Cette approche consiste à représenter les paramètres incertains par des distributions de probabilité uniques et à transmettre l'incertitude relative à ces paramètres sur celle du risque encouru par la cible, en appliquant en général la technique dite Monte Carlo. Si cette approche est bien connue, toute la difficulté tient à une définition cohérente des distributions de probabilité affectées aux paramètres par rapport à la connaissance disponible. En effet dans un contexte d'évaluation des risques liés à l'exposition aux polluants, l'information dont on dispose concernant certains paramètres est souvent de nature imprécise. Le calage d'une distribution de probabilité unique sur ce type de<br />connaissance devient subjectif et en partie arbitraire. <br /><br />L'information dont on dispose réellement est souvent plus riche qu'un intervalle mais moins riche qu'une distribution de probabilité. En pratique, l'information de nature aléatoire est traitée de manière rigoureuse par les distributions de probabilité classiques. Celle de nature imprécise est traitée de manière rigoureuse par des familles de distributions de probabilité définies au moyen de paires de probabilités cumulées hautes et basses ou, à l'aide de théories plus récentes, au moyen de distributions de possibilité (aussi appelées intervalles flous) ou encore au moyen d'intervalles aléatoires utilisant les fonctions de croyance de Dempster-Shafer.<br /><br />Un des premiers objectifs de ce travail est de promouvoir la cohérence entre la manière dont on représente la connaissance sur les paramètres<br />des modèles du risque et la connaissance dont on dispose réellement. Le deuxième objectif est de proposer différentes méthodes pour propager l'information de nature aléatoire et l'information de nature imprécise à travers les modèles du risque tout en essayant de tenir compte des dépendances entre les paramètres. Enfin, ces méthodes alternatives ont été testées sur des cas synthétiques puis sur des cas réels simplifiés, notamment pour proposer des moyens de présenter les résultats pour une phase décisionnelle:<br /> - Calcul de dose : Transfert d'un polluant radioactif (le strontium) depuis le dépôt jusqu'à<br />l'homme, au travers de la consommation d'un aliment (le lait de vache).<br /> - Risque toxique après un déversement accidentel de trichloréthylène (TCE) au dessus d'une nappe d'eau (modèle semi analytique).<br /><br /> - Risque pour la santé liée aux sols pollués par des retombées de plomb.
|
10 |
Segmentation des images IRM multi-échos tridimensionnelles pour la détection des tumeurs cérébrales par la théorie de l'évidenceCapelle-Laizé, Anne-Sophie 03 December 2003 (has links) (PDF)
L'imagerie par résonance magnétique (IRM) est, aujourd'hui, un outil puissant permettant l'observation in vivo de l'anatomie cérébrale. Utilisée en routine clinique, la multiplicité des pondérations d'acquisition permet aux médecins d'accéder à une information riche, abondante, et donc particulièrement adaptée au diagnostic de tumeurs cérébrales.<br /> <br />Cette thèse porte sur la problématique de segmentation des images IRM cérébrales pour l'aide au diagnostic des tumeurs cérébrales. Il s'agit donc de développer des méthodes de segmentation précises et fiables permettant la localisation des tumeurs cérébrales, en particulier infiltrantes dont les frontières ne sont pas nettes.<br />L'approche de segmentation adoptée est une approche multi-échos - donc multi-sources - fondée sur la théorie de l'évidence (ou théorie de Dempster-Shafer) apte à gérer l'incertitude des données à traiter et l'aspect multi-sources des informations manipulées. Dans un premier temps, nous nous attachons à montrer l'aptitude de la théorie de l'évidence à traiter les informations imprécises et incertaines que sont les images IRM au travers d'une démarche de type reconnaissance des formes crédibiliste. Dans un second temps, nous proposons une méthode d'intégration d'informations contextuelles fondée sur une combinaison pondérée de fonctions de croyance. La méthode de segmentation ainsi définie est appliquée à différents volumes cérébraux permettant une détection des zones tumorales. Des comparaisons avec des segmentations menées par des experts cliniciens et des méthodes de la littérature montrent l'intérêt des outils méthodologiques proposés à définir les volumes tumoraux recherchés. Enfin, nous nous sommes intéressées au conflit généré par le processus d'intégration des informations contextuelles. Nous montrons que le conflit est une information à part entière, représentative de la position des frontières entre les différentes structures anatomiques de la scène observée (le cerveau). Cette information frontière peut être utilisée en coopération avec la segmentation région initialement obtenue permettant ainsi d'obtenir un processus de segmentation complet reposant sur une approche de type "régions" et une approche de type "contours"
|
Page generated in 0.0377 seconds