• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 89
  • 33
  • 8
  • Tagged with
  • 134
  • 134
  • 53
  • 47
  • 36
  • 35
  • 34
  • 25
  • 21
  • 19
  • 19
  • 19
  • 18
  • 18
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Extraction de surfaces à partir d'images tridimensionnelles : approche discrète et approche par modèle déformable

Lachaud, Jacques-Olivier 09 February 1998 (has links) (PDF)
Cette thèse porte sur l'extraction de représentations géométriques à partir d'images tridimensionnelles. Ces représentations ont d'importantes applications dans les domaines médicaux (examen non invasif et simulation, détection de pathologies, chirurgie assistée par ordinateur, fabrication de prothèses, etc) et biologiques (analyse des structures microscopiques et de leur fonctionnement). Deux approches peuvent être suivies~ : - Les méthodes de reconstruction discrète fournissent rapidement une représentation géométrique de ces données, mais laissent de côté l'aspect segmentation de l'image en ses constituants. Parmi ces méthodes, les plus utilisées sont~ : le marching-cubes, qui construit une surface triangulée, et le suivi de surface, qui délimite une surface digitale. En introduisant des considérations de topologie digitale, nous montrons l'équivalence de ces deux représentations. De cette manière, leurs propriétés respectives peuvent être combinées efficacement. - Les méthodes basées sur les modèles déformables réunissent les opérations de segmentation et de reconstruction en un seul processus~ : le modèle recherche les constituants de l'image en se déformant sous l'action de contraintes externes, issues de l'image, et internes, dérivées de sa structure géométrique. Les modèles existants sont souvent limités à l'extraction de formes simples. Nous proposons un modèle déformable générique, basé sur une triangulation de surface, et capable d'adapter automatiquement la topologie de sa maille aux déformations imposées à sa géométrie. Cette capacité permet au modèle d'appréhender les formes arbitrairement complexes de l'image et de les extraire de l'esquisse aux détails par une approche multi-résolution. Enfin, nous présentons l'application de ce modèle à des données biomédicales de modalités variées. Les résultats sont comparés à ceux obtenus par reconstruction discrète, puis combinés afin de tirer parti des avantages spécifiques des deux approches.
112

Les distances de chanfrein en analyse d'images : fondements et applications

Thiel, Edouard 21 September 1994 (has links) (PDF)
Les distances de chanfrein sont definies dans l'espace discret ; elles reposent sur la definition et l'application de masques de ponderation, et permettent de bonnes approximations de la distance euclidienne reelle. Elles sont couramment utilisees en analyse d'images, pour quantifier ou decrire des regions dans une image. Elles permettent en particulier le calcul de squelettes ponderes, avec des algorithmes efficaces. Notre propos est de completer les connaissances sur ces distances a tous les niveaux, et de generaliser les notions et algorithmes. Apres quelques rappels de base, nous etudions les proprietes arithmetiques et geometriques des boules de chanfrein, de maniere a determiner les contraintes exactes pour qu'elles induisent bien une distance. Ces proprietes sont de plus a l'origine de formules de calcul direct. L'optimisation des masques est ensuite accomplie. Le but est de minimiser l'erreur commise par rapport a la distance euclidienne. Notre methode est validee par l'obtention de nouveaux masques optimaux. Nous donnons un algorithme universel de calcul de l'axe median, qui genere des tables de correspondance de facon tres rapide. Nous proposons une methode unifiee pour extraire le squelette pondere d'une image de distance, calculee avec les distances discretes les plus courantes. En dernier lieu nous presentons une methode de description de formes, par la polygonalisation du squelette, qui ramene une forme discrete a une representation vectorielle, conservant un certain degre de reversibilite.
113

Contribution a l'écotoxicologie analytique par des cellules végétales, applications en microscopie et a la réalisation de biocapteurs

Naessens, Martine 20 October 1998 (has links) (PDF)
Dans le cadre de la protection de l'environnement, l'eau et l'atmosphère sont deux milieux particulièrement surveillés. La réglementation impose la détection et le dosage d'une liste de produits mais les besoins analytiques sont considérables. Les méthodes biotechnologiques présentent l'avantage d'indiquer l'impact du produit sur la matière vivante. Ces méthodes sont mises en œuvre au laboratoire ou sur site. La détection d'une toxicité globale ou ciblée, <i>in situ</i> et en temps réel, est privilégiée. Les biocapteurs sont des outils répondant à cette attente. Au cours de l'étude, deux biocapteurs, l'un ampérométrique, l'autre fluorimétrique sont conçus. Tous deux intègrent le même biorécepteur, <i>Chlorella vulgaris</i>. Une nouvelle méthode d'immobilisation des micro-algues est mise au point. Elle permet d'obtenir des lots de membranes reproductibles, fonctionnelles 7 jours, donnant une réponse <i>in vivo</i> à valeur statistique, réutilisables et conservables. Des essais conduits sur des thylakoïdes extraits des cellules végétales ne donnent pas d'aussi bons résultats. L'association des membranes algales avec les deux types de transducteur montre que <i>Chlorella vulgaris</i> est sensible à des produits divers : herbicides, métaux, solvants. Les limites de détection pour des herbicides sont particulièrement basses, inférieures aux normes. Pour plusieurs produits testés, des courbes d'étalonnage sont données. Les deux types de biocapteur fonctionnent en milieu aqueux, en mode batch et en mode flux. Le biocapteur de fluorescence algale à fibres optiques possède des qualités de reproductibilité et de maniabilité plus intéressantes que le biocapteur ampérométrique. Le biocapteur de fluorescence est testé sur des lixiviats de bois, solutions naturelles complexes ; le biocapteur ampérométrique est adapté à l'utilisation en phase gazeuse, il détecte alors le méthanol vapeur et le perchloroéthylène en aérosol. Une autre partie de l'étude consiste à caractériser l'impact des toxiques sur <i>Chlorella vulgaris</i>. L'analyse est conduite en microscopie électronique à balayage et en microscopie optique couplée à l'analyse d'images. Ces deux méthodes originales restent à perfectionner. Les résultats de nos essais préliminaires semblent encourageants pour la détection du produit toxique et l'accès à son mécanisme d'action.
114

Quantification par analyse d'images de la granulométrie des roches fragmentées: amélioration de l'extraction morphologique des surfaces, amélioration de la reconstruction stéréologique

Outal, Souhaïl 01 June 2006 (has links) (PDF)
Cette recherche s'inscrit dans le cadre général du contrôle de qualité des processus utilisés en production minière, tels que le tir à l'explosif, le broyage et le concassage. Elle s'intéresse plus particulièrement à la quantification par traitement d'images de la granulométrie des roches fragmentées. Globalement, les développements menés portent sur l'amélioration des deux étapes les plus déterminantes de la mesure : l'extraction des contours des fragments de roches dans l'image (2D) et la reconstruction de la courbe granulométrique en volume (étape de stéréologie, 3D). Actuellement, le tamisage (ou plus généralement le criblage) est le moyen le plus utilisé pour la mesure de la granulométrie des roches fragmentées. Il constitue la référence actuelle de la mesure. En conséquence, toute mesure établie par traitement d'images sera validée sur la base des résultats du tamisage. En ce qui concerne l'étape d'extraction des contours des fragments, le problème majeur qui se pose est celui du filtrage correct du bruit présent dans l'image. Dans un premier temps, de nouveaux outils de filtrage, basés sur les transformations morphologiques résiduelles, assez puissants et adaptés au cas des images de fragments de roches sont introduits et évalués. Dans un second temps, les surfaces des fragments sont extraites grâce une segmentation de l'image, basée sur une ligne de partage des eaux contrôlée par les marqueurs extraits des filtrages. La robustesse et l'automatisation de la démarche sont validées sur plusieurs cas d'images de fragments de roches. Le second problème abordé dans cette recherche est celui de la reconstruction de la courbe granulométrique en volume à partir des surfaces extraites par traitement d'images. Afin d'éviter l'occurrence de nombreux biais liés à cette étape, nous proposons un découpage en deux sous-problèmes, et ce, en fonction de la disposition des matériaux analysés (tas abattu, camion, convoyeur à bande) : - dans le cas de faible recouvrement et chevauchement : un modèle expérimental de reconstruction volumique mettant en jeu les données des refus matériels (surface et volumes), et basé d'emblée sur les résultats de référence est développé. Les deux lois des tailles et des épaisseurs (lois de reconstruction) permettant d'attribuer une taille et un volume aux surfaces sont validées expérimentalement. - dans le cas complexe de présence de masquage entre fragments : nous commençons par émettre des hypothèses essentielles à l'adaptation de la théorie des modèles de structures aléatoires à notre cas de fragments de roches. L'analyse des limites d'une application directe du modèle aléatoire de feuilles mortes (hypothèse du schéma booléen) nous a amené à élaborer une nouvelle méthode d'acquisition basée sur une incidence à éclairement variable. S'inspirant de la technique du «shape-from-shading», elle permet d'obtenir une information supplémentaire sur le recouvrement (ombre portée entre fragments) pour l'application de la statistique des grains intacts. Enfin, les résultats obtenus dans cette recherche pour les fragments en vrac mais aussi pour d'autres types d'images d'éléments granulaires, nous ont permis d'envisager d'ores et déjà une valorisation aussi bien auprès de l'industrie minérale et aussi dans d'autres domaines tels que l'agroalimentaire, pharmaceutique, cimenteries,...
115

Image processing in digital pathology: an opportunity to improve the characterization of IHC staining through normalization, compartmentalization and colocalization

Van Eycke, Yves-Remi 15 October 2018 (has links) (PDF)
With the increasing amount of information needed for diagnosis and therapeutic decision-making, and new trends such as “personalized medicine”, pathologists are expressing an increasing demand for automated tools that perform their most recurrent tasks in their daily practice, as well as an increase in the complexity of the analyses requested in their research activities. With current advances in histopathology, oncology, and biology, the current questions require the analysis of protein expression - evidenced using immunohistochemical (IHC) staining - within specific histological structures or tissue components, or the analysis of the co-expression of several proteins in a large number of tissue samples. In this Ph.D. thesis, we developed innovative solutions to make these analyses available for pathologists. To achieve this objective, we have used recent “machine learning” and, in particular, “deep learning” methodologies. We addressed different problems such as image normalization, to solve the important problem of inter-batch variability of IHC staining, and the automatic segmentation of histological structures, to compartmentalize protein expression quantification. Finally, we adapted image registration techniques to Tissue MicroArray (TMA) slide images to enable large-scale analyses of IHC staining colocalization. While imagenormalization will improve study reproducibility, the tools developed for automated segmentation will drastically reduce time and expert resources required for some studies as well as errors and imprecision due to the human factor. Finally, the work on image registration can provide answers to complex questions that require studying the potential interaction between several proteins on numerous histological samples. / Avec la quantité croissante d’informations nécessaires au diagnostic et à la prise de décision thérapeutique, et le développement de la “médecine personnalisée”, les pathologistes ont un besoin croissant d’outils automatisés pour exécuter leurs tâches les plus récurrentes. Ces outils se doivent également de réaliser des tâches de plus en plus complexes. En effet, avec les progrès récents en histopathologie, oncologie et biologie, les questions actuelles demandent, par exemple, l’analyse de l’expression de protéines révélées par marquages immunohistochimiques (IHC) au sein de structures ou compartiments histologiques spécifiques, ou encore l’analyse de la co-expression de plusieurs protéines dans un grand nombre d’échantillons. Dans cette thèse de doctorat, nous avons développé des solutions innovantes pour mettre ce type d’analyse à la disposition des pathologistes. Pour atteindre cet objectif, nous avons notamment fait appel à des méthodologies récentes de “machine learning” et, particulièrement, de “deep learning”. Nous avons ainsi abordé différentes questions telles que la normalisation d’images, pour résoudre l’important problème de la variabilité des marquages IHC, et la segmentation automatique de structures histologiques, pour permettre une quantification compartimentée de l’expression de protéines. Enfin, nous avons adapté des techniques dites de “recalage” aux images de lames de Tissue MicroArrays (TMA) pour permettre des analyses de colocalisation de marquages IHC à grande échelle. Alors que la normalisation des images améliore la reproductibilité des évaluations de marquages IHC, les outils développés pour la segmentation automatisée permettent de réduire significativement le temps et les ressources expertes nécessaires, ainsi que les erreurs et imprécisions dues au facteur humain. Enfin, les travaux sur le recalages d’images permettent d’apporter des éléments de réponse à des questions complexes qui nécessitent d’étudier l’interaction potentielle entre plusieurs protéines sur de nombreux échantillons histologiques. / Doctorat en Sciences de l'ingénieur et technologie / info:eu-repo/semantics/nonPublished
116

Multiple classifier systems for the classification of hyperspectral data / ystème de classifieurs multiple pour la classification de données hyperspectrales

Xia, Junshi 23 October 2014 (has links)
Dans cette thèse, nous proposons plusieurs nouvelles techniques pour la classification d'images hyperspectrales basées sur l'apprentissage d'ensemble. Le cadre proposé introduit des innovations importantes par rapport aux approches précédentes dans le même domaine, dont beaucoup sont basées principalement sur un algorithme individuel. Tout d'abord, nous proposons d'utiliser la Forêt de Rotation (Rotation Forest) avec différentes techiniques d'extraction de caractéristiques linéaire et nous comparons nos méthodes avec les approches d'ensemble traditionnelles, tels que Bagging, Boosting, Sous-espace Aléatoire et Forêts Aléatoires. Ensuite, l'intégration des machines à vecteurs de support (SVM) avec le cadre de sous-espace de rotation pour la classification de contexte est étudiée. SVM et sous-espace de rotation sont deux outils puissants pour la classification des données de grande dimension. C'est pourquoi, la combinaison de ces deux méthodes peut améliorer les performances de classification. Puis, nous étendons le travail de la Forêt de Rotation en intégrant la technique d'extraction de caractéristiques locales et l'information contextuelle spatiale avec un champ de Markov aléatoire (MRF) pour concevoir des méthodes spatio-spectrale robustes. Enfin, nous présentons un nouveau cadre général, ensemble de sous-espace aléatoire, pour former une série de classifieurs efficaces, y compris les arbres de décision et la machine d'apprentissage extrême (ELM), avec des profils multi-attributs étendus (EMaPS) pour la classification des données hyperspectrales. Six méthodes d'ensemble de sous-espace aléatoire, y compris les sous-espaces aléatoires avec les arbres de décision, Forêts Aléatoires (RF), la Forêt de Rotation (RoF), la Forêt de Rotation Aléatoires (Rorf), RS avec ELM (RSELM) et sous-espace de rotation avec ELM (RoELM), sont construits par multiples apprenants de base. L'efficacité des techniques proposées est illustrée par la comparaison avec des méthodes de l'état de l'art en utilisant des données hyperspectrales réelles dans de contextes différents. / In this thesis, we propose several new techniques for the classification of hyperspectral remote sensing images based on multiple classifier system (MCS). Our proposed framework introduces significant innovations with regards to previous approaches in the same field, many of which are mainly based on an individual algorithm. First, we propose to use Rotation Forests with several linear feature extraction and compared them with the traditional ensemble approaches, such as Bagging, Boosting, Random subspace and Random Forest. Second, the integration of the support vector machines (SVM) with Rotation subspace framework for context classification is investigated. SVM and Rotation subspace are two powerful tools for high-dimensional data classification. Therefore, combining them can further improve the classification performance. Third, we extend the work of Rotation Forests by incorporating local feature extraction technique and spatial contextual information with Markov random Field (MRF) to design robust spatial-spectral methods. Finally, we presented a new general framework, Random subspace ensemble, to train series of effective classifiers, including decision trees and extreme learning machine (ELM), with extended multi-attribute profiles (EMAPs) for classifying hyperspectral data. Six RS ensemble methods, including Random subspace with DT (RSDT), Random Forest (RF), Rotation Forest (RoF), Rotation Random Forest (RoRF), RS with ELM (RSELM) and Rotation subspace with ELM (RoELM), are constructed by the multiple base learners. The effectiveness of the proposed techniques is illustrated by comparing with state-of-the-art methods by using real hyperspectral data sets with different contexts.
117

Multi-wavelength follow-up of ANTARES neutrino alerts

Mathieu, Aurore 01 October 2015 (has links)
Les sources transitoires sont souvent associées aux phénomènes les plus violents de l’Univers, où l’accélération de hadrons peut avoir lieu. Parmi ces sources, les sursauts gamma, les noyaux actifs de galaxie ou encore les supernovae à effondrement de coeur sont des candidats prometteurs pour la production de rayons cosmiques et de neutrinos de haute énergie. Le télescope ANTARES, situé au fond de la Méditerranée, a pour but de détecter ces neutrinos, qui pourraient révéler la présence d’une source de rayons cosmiques. Cependant, pour augmenter la sensibilité aux sources transitoires, une méthode basée sur le suivi multi-longueur d’onde d’alertes neutrino a été développée au sein de la collaboration ANTARES. Ce programme, TAToO, permet de déclencher un réseau de télescopes optiques et l’instrument XRT du satellite Swift seulement quelques secondes après la détection d’un neutrino par ANTARES. Les télescopes commencent un programme d’observation de la région du ciel correspondante pour tenter de détecter une contrepartie optique ou X à l’évènement neutrino. Les travaux présentés dans cette thèse portent sur le développement et la mise en place d’un programme d’analyse d’images optiques, ainsi que sur l’analyse de données optiques et X obtenues lors des observations par les différents télescopes, pour identifier des sources transitoires rapides, telles que les émissions rémanentes de sursauts gamma, ou lentes, telles que les supernovae à effondrement de coeur. / Transient sources are often associated with the most violent phenomena in the Universe, where the acceleration of hadrons may occur. Such sources include gamma-ray bursts (GRBs), active galactic nuclei (AGN) or core-collapse supernovae (CCSNe), and are promising candidates for the production of high energy cosmic rays and neutrinos. The ANTARES telescope, located in the Mediterranean sea, aims at detecting these high energy neutrinos, which could reveal the presence of a cosmic ray accelerator. However, to enhance the sensitivity to transient sources, a method based on multi-wavelength follow-up of neutrino alerts has been developed within the ANTARES collaboration. This program, denoted as TAToO, triggers a network of robotic optical telescopes and the Swift-XRT with a delay of only few seconds after a neutrino detection. The telescopes start an observation program of the corresponding region of the sky in order to detect a possible electromagnetic counterpart to the neutrino event. The works presented in this thesis cover the development and implementation of an optical image analysis pipeline, as well as the analysis of optical and X-ray data to search for fast transient sources, such as GRB afterglows, and slowly varying transient sources, such as CCSNe.
118

Towards spectral mathematical morphology / Vers la morphologie mathématique spectrale

Deborah, Hilda 21 December 2016 (has links)
En fournissant en plus de l'information spatiale une mesure spectrale en fonction des longueurs d'ondes, l'imagerie hyperspectrale s'enorgueillie d'atteindre une précision bien plus importante que l'imagerie couleur. Grâce à cela, elle a été utilisée en contrôle qualité, inspection de matériaux,… Cependant, pour exploiter pleinement ce potentiel, il est important de traiter la donnée spectrale comme une mesure, d'où la nécessité de la métrologie, pour laquelle exactitude, incertitude et biais doivent être maitrisés à tous les niveaux de traitement.Face à cet objectif, nous avons choisi de développer une approche non-linéaire, basée sur la morphologie mathématique et de l'étendre au domaine spectral par le biais d'une relation d'ordre spectral basée sur les fonctions de distance. Une nouvelle fonction de distance spectrale et une nouvelle relation d'ordonnancement sont ainsi proposées. De plus, un nouvel outil d'analyse du basé sur les histogrammes de différences spectrales a été développé.Afin d'assurer la validité des opérateurs, une validation théorique rigoureuse et une évaluation métrologique ont été mises en œuvre à chaque étage de développement. Des protocoles d'évaluation de la qualité des traitements morphologiques sont proposés, exploitant des jeux de données artificielles pour la validation théorique, des ensembles de données dont certaines caractéristiques sont connues pour évaluer la robustesse et la stabilité et des jeux de données de cas réel pour prouver l'intérêt des approches en contexte applicatif. Les applications sont développées dans le contexte du patrimoine culturel pour l'analyse de peintures et pigments. / Providing not only spatial information but also spectral measure as a function of wavelength, hyperspectral imaging boasts a much greater gain in accuracy than the traditional color imaging. And for this capability, hyperspectral imaging has been employed for quality control, inspection of materials in various fields. However, to fully exploit this potential, it is important to process the spectral data as a measure. This induces the need of metrology where accuracy, uncertainty, and bias are managed at every level of processing.Aiming at developing a metrological image processing framework for spectral data, we select to develop a nonlinear approach using the mathematical morphology framework and extended it to the spectral domain by means of a distance-based ordering relation. A novel spectral distance function and spectral ordering relation are proposed, in addition of a new analysis tools based on spectral differences. To ensure the validity of the spectral mathematical morphology framework, rigorous theoretical validation and metrological assessment are carried out at each development stages. So, protocols for quality assessment of spectral image processing tools are developed. These protocols consist of artificial datasets to validate completely the theoretical requirements, datasets with known characteristics to assess the robustness and stability, and datasets from real cases to proof the usefulness of the framework on applicative context. The application tasks themselves are within the cultural heritage domain, where the target images come from pigments and paintings. / Hyperspektral avbildning muliggjør mye mer nøyaktige målinger enn tradisjonelle gråskala og fargebilder, gjennom både høy romlig og spektral oppløsning (funksjon av bølgelengde). På grunn av dette har hyperspektral avbildning blitt anvendt i økende grad ulike applikasjoner som kvalitetskontroll og inspeksjon av materialer. Men for å fullt ut utnytte sitt potensiale, er det viktig å være i stand til å behandle spektrale bildedata som målinger på en gyldig måte. Dette induserer behovet for metrologi, der nøyaktighet, usikkerhet og skjevhet blir adressert og kontrollert på alle nivå av bildebehandlingen.Med sikte på å utvikle et metrologisk rammeverk for spektral bildebehandling valgte vi en ikke-lineær metodikk basert på det etablerte matematisk morfologi-rammeverket. Vi har utvidet dette rammeverket til det spektrale domenet ved hjelp av en avstandsbasert sorteringsrelasjon. En ny spektral avstandsfunksjon og nye spektrale sorteringsrelasjoner ble foreslått, samt nye verktøy for spektral bildeanalyse basert på histogrammer av spektrale forskjeller.For å sikre gyldigheten av det nye spektrale rammeverket for matematisk morfologi, har vi utført en grundig teoretisk validering og metrologisk vurde-ring på hvert trinn i utviklingen. Dermed er og-så nye protokoller for kvalitetsvurdering av spektrale bildebehandlingsverktøy utviklet. Disse protokollene består av kunstige datasett for å validere de teoretiske måletekniske kravene, bildedatasett med kjente egenskaper for å vurdere robustheten og stabiliteten, og datasett fra reelle anvendelser for å bevise nytten av rammeverket i en anvendt sammenheng. De valgte anvendelsene er innenfor kulturminnefeltet, hvor de analyserte bildene er av pigmenter og malerier.
119

Détection des mauvaises herbes dans les cultures du bleuets nains

Sirois, Charles January 2020 (has links) (PDF)
No description available.
120

Quantification par analyse d'images de la granulométrie des roches fragmentées : amélioration de l'extraction morphologique des surfaces, amélioration de la reconstruction stéréologique

Outal, Souhaïl 01 June 2006 (has links) (PDF)
Cette recherche s'inscrit dans le cadre général du contrôle de qualité des processus utilisés en production minière, tels que le tir à l'explosif, le broyage et le concassage. Elle s'intéresse plus particulièrement à la quantification par traitement d'images de la granulométrie des roches fragmentées. Globalement, les développements menés portent sur l'amélioration des deux étapes les plus déterminantes de la mesure : l'extraction des contours des fragments de roches dans l'image (2D) et la reconstruction de la courbe granulométrique en volume (étape de stéréologie, 3D). Actuellement, le tamisage (ou plus généralement le criblage) est le moyen le plus utilisé pour la mesure de la granulométrie des roches fragmentées. Il constitue la référence actuelle de la mesure. En conséquence, toute mesure établie par traitement d'images sera validée sur la base des résultats du tamisage. <br/><br/>En ce qui concerne l'étape d'extraction des contours des fragments, le problème majeur qui se pose est celui du filtrage correct du bruit présent dans l'image. Dans un premier temps, de nouveaux outils de filtrage, basés sur les transformations morphologiques résiduelles, assez puissants et adaptés au cas des images de fragments de roches sont introduits et évalués. Dans un second temps, les surfaces des fragments sont extraites grâce une segmentation de l'image, basée sur une ligne de partage des eaux contrôlée par les marqueurs extraits des filtrages. La robustesse et l'automatisation de la démarche sont validées sur plusieurs cas d'images de fragments de roches. <br/><br/>Le second problème abordé dans cette recherche est celui de la reconstruction de la courbe granulométrique en volume à partir des surfaces extraites par traitement d'images. Afin d'éviter l'occurrence de nombreux biais liés à cette étape, nous proposons un découpage en deux sous-problèmes, et ce, en fonction de la disposition des matériaux analysés (tas abattu, camion, convoyeur à bande) : <br/>- dans le cas de faible recouvrement et chevauchement : un modèle expérimental de reconstruction volumique mettant en jeu les données des refus matériels (surface et volumes), et basé d'emblée sur les résultats de référence est développé. Les deux lois des tailles et des épaisseurs (lois de reconstruction) permettant d'attribuer une taille et un volume aux surfaces sont validées expérimentalement. <br/>- dans le cas complexe de présence de masquage entre fragments : nous commençons par émettre des hypothèses essentielles à l'adaptation de la théorie des modèles de structures aléatoires à notre cas de fragments de roches. L'analyse des limites d'une application directe du modèle aléatoire de feuilles mortes (hypothèse du schéma booléen) nous a amené à élaborer une nouvelle méthode d'acquisition basée sur une incidence à éclairement variable. S'inspirant de la technique du , elle permet d'obtenir une information supplémentaire sur le recouvrement (ombre portée entre fragments) pour l'application de la statistique des grains intacts. <br/><br/>Enfin, les résultats obtenus dans cette recherche pour les fragments en vrac mais aussi pour d'autres types d'images d'éléments granulaires, nous ont permis d'envisager d'ores et déjà une valorisation aussi bien auprès de l'industrie minérale et aussi dans d'autres domaines tels que l'agroalimentaire, pharmaceutique, cimenteries...

Page generated in 0.1554 seconds