Spelling suggestions: "subject:"classiquement""
51 |
Le cas Joubert : de l'art des autres à l'art des notes / The Joubert case : from the art of the others to the art of notesAussudre, Pierre 07 January 2012 (has links)
Joseph Joubert, ce moraliste français nourri de Platon et d’Aristote, aura manifesté une possibilité d’écriture échappant à la fois à celle des Essais, des Pensées, des Maximes, des Caractères, des Mémoires, des Confessions, et même d’un journal, mais en injectant de cette dernière forme ce qui pouvait faire lever la pâte de toutes les autres. Joubert l’a-t-il tenté en plus grande conscience de ce qu’il faisait qu’il ne le dit et que peut légitimement le faire croire qu’il ait laissé aux Chateaubriand (1838), Paul de Raynal (1842), André Beaunier (1938), cardinal Grente (1941), Raymond Dumay et Maurice Andrieux (1954), Georges Poulet (1966), Paul Auster (1983), Rémy Tessonneau (1989), le soin, le mérite, l’effort, mais tout de même aussi le plaisir ou la chance de faire son ouvrage à sa place ? La perspective contemporaine de cette hypothèse est celle d’un art des notes qui passe, dans le cas de Joubert, par l’établissement d’une poétique de leur classement. / Joseph Joubert, this french moralist who had a fondness for Plato and Aristotle, has revealed a mode of writing which is not like the one of Essays, Thoughts, Maxims, Characters, Memoirs, Confessions, and not even like a diary, but which derive from this last mode what is able to raise the dough of all others. Was Joubert aware of this contrivance more than we can think about, owing to the fact that he had committed his scripts to the following’s care : Chateaubriand (1838), Paul de Raynal (1842), André Beaunier (1938), cardinal Grente (1941), Raymond Dumay et Maurice Andrieux (1954), Georges Poulet (1966), Paul Auster (1983), Rémy Tessonneau (1989) ? Answering in the affirmative is equivalent to the assumption of an art of notes which goes through the working out of a literary theorie of their classification.
|
52 |
Etude de la variabilité intra-balle des caractéristiques technologiques des fibres de coton produites en Afrique de l'Ouest et du Centre / Study of the within-bale variability of the technological characteristics of cotton fibers produced in Western and Central AfricaAboe, Modeste 05 March 2012 (has links)
Grâce aux développements techniques et technologiques des dernières décennies, le commerce international du coton passe graduellement d’un classement manuel et visuel à un classement à base de résultats de mesures instrumentales. Or adopter une technique requiert d’en étudier ses modalités et ses conditions d’utilisation. Aux USA, des études périodiques de variabilité permettent d’assortir ces résultats d’analyse de tolérances commerciales afin de limiter la fréquence des litiges. Adopter en Afrique les règles et les méthodes de mesure des USA exposerait à un risque de litige accru si les conditions de production déterminent un coton de qualité plus variable. Pour la première fois en Afrique, nous avons mené une étude de la variabilité des caractéristiques technologiques des fibres dans huit pays d’Afrique de l’Ouest et du Centre : Bénin, Burkina-Faso, Cameroun, Côte d’Ivoire, Mali, Sénégal, Tchad et Togo. Pendant deux saisons de production, nous avons réalisé une expérimentation à trois types de prélèvements de fibres : 1) huit échantillons par balle au sein de 215 balles produites dans 27 usines d’égrenage, 2) un échantillon par balle de 4286 balles constituées en séries de 200 balles consécutives en saison 1 et de 100 balles consécutives en saison 2 dans les mêmes usines, 3) deux échantillons par balle (un en haut et un en bas) sur 817 balles constituées en séries de vingt balles consécutives hebdomadairement dans cinq usines au cours de la saison 2. Ensuite, les échantillons des 5318 balles échantillonnées furent analysés sur une Chaîne de Mesures Instrumentales (CMI) dans un laboratoire respectant les recommandations internationales et les conditions d’ambiance contrôlées. L’analyse statistique des données recueillies a permis d’évaluer le niveau de variabilité de chacune des caractéristiques technologiques étudiées, au sein des balles et entre celles-ci. Une méthode d’échantillonnage et de réalisation des analyses sur CMI est proposée pour réaliser le classement des balles de coton d’Afrique de l’Ouest et du Centre à partir de résultats précis et répétables respectant les règles commerciales établies au niveau mondial. / Thanks to the technical and technological developments of the last decades, the international cotton trade is moving from a manual and visual classification to one based on instrument results. Now, adopting a technique requires studying its modalities and its conditions of use. In the USA, periodical studies of the variability make it possible to provide trading tolerances together with instrumental test results in order to limit the litigation event frequency. Apply USA rules and measurement methods in Africa would lead to increased litigation risk if production conditions induce more variable cotton quality. For the first time in Africa, we have conducted a study of the variability of the technological characteristics of the fibers in eight countries of Western and Central Africa: Benin, Burkina-Faso, Cameroon, Chad, the Ivory-Coast, Mali, Senegal and Togo. During two seasons of production, we conducted an experiment with three types of fiber sampling: 1) eight samples per bale within 215 bales produced in 27 ginning mills, 2) one sample per bale from 4286 bales organized in lots of 200 consecutive bales during season 1 and of 100 consecutive bales in season 2 in the same ginning mills, 3) two samples per bale (one from the top, one from the bottom) from 817 bales organized in lots of twenty consecutive bales each week in five ginning mills during season 2. Then, samples from the 5318 sampled bales were analysed with Standardized Instruments for Testing Cotton (SITC) in a laboratory which respects international recommendations and required ambient air conditions. The statistical data analysis allowed us to evaluate the level of variability of each of the studied technological characteristics, within the bales and between the bales. A sampling and testing methodology using SITC is being proposed to achieve the classification of the different sorts of cotton produced in Western and Central Africa from precise and repeatable results abidden by the worldwide established trading rules.
|
53 |
Une modélisation de la résistance en flexion du pin maritime utilisé en construction / A modeling of timber bending strength in maritime pineGrazide, Cecile 02 December 2014 (has links)
Dans le cas du bois massif, les résistances en flexion et en traction peuvent être altérées par la présence de défauts. Les nœuds et la distorsion du fil qui en découle, sont les causes de la diminution du rendement mécanique des sections de poutres de structure. A ce jour, l’effet de ces défauts sur la perte de résistance de l’élément de structure ne peut être quantifié avec exactitude. Le classement mécanique du bois de structure n’est alors pas optimal et ne permet pas de valoriser les éléments de fortes résistances. La présente étude a pour objectif d’étudier l’influence de la nodosité sur le rendement mécanique de poutres en Pin Maritime dans le but d’en améliorer son classement mécanique. Cette étude s’appuie sur une base de données recensant les propriétés mécaniques et physiques de poutres de grandes dimensions ainsi que les propriétés géométriques des nœuds présents sur ces éléments. Différents outils statistiques sont utilisés afin de définir les variables explicatives et leurs pouvoirs prédictifs sur la résistance mécanique de ces composants structurels. De ces analyses, il ressort que certaines caractéristiques propres aux nœuds sont significatives et permettent d’améliorer la prédiction de la résistance. Des modélisations éléments finis de tronçons de poutres présentant un nœud sont proposées pour justifier la présence de ces paramètres dans les modèles prédictifs et afin de compléter cette base de données par des propriétés mécaniques. Ces modélisations numériques, accompagnées d’un critère de ruine, permettent d’établir des courbes de performances mécaniques en présence d’un nœud. Ces données numériques sont comparées aux résultats expérimentaux afin de vérifier la fiabilité de l’approche proposée. / The bending and tensile strengths of timber can be reduced by the presence of heterogeneities. The knots and the local slope of grain in the surrounding area are the most relevant. Nowadays, the effect of knots reduces the stiffness and the strength of structural elements. The Timber grading is not optimized and does not promote the strongest beams for a timber engineering use. The goal of this study is to evaluate the influence of knots on the bending strength of beams in Maritime Pine, order to improve their timber grading. This work is focused on a database, which takes into account the mechanical and the physical properties of beams and specific geometrical parameters relative to knots detected in elements. Several statistical tools like neural networks are used to define the explanatory variables and their predictive powers of the bending strength. From these analyses, it is shown that some variables characterizing the knots are pertinent and allow the improvement of the prediction of the strength. To justify the presence of these variables in the predictive equations, finite element simulations of single knot are proposed. These numerical computations associated to a fracture criterion allow the establishment of strength performance curves due to the presence of knot in an elementary loaded volume (tension and bending configurations). These numerical data are compared to the experimental results in the aim to verify the reliability of the finite element approach.
|
54 |
Espaces vectoriels sémantiques : enrichissement et interprétation de requêtes dans un système d'information distribué et hétérogèneVentresque, Anthony 26 September 2008 (has links) (PDF)
Les systèmes d'information font face à un problème de pertinence dans les recherches dû à l'augmentation considérable des données accessibles. De plus, le nombre d'appareils communicants ne cesse de croître et de menacer le modèle client/serveur. Une nouvelle architecture distribuée tend donc à s'imposer : les réseaux pair-à-pair (P2P). Mais ils sont peu économes en ressource réseau (une requête inonde le réseau) et offrent des fonctionnalités limitées (recherche par mots-clés). Dans les deux communautés, RI et systèmes P2P, les recherches penchent vers l'utilisation de sémantique. En informatique, les approches basées sur la sémantique nécessitent souvent de définir des ontologies. Le développement important et distribué des ontologies génère une hétérogénéité sémantique. La solution classique est d'utiliser des correspondances entre parties de deux ontologies. Mais c'est une solution qui est difficile à obtenir et qui n'est pas toujours complète. Souvent les parties non-partagées de deux ontologies ne sont pas gérées, ce qui entraîne une perte d'information. Notre solution : EXSI2D, utilise une expansion particulière, appelée expansion structurante, du côté de l'initiateur de requêtes. Cela lui permet de préciser les dimensions de sa requête sans modifier la requête elle-même. EXSI2D offre aussi la possibilité au fournisseur d'information d'interpréter l'expansion structurante dans sa propre ontologie. Ainsi, il est possible à chaque participant d'un système d'information sémantiquement hétérogène d'utiliser toute son ontologie, y compris les parties non partagées. Nous montrons aussi l'utilisation d'EXSI2D dans un système P2P, grâce à SPARTANBFS, un protocole « frugal » pour systèmes P2P non structurés.
|
55 |
Mise en évidence des effets anti-hypertrophiques de carabine dans le cardiomyocyte et caractérisation de ses voies de signalisation.Krucien, Nicolas 17 February 2012 (has links) (PDF)
Les systèmes de santé accordent une attention croissante au point de vue des usagers dans l'organisation de l'offre de soins. L'instauration d'une offre de soins sensible aux besoins et préférences des patients constitue un enjeu majeur de qualité et d'efficacité des soins. Ce travail analyse le point de vue des patients pour l'offre de soins de médecine générale en utilisant différentes méthodes permettant d'obtenir des informations complémentaires en termes d'expérience de soins, de satisfaction, d'importance ou encore de préférences. Il s'agit des méthodes Delphi, de classement du meilleur au pire et de révélation des préférences par les choix discrets. Ces méthodes sont appliquées sur deux échantillons : en population générale pour la première et chez des patients poly-pathologiques pour les 2 autres afin d'identifier les principaux enjeux actuels et à venir de la réorganisation de l'offre de soins de médecine générale du point de vue des patients. Les résultats montrent le rôle central de la relation médecin-patient et plus particulièrement de l'échange d'informations entre le médecin et le patient. Cependant une relation médecin-patient de qualité ne doit pas pour autant être réalisée au détriment de la qualité technique du soin et de la coordination de la prise en charge du patient. Ce travail montre également l'importance de prendre en compte l'expérience de soins des patients lors de l'analyse de leur point de vue, et plus particulièrement de leur disposition au changement. L'évaluation systématique et régulière des préférences des patients en pratique quotidienne peut permettre d'améliorer la communication médecin-patient ainsi que le contenu de l'offre de soins du point de vue des patients.
|
56 |
Utilisation de profils utilisateurs pour l'accès à une bibliothèque numériqueVan, Thanh Trung 01 December 2008 (has links) (PDF)
Aujourd'hui, les bibliothèques numériques deviennent de plus en plus populaires. Ces bibliothèques fournissent plusieurs services pour leurs utilisateurs. Le service de recherche d'information est un service indispensable pour ces bibliothèques. La personnalisation de ce service pour mieux répondre aux exigences des utilisateurs est une approche qui attire beaucoup d'attention de la communauté scientifique. Plusieurs systèmes de recherche d'information personnalisée actuels ont choisi de re-trier les résultats d'un moteur de recherche en prenant en compte les similarités entre ces résultats et le profil utilisateur afin de rendre des résultats plus pertinents pour les utilisateurs. Cependant, la plupart de ces systèmes n'utilise que les approches basées sur le contenu textuel pour ce but. Dans nos travaux, nous proposons d'utiliser également des méthodes basées sur les citations telles que la méthode des co-citations et la méthode du couplage bibliographique pour calculer les similarités document-profil. Nous étudions la performance de la méthode des co-citations avec différentes bases de données bibliographiques. Nous utilisons également différentes fonctions de combinaison pour combiner les scores individuels. Les approches proposées ont été validées par des expérimentations sur une collection de test utilisée dans INEX 2005.
|
57 |
Contributions à l'étude de la tension entre cohérence et confidentialité et du classement d'objets selon leur histoire dans les bases de donnéesDelannoy, Xavier 12 September 1997 (has links) (PDF)
Cette thèse est composée de deux contributions à l'étude des bases de données : (i) la première contribution porte sur l'amélioration de la compréhension, par l'étude formelle, de la tension entre les fonctionnalités de cohérence et de confidentialité. Cette tension permet, dans certaines situations, d'utiliser les contraintes d'intégrité (cohérence) pour révéler des secrets (confidentialité) et donc réaliser des fraudes. L'étude fixe tout d'abord un cadre général de recherche en donnant une définition formelle des notions de secret, révélation et fraude. Puis, une occurrence particulière, et originale, de tension est formalisée selon une méthode inspirée des méthodes de programmation. Cette occurrence s'est avérée liée aux treillis de Galois. (ii) la deuxième contribution porte sur la spécification et l'implémentation d'une fonctionalité originale : le classement d'objets selon leur histoire. A cette fin, l'étude répond successivement aux trois questions : qu'est-ce que l'histoire d'un objet, comment exprimer des propriétés sur l'histoire des objets, et comment les vérifier efficacement ? L'expression est réalisée par des formules de logique temporelle et la méthode de vérification repose sur la traduction de ces formules en expressions régulières puis en automates d'états finis. L'implémentation réalisée utilise cette méthode de classement pour classer a posteriori des objets du langage prototypique NewtonScript.
|
58 |
Modélisation statistique de la mortalité maternelle et néonatale pour l'aide à la planification et à la gestion des services de santé en Afrique Sub-SaharienneNdour, Cheikh 19 May 2014 (has links) (PDF)
L'objectif de cette thèse est de proposer une méthodologie statistique permettant de formuler une règle de classement capable de surmonter les difficultés qui se présentent dans le traitement des données lorsque la distribution a priori de la variable réponse est déséquilibrée. Notre proposition est construite autour d'un ensemble particulier de règles d'association appelées "class association rules". Dans le chapitre II, nous avons exposé les bases théoriques qui sous-tendent la méthode. Nous avons utilisé les indicateurs de performance usuels existant dans la littérature pour évaluer un classifieur. A chaque règle "class association rule" est associée un classifieur faible engendré par l'antécédent de la règle que nous appelons profils. L'idée de la méthode est alors de combiner un nombre réduit de classifieurs faibles pour constituer une règle de classement performante. Dans le chapitre III, nous avons développé les différentes étapes de la procédure d'apprentissage statistique lorsque les observations sont indépendantes et identiquement distribuées. On distingue trois grandes étapes: (1) une étape de génération d'un ensemble initial de profils, (2) une étape d'élagage de profils redondants et (3) une étape de sélection d'un ensemble optimal de profils. Pour la première étape, nous avons utilisé l'algorithme "apriori" reconnu comme l'un des algorithmes de base pour l'exploration des règles d'association. Pour la deuxième étape, nous avons proposé un test stochastique. Et pour la dernière étape un test asymptotique est effectué sur le rapport des valeurs prédictives positives des classifieurs lorsque les profils générateurs respectifs sont emboîtés. Il en résulte un ensemble réduit et optimal de profils dont la combinaison produit une règle de classement performante. Dans le chapitre IV, nous avons proposé une extension de la méthode d'apprentissage statistique lorsque les observations ne sont pas identiquement distribuées. Il s'agit précisément d'adapter la procédure de sélection de l'ensemble optimal lorsque les données ne sont pas identiquement distribuées. L'idée générale consiste à faire une estimation bayésienne de toutes les valeurs prédictives positives des classifieurs faibles. Par la suite, à l'aide du facteur de Bayes, on effectue un test d'hypothèse sur le rapport des valeurs prédictives positives lorsque les profils sont emboîtés. Dans le chapitre V, nous avons appliqué la méthodologie mise en place dans les chapitres précédents aux données du projet QUARITE concernant la mortalité maternelle au Sénégal et au Mali.
|
59 |
A model ISM-MICMAC for managing risk in agri-food supply chain: An investigation from the Andean region of PeruRamos, Edgar, Pettit, Timothy J., Habib, Mamun, Chavez, Melissa 01 January 2021 (has links)
During recent years, supply chain risks have gained importance in the food supply chain. This study presents a methodology to analyse the risk in the agri-food supply chain belonging to the Andean region in Peru. It utilises the interpretive structural modelling (ISM) with matrice d' impacts croises multiplication appliqué an classement (cross-impact matrix multiplication applied to classification, abbreviated as MICMAC) to identify and understand relationships between risk types. Based on the empirical data collected from the food industry experts, ten risk factors were identified as relevant. Finally, the identified risks were classified using ISM-MICMAC methodology. The research findings demonstrated that natural disaster, environmental, and legal risks were the most substantial. The findings highlight that selected methods are capable of recognising the most substantial risks that are most critical to assess, manage with adequate mitigation actions from the practitioners in the agri-food industry.
|
60 |
High-Order Inference, Ranking, and Regularization Path for Structured SVM / Inférence d'ordre supérieur, Classement, et Chemin de Régularisation pour les SVM StructurésDokania, Puneet Kumar 30 May 2016 (has links)
Cette thèse présente de nouvelles méthodes pour l'application de la prédiction structurée en vision numérique et en imagerie médicale.Nos nouvelles contributions suivent quatre axes majeurs.La première partie de cette thèse étudie le problème d'inférence d'ordre supérieur.Nous présentons une nouvelle famille de problèmes de minimisation d'énergie discrète, l'étiquetage parcimonieux, encourageant la parcimonie des étiquettes.C'est une extension naturelle des problèmes connus d'étiquetage de métriques aux potentiels d'ordre élevé.Nous proposons par ailleurs une généralisation du modèle Pn-Potts, le modèle Pn-Potts hiérarchique.Enfin, nous proposons un algorithme parallélisable à proposition de mouvements avec de fortes bornes multiplicatives pour l'optimisation du modèle Pn-Potts hiérarchique et l'étiquetage parcimonieux.La seconde partie de cette thèse explore le problème de classement en utilisant de l'information d'ordre élevé.Nous introduisons deux cadres différents pour l'incorporation d'information d'ordre élevé dans le problème de classement.Le premier modèle, que nous nommons SVM binaire d'ordre supérieur (HOB-SVM), optimise une borne supérieure convexe sur l'erreur 0-1 pondérée tout en incorporant de l'information d'ordre supérieur en utilisant un vecteur de charactéristiques jointes.Le classement renvoyé par HOB-SVM est obtenu en ordonnant les exemples selon la différence entre la max-marginales de l'affectation d'un exemple à la classe associée et la max-marginale de son affectation à la classe complémentaire.Le second modèle, appelé AP-SVM d'ordre supérieur (HOAP-SVM), s'inspire d'AP-SVM et de notre premier modèle, HOB-SVM.Le modèle correspond à une optimisation d'une borne supérieure sur la précision moyenne, à l'instar d'AP-SVM, qu'il généralise en permettant également l'incorporation d'information d'ordre supérieur.Nous montrons comment un optimum local du problème d'apprentissage de HOAP-SVM peut être déterminé efficacement grâce à la procédure concave-convexe.En utilisant des jeux de données standards, nous montrons empiriquement que HOAP-SVM surpasse les modèles de référence en utilisant efficacement l'information d'ordre supérieur tout en optimisant directement la fonction d'erreur appropriée.Dans la troisième partie, nous proposons un nouvel algorithme, SSVM-RP, pour obtenir un chemin de régularisation epsilon-optimal pour les SVM structurés.Nous présentons également des variantes intuitives de l'algorithme Frank-Wolfe pour l'optimisation accélérée de SSVM-RP.De surcroît, nous proposons une approche systématique d'optimisation des SSVM avec des contraintes additionnelles de boîte en utilisant BCFW et ses variantes.Enfin, nous proposons un algorithme de chemin de régularisation pour SSVM avec des contraintes additionnelles de positivité/negativité.Dans la quatrième et dernière partie de la thèse, en appendice, nous montrons comment le cadre de l'apprentissage semi-supervisé des SVM à variables latentes peut être employé pour apprendre les paramètres d'un problème complexe de recalage déformable.Nous proposons un nouvel algorithme discriminatif semi-supervisé pour apprendre des métriques de recalage spécifiques au contexte comme une combinaison linéaire des métriques conventionnelles.Selon l'application, les métriques traditionnelles sont seulement partiellement sensibles aux propriétés anatomiques des tissus.Dans ce travail, nous cherchons à déterminer des métriques spécifiques à l'anatomie et aux tissus, par agrégation linéaire de métriques connues.Nous proposons un algorithme d'apprentissage semi-supervisé pour estimer ces paramètres conditionnellement aux classes sémantiques des données, en utilisant un jeu de données faiblement annoté.Nous démontrons l'efficacité de notre approche sur trois jeux de données particulièrement difficiles dans le domaine de l'imagerie médicale, variables en terme de structures anatomiques et de modalités d'imagerie. / This thesis develops novel methods to enable the use of structured prediction in computer vision and medical imaging. Specifically, our contributions are four fold. First, we propose a new family of high-order potentials that encourage parsimony in the labeling, and enable its use by designing an accurate graph cuts based algorithm to minimize the corresponding energy function. Second, we show how the average precision SVM formulation can be extended to incorporate high-order information for ranking. Third, we propose a novel regularization path algorithm for structured SVM. Fourth, we show how the weakly supervised framework of latent SVM can be employed to learn the parameters for the challenging deformable registration problem.In more detail, the first part of the thesis investigates the high-order inference problem. Specifically, we present a novel family of discrete energy minimization problems, which we call parsimonious labeling. It is a natural generalization of the well known metric labeling problems for high-order potentials. In addition to this, we propose a generalization of the Pn-Potts model, which we call Hierarchical Pn-Potts model. In the end, we propose parallelizable move making algorithms with very strong multiplicative bounds for the optimization of the hierarchical Pn-Potts model and the parsimonious labeling.Second part of the thesis investigates the ranking problem while using high-order information. Specifically, we introduce two alternate frameworks to incorporate high-order information for the ranking tasks. The first framework, which we call high-order binary SVM (HOB-SVM), optimizes a convex upperbound on weighted 0-1 loss while incorporating high-order information using joint feature map. The rank list for the HOB-SVM is obtained by sorting samples using max-marginals based scores. The second framework, which we call high-order AP-SVM (HOAP-SVM), takes its inspiration from AP-SVM and HOB-SVM (our first framework). Similar to AP-SVM, it optimizes upper bound on average precision. However, unlike AP-SVM and similar to HOB-SVM, it can also encode high-order information. The main disadvantage of HOAP-SVM is that estimating its parameters requires solving a difference-of-convex program. We show how a local optimum of the HOAP-SVM learning problem can be computed efficiently by the concave-convex procedure. Using standard datasets, we empirically demonstrate that HOAP-SVM outperforms the baselines by effectively utilizing high-order information while optimizing the correct loss function.In the third part of the thesis, we propose a new algorithm SSVM-RP to obtain epsilon-optimal regularization path of structured SVM. We also propose intuitive variants of the Block-Coordinate Frank-Wolfe algorithm (BCFW) for the faster optimization of the SSVM-RP algorithm. In addition to this, we propose a principled approach to optimize the SSVM with additional box constraints using BCFW and its variants. In the end, we propose regularization path algorithm for SSVM with additional positivity/negativity constraints.In the fourth and the last part of the thesis (Appendix), we propose a novel weakly supervised discriminative algorithm for learning context specific registration metrics as a linear combination of conventional metrics. Conventional metrics can cope partially - depending on the clinical context - with tissue anatomical properties. In this work we seek to determine anatomy/tissue specific metrics as a context-specific aggregation/linear combination of known metrics. We propose a weakly supervised learning algorithm for estimating these parameters conditionally to the data semantic classes, using a weak training dataset. We show the efficacy of our approach on three highly challenging datasets in the field of medical imaging, which vary in terms of anatomical structures and image modalities.
|
Page generated in 0.0895 seconds