• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 102
  • 63
  • 9
  • Tagged with
  • 169
  • 89
  • 34
  • 34
  • 27
  • 26
  • 25
  • 23
  • 19
  • 19
  • 19
  • 18
  • 17
  • 17
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Les effets de la similarité d'âge entre un modèle publicitaire et son récepteur : le cas des femmes âgées de 60 à 70 ans / The similarity effects due to age between an advertising model and a receiver : the case of wowen aged from 60 to 70 years old

Bourcier-Béquaert, Bénédicte 25 November 2013 (has links)
Ce travail doctoral s’interroge sur le bien-fondé des stratégies publicitaires mettant en avant des mannequins séniors dans le but de séduire cette cible de consommateurs. Trois théories - la comparaison sociale, l’identité sociale et les effets persuasifs de la source –permettent d’élaborer un cadre d’analyse intégrateur des effets de la similarité liée à l’âge. Il met en relation les variables suivantes : l’écart d’âge entre le mannequin et le récepteur, la similarité ressentie avec le mannequin, l’évaluation de la marque (proximité, attitude, considération à l’achat) et l’estime de soi du récepteur suite à l’exposition publicitaire. Deux variables modératrices sont étudiées : la tendance d’âge subjectif et l’âge de divergence. L’étude empirique se fonde sur un échantillon de 444 femmes âgées de 60 à 70 ans et sur un groupe de contrôle constitué de 195 femmes âgées de 20 à 30 ans. L’expérimentation fait varier l’âge du mannequin (la même femme est représentée à trois âges différents : 25, 55 et 65 ans) et le type de produit (alimentaire et cosmétique). Les tests des hypothèses sont réalisés à partir d’équations structurelles (approche PLS). Les principaux résultats montrent : (1) l’impact négatif de l’écart d’âge sur les trois variables d’évaluation de la marque ; (2) le rôle de l’âge dans la formation du jugement de la similarité ressentie avec le mannequin; (3) l’influence positive de la similarité ressentie sur l’évaluation de la marque. La route persuasive de la similarité est plus marquée pour le produit cosmétique et pour les femmes séniors qui ont une faible tendance d’âge. Enfin, elle fonctionne mieux sur les femmes séniors que sur les femmes jeunes. / Our doctoral work questions advertising strategies using senior models to appeal to this target. Three theories - social comparison, social identity and persuasive source effects – enable us to construct an integrative framework of the similarity effects due to age. This includes the following variables: the age gap between the model and the receiver, the perceived model similarity, brand evaluation variables (proximity, attitude and purchase consideration) and the receiver’s self-esteem after ad exposure. Two moderating variables are taken into account: the subjective age tendency and the discrepancy age.Our empirical study consists of a sample of 444 women aged between 60 and 70 and a control group of 195 women aged between 20 and 30. The experimental design manipulates the model’s age (the same women is represented at three different ages: 25, 55 and 65 years old) and the type of product (food and cosmetics).Testing hypotheses are made from structural equations (PLS approach). The main results show: (1) the negative impact of the age gap on the three brand evaluation variables; (2) the age role when the similarity judgment is forming; (3) the positive influence of the perceived similarity on the evaluation of the brand. The persuasive similarity route is stronger for the cosmetic product and the senior receivers whose subjective age tendency is low. Finally, this similarity route works better on senior women than on younger women.
82

Algorithmes pour la prédiction in silico d'interactions par similarité entre macromolécules biologiques / Similarity-based algorithms for the prediction of interactions between biomolecules

Voland, Mathieu 03 April 2017 (has links)
Un médicament, ou tout autre petite molécule biologique, agit sur l’organisme via des interactions chimiques qui se produisent avec d’autres macromolécules telles que les protéines qui régissent le fonctionnement des cellules. La détermination de l’ensemble des cibles, c’est à dire de l’ensemble des macromolécules susceptibles de lier une même molécule, est essentielle pour mieux comprendre les mécanismes moléculaires à l’origine des effets d’un médicament. Cette connaissance permettrait en effet de guider la conception d’un composé pour éviter au mieux les effets secondaires indésirables, ou au contraire découvrir de nouvelles applications à des molécules connues. Les avancées de la biologie structurale nous permettent maintenant d’avoir accès à un très grand nombre de structures tridimensionnelles de protéines impliquées dans ces interactions, ce qui motive l’utilisation d’outils in silico (informatique) pour complémenter ou guider les expériences in vitro ou in vivo plus longues et plus chères.La thèse s’inscrit dans le cadre d’une collaboration entre le laboratoire DAVID de l’Université de Versailles-Saint-Quentin, et l’entreprise Bionext SA qui propose une suite logicielle permettant de visualiser et d’étudier les interactions chimiques. Les travaux de recherches ont pour objectif de développer un algorithme permettant, à partir des données structurales des protéines, de déterminer des cibles potentielles pour un composé donné. L’approche choisie consiste à utiliser la connaissance d’une première interaction entre un composé et une protéine afin de rechercher par similarité d’autres protéines pour lesquelles on peut inférer la capacité à se lier avec le même composé. Il s’agit plus précisément de rechercher une similarité locale entre un motif donné, qui est la région permettant à la cible connue de lier le composé, et un ensemble de protéines candidates.Un algorithme a été développé, BioBind, qui utilise un modèle des surfaces des macromolécules issu de la théorie des formes alpha afin de modéliser la surface accessible ainsi qu’une topologie sur cette surface permettant la définition de régions en surface. Afin de traiter le problème de la recherche d’un motif en surface, une heuristique est utilisée consistant à définir des motifs réguliers qui sont une approximation de disques géodésiques et permettant un échantillonnage exhaustif à la surface des macromolécules. Ces régions circulaires sont alors étendues à l’ensemble du motif recherché afin de déterminer une mesure de similarité.Le problème de la prédiction de cibles est ramené à un problème de classification binaire, où il s’agit pour un ensemble de protéines données de déterminer lesquelles sont susceptibles d’interagir avec le composé considéré, par similarité avec la première cible connue. Cette formalisation permet d’étudier les performances de notre approche, ainsi que de la comparer avec d’autres approches sur différents jeux de données. Nous utilisons pour cela deux jeux de données issus de la littérature ainsi qu’un troisième développé spécifiquement pour cette problématique afin d’être plus représentatif des molécules pertinentes du point de vue pharmacologique, c’est-à-dire ayant des propriétés proches des médicaments. Notre approche se compare favorablement sur ces trois jeux de données par rapport à une autre approche de prédiction par similarité, et plus généralement notre analyse confirme que les approches par docking (amarrage) sont moins performantes que les approches par similarité pour le problème de la prédiction de cibles. / The action of a drug, or another small biomolecule, is induced by chemical interactions with other macromolecules such as proteins regulating the cell functions. The determination of the set of targets, the macromolecules that could bind the same small molecule, is essential in order to understand molecular mechanisms responsible for the effects of a drug. Indeed, this knowledge could help the drug design process so as to avoid side effects or to find new applications for known drugs. The advances of structural biology provides us with three-dimensional representations of many proteins involved in these interactions, motivating the use of in silico tools to complement or guide further in vitro or in vivo experiments which are both more expansive and time consuming.This research is conducted as part of a collaboration between the DAVID laboratory of the Versailles-Saint-Quentin University, and Bionext SA which offers a software suite to visualize and analyze chemical interactions between biological molecules. The objective is to design an algorithm to predict these interactions for a given compound, using the structures of potential targets. More precisely, starting from a known interaction between a drug and a protein, a new interaction can be inferred with another sufficiently similar protein. This approach consists in the search of a given pattern, the known binding site, across a collection of macromolecules.An algorithm was implemented, BioBind, which rely on a topological representation of the surface of the macromolecules based on the alpha shapes theory. Our surface representation allows to define a concept of region of any shape on the surface. In order to tackle the search of a given pattern region, a heuristic has been developed, consisting in the definition of regular region which is an approximation of a geodesic disk. This circular shape allows for an exhaustive sampling and fast comparison, and any circular region can then be extended to the actual pattern to provide a similarity evaluation with the query binding site.The target prediction problem is formalized as a binary classification problem, where a set of macromolecules is being separated between those predicted to interact and the others, based on their local similarity with the known target. With this point of view, classic metrics can be used to assess performance, and compare our approach with others. Three datasets were used, two of which were extracted from the literature and the other one was designed specifically for our problem emphasizing the pharmacological relevance of the chosen molecules. Our algorithm proves to be more efficient than another state-of-the-art similarity based approach, and our analysis confirms that docking software are not relevant for our target prediction problem when a first target is known, according to our metric.
83

Harmonisation de l'information géo-scientifique de bases de données industrielles par mesures automatiques de ressemblance / Harmonization of geo-scientific information in industrial data bases, thanks to automatic similarity metrics

Fuga, Alba 05 January 2017 (has links)
Pour automatiser l’harmonisation des bases de données industrielles de navigation sismique, une méthodologie et un logiciel ont été mis en place. La méthodologie d’Automatisation des Mesures de Ressemblance (AMR), permet de modéliser et hiérarchiser les critères de comparaison servant de repères pour l’automatisation. Accompagné d’un ensemble de seuils de tolérance, le modèle hiérarchisé a été utilisé comme filtre à tamis dans le processus de classification automatique permettant de trouver rapidement les données fortement similaires. La similarité est mesurée par un ensemble de métriques élémentaires, aboutissant à des scores numériques, puis elle est mesurée de manière plus globale et contextuelle, notamment suivant plusieurs échelles : entre les attributs, entre les données, et entre les groupes. Ces évaluations de la similarité permettent à la fois au système expert de présenter des analyses précises automatisées et à l’expert géophysicien de réaliser des interprétations multicritères en faisant en environ deux jours le travail qu’il faisait en trois semaines. Les stratégies de classification automatique sont quant à elles adaptables à différentes problématiques, à l’harmonisation des données, mais aussi à la réconciliation des données ou au géo-référencement de documents techniques. Le Logiciel Automatique de Comparaisons (LAC) est une implantation de l’AMR réalisée pour les services de Data Management et de Documentation Technique de TOTAL. L’outil industrialisé est utilisé depuis trois ans, mais n’est plus en maintenance informatique aujourd’hui malgré son usage. Les nouvelles fonctionnalités d'imagerie de base de données qui ont été développées dans cette thèse n'y sont pas encore intégrées, mais devraient permettre une meilleure visualisation des phénomènes. Cette dernière manière de représenter les données, fondée sur la mesure de similarité, permet d’avoir une image assez claire de données lourdes car complexes tout en permettant de lire des informations nécessaires à l’harmonisation et à l’évaluation de la qualité des bases. Ne pourrait-on pas chercher à caractériser, comparer, analyser, gérer les flux entrants et sortants des bases de données, suivre leurs évolutions et tirer des modes d’apprentissage automatique à partir du développement de cette imagerie ? / In order to harmonize industrial seismic navigation data bases, a methodology and a software have been developed. The methodology of Similarity Measurement Automation provides protocols to build a model and a hierarchy for the comparison criteria that shall be used as points of reference for the automation. With its tolerance set of thresholds, the model has been used as a scaled filter within the automatic classification process which aim is to find as quickly as possible very similar data. Similarity is measured by combinations of elementary metrics giving scores, and also by a global and contextual procedure, giving access to three levels of results: similarity between attributes, between individuals, and between groups. Accurate automated analyses of the expert system as well as human interpretations on multiple criteria are now possible thanks to these similarity estimations, reducing to two days instead of three weeks the work of a geophysicist. Classification strategies have been designed to suit the different data management issues, as well as harmonization, reconciliation or geo-referencing. The methodology has been implemented in software for automatic comparisons named LAC, and developed for Data Management and Technical Documentation services in TOTAL. The software has been industrialized and has been used for three years, even if now there is no technical maintenance anymore. The last data base visualization functionalities that have been developed have not been integrated yet to the software, but shall provide a better visualization of the phenomena. This latest way to visualize data is based on similarity measurement and obtains an image of complex and voluminous data clear enough. It also puts into relief information useful for harmonization and data quality evaluation. Would it be possible to characterize, compare, analyze and manage data flows, to monitor their evolution and figure out new machine learning methods by developing further this kind of data base imaging?
84

La thèse de la domination occidentale face à l'épreuve de la réflexivité : "nous" et les chercheurs indiens et brésiliens en Relations internationales / The Thesis of Western Domination Put to the Test of Reflexivity : "Us" and Scholars of International Relations in India and Brazil

Alejandro, Audrey 09 September 2015 (has links)
Cette recherche interroge le problème auquel se trouvent confrontés les chercheurs qui, en Relations Internationales, dénoncent la domination « occidentale » au sein de cette discipline. Afin de promouvoir le dialogue et la diversité à l’échelle globale, ils défendent l’intérêt d’une démarche réflexive contre les pratiques de fermeture et de hiérarchisation exercées, selon eux, par les chercheurs « mainstream » « positivistes ». Vingt ans après les débuts du programme réflexiviste cependant, l’émergence d’une autocritique sème le doute sur les capacités de ce projet à produire une alternative aux pratiques académiques qu’il dénonce: les chercheurs réflexivistes en Relations Internationales reproduisent-ils la « domination occidentale » qu’ils révoquent ?Pour mener à bien cette recherche, nous avons analysé la publication internationale en Relations Internationales comme une situation d’énonciation à laquelle nous participons en tant que chercheuse réflexiviste. Une enquête socio-historique, menée sur l’internationalisation des chercheurs en RI en Inde et au Brésil, ainsi que l’analyse de différents corpus composés des discours des agents sur lesquels portent notre enquête (les chercheurs « réflexivistes », les chercheurs « mainstream », et les chercheurs indiens et brésiliens), représentent nos sources principales.Conformément aux soupçons formulés par l’autocritique, notre travail met en avant l’eurocentrisme de la thèse de la domination occidentale. Il révèle en outre la naturalisation particulière des rapports sociaux produits par le réflexivisme du fait de son ambition émancipatrice. Cependant, contrairement à cette critique de la critique, nous percevons comme un point positif la prise en compte, par les réflexivistes, de leur participation aux processus de hiérarchisation académique. En effet, notre expérimentation montre que l’acceptation de notre participation aux rapports sociaux que nous étudions a représenté la condition nécessaire pour transformer nos propres rapports sociaux, dans le sens de la diversité et du dialogue académique que nous recherchons. / This research focuses on the problems faced by International Relations scholars who denounce the « Western »-domination of their discipline. In order to promote academic dialogue and diversity, they defend the use of reflexivity against the parochial and discriminative practices allegedly conducted by those they designate as the « mainstream » « positivist » literature. Twenty years after the beginning of the movement, self-criticisms have emerged among the reflexivists. This self-critical appraisal suspects reflexivism of not being able to produce an alternative to the academic practices it denounces; are reflexivist scholars merely reproducing the « Western-domination » they denounce?In order to complete this research, I have analysed International Relations international publication processes as a situation of utterance in which I participate as a reflexivist researcher. A socio-historical investigation on the internationalisation of International Relations in Brazil and India, as well as a textual analysis composed of the discourses of the different academic groups under investigation (the reflexivists, the « mainstream », and the Indian and Brazilian International Relations scholars) represent my main sources of analysis. In accordance with the self-criticism suspicions, my research puts forward the eurocentrism of the « Western-domination thesis ». It also highlights how the fact that reflexivism poses as « critical » generates a specific status quo. However, contrary to this critique of the critique, I consider that, by taking into further account their participation in academic discriminative processes, reflexivists are engaging an encouraging dynamic for reflexivism in International Relations. Indeed the experimentation I conducted through this PhD shows that the acceptance of our participation in the social dynamics we study represents a necessary step toward transforming our social relations in favour of more academic dialogue and diversity.
85

Opérateurs d'agrégation pour la mesure de similarité. Application à l'ambiguïté en reconnaissance de formes.

Le Capitaine, Hoel 17 November 2009 (has links) (PDF)
Dans cette thèse, nous nous intéressons à deux problèmes de reconnaissance de formes : l'option de rejet en classification supervisée, et la détermination du nombre de classes en classification non supervisée. Le premier problème consiste à déterminer les zones de l'espace des attributs où les observations n'appartiennent pas clairement à une seule classe. Le second problème repose sur l'analyse d'un nuage d'observations pour lesquelles on ne connait pas les classes d'appartenance. L'objectif est de dégager des structures permettant de distinguer les différentes classes, et en particulier de trouver leur nombre. Pour résoudre ces problèmes, nous fondons nos propositions sur des opérateurs d'agrégation, en particulier des normes triangulaires. Nous définissons de nouvelles mesures de similarité permettant la caractérisation de situations variées. En particulier, nous proposons de nouveaux types de mesures de similarité : la similarité d'ordre, la similarité par blocs, et enfin la similarité par une approche logique. Ces différentes mesures de similarité sont ensuite appliquées aux problèmes évoqués précédemment. Le caractère générique des mesures proposées permet de retrouver de nombreuses propositions de la littérature, ainsi qu'une grande souplesse d'utilisation en pratique. Des résultats expérimentaux sur des jeux de données standard des domaines considérés viennent valider notre approche.
86

Analyse des processus longue mémoire stationnaires et non-stationnaires : estimations, applications et prévisions

Lu, Zhiping 02 June 2009 (has links) (PDF)
Dans cette thèse, on considère deux types de processus longues mémoires : les processus stationnaires et non-stationnaires. Nous nous consacrons à l'étude de leurs propriétés statistiques, les méthodes d'estimation, les méthodes de prévision et les tests statistiques. Les processus longue mémoire stationaires ont été largement étudiés au cours des dernières décennies. Il a été démontré que des processus longue mémoire ont des propriétés d'autosimilarité, qui sont importants pour l'estimation des paramètres. Nous passons en revue les propriétés d'auto-similairité des processus longue mémoire en temps continu et en temps discret. Nous proposons deux propositions montrant que les processus longue mémoire sont asymptotiquement auto-similaires du deuxième ordre, alors que processus courte mémoire ne sont pas asymptotiquement auto-similaires du deuxième ordre. Ensuite, nous étudions l'auto-similairité des processus longue mémoire spécifiques tels que les processus GARMA à k facteurs et les processus GIGARCH à k facteurs. Nous avons également étudié les propriétés d'auto-similarités des modèles heteroscedastiques et des processus avec des sauts. Nous faisons une revue des méthodes d'estimation des paramètres des processus longue mémoire, par méthodes paramétriques (par exemple, l'estimation par maximum de vraisemblance et estimation par pseudo-maximum de vraisemblance) et les méthodes semiparamétriques (par exemple, la méthode de GPH, la méthode de Whittle, la méthode de Robinson). Les comportements de consistance et de normalité asymptotique sont également étudiés pour ces estimateurs. Le test sur l'ordre fractionnaire intégré de la racine unité saisonnière et non-saisonnière des processus longue mémoire stationnaires est très important pour la modélisation des series économiques et financières. Le test de Robinson (1994) est largement utilisé et appliqué aux divers modèles longues mémoires bien connus. A partir de méthode de Monte Carlo, nous étudions et comparons les performances de ce test en utilisant plusieurs tailles d'échantillons. Ce travail est important pour les praticiens qui veulent utiliser le test de Robinson. Dans la pratique, lorsqu'on traite des données financières et économiques, la saisonnalité et la dépendance qui évolvent avec le temps peuvent souvent être observées. Ainsi une sorte de non-stationnarité existe dans les données financières. Afin de prendre en compte ce genre de phénomènes, nous passons en revue les processus non-stationnaires et nous proposons une nouvelle classe de processus stochastiques: les processus de Gegenbauer à k facteurs localement stationnaire. Nous proposons une procédure d'estimation de la fonction de paramètres en utilisant la transformation discrète en paquets d'ondelettes (DWPT). La robustesse de l'algorithme est étudiée par simulations. Nous proposons également des méthodes de prévisions pour cette nouvelle classe de processus non-stationnaire à long mémoire. Nous dennons des applications sur le terme de la correction d'erreurs de l'analyse cointégration fractionnaire de l'index Nikkei Stock Average 225 et nous étudions les prix mondiaux du pétrole brut.
87

Rupture d'interfaces en présence d'agents de surface

Roché, Matthieu 19 December 2008 (has links) (PDF)
Le détachement d'une goutte est un phénomène que nous observons quotidiennement. Il résulte de la rupture de l'interface entre le fluide dispersé en goutte et le fluide environnant. Cette rupture a fait l'objet de nombreuses études. Il est bien établi que sa dynamique est régie par une compétition entre la capillarité, l'inertie, et la viscosité du fluide. Ce manuscrit décrit l'influence sur la dynamique de rupture d'une modification des propriétés de l'interface entre deux fluides à l'aide d'agents de surface. Lorsque l'agent de surface est un surfactant (SDS), la dynamique d'amincissement peut se faire selon deux modes. Deux régimes linéaires en temps constituent le premier mode. Le second mode comporte trois régimes linéaires. Dans les deux cas, l'amincissement commence par un premier régime, suivi d'un deuxième régime de pente plus forte. Lorsque le troisième régime existe, sa pente est inférieure à celle du second régime. La variation des pentes des régimes linéaires témoigne du comportement dynamique du surfactant à l'interface. La valeur de la tension interfaciale extraite du premier régime linéaire correspond à la valeur à l'équilibre de la tension interfaciale du système, gamma_eq. La vitesse d'amincissement plus élevée au cours du second régime est reliée à une dépletion partielle en surfactant de la zone d'amincissement maximal. Le ralentissement constaté pendant le troisième régime est lié au déplacement de cette zone vers une région plus riche en surfactant, où la tension est plus faible. La dynamique d'amincissement du cou est très différente lorsque des polymères de poids moléculaire intermédiaire (env. 100 kDa) sont présents simultanément avec du SDS dans la phase continue. Lorsque [SDS] est supérieure à 0,15 fois la concentration micellaire critique (CMC), le comportement est identique à celui observé en présence de surfactant seul. En dessous de 0,15 CMC, l'amincissement ralentit exponentiellement à l'approche de la rupture, et un phénomène de beads-on-a-string apparaît. Ces constatations sont analogues à celles faites lorsqu'une solution de polymères est menée à la rupture. Dans notre cas, les polymères sont uniquement à la surface du jet et non dans son volume ! Une analyse des profils du cou au cours du temps démontre l'existence d'une auto-similarité à l'approche de la rupture. Bien que les systèmes étudiés soient plus complexes, ils présentent des caractéristiques qualitativement analogues à celles observées dans des systèmes de fluides simples. Toutefois, il existe une grande différence quantitative.
88

Développement d'approches de chémogénomique pour la prédiction des interactions protéine - ligand

Hoffmann, Brice 16 December 2011 (has links) (PDF)
Cette thèse porte sur le développement de méthodes bioinformatiques permettant la prédiction des interactions protéine - ligand. L'approche employée est d'utiliser le partage entre protéines, des informations connues, à la fois sur les protéines et sur les ligands, afin d'améliorer la prédiction de ces interactions. Les méthodes proposées appartiennent aux méthodes dites de chémogénomique. La première contribution de cette thèse est le développement d'une méthode d'apprentissage statistique pour la prédiction des interactions protéines - ligands par famille. Elle est illustrée dans le cas des GPCRs. Cette méthode comprend la proposition de noyaux pour les protéines qui permettent de prendre en compte la similarité globale des GPCRs par l'utilisation de la hiérarchie issue de l'alignement des séquences de cette famille, et la similarité locale au niveau des sites de fixation des ligands de ces GPCRs grâce à l'utilisation des structures 3D connues des membres de cette famille. Pour cela un jeu de données a été créé afin d'évaluer la capacité de cette méthode à prédire correctement les interactions connues. La deuxième contribution est le développement d'une mesure de similarité entre deux sites de fixation de ligands provenant de deux protéines différentes représentés par des nuages d'atomes en 3D. Cette mesure implique la superposition des poches par rotation et la translation, avec pour but la recherche du meilleur alignement possible en maximisant le regroupement d'atomes ayant des propriétés similaires dans des régions proches de l'espace. Les performances de cette méthodes ont été mesurées à l'aide d'un premier jeu de donnés provenant de la littérature et de deux autres qui ont été créé à cet effet. L'ensemble des résultats de cette thèse montre que les approches de chémogénomique présentent de meilleures performances de prédiction que les approches classique par protéine.
89

Atlas intelligent pour guider le diagnostic en endomicroscopie : une application clinique de la reconnaissance d'images par le contenu

André, Barbara 12 October 2011 (has links) (PDF)
L'Endomicrocopie Confocale par Minisondes (ECM) permet l'observation dynamique des tissus au niveau cellulaire, in vivo et in situ, pendant une endoscopie. Grâce à ce nouveau système d'imagerie, les médecins endoscopistes ont la possibilité de réaliser des "biopsies optiques" non invasives. Les biopsies traditionnelles impliquent le diagnostic ex vivo d'images histologiques par des médecins pathologistes. Le diagnostic in vivo d'images ECM est donc un véritable challenge pour les endoscopistes, qui ont en général seulement un peu d'expertise en anatomopathologie. Les images ECM sont néanmoins de nouvelles images, qui ressemblent visuellement aux images histologiques. Cette thèse a pour but principal d'assister les endoscopistes dans l'interprétation in vivo des séquences d'images ECM. Lors de l'établissement d'un diagnostic, les médecins s'appuient sur un raisonnement par cas. Afin de mimer ce processus, nous explorons les méthodes de Reconnaissance d'Images par le Contenu (CBIR) pour l'aide au diagnostique. Notre premier objectif est le développement d'un système capable d'extraire de manière automatique un certain nombre de vidéos ECM qui sont visuellement similaires à la vidéo requête, mais qui ont en plus été annotées avec des métadonnées comme par exemple un diagnostic textuel. Un tel système de reconnaissance devrait aider les endoscopistes à prendre une décision éclairée, et par là-même, à établir un diagnostic ECM plus précis. Pour atteindre notre but, nous étudions la méthode des Sacs de Mots Visuels, utilisée en vision par ordinateur. L'analyse des propriétés des données ECM nous conduit à ajuster la méthode standard. Nous mettons en œuvre la reconnaissance de vidéos ECM complètes, et pas seulement d'images ECM isolées, en représentant les vidéos par des ensembles de mosaïques. Afin d'évaluer les méthodes proposées dans cette thèse, deux bases de données ECM ont été construites, l'une sur les polypes du colon, et l'autre sur l'œsophage de Barrett. En raison de l'absence initiale d'une vérité terrain sur le CBIR appliquée à l'ECM, nous avons d'abord réalisé des évaluations indirectes des méthodes de reconnaissance, au moyen d'une classification par plus proches voisins. La génération d'une vérité terrain éparse, contenant les similarités perçues entre des vidéos par des experts en ECM, nous a ensuite permis d'évaluer directement les méthodes de reconnaissance, en mesurant la corrélation entre la distance induite par la reconnaissance et la similarité perçue. Les deux évaluations, indirecte et directe, démontrent que, sur les deux bases de données ECM, notre méthode de reconnaissance surpasse plusieurs méthodes de l'état de l'art en CBIR. En termes de classification binaire, notre méthode de reconnaissance est comparable au diagnostic établi offline par des endoscopistes experts sur la base des Polypes du Colon. Parce que diagnostiquer des données ECM est une pratique de tous les jours, notre objectif n'est pas seulement d'apporter un support pour un diagnostique ponctuel, mais aussi d'accompagner les endoscopistes sans leurs progrès. A partir des résultats de la reconnaissance, nous estimons la difficulté d'interprétation des vidéos ECM. Nous montrons l'existence d'une corrélation entre la difficulté estimée et la difficulté de diagnostic éprouvée par plusieurs endoscopistes. Cet estimateur pourrait ainsi être utilisé dans un simulateur d'entraînement, avec différents niveaux de difficulté, qui devrait aider les endoscopistes à réduire leur courbe d'apprentissage. La distance standard basée sur les mots visuels donne des résultats adéquats pour la reconnaissance de données ECM. Cependant, peu de connaissance clinique est intégrée dans cette distance. En incorporant l'information a priori sur les similarités perçues par les experts en ECM, nous pouvons apprendre une distance de similarité qui s'avère être plus juste que la distance standard. Dans le but d'apprendre la sémantique des données ECM, nous tirons également profit de plusieurs concepts sémantiques utilisés par les endoscopistes pour décrire les vidéos ECM. Des signatures sémantiques basées mots visuels sont alors construites, capables d'extraire, à partir de caractéristiques visuelles de bas niveau, des connaissances cliniques de haut niveau qui sont exprimées dans le propre langage de l'endoscopiste.
90

Essais sur les jugements et la prise de décision des consommateurs en situation d'incertitude

Laporte, Sandra 08 July 2010 (has links) (PDF)
La thèse étudie, dans des situations concrètes caractérisées par l'incertitude, plusieurs facteurs qui influencent les jugements de probabilités et les décisions. Les deux premiers essais portent sur la décision de participer à une loterie dont le nombre de participants est inconnu. La décision n'est pas influencée par le nombre de prix, c'est-à-dire le nombre de gagnants qui seront récompensés (Essai 1), alors qu'elle l'est par la similarité avec les gagnants précédents, un facteur logiquement non pertinent (Essai 2). L'insensibilité des consommateurs au nombre de prix découle de l'effet combiné de la faible évaluabilité de cet attribut et de la prise de décision sans estimation de probabilité. La similarité avec les gagnants précédents augmente l'intention de participer en raison du biais de " Hot Hand " interpersonnelle : les consommateurs pensent que leurs chances de gagner le prochain tirage sont plus élevées quand ils sont semblables aux gagnants précédents que quand ils sont dissemblables. L'essai final montre comment le fait de regretter une décision avant que ses conséquences soient connues peut conduire à être optimiste sur ces conséquences, pourvu que l'importance de cette décision pour la personne reste limitée

Page generated in 0.057 seconds