• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 65
  • 12
  • 8
  • 4
  • 1
  • 1
  • Tagged with
  • 92
  • 42
  • 18
  • 17
  • 16
  • 14
  • 13
  • 11
  • 10
  • 10
  • 9
  • 9
  • 9
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Analyse des modalités de délocalisation des programmes d’enseignement supérieur : le cas des formations supérieures de gestion au Viêt-Nam / Analysis of the delocalization methods for higher education programs : a case of higher educational management programs in Vietnam

Palaoro, Gilbert 18 January 2010 (has links)
Le manque d’expertise et de ressources scientifiques incite les pays en développement à faire appel à une offre internationale réputée capable de stimuler à long terme leur système d’enseignement supérieur et de favoriser l’innovation. Ceci crée de facto un véritable marché mondial du savoir selon des modes opératoires très divergents, parfois incontrôlables, qui se veulent compétitifs, ayant pour objet la formation du capital humain et donc l’avenir des sociétés. Il se pose des questions qualitatives et de coexistence de plusieurs logiques, produit d’une offre culturelle d’aide au développement ou d’un secteur ouvert à la concurrence privée. Notre recherche met en valeur les enjeux et les risques de ce marché par des approches relatives à l’économie du développement des ressources et de l’éducation, et des sciences de l’éducation. Les conditions du transfert du savoir ainsi que les modalités d’ingénierie pédagogique et d’évaluation sont analysées pour des masters en management internationaux délocalisés au Viêt-nam, pays fortement représentatif par son ouverture économique, la croissance des formations étrangères, sa culture et sa passion pour le savoir. Des études quantitatives et qualitatives comparées portant sur les masters répertoriés de 2005 à 2008, mesurent de manière microéconomique, la complexité de leur transfert dans ce milieu particulier. Ainsi, l’offre étrangère rencontre ses propres limites, fait face aux règles concurrentielles et se heurte à de fortes contraintes liées à des acteurs poursuivant leurs logique et intérêts : État - familles - établissements locaux - entreprises, etc. Il peut au final exister des écarts importants entre l’offre et sa propension à subvenir localement aux besoins socioéconomiques et académiques de manière pertinente. Ecarts pouvant notamment être réduits par l’association franche avec des partenaires locaux, une forte volonté politique et une attention particulière donnée à l’ingénierie de projet. / The lack of expertise and scientific resources prompts developing countries to resort to the international offer reckoned to be able to boost up their higher education system in the long run, and to favor innovation. This trend generates de facto a world market for knowledge operating on diverging modes, sometimes beyond control, in any case meaning competition, and whose goal is to shape up society’s human asset, i.e. its future. This situation raises issues such as the problem of quality and the coexistence between different logics, both product of either a cultural aid to help development or a private sector competition-based offer. Our research highlights the stakes and risks of this market by taking approaches proper to resource and education developing economy, and to education sciences. We analyze the conditions in which knowledge transfer is carried out, as well as the methods used in pedagogic engineering and evaluation, for cases of master of international management delocalized in Vietnam, a country considered representative thanks to its opening to foreign economy, the growth of foreign trainings within it, its culture and its craving for knowledge.Quantitative and qualitative comparative studies on the master cases recorded between 2005 and 2008, provide microeconomic measurements of the complexity of their transfer in this particular environment. It turns out that the foreign offer hits its own limits and has to face competition rules and powerful constraints from the different actors, each one pursuing his own logic and interests : the State – families - local establishments – companies, etc.. It might eventually occur important gaps between the offer itself and its capacity to locally meet the socio-economic and academic needs in a pertinent way, gaps that may be nevertheless reduced by deliberate association with local partners, firm political will and special care for project engineering.
12

La communication dans le syndrome d’Asperger / Communication in the Asperger's syndrom

Chevallier, Coralie 19 January 2009 (has links)
Communiquer efficacement nécessite de produire une multitude d’inférences pragmatiques. Celles-ci reposent sur la capacité à prendre en compte un grand nombre d’indices, tels que le contexte ou l’état mental et physique du locuteur. Dans le cas du langage oral, l’interlocuteur s’appuie également sur les indices prosodiques. Ainsi, une prosodie enthousiaste associée à l’énoncé « Excellent. » aidera un interlocuteur à inférer que le locuteur est content tandis qu’une intonation plate le conduira au contraire à penser qu’il était ironique. Ces situations peuvent être particulièrement délicates pour les patients atteints d’un Trouble du Spectre Autistique (TSA) qui éprouvent des difficultés pour reconnaître et interpréter les états mentaux d’autrui. Nous prédisons donc que l’interprétation des indices prosodiques est délicate dans les TSA. Cependant, tous les aspects de l’interprétation prosodique ne requièrent pas d’attribuer des états mentaux. Par exemple, la distinction entre « PREsent » et « preSENT » (en anglais) est basée sur une simple connaissance du lexique, indépendante des pensées du locuteur. Dans ce travail, j’explore différents aspects de la prosodie afin de déterminer si les personnes avec un TSA sont spécifiquement atteintes dans leur capacité à comprendre les signaux prosodiques reposant sur la compréhension des intentions du locuteur. Je présente une série de travaux traitant de la prosodie grammaticale (Article 1), de la transmission accidentelle d’informations (Article 2), de l’accent contrastif (Articles 3 et 4), et de l’identification des états mentaux du locuteur (Article 5). Les résultats présentés dans ces travaux me conduisent ensuite à discuter des questions plus générales concernant la Théorie de l’Esprit (Article 6) et à proposer une explication alternative des déficits sociaux observés dans les TSA (Article 7). / Efficient communication requires a great deal of pragmatic inferencing. This is rooted in the ability to take into account a variety of cues, such as the context and the speaker’s mental or emotional states. Crucially, in spoken language, hearers can also rely on prosodic cues. For instance, if someone utters “That was brilliant”, using an enthusiastic prosody, this will help the hearer to decipher that the speaker is happy. In contrast, if the speaker’s comment is uttered in a deadpan tone of voice, she will be thought to be ironical. These situations can be especially challenging for people with an Autism Spectrum Disorder. Indeed, these individuals have well-known difficulties in recognising and interpreting others’ mental states. This leads to the prediction that interpreting prosodic cues should be problematic in ASDs. However, not all aspects of prosodic interpretation involve mental states attribution. For instance, differentiating “PREsent” from “preSENT” merely requires one to be aware of the fact that these words stand for different things, without needing to attribute any particular thoughts to the speaker. In this work, I explore the various components of prosody and assess whether people with an ASD are specifically impaired in interpreting prosodic cues that rely on the understanding of the speaker’s intentions. I present a series of papers focusing on grammatical prosody (Paper 1), accidental information transmission (Paper 2), contrastive stress (Papers 3 and 4), and identification of the speaker’s attitude and emotional state (Paper 5). The results presented in these papers then lead me to address more general questions concerning Theory of Mind (Paper 6) and to discuss the possible origins of the social impairments found in ASDs (Paper 7).
13

Semi-automatic Classification of Remote Sensing Images / Classification semi-automatique des images de télédétection

Dos santos, Jefersson Alex 25 March 2013 (has links)
L'objectif de cette thèse est de développer des solutions efficaces pour laclassification interactive des images de télédétection. Cet objectif a étéréalisé en répondant à quatre questions de recherche.La première question porte sur le fait que les descripteursd'images proposées dans la littérature obtiennent de bons résultats dansdiverses applications, mais beaucoup d'entre eux n'ont jamais été utilisés pour la classification des images de télédétection. Nous avons testé douzedescripteurs qui codent les propriétés spectrales et la couleur, ainsi que septdescripteurs de texture. Nous avons également proposé une méthodologie baséesur le classificateur KNN (K plus proches voisins) pour l'évaluation desdescripteurs dans le contexte de la classification. Les descripteurs Joint Auto-Correlogram (JAC),Color Bitmap, Invariant Steerable Pyramid Decomposition (SID) etQuantized Compound Change Histogram (QCCH), ont obtenu les meilleursrésultats dans les expériences de reconnaissance des plantations de café et depâturages.La deuxième question se rapporte au choix del'échelle de segmentation pour la classification d'images baséesur objets.Certaines méthodes récemment proposées exploitent des caractéristiques extraitesdes objets segmentés pour améliorer classification des images hauterésolution. Toutefois, le choix d'une bonne échelle de segmentation est unetâche difficile.Ainsi, nous avons proposé deux approches pour la classification multi-échelles fondées sur le les principes du Boosting, qui permet de combiner desclassifieurs faibles pour former un classifieur fort.La première approche, Multiscale Classifier (MSC), construit unclassifieur fort qui combine des caractéristiques extraites de plusieurséchelles de segmentation. L'autre, Hierarchical Multiscale Classifier(HMSC), exploite la topologie hiérarchique de régions segmentées afind'améliorer l'efficacité des classifications sans perte de précision parrapport au MSC. Les expériences montrent qu'il est préférable d'utiliser des plusieurs échelles plutôt qu'une seul échelle de segmentation. Nous avons également analysé et discuté la corrélation entre lesdescripteurs et des échelles de segmentation.La troisième question concerne la sélection des exemplesd'apprentissage et l'amélioration des résultats de classification basés sur lasegmentation multiéchelle. Nous avons proposé une approche pour laclassification interactive multi-échelles des images de télédétection. Ils'agit d'une stratégie d'apprentissage actif qui permet le raffinement desrésultats de classification par l'utilisateur. Les résultats des expériencesmontrent que la combinaison des échelles produit de meilleurs résultats que leschaque échelle isolément dans un processus de retour de pertinence. Par ailleurs,la méthode interactive permet d'obtenir de bons résultats avec peud'interactions de l'utilisateur. Il n'a besoin que d'une faible partie del'ensemble d'apprentissage pour construire des classificateurs qui sont aussiforts que ceux générés par une méthode supervisée qui utilise l'ensembled'apprentissage complet.La quatrième question se réfère au problème de l'extraction descaractéristiques d'un hiérarchie des régions pour la classificationmulti-échelles. Nous avons proposé une stratégie qui exploite les relationsexistantes entre les régions dans une hiérarchie. Cette approche, appelée BoW-Propagation, exploite le modèle de bag-of-visual-word pour propagerles caractéristiques entre les échelles de la hiérarchie. Nous avons égalementétendu cette idée pour propager des descripteurs globaux basés sur leshistogrammes, l'approche H-Propagation. Ces approches accélèrent leprocessus d'extraction et donnent de bons résultats par rapport à l'extractionde descripteurs globaux. / A huge effort has been made in the development of image classification systemswith the objective of creating high-quality thematic maps and to establishprecise inventories about land cover use. The peculiarities of Remote SensingImages (RSIs) combined with the traditional image classification challengesmake RSI classification a hard task. Many of the problems are related to therepresentation scale of the data, and to both the size and therepresentativeness of used training set.In this work, we addressed four research issues in order to develop effectivesolutions for interactive classification of remote sensing images.The first research issue concerns the fact that image descriptorsproposed in the literature achieve good results in various applications, butmany of them have never been used in remote sensing classification tasks.We have tested twelve descriptors that encodespectral/color properties and seven texture descriptors. We have also proposeda methodology based on the K-Nearest Neighbor (KNN) classifier for evaluationof descriptors in classification context. Experiments demonstrate that JointAuto-Correlogram (JAC), Color Bitmap, Invariant Steerable Pyramid Decomposition(SID), and Quantized Compound Change Histogram (QCCH) yield the best results incoffee and pasture recognition tasks.The second research issue refers to the problem of selecting the scaleof segmentation for object-based remote sensing classification. Recentlyproposed methods exploit features extracted from segmented objects to improvehigh-resolution image classification. However, the definition of the scale ofsegmentation is a challenging task. We have proposedtwo multiscale classification approaches based on boosting of weak classifiers.The first approach, Multiscale Classifier (MSC), builds a strongclassifier that combines features extracted from multiple scales ofsegmentation. The other, Hierarchical Multiscale Classifier (HMSC), exploits thehierarchical topology of segmented regions to improve training efficiencywithout accuracy loss when compared to the MSC. Experiments show that it isbetter to use multiple scales than use only one segmentation scale result. Wehave also analyzed and discussed about the correlation among the useddescriptors and the scales of segmentation.The third research issue concerns the selection of training examples and therefinement of classification results through multiscale segmentation. We have proposed an approach forinteractive multiscale classification of remote sensing images.It is an active learning strategy that allows the classification resultrefinement by the user along iterations. Experimentalresults show that the combination of scales produces better results thanisolated scales in a relevance feedback process. Furthermore, the interactivemethod achieves good results with few user interactions. The proposed methodneeds only a small portion of the training set to build classifiers that are asstrong as the ones generated by a supervised method that uses the whole availabletraining set.The fourth research issue refers to the problem of extracting features of ahierarchy of regions for multiscale classification. We have proposed a strategythat exploits the existing relationships among regions in a hierarchy. Thisapproach, called BoW-Propagation, exploits the bag-of-visual-word model topropagate features along multiple scales. We also extend this idea topropagate histogram-based global descriptors, the H-Propagation method. The proposedmethods speed up the feature extraction process and yield good results when compared with globallow-level extraction approaches.
14

De la pertinence du comprehensive income : approche par la value relevance / Value relevance of comprehensive income

Mesri, Leila 15 June 2018 (has links)
Au regard des exigences de transparence et de comparabilité des états financiers, l’évaluation traditionnelle du résultat ne satisfait plus ; elle se voit amendée d’autres composantes estimées essentiellement en valeur de marché pour obtenir le comprehensive income (CI). Le CI, « état de la performance globale » de l’IAS 1 révisée (IAS 1R), fait apparaitre distinctement le résultat net et les other comprehensive income afin de mieux répondre aux besoins d'information financière et aider les groupes d’utilisateurs dans leur prise de décision. Dans ce contexte, la présente recherche se propose d’étudier la valorisation boursière du CI, rendu obligatoire pour les entreprises présentant leurs comptes en IFRS depuis 2009. Les tests empiriques ont porté sur un échantillon d’entreprises françaises cotées au SBF 120 observées sur la période pré IAS 1R (2004-2009) et post IAS 1R (2009-2013) en utilisant les régressions de panel. Les résultats indiquent que les deux mesures de résultats (traditionnel et CI) sont value relevant et donc apportent de l'information pertinente pour apprécier les cours et les rentabilités boursiers. Par ailleurs, les other comprehensive income agrégés semblent valorisés par le marché et fournissent des informations additionnelles par rapport au résultat net. Enfin il semble que la value relevance du CI s’est améliorée de manière significative après l’application de la norme IAS 1R. Ces résultats suggèrent que les éléments de la performance financière sont pris en compte positivement par les utilisateurs de l’information financière lorsqu’ils sont clairement publiés et confortent le normalisateur dans son exigence de transparence dans la diffusion du CI. / From the perspective of the transparency and comparability of financial statements requirements, the traditional evaluation of the outcome is no longer satisfying. It is amended through other components which are mainly estimated at market value to obtain the comprehensive income (CI). The CI, Statement of Financial Performance of the revised IAS 1(IAS 1R) requires the disclosure of both income and other comprehensive income to cater for the needs of users of accounting information and help them in making better financial decisions. The purpose of this study is to investigate the value relevance of CI which became compulsory for companies presenting their financial statements in IFRS since 2009. Empirical tests have focused on a sample of French listed companies over the pre (2004-2008) and post (2009-2013) IAS 1R periods, using panel data. We found that two summary income measures (CI and net income) are significantly associated with price and market returns. We also found that other aggregated comprehensive income provide incremental price-relevant information beyond net income. Finally, it appears that the adoption of IAS 1R had a positive effect on the value relevance of CI. These findings reveal that mandating CI in IFRS regulation improves transparency and enhances the usefulness and quality of the reported CI information thus, likely to be more useful in terms of requirements for transparency.
15

Mod`ele flexible pour la Recherche<br />d'Information dans des corpus de<br />documents semi-structur´es

Sauvagnat, Karen 30 June 2005 (has links) (PDF)
La nature de sources d'information évolue, et les documents numériques<br />traditionnels ” plats ” ne contenant que du texte s'enrichissent d'information<br />structurelle et multimédia. Cette ´évolution est accélérée par l'expansion du<br />Web, et les documents semi-structurés de type XML (eXtensible Markup Language)<br />tendent à former la majorité des documents numériques mis à disposition<br />des utilisateurs. Le développement d'outils automatisés permettant un<br />accès efficace à ce nouveau type d'information numérique apparaît comme une<br />nécessité. Afin de valoriser au mieux l'ensemble des informations disponibles,<br />les méthodes existantes de Recherche d'Information (RI) doivent être adaptées.<br />L'information structurelle des documents peut en effet servir à affiner le concept<br />de granule documentaire. Le but pour les Systèmes de Recherche d'Information<br />(SRI) est alors de retrouver des unités d'information (et non plus de documents)<br />pertinentes à des requêtes utilisateur. Afin de répondre à cette problématique<br />fondamentale, de nouveaux modèles prenant en compte l'information structurelle<br />des documents, tant au niveau de l'indexation, de l'interrogation que de<br />la recherche doivent être construits.<br />L'objectif de nos travaux est de proposer un modèle permettant d'effectuer des<br />recherches flexibles dans des corpus de document semi-structurés. Ceci nous<br />a conduit à proposer le mod`ele XFIRM (XML Flexible Information Retrieval<br />Model ) reposant sur : (i) Un modèle de représentation des donn´ees générique,<br />permettant de modéliser des documents possédant des structures différentes ;<br />(ii) Un langage de requête flexible, permettant à l'utilisateur d'exprimer son<br />besoin selon divers degrés de précision, en exprimant ou non des conditions<br />sur la structure des documents ; (iii) Un modèle de recherche bas´ee sur une<br />m´ethode de propagation de la pertinence. Ce modèle a pour but de trouver les<br />unités d'information les plus exhaustives et spécifiques répondant à une requête<br />utilisateur, que celle-ci contienne ou non des conditions de structure. Les documents<br />semi-structurés peuvent être représentés sous forme arborescente, et<br />le but est alors de trouver les sous-arbres de taille minimale répondant à la<br />requête. Les recherches sur le contenu seul des documents sont effectuées en<br />prenant en compte les importances diverses des feuilles des sous-arbres, et en<br />plaçant ces derniers dans leur contexte, c'est à dire, en tenant compte de la<br />pertinence du document. Les recherches portant à la fois sur le contenu et la<br />structure des documents sont effectuées grâce à plusieurs propagations de pertinence<br />dans l'arbre du document, et ce afin d'effectuer une correspondance<br />vague entre l'arbre du document et l'arbre de la requête.<br />L'´evaluation de notre modèle, grâce au prototype que nous avons d´eveloppé,<br />montre l'intérêt de nos propositions, que ce soit pour effectuer des recherches<br />sur le contenu seul des documents que sur le contenu et la structure.
16

De la pertinence de l'information comptable Contribution à l'analyse des interactions entre la doctrine comptable et la recherche positive

Escaffre, Lionel 23 November 2012 (has links) (PDF)
Selon l'IASB (§ 26) une information " (...) possède la qualité de pertinence lorsqu'elle influence les décisions économiques des utilisateurs en les aidant à évaluer des événements passés, présents ou futurs ou en confirmant ou corrigeant leurs évaluations passées ". Ce cadre conceptuel repose sur des hypothèses de comportements qui doivent être encadrées pour tendre vers une communication financière fidèle et pertinente donc utile et destinée à réduire l'asymétrie d'information. Autrement dit, la pertinence de l'information financière est comprise comme un facteur de réduction d'asymétrie d'information entre l'entreprise et ses investisseurs. Ainsi le choix d'un parcours de recherche fondé sur la complémentarité entre une démarche hypothético déductive et une démarche normative nous semble justifié puisque " bien que leurs visées soient différentes, les unes (théorie normative) sont les théories " de " et les autres (théorie positive) des théories " pour " la pratique " (Colasse, 2009). Nos travaux s'inscrivent dans le nécessaire renforcement des liens entre la communauté scientifique et la communauté des praticiens. Le praticien utilise et parfois modélise une doctrine comptable qui peut se définir comme l'ensemble des travaux théoriques (articles, rapports, guides d'application, ouvrages...) exprimant, d'une part, la pensée d'auteurs sur les problèmes généraux de la discipline comptable et, d'autre part, les avis et recommandations donnés par différents organismes (ANC, CSOEC, CNCC, AMF, etc.). La doctrine contribue à dégager des tendances et à trouver des solutions aux problèmes que les textes n'ont pas précisé. Elle sert de référence à la résolution de problèmes comptables souvent délicats que les textes ne pouvaient prévoir lorsqu'ils ont été élaborés. La doctrine comptable contribue ainsi au cadre comptable. La doctrine comptable est susceptible de se nourrir des liens étroits entre la recherche et la pratique professionnelle pour fournir un terrain d'expérimentation et de validation pertinent afin d'améliorer la théorie comptable et donc la cohérence de la normalisation. La doctrine contribue à l'émergence de problématique pertinente d'un point de vue académique et nécessaire dans son utilité sociale. Nos principaux apports, au-delà des résultats, propositions doctrinales et méthodologiques, est donc d'élaborer une mise en interaction des démarches positives et normatives, cette piste nous parait promise à un grand avenir en raison des politiques d'harmonisation comptable dont la quête consiste à proposer des normes favorisant la pertinence des états financiers. Plus que jamais la pertinence de l'information comptable est devenue un outil politique de la régulation dont l'exploration et la connaissance sont indispensables à la confiance et à la stabilité des marchés. Pour autant, c'est aussi un schéma de recherche exigu car seul les investisseurs sont compris dans la recherche de la pertinence, hors la comptabilité est peut être un bien public qui n'est pas forcément et directement destiné aux acteurs des marchés financiers. A ce titre, les théories sociologiques de type constructiviste pourraient aussi avoir le mérite de nous engager sur une réflexion concernant les besoins réels ou supposés d'informations d'une large gamme d'utilisateurs comme les clients, les fournisseurs, les salariés, les instances politiques et tout utilisateur dont la démarche d'investissement repose aussi sur des motivations différentes que celles que nous présupposons dans nos travaux. Ainsi, la théorie positive de la comptabilité au moyen d'une cohérence épistémologique et méthodologique offre les outils pour comprendre une réalité et postuler des hypothèses qui pourront justifier scientifiquement la nécessité de l'application d'une règle issue de travaux normatifs. A l'inverse, l'application d'une norme est susceptible de susciter des hypothèses d'application dont la validation répond à une démarche hypothético déductive prônée par la théorie positive. Cette interaction est un chemin prometteur pour poursuivre nos travaux relatifs à la pertinence de l'information comptable dans le cadre d'une contribution académique et institutionnelle indispensable et dans un contexte d'instabilité et d'incertitude significatif quant à l'application uniforme des IFRS dans tous les pays du monde.
17

Relevance theory meets markedness considerations on cognitive effort as a criterion for markedness in pragmatics /

Schuster, Peter, January 2003 (has links)
Thesis (doctoral)--Universität, Stuttgart, 2001. / Includes bibliographical references (p. 233-245).
18

Définition et évaluation de modèles d'agrégation pour l'estimation de la pertinence multidimensionnelle en recherche d'information / Definition and evaluation of aggregation model for multidimensional relevance estimation in information retrieval

Moulahi, Bilel 11 December 2015 (has links)
La problématique générale de notre travail s'inscrit dans le domaine scientifique de la recherche d'information (RI). Les modèles de RI classiques sont généralement basés sur une définition de la notion de pertinence qui est liée essentiellement à l'adéquation thématique entre le sujet de la requête et le sujet du document. Le concept de pertinence a été revisité selon différents niveaux intégrant ainsi différents facteurs liés à l'utilisateur et à son environnement dans une situation de RI. Dans ce travail, nous abordons spécifiquement le problème lié à la modélisation de la pertinence multidimensionnelle à travers la définition de nouveaux modèles d'agrégation des critères et leur évaluation dans des tâches de recherche de RI. Pour répondre à cette problématique, les travaux de l'état de l'art se basent principalement sur des combinaisons linéaires simples. Cependant, ces méthodes se reposent sur l'hypothèse non réaliste d'additivité ou d'indépendance des dimensions, ce qui rend le modèle non approprié dans plusieurs situations de recherche réelles dans lesquelles les critères étant corrélés ou présentant des interactions entre eux. D'autres techniques issues du domaine de l'apprentissage automatique ont été aussi proposées, permettant ainsi d'apprendre un modèle par l'exemple et de le généraliser dans l'ordonnancement et l'agrégation des critères. Toutefois, ces méthodes ont tendance à offrir un aperçu limité sur la façon de considérer l'importance et l'interaction entre les critères. En plus de la sensibilité des paramètres utilisés dans ces algorithmes, est très difficile de comprendre pourquoi un critère est préféré par rapport à un autre. Pour répondre à cette première direction de recherche, nous avons proposé un modèle de combinaison de pertinence multicritères basé sur un opérateur d'agrégation qui permet de surmonter le problème d'additivité des fonctions de combinaison classiques. Notre modèle se base sur une mesure qui permet de donner une idée plus claire sur les corrélations et interactions entre les critères. Nous avons ainsi adapté ce modèle pour deux scénarios de combinaison de pertinence multicritères : (i) un cadre de recherche d'information multicritères dans un contexte de recherche de tweets et (ii) deux cadres de recherche d'information personnalisée. Le deuxième axe de recherche s'intéresse à l'intégration du facteur temporel dans le processus d'agrégation afin de tenir compte des changements occurrents sur les collection de documents au cours du temps. Pour ce faire, nous avons proposé donc un modèle d'agrégation sensible au temps pour combinant le facteur temporel avec le facteur de pertinence thématique. Dans cet objectif, nous avons effectué une analyse temporelle pour éliciter l'aspect temporel des requêtes, et nous avons proposé une évaluation de ce modèle dans une tâche de recherche sensible au temps. / The main research topic of this document revolve around the information retrieval (IR) field. Traditional IR models rank documents by computing single scores separately with respect to one single objective criterion. Recently, an increasing number of IR studies has triggered a resurgence of interest in redefining the algorithmic estimation of relevance, which implies a shift from topical to multidimensional relevance assessment. In our work, we specifically address the multidimensional relevance assessment and evaluation problems. To tackle this challenge, state-of-the-art approaches are often based on linear combination mechanisms. However, these methods rely on the unrealistic additivity hypothesis and independence of the relevance dimensions, which makes it unsuitable in many real situations where criteria are correlated. Other techniques from the machine learning area have also been proposed. The latter learn a model from example inputs and generalize it to combine the different criteria. Nonetheless, these methods tend to offer only limited insight on how to consider the importance and the interaction between the criteria. In addition to the parameters sensitivity used within these algorithms, it is quite difficult to understand why a criteria is more preferred over another one. To address this problem, we proposed a model based on a multi-criteria aggregation operator that is able to overcome the problem of additivity. Our model is based on a fuzzy measure that offer semantic interpretations of the correlations and interactions between the criteria. We have adapted this model to the multidimensional relevance estimation in two scenarii: (i) a tweet search task and (ii) two personalized IR settings. The second line of research focuses on the integration of the temporal factor in the aggregation process, in order to consider the changes of document collections over time. To do so, we have proposed a time-aware IR model for combining the temporal relavance criterion with the topical relevance one. Then, we performed a time series analysis to identify the temporal query nature, and we proposed an evaluation framework within a time-aware IR setting.
19

Uma abordagem para a detecção de mudanças em imagens multitemporais de sensoriamento remoto empregando Support Vector Machines com uma nova métrica de pertinência

Angelo, Neide Pizzolato January 2014 (has links)
Esta tese investiga uma abordagem não supervisionada para o problema da detecção de mudanças em imagens multiespectrais e multitemporais de sensoriamento remoto empregando Support Vector Machines (SVM) com o uso dos kernels polinomial e RBF e de uma nova métrica de pertinência de pixels. A proposta metodológica está baseada na diferença das imagens-fração produzidas para cada data. Em imagens de cenas naturais essa diferença nas frações de solo e vegetação tendem a apresentar uma distribuição simétrica próxima à origem. Essa caracteristica pode ser usada para modelar as distribuições normais multivariadas das classes mudança e não-mudança. O algoritmo Expectation-Maximization (EM) é implementado com a finalidade de estimar os parâmetros (vetor de médias, matriz de covariância e probabilidade a priori) associados a essas duas distribuições. A seguir, amostras aleatórias e normalmente distribuidas são extraídas dessas distribuições e rotuladas segundo sua pertinência em uma das classes. Essas amostras são então usadas no treinamento do classificador SVM. A partir desta classificação é estimada uma nova métrica de pertinência de pixels. A metodologia proposta realiza testes com o uso de conjuntos de dados multitemporais de imagens multiespectrais Landsat-TM que cobrem a mesma cena em duas datas diferentes. A métrica de pertinência proposta é validada através de amostras de teste controladas obtidas a partir da técnica Change Vetor Analysis, além disso, os resultados de pertinência obtidos para a imagem original com essa nova métrica são comparados aos resultados de pertinência obtidos para a mesma imagem pela métrica proposta em (Zanotta, 2010). Baseado nos resultados apresentados neste trabalho que mostram que a métrica para determinação de pertinência é válida e também apresenta resultados compatíveis com outra técnica de pertinência publicada na literatura e considerando que para obter esses resultados utilizou-se poucas amostras de treinamento, espera-se que essa métrica deva apresentar melhores resultados que os que seriam apresentados com classificadores paramétricos quando aplicado a imagens multitemporais e hiperespectrais. / This thesis investigates a unsupervised approach to the problem of change detection in multispectral and multitemporal remote sensing images using Support Vector Machines (SVM) with the use of polynomial and RBF kernels and a new metric of pertinence of pixels. The methodology is based on the difference-fraction images produced for each date. In images of natural scenes. This difference in the fractions of bare soil and vegetation tend to have a symmetrical distribution close to the origin. This feature can be used to model the multivariate normal distributions of the classes change and no-change. The Expectation- Maximization algorithm (EM) is implemented in order to estimate the parameters (mean vector, covariance matrix and a priori probability) associated with these two distributions. Then random and normally distributed samples are extracted from these distributions and labeled according to their pertinence to the classes. These samples are then used in the training of SVM classifier. From this classification is estimated a new metric of pertinence of pixel. The proposed methodology performs tests using multitemporal data sets of multispectral Landsat-TM images that cover the same scene at two different dates. The proposed metric of pertinence is validated via controlled test samples obtained from Change Vector Analysis technique. In addition, the results obtained at the original image with the new metric are compared to the results obtained at the same image applying the pertinence metric proposed in (Zanotta, 2010). Based on the results presented here showing that the metric of pertinence is valid, and also provides results consistent with other published in the relevant technical literature, and considering that to obtain these results was used a few training samples, it is expected that the metric proposed should present better results than those that would be presented with parametric classifiers when applied to multitemporal and hyperspectral images.
20

Uma abordagem para a detecção de mudanças em imagens multitemporais de sensoriamento remoto empregando Support Vector Machines com uma nova métrica de pertinência

Angelo, Neide Pizzolato January 2014 (has links)
Esta tese investiga uma abordagem não supervisionada para o problema da detecção de mudanças em imagens multiespectrais e multitemporais de sensoriamento remoto empregando Support Vector Machines (SVM) com o uso dos kernels polinomial e RBF e de uma nova métrica de pertinência de pixels. A proposta metodológica está baseada na diferença das imagens-fração produzidas para cada data. Em imagens de cenas naturais essa diferença nas frações de solo e vegetação tendem a apresentar uma distribuição simétrica próxima à origem. Essa caracteristica pode ser usada para modelar as distribuições normais multivariadas das classes mudança e não-mudança. O algoritmo Expectation-Maximization (EM) é implementado com a finalidade de estimar os parâmetros (vetor de médias, matriz de covariância e probabilidade a priori) associados a essas duas distribuições. A seguir, amostras aleatórias e normalmente distribuidas são extraídas dessas distribuições e rotuladas segundo sua pertinência em uma das classes. Essas amostras são então usadas no treinamento do classificador SVM. A partir desta classificação é estimada uma nova métrica de pertinência de pixels. A metodologia proposta realiza testes com o uso de conjuntos de dados multitemporais de imagens multiespectrais Landsat-TM que cobrem a mesma cena em duas datas diferentes. A métrica de pertinência proposta é validada através de amostras de teste controladas obtidas a partir da técnica Change Vetor Analysis, além disso, os resultados de pertinência obtidos para a imagem original com essa nova métrica são comparados aos resultados de pertinência obtidos para a mesma imagem pela métrica proposta em (Zanotta, 2010). Baseado nos resultados apresentados neste trabalho que mostram que a métrica para determinação de pertinência é válida e também apresenta resultados compatíveis com outra técnica de pertinência publicada na literatura e considerando que para obter esses resultados utilizou-se poucas amostras de treinamento, espera-se que essa métrica deva apresentar melhores resultados que os que seriam apresentados com classificadores paramétricos quando aplicado a imagens multitemporais e hiperespectrais. / This thesis investigates a unsupervised approach to the problem of change detection in multispectral and multitemporal remote sensing images using Support Vector Machines (SVM) with the use of polynomial and RBF kernels and a new metric of pertinence of pixels. The methodology is based on the difference-fraction images produced for each date. In images of natural scenes. This difference in the fractions of bare soil and vegetation tend to have a symmetrical distribution close to the origin. This feature can be used to model the multivariate normal distributions of the classes change and no-change. The Expectation- Maximization algorithm (EM) is implemented in order to estimate the parameters (mean vector, covariance matrix and a priori probability) associated with these two distributions. Then random and normally distributed samples are extracted from these distributions and labeled according to their pertinence to the classes. These samples are then used in the training of SVM classifier. From this classification is estimated a new metric of pertinence of pixel. The proposed methodology performs tests using multitemporal data sets of multispectral Landsat-TM images that cover the same scene at two different dates. The proposed metric of pertinence is validated via controlled test samples obtained from Change Vector Analysis technique. In addition, the results obtained at the original image with the new metric are compared to the results obtained at the same image applying the pertinence metric proposed in (Zanotta, 2010). Based on the results presented here showing that the metric of pertinence is valid, and also provides results consistent with other published in the relevant technical literature, and considering that to obtain these results was used a few training samples, it is expected that the metric proposed should present better results than those that would be presented with parametric classifiers when applied to multitemporal and hyperspectral images.

Page generated in 0.0644 seconds