• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 37
  • 11
  • 5
  • Tagged with
  • 53
  • 27
  • 7
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

A model for information risks management in economic intelligent systems / Modèle de Gestion des Risques Informationnels en Système d'Intelligence Economique

Onifade, Olufade Falade Williams 28 April 2010 (has links)
La subjectivité des estimations et des perceptions, la complexité de l’environnement, l’interaction entre sous-systèmes, le manque de données précises, les données manquantes, une faible capacité de traitement de l’information, et l’ambiguïté du langage naturel représentent les principales formes d’incertitude auxquelles les décideurs doivent faire face lorsqu’ils prennent des décisions stratégiques à l’aide de systèmes d’intelligence économique. Cette étude utilise un paradigme de « soft computing » pour identifier et analyser l’incertitude, que nous associons à la notion de facteurs de risque d’information. Pour cela, nous proposons un modèle de rapprochement exploitant des ontologies, ainsi qu’un modèle baptisé « FuzzyWatch » fondé sur la logique floue. Nous avons modélisé le processus de prise de décision depuis la définition du problème jusqu’à la réponse à la question : « est-il raisonnable de décider ? ». Un diagramme causal d’Ishikawa permet de prendre en compte les facteurs intangibles dans cette approche. Le cadre de référence du rapprochement de connaissances a été prévu pour faciliter le partage et la réutilisation de connaissances entre les utilisateurs et la machine. En complément, les facteurs intangibles, les émotions, les ambiguïtés du langage naturel sont pris en compte à l’aide de fonctions d’appartenance floues. Les outils de la logique floue ont été également utilisés au niveau des ontologies (« FuzzOntology »). Au niveau du processus de recherche d’information, l’introduction d’une fonction de mise en correspondance floue, appelée « FuzzyMatch », améliore le taux de rappel et subséquemment le processus d’intelligence économique. Le modèle « Fuzzontologique » autorise une prise en compte flexible de facteurs intangibles et incertains, offrant ainsi un moyen de traiter l’ambiguïté du langage naturel. FuzzyMatch permet de réduire les problèmes de données manquantes. A l’aide de ces modèles, le processus de décision en intelligence économique bénéficie d’une réduction des risques liés à l’information lors du processus de recherche. / Subjective estimation and perception, complexity of the environment under study, interaction amongst subsystems, lack of precise data, missing data, limited information processing capacity and ambiguity in natural languages are major forms of uncertainty facing Decision Makers in the process of delivering strategic decisions in economic intelligent systems. This study employs soft computing paradigm to capture and analyze uncertainty based on information risk factors via our proposed knowledge reconciliation model based on ontology and the FuzzyWatch model. We modeled the process of decision making from the point of problem definition to decision delivery (translation credibility) and include intangible factors with the fish-bone architecture. Ontological framework for Knowledge Reconciliation was developed to facilitate knowledge sharing and reuse among both human and computer agents while intangible factors, emotions and ambiguities in natural languages were captured with fuzzy membership function. We extended this operation with fuzzy that is – what ontology captures is interpreted by fuzzy techniques (FuzzOntology). The fuzzy match relation for information retrieval tagged “FuzzyWatch” improves the information search result thus reducing the risk of missing data which is of grave consequence in Economic Intelligence process. FuzzOntological model facilitates a flexible means of capturing intangible and uncertain factors as a means of resolving the ambiguity in natural languages. FuzzyWatch assists in reducing missing data problems. Future decisional process will contend with lesser information retrieval risks in Economic Intelligence process using this model.
2

Segmentation du nombre de sinistres en assurance : de la loi de Poisson aux modèles gonflés à zéro et à barrière

Boucher, Jean-Philippe 16 May 2007 (has links)
La première partie de la thèse s'intéresse aux modèles de classification du nombre de réclamations sous l'hypothèse que toutes les observations analysées dans la base de données sont indépendantes. En introduisant les caractéristique du risque dans la moyenne par une fonction de score, le développe-ment de ce type de modèles permet de mieux comprendre l'impact de certaines caractéristiques sur la probabilité de réclamer à l'assureur. De plus, en utilisant des modèles qui diffèrent de la loi de Poisson, ces travaux permettent une autre interprétation du mécanisme de réclamation à l'assureur. L'effet du bonus-malus, des déductibles ou du changement de perception du conducteur après un accident sont toutes des explications possibles à la divergence entre le nombre de réclamation et la loi de Poisson. Dans la majorité des situations en assurance, les caractéristiques du risque ne sont pas toutes utilisées dans la tarification, soit parce qu'elles ne sont pas mesurables, soit parce qu'il serait socialement inacceptable de les utiliser. Ainsi, un facteur d'hétérogénéité permettant de capturer ces caractéristiques inobservables est ajouté au paramètre de moyenne de la loi de Poisson. Ce facteur additionnel, appelé hétérogénéité, est modélisé de façon paramétrique ou encore de manière non-paramétrique. Plusieurs méthodes peuvent être envisagées pour déterminer la forme non-paramétrique de cette étérogénéité. Nous avons analysé ces diverses méthodes d'évaluations et comparé les résultats avec des méthodes complètement paramétriques. Puisque de nombreux modèles pour données de comptage sont utilisés, des méthodes de comparaisons de modèles ont été développées. Certaines sont basées sur les distributions d'estimation des paramètres alors que certaines autres se basent sur la distribution du maximum de vraisemblance ou les critères d'information. Suite à ces analyses et ces comparaisons, nous pouvons voir que la distribution de l'hétérogénéité de la loi de Poisson ne peut pas être directement ajustée avec une distribution paramétrique simple. De la même manière, nous avons remarqué qu'une distribution plus complexe que la loi de Poisson, telles que la distribution à barrière, la binomiale négative X ou les modèles gonflés à zéro génèrent non-seulement un meilleur ajustement que les distributions de Poisson avec hétérogénéité, mais que leur utilisation se justifie intuitivement pour les données d'assurance. Une grande partie de cette thèse se consacre justement à l'analyse de ces nouvelles distributions en assurance. De manière similaire aux travaux effectués selon l'hypothèse que tous les contrats d'assurance sont indépendants, cette section de la thèse se consacre à l'analyse de modèles avec données de panel, supposant donc une dépendance entre les contrats d'un même assuré. Intuitivement, cette dépendance se justifie en considérant l'effet des variables de classification inconnues qui touchent tous les contrats d'un même assuré, ou encore en considérant l'impact d'un accident sur les habitudes de conduite d'un assuré. Ainsi, en se basant sur les lois de Poisson et binomiale négative, divers modèles créant une dépendance temporelle entre les contrats d'un même assuré sont étudiés. De ces distributions sont aussi calculées les primes prédictives, c'est-à-dire les primes conditionnelles à un historique de sinistres. Tout comme la partie précédente de la thèse, diverses interprétations des modèles sont proposées. De manière assez claire, un seul modèle sort du lot: le modèle où un effet aléatoire individuel affecte toutes les observations d'un même assuré. Néanmoins, avant d'utiliser ce modèle, une hypothèse essentielle d'indépendance entre les caractéristiques du risque et ce facteur aléatoire doit être vérifiée. Pour les données d'assurance, cette hypothèse n'est pas vérifiée en pratique et il est important d'en comprendre l'impact sur l'analyse actuarielle. Nous montrons numériquement que cette dépendance entre les caractéristiques du risque et l'effet aléatoire biaise l'espérance du modèle, et donc la prime a priori. Toutefois, nous montrons que ce biais n'a que très peu d'importance en assurance puisque les paramètres obtenus avec cette dépendance représentent l'effet apparent des caractéristiques sur le risque de réclamer, ce qui est justement l'intérêt de l'analyse actuarielle dans le cas où certaines caractéristiques sont absentes de l'étude. Nous tentons également d'utiliser le modèle à effets aléatoires avec une toute nouvelle sorte de distribution de comptage construite à l'aide des temps d'attente entre deux sinistres. Il est connu que la loi de Poisson suppose un temps exponentiel entre chaque sinistre. Ainsi, nous avons voulu voir ce que serait l'impact d'un choix différent pour cette distribution.Parce que les nouveaux assurés et les assurés qui quittent la compagnie d'assurance en cours de couverture ont des expériences de sinistres particulières, il arrive souvent que ceux-ci soient étudiés séparément des autres assurés lors de la tarification. Avec ces modèles de temps d'attente permettant de tarifer ces assurés différemment qu'au prorata de leur exposition au risque, nous introduisons une nouvelle façon de considérer l'analyse des différents contrats d'assurance. Parce que les modèles gonflés à zéro et les modèles à barrière étaient très intéressants intuitivement et parce que leur ajustement pour données avec indépendance temporelle était particulièrement bon, il semblait évident qu'une analyse de ce modèle pour données de panel devenait intéressante. Parmi les modèles avec dépendance temporelle, le modèle à effets aléatoires était celui qui offrait les résultats les plus prometteurs. Ainsi, dans cette partie de la thèse, nous avons pensé associer ce modèle pour données de panel aux modèles gonflés à zéro et à barrière, et ainsi créer diverses généralisations des modèles pour données de panel. Pour le modèle à barrière, la distribution suppose que deux processus indépendants déterminent le nombre total de réclamations. Un premier processus indique si l'assuré a réclamé au moins une fois, alors que le second processus détermine le nombre total de réclamations, conditionnellement au fait que l'assuré ait réclamé à son assureur. Des effets aléatoires sont donc ajoutés sur chaque processus de cette distribution, alors que diverses copulas sont sélectionnées afin de modéliser la dépendance entre les effets aléatoires. Nous montrons que la distribution prédictive du nombre de réclamations ne dépend pas seulement du nombre de réclamations passées, mais aussi du nombre de périodes dans lesquelles l'assuré a réclamé. La distribution prédictive ne pouvant pas s'exprimer de manière close pour toutes les distributions jointes des effets aléatoires, des simulations Monte Carlo par chaînes de Markov sont utilisées pour calculer les primes prédictives. A l'opposé du modèle à barrière, le modèle gonflé à zéro peut n'utiliser qu'un seul effet aléatoire. De plus, la distribution prédictive peut s'exprimer directement, ce qui facilite la comparaison entre modèles et le calcul des diverses statistiques. A l'instar du modèle à barrière, nous montrons que le nombre de réclamations passées n'est pas une statistique exhaustive pour la distribution prédictive puisqu'elle dépend aussi du nombre de périodes dans lesquelles l'assuré a réclamé au moins une fois. Profitant du fait que le modèle gonflé à zéro avec effets aléatoires gamma peut s'exprimer de manière fermée, diverses primes de crédibilité, utilisant une fonction de perte quadratique ou une fonction de perte exponentielle sont étudiées. Un point de vue totalement différent est aussi étudié, où de la distribution du nombre de réclamation est tirée la distribution du nombre de sinistres. L'analyse sous l'angle de la soif du bonus est donc possible. Afin d'obtenir des primes prédictives plus facilent calculables pour certains modèles à barrière et modèles gonflés à zéro, nous utilisons la théorie de la crédibilité multivariée, basée sur une erreur quadratique. Nous comparons ensuite le résultat de ces primes de crédibilité au vraies résultats obtenus par simulations. A l'aide d'un exemple numérique, nous montrons que la structure de dépendance supposée par diverses distributions jointes des effets aléatoires n'est pas bien modélisée par une approximation linéaire. Néanmoins, dans le cas où un seul effet aléatoire est utilisé ou dans la situation où les effets aléatoires sont supposés indépendants, nous réussissons à montrer qu'un modèle de crédibilité linéaire spécifique génère une approximation satisfaisante.
3

Logique du probable et épistémologie théologique dans les Essais de théodicée de Leibniz

Latour-Derrien, Annick January 2004 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
4

The credibility of simulation-based environments : user judgments of verisimilitude

Francis, Alexandre January 2003 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
5

Le financement des organismes sans but lucratif écorécréatifs : étude du potentiel relationnel et sollicitatif de leurs sites Web

Prévost, Jean-Jacques January 2013 (has links)
L'avènement des technologies et la diminution des financements publics incitent les organismes sans but lucratif (OSBL) à inclure le Web dans leurs stratégies de communication. Si cette appropriation représente en théorie un enjeu pour la survie financière des organismes de petite taille, elle constitue un véritable défi pour eux, qui disposent rarement de ressources professionnelles spécialisées en communication sur le Web. Le présent mémoire étudie les sites Web de 5 OSBL de type écorécréatif. Sur les bases théoriques de la communication intégrée, de la communication dialogique et de la crédibilité Web, l'analyse passe en revue les facteurs de positionnement et de crédibilité affichés par les organismes, elle détaille le potentiel relationnel et dialogique des sites à l'étude, ainsi que le potentiel sollicitatif des dispositifs et contenus présentés. Les résultats indiquent qu'aucun organisme ne répond à tous les critères de positionnement efficace et de crédibilité, que les sites à l'étude mettent en valeur leur expertise en fournissant une documentation riche, assortie de dispositifs interactifs. Enfin, les organismes utilisent peu leurs sites pour procéder à la vente de produits, mais la vente de services est une pratique commune aux organismes de plus grande envergure. La plupart des OSBL s'est appropriée les principaux dispositifs permettant la communication bidirectionnelle mais la technologie seule ne garantit ni la construction de relations interpersonnelles basées sur la confiance, ni, ultimement, la collecte de fonds dont les résultats sont mitigés. Il appert que le Web est un outil certes précieux, qu'on ne saurait toutefois substituer à l'élément humain, du moins dans l'exercice périlleux de la persuasion à visée actionnelle.
6

La spécificité du service social au sein d'une équipe multidisciplinaire en milieu scolaire

Matta, Houwayda January 2005 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
7

Sur les intervalles de confiance bayésiens pour des espaces de paramètres contraints et le taux de fausses découvertes

Bahamyirou, Asma January 2015 (has links)
Ce mémoire traite deux problèmes : en premier lieu, l'estimation paramétrique par intervalle dans un contexte où il y a des contraintes sur le paramètre et, en deuxième lieu la probabilité de fausses découvertes lorsqu'on réalise simultanément plusieurs tests d'hypothèses. Dans le premier chapitre, nous faisons un rappel sur les notions de base de l'inférence statistique à savoir l'estimation ponctuelle et par intervalle. Dans le deuxième chapitre, nous abordons la théorie de l'estimation par intervalle de confiance bayésien décrit dans [10]. Des résultats nouveaux sont présentés dans ce chapitre. Des travaux partiels (voir [7]), montrent que la probabilité de recouvrement fréquentiste est faible aux frontières de l'intervalle. Comparé à ces derniers, nous avons montré sous certaines conditions que cette probabilité n'ira jamais au delà d'une borne supérieure qui semble éloignée de la crédibilité. Finalement, au Chapitre 4, nous traitons des estimateurs de la probabilité de fausses découvertes. Des améliorations significatives ont été faites dans ce cadre.
8

L'influence de la stratégie de portefeuille de marques d'un détaillant sur la crédibilité perçue, la qualité perçue et l'intention d'achat d'une marque privée écologique.

Coderre Porras, Stéphanie January 2014 (has links)
Parmi l’ensemble des phénomènes ayant bouleversé le secteur du commerce de détail au cours des dernières années, le développement des marques privées et la conscientisation des consommateurs face aux problématiques environnementales ont joué un rôle majeur dans l’évolution de l’industrie et ont modifié d’une manière importante les activités des entreprises de ce secteur. La mise en marché par un détaillant d’une marque privée associée à un positionnement écologique représente un défi important puisque d’une part, les perceptions des consommateurs sont négatives vis-à-vis la performance des produits écologiques et d’autre part, les consommateurs sont sceptiques envers les entreprises qui mettent en marché lesdits produits écologiques. Le but de ce mémoire est d’examiner l’influence de la stratégie de portefeuille de marques du détaillant sur la crédibilité de la marque (i.e. l’expertise et la bienveillance), la qualité perçue et l’intention d’achat de la marque privée écologique mise en marché par le détaillant. En s’appuyant sur les théories de best-of-brand process, de la communication informative, du sens du message pragmatique et de l’influence d’une marque « premium » sur la qualité perçue, une première série d’hypothèses a été proposée à l’effet que l’expertise perçue, la bienveillance perçue ou encore la qualité perçue et l’intention d’achat d’une marque privée d’une ligne « écologique » sont significativement plus élevées lorsqu’il existe aussi une ligne « standard » et une ligne « premium » dans le portefeuille de marques privées du détaillant que lorsque qu’il n’existe qu’une ligne « standard » dans le portefeuille de marques privées ou qu’il n’existe aucune autre ligne que la marque écologique dans le portefeuille de marques privées. De plus, en s’appuyant sur les résultats d’études antérieures concernant la crédibilité de la marque, la qualité perçue et l’intention d’achat, une deuxième série d’hypothèses quant à l’existence de relations positives entre la crédibilité de la marque et la qualité perçue ainsi qu’entre la qualité perçue et l’intention d’achat a été proposée. Une expérimentation a été réalisée grâce à un panel Internet auprès d’un échantillon de 176 répondants américains âgés entre 18 et 60 ans. Les principaux résultats de cette recherche confirment que la stratégie de portefeuille de marques influence la perception de l’expertise, de la bienveillance, de la qualité et de l’intention d’achat des consommateurs d’une marque écologique. Qui plus est, la stratégie optimale pour la marque privée « écologique » est celle pour laquelle le détaillant possède une marque privée « premium » et « standard » dans son portefeuille de marques. Ce phénomène s’explique notamment par la perception positive de qualité de la marque privée « premium » qui vient témoigner des compétences et de l’expertise que le détaillant acquiert grâce à ce type de marque. Enfin, le fait que le détaillant distingue ses marques selon un positionnement précis démontre sa bienveillance. Finalement, cette recherche aide les gestionnaires de marques quant aux différentes décisions concernant la composition et la rationalisation de leur portefeuille de marques, mais aide également quant à la stratégie de communication.
9

La présence en réalité virtuelle, une approche centrée utilisateur

Bouvier, Patrice 04 December 2009 (has links) (PDF)
Nous présentons une refondation théorique de la réalité virtuelle. Celle-ci est marquée par la conviction profonde de définir la réalité virtuelle comme une expérience médiatisée capable de susciter un sentiment de présence. Ce dernier est défini comme le sentiment authentique d'exister dans un monde autre que le monde physique où le corps se trouve. Nous proposons un éclairage nouveau et global sur le sentiment de présence. Cet éclairage consiste en une approche unifiée de la présence prenant en compte des considérations technologiques, psychologiques et écologiques. Nous avons élaboré un modèle qui identifie les processus menant au sentiment de présence. Selon notre modèle, deux phases inconscientes de jugement conditionnent l'émergence de la présence. Le premier jugement concerne la crédibilité de l'environnement, celle-ci dépend de la satisfaction des attentes intellectuelles et perceptives de l'utilisateur. Le deuxième jugement vise la crédibilité de l'expérience. Nous considérons que ce jugement est positif si un maximum des affordances perçues dans l'environnement est assumé, c'est-à-dire réalisable par l'intermédiaire des schémas d'interaction proposés à l'utilisateur. Nous avons mené une phase d'expérimentations pour valider la pertinence et la cohérence de notre modèle. Notre modèle a de multiples implications. Nous considérons par exemple qu'il peut constituer une grille d'analyse intéressante pour les jeux vidéo. De plus, il incite les concepteurs d'applications en réalité virtuelle à penser en terme d'affordances. Ce dernier point implique donc de faire entrer l'utilisateur très tôt dans la boucle de conception de l'application. Notre vision globale de la réalité virtuelle et de la présence a été mise en pratique notamment lors de la conception de dispositifs de réalité virtuelle transportables et à bas coûts. Sur la base de ce cadre théorique nous présentons un framework de conception d'applications en réalité virtuelle. Puisque l'objectif est la crédibilité et non le réalisme, nous nous intéressons à la réalité perçue de l'environnement et non pas à sa réalité physique. C'est pourquoi, le point de départ de notre framework consiste en un socle de connaissances sur la cognition humaine. Cette base de connaissances sert de vivier d'idées pour les quatre piliers sur lesquels peut s'appuyer le concepteur d'applications en réalité virtuelle. Ces piliers sont l'immersion, l'interaction, les émotions et un quatrième regroupant la boucle sensori-motrice et la multimodalité. Concernant le pilier immersion nous proposons un nouvel algorithme pour le calcul de la réverbération sonore dans un environnement complexe et dynamique. Notre méthode repose sur l'algorithme existant du lancer de frustum mais propose deux optimisations. La première exploite le socle de connaissances sur la cognition humaine pour déterminer une sphère d'acuité sonore. Celle-ci nous sert de cadre pour lancer les frusta depuis l'auditeur et non depuis les sources sonores. Cette deuxième optimisation réduit le nombre de calculs
10

Expertise psychologique de l’enfant et de l’adolescent en enquête préliminaire : des facteurs d'influence à l'analyse séquentielle psychovictimologique / Psychological expertising of children and teenagers in the preliminary stages of investigations : from influencing factors to psychological victimization sequential analysis

Meilac, Cédric 24 March 2015 (has links)
La pratique de l’examen psychologique de l’enfant et de l’adolescent alléguant, au stade de l’enquête préliminaire (dans le cadre de la procédure pénale), des violences sexuelles subies constitue le point de départ de cette étude. Elle pose la question du positionnement à la fois procédural, clinique et méthodologique de l’expert psychologue mais également celle de la crédibilité. Laissant de côté d’éventuels facteurs d’influence et ce que les allégations ne seraient pas ou insuffisamment par rapport à un discours traumatique-type, nous nous sommes intéressés à ce qu’elles seraient, pourraient révéler, illustreraient du mode de fonctionnement psychique du sujet alléguant. A partir d’une revue de la littérature, nous avons envisagé une clinique de l’allégation reposant sur un modèle pluridimensionnel qui intègre tout à la fois les dimensions cognitivo-développementale, psychogénétique, tendancielle, interrelationnelle, événementielle, procédurale, syndromique, sémiologique et intrapsychique. Ce modèle, plaçant le processus d’allégation (renvoyant ou non à une expérience traumatique subie dans le réel) au coeur d’une analyse multidimensionnelle et plurifactorielle, envisage celle-ci sur un registre dynamique incluant les apports validés dans chacun des champs auxquels les dimensions ci-dessus renvoient. A partir d’examens psychologiques réels et d’une méthodologie hypothético-déductive, nous avons développé un outil appelé table d’analyse séquentielle psycho-victimologique visant à permettre un appariement d’éléments appartenant à des dimensions distinctes, à mettre en évidence des hypothèses et à les tester. / The practice of psychological examination - in the context of a criminal procedure - of the child or teenager who claims to have been a victim of sexual violence, is at the start of the present study. It raises the question of the standpoint – procedural, clinical and methodological – of the expert psychologist, as well as that of credibility. Leaving aside possible factors of influence and what the allegations might not be or be insufficiently in relation to a typical traumatic talk, we have focused our attention on what they might be or might reveal and illustrate about the psychological functioning of the author of the claims. Starting from a survey of the available literature, we have envisaged a clinical view of the allegation, based on a multidimensional model which encompasses all at once the cognitive-developmental, psycho-genetic, underlying, interrelational, circumstantial, procedural, syndromic, semiological and intrapsychic dimensions. Such model, which places the allegation process (referring or not to a traumatic experience undergone in reality) at the heart of a multidimensional and multifactorial analysis, considers the said analysis on a dynamic register, including the acquisitions validated in each of the fields referred to by the abovementioned dimensions. Starting from real psychological examinations and using a hypothetic-deductive approach, we have developed a tool which we call a sequential psycho-victimological analysis table, aiming at allowing the matching of elements belonging to distinct dimensions, to highlight and test hypotheses.

Page generated in 0.034 seconds