• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 102
  • 30
  • 16
  • Tagged with
  • 150
  • 53
  • 51
  • 47
  • 42
  • 41
  • 29
  • 28
  • 27
  • 24
  • 21
  • 19
  • 18
  • 18
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Informations volontaires lors des OPA/OPE : de la décision de diffusion à leur influence sur les actionnaires / Voluntary information during takeover bids : From the disclosure decision to its influence on shareholders

Nègre, Emmanuelle 08 July 2014 (has links)
Cette thèse porte sur la diffusion volontaire d informations lors d OPA/OPE. Elle est constituée de trois articles s intéressant à une étape différente du processus de diffusion d informations dans ce contexte. Le premier article vise à expliquer la décision de diffusion volontaire des entreprises cibles par une étude des facteurs incitatifs à la diffusion lors de telles opérations. Les résultats montrent que cette décision découle principalement de l influence de facteurs contextuels. Le deuxième article identifie, à partir d une analyse lexicale des communiqués de presse volontaires, les stratégies discursives adoptées par les entreprises acquéreuses et cibles ainsi que les motivations sous-jacentes. Enfin, dans le troisième article, une expérimentation est conduite afin d examiner l influence des stratégies de diffusion d informations et de gestion des impressions des entreprises cibles d offres hostiles sur les actionnaires. Il s avère que celles-ci modifient leur perception de l offre et in fine leur décision d accepter ou de rejeter l opération. / This thesis deals with voluntary disclosure of information during takeover bids. It consists of three articles that are concerned with a different step of the disclosure process in this context. The first article aims at explaining the voluntary disclosure decision of target companies by studying factors influencing disclosure during such transactions. The results highlight that this decision is mainly explained by the influence of contextual factors. The second article identifies, through a lexical analysis of voluntary press releases, the discourse strategies adopted by both bidding and target companies and the underlying motivations. Finally, in the third article, an experiment is conducted to investigate the influence of disclosure and impression management strategies of the targets of hostile bids on shareholders. It turns out that these strategies modify their perception of the bid and ultimately their decision to accept or reject the bid.
2

L'obligation d'informer dans le procès administratif /

Einaudi, Tania. January 2002 (has links)
Texte remanié de: Th. doct.--Droit--Aix-Marseille 3, 2000. / Bibliogr. p. 421-435. Index.
3

Human resource disclosures : a comparative study of annual reporting practice about information, providers and users in two corporations /

Rimmel, Gunnar, January 2003 (has links)
Th. doct.--Göteborg--Göteborgs Universitet, 2003. / Bibliogr. p. 190-206.
4

Une approche événementielle pour la description de politiques de contrôle d'accès

Konopacki, Pierre January 2012 (has links)
Le contrôle d'accès permet de spécifier une partie de la politique de sécurité d'un système d'informations (SI). Une politique de contrôle d'accès (CA) permet de définir qui a accès à quoi et sous quelles conditions. Les concepts fondamentaux utilisés en CA sont : les permissions, les interdictions (ou prohibitions), les obligations et la séparation des devoirs (SoD). Les permissions permettent d'autoriser une personne à accéder à des ressources. Au contraire les prohibitions interdisent à une personne d'accéder à certaines ressources. Les obligations lient plusieurs actions. Elles permettent d'exprimer le fait qu'une action doit être réalisée en réponse à une première action. La SoD permet de sécuriser une procédure en confiant la réalisation des actions composant cette procédure à des agents différents. Différentes méthodes de modélisation de politiques de contrôle d'accès existent. L'originalité de la méthode EB3SEC issue de nos travaux repose sur deux points : • permettre d'exprimer tous les types de contraintes utilisées en CA dans un même modèle, • proposer une approche de modélisation basée sur les événements. En effet, aucune des méthodes actuelles ne présente ces deux caractéristiques, au contraire de la méthode EB3SEC. Nous avons défini un ensemble de patrons, chacun des patrons correspond à un type de contraintes de CA. Un modèle réalisé à l'aide de la méthode EB3SEC peut avoir différentes utilisations : • vérification et simulation, • implémentation. La vérification consiste à s'assurer que le modèle satisfait bien certaines propriétés, dont nous avons défini différents types. Principalement, les blocages doivent être détectés. Ils correspondent à des situations où une action n'est plus exécutable ou à des situations où plus aucune action n'est exécutable. Les méthodes actuelles des techniques de preuves par vérification de modèles ne permettent pas de vérifier les règles dynamiques de CA. Elles sont alors combinées à des méthodes de simulation. Une fois qu'un modèle a été vérifié, il peut être utilisé pour implémenter un filtre ou noyau de sécurité. Deux manières différentes ont été proposées pour réaliser cette implémentation : transformer le modèle EB3SEC vers un autre langage, tel XACML, possédant une implémentation ayant déjà atteint la maturité ou réaliser un noyau de sécurité utilisant le langage EB3SEC comme langage d'entrée. [symboles non conformes]
5

L' obligation d'information dans les contrats informatiques étude comparative du droit français et droit jordanien /

Alkhasawneh, Ala'eldin Brunetti-Pons, Clotilde. January 2008 (has links) (PDF)
Reproduction de : Thèse de doctorat : Droit privé : Reims : 2008. / Titre provenant de l'écran-titre. Bibliogr. p. 385-418. Index.
6

Stratégies d'échange d'informations dans un système de calcul distribué pour l'optimisation des problèmes combinatoires

Belkhelladi, Kamel 15 February 2010 (has links) (PDF)
Ce manuscrit décrit les travaux de recherche effectués au cours de ma thèse, au sein de l'équipe informatique et recherche opérationnelle du laboratoire CREAM1, en collaboration avec le laboratoire LISA 2, et avec le soutien du Conseil Général de la ville d'Angers. Ces travaux de recherche se situent à l'intersection des domaines de l'optimisation combinatoire et des systèmes multi-agents. Ils s'inscrivent dans la continuité des propositions de modèles ou de plates-formes pour les métaheuristiques parallèles. Ce rapport réunit différentes notions du parallélisme, du paradigme multi-agents et des métaheuristiques afin d'apporter des méthodes de résolution performantes (robustes et autoadaptatives) à des problèmes d'optimisation combinatoire réels. Il démontre que l'introduction de stratégies de parallélisation et d'échange d'informations à un algorithme à population permet à ce dernier d'améliorer considérablement ses facultés de recherche de solutions. En outre, l'utilisation des agents mobiles permet une exploitation optimale des ressources de calcul inutilisées dans un organisme (laboratoire, entreprise) et de favoriser ainsi l'autonomie des processus de calcul pour pouvoir gérer les éventuelles pannes dans un réseau. Le succès de cette approche dans la résolution d'un problème de tournées de véhicules et d'un problème d'ordonnancement de production, montre l'intérêt pratique de ces méthodes et leurs retombées économiques potentielles. Ce travail de recherche représente l'une des premières explorations des possibilités offertes par deux domaines fort prometteurs de l'intelligence artificielle distribuée et de la recherche opérationnelle. L'union de méthodes auto-adaptatives et d'une puissance de calcul imposante pourrait fort bien se révéler un outil performant pour la résolution de problèmes d'une telle envergure.
7

Contributions à la modélisation, évaluation et conception de systèmes de recherche d'information en pair-à-pair / Contributions for modeling, evaluating and designing peer-to-peer information retrieval systems

Sicard, Jérôme 23 November 2010 (has links)
Cette thèse se base sur une vision originale des systèmes de Recherche d'Information en pair-à-pair (RI-P2P) ; pour proposer un ensemble d'outils pour mieux les évaluer et mieux les concevoir.Synthétiquement, la problématique d'évaluation consiste à comprendre quel système fonctionne bien dans quelles conditions ; comment les différents composants/aspects d'un système contribuent à ses performances ; comment des modifications du système peuvent faire évoluer ses performances. D'un point de vue conception, on voudrait savoir choisir une approche P2P en fonction du contexte de l'application à implémenter (jeu de données, propriétés du réseau...) ; comprendre comment mixer des systèmes ; mieux maîtriser l'impact d'une modification de l'implémentation sur le comportement et les performances d'un système.Nous pensons que ces deux problématiques d'évaluation et de conception sont fortement liées. Un même fondement est nécessaire pour progresser dans ces deux sens : mieux comprendre l'architecture des systèmes RI-P2P. À la base de notre réflexion, nous considérons qu'un système RI-P2P est l'implémentation en P2P d'un modèle RI, idée qui s'oppose au modèle traditionnel en deux couches. Nous nous appuyons sur cette idée pour donner un ensemble de définitions qui permettent de mieux appréhender les différents composants RI et composants P2P d'un même système et la façon dont ils s'organisent. Nous montrons ensuite comment on peut utiliser cette vision originale du domaine pour spécifier la démarche d'évaluation d'un système P2P et pour aider à la conception de nouveaux systèmes. / This PhD thesis develops an original vision of Peer-to-Peer Information Retrieval Systems. Based on this vision, we ropose a set of tools for a better evaluation and conception of P2P-IR systems.Synthetically, on the one hand, evaluating means understanding which system behaves well in which context ; how different components/aspects of a single system contribute to its performance ; how modifications of the system can make its performance evolve. On the other hand, considering design of P2P-IR systems, we would like to be able to choose a P2P approach based on what is known about the context the application will execute in (data set, network properties...) ; understand how to mix P2P systems ; better control the impact of a modification of the implementation of a system on its behavior an performance.We believe those concerns of evaluation and design are strongly related. There is a common need to improve on both directions : better understand the architecture of P2P-IR systems. On the basis of our reflexion, we consider a P2P-IR system is the implementation in P2P of an IR system, which contrasts with the traditional two-layered vision. We use this idea to give a set of definitions that help better understand the different RI and P2P components of a single system and their relationships. We then show how this vision can be used to help design new systems.
8

Réseaux de neurones pour le traitement automatique du langage: conception et réalisatin de filtres d'informations

Stricker, Mathieu 12 1900 (has links) (PDF)
En raison de l'augmentation constante du volume d'information accessible électroniquement, la conception et la mise en uvre d'outils efficaces, permettant notamment à l'utilisateur de n'avoir accès qu'à l'information qu'il juge pertinente, devient une nécessité absolue. Comme la plupart de ces outils sont destinés à être utilisés dans un cadre professionnel, les exigences de fiabilité et de convivialité sont très importantes; les problèmes à résoudre pour satisfaire ces exigences sont nombreux et difficiles. L'accès à cette information pertinente peut se faire en fournissant à un utilisateur des documents pertinents ou en lui proposant des passages de documents pertinents (ou des réponses à des questions). Le premier cas relève du domaine de la recherche de textes et le second du domaine de l'extraction d'informations. C'est dans le domaine très actif de la recherche de textes que s'est situé notre travail, réalisé dans le cadre d'une collaboration entre Informatique CDC, filiale de la Caisse des Dépôts et Consignations, et le Laboratoire d'Électronique de l'ESPCI. Le but de nos travaux a été de développer un modèle fondé sur l'apprentissage numérique pour la catégorisation de textes ou, plus précisément, pour ce qui correspond à la tâche de routing dans le découpage de la conférence TREC (Text REtrieval Conference). L'approche que nous avons conçue nous a permis d'obtenir un résultat très satisfaisant: nous avons remporté la tâche de "routing" de la compétition TREC 9, devançant notamment Microsoft. Le point essentiel de notre approche est l'utilisation d'un classifieur qui est un réseau de neurones dont l'architecture prend en considération le contexte local des mots. La mise en uvre d'une méthode de sélection des entrées nous a permis de réduire à une vingtaine le nombre de descripteurs de chaque texte; néanmoins, le nombre de paramètres reste élevé eu égard au nombre d'exemples disponibles (notamment lors de la compétition TREC 9). Il a donc été nécessaire de mettre en uvre une méthode de régularisation pour obtenir des résultats significatifs à l'issue des apprentissages. Nos résultats ont été validés d'une part grâce au corpus Reuters-21578 qui est souvent utilisé par la communauté de la catégorisation de textes, et d'autre part, par la participation aux sous-tâches de routing de TREC-8 et TREC-9, qui ont permis d'effectuer des comparaisons chiffrées avec d'autres approches. Nos travaux ont été intégrés dans l'application ExoWeb développée à la Caisse des Dépôts, pour y ajouter des fonctionnalités opérationnelles originales. Cette application offrait, sur l'intranet du groupe, un service de catégorisation de dépêches AFP en temps réel; cette catégorisation s'effectuait grâce à des modèles à bases de règles. La première fonctionnalité nouvelle résultant de nos travaux est un outil qui permet à l'administrateur du système de surveiller automatiquement le vieillissement de filtres construits sur des modèles à base de règles. L'idée de cette application est de fabriquer une "copie" d'un filtre à base de règles avec un filtre utilisant un réseau de neurones. Comme le réseau de neurones produit une probabilité de pertinence et non une réponse binaire, il est possible d'attirer l'attention de l'administrateur sur les documents pour lesquels les filtres et les réseaux de neurones fournissent des réponses divergentes: documents considérés comme pertinents par la méthode à base de règles, mais obtenant une probabilité proche de zéro avec le réseau de neurones, et documents considérés comme non pertinents avec le premier et obtenant une probabilité de pertinence proche de un avec le second. Nous avons également proposé les bases d'une deuxième application, qui permet à un utilisateur de fabriquer lui-même un filtre à sa convenance avec un travail minimum. Pour réaliser cette application, il est nécessaire que l'utilisateur fournisse une base de documents pertinents. Cela peut se faire grâce à l'utilisation d'un moteur de recherche conjointement avec un réseau de neurones ou uniquement grâce au moteur de recherche.
9

Méthodes avancées pour l'extraction d'informations a partir des images à haute résolution SAR: Méthodes d'évaluation guidées par les modèles utilisateur et par la structure des données.

Espinoza Molina, Daniela 16 May 2011 (has links) (PDF)
Nous nous sommes intéressés au problème de l'extraction d'information dans des images (Image Information Mining IIM) pour Mieux comprendre et exploiter des données en provenance du high resolution Synthetic Aperture Radar (SAR) les avancements dans ce champ de recherche contribuent à l'élaboration d'outils d'exploration interactive et l'extraction du contenu de l'image Dans ce contexte , analyser et évaluer les modèles d'image et méthodes d'extraction d'information adéquats selon les conjectures de l'utilisateur, constituent des problèmes difficiles. Notre travail contribue avec des solutions pour la modélisation de SAR de haute résolution et pour l'estimation du contenu en utilisant une approche d'évaluation pilotés par les données (data-driven), et avec la conception de scénarios pour l'extraction d'information dans des images en y associant l'utilisateur et ses conjectures, réalisée par une approche d'évaluation axée sur l'utilisateur. Pour représenter les données et pour permettre l'extraction de l'information, nous nous concentrons sur les propriétés des images à haute résolution SAR et comment les modèles stochastiques peuvent représenter et caractériser le contenu de l'image après une étape d'estimation des paramètres. Nous réalisons une évaluation et une validation guidée par les données des méthodes d'extraction automatique d'informations pour des scènes en haute résolution SAR basée sur le modèle Gibbs Random Field (GRF). Plus précisément, des modèles Gauss Markov Random Field (GMRF) et Auto-binomial (ABM) sont mis en place dans les méthodes d'extraction d'information suite aux deux niveaux d'inférence bayésienne: ajustement du modèle et sélection du modèle. Les deux méthodes donnent comme résultat une image sans tache (speckle-free) et ses paramètres de la structure. Afin d'évaluer la qualité de ces méthodes, nous réalisons des tests de détection sur des classes telles que les villes, la végétation et des plans d'eau; en utilisant des paramètres qualitatifs spécifiques pour quantifier la qualité de l'enlèvement de la tâche (speckle) La précision de la modélisation et la caractérisation du contenu de l'image sont déterminées en utilisant des classifications supervisées et non supervisées, et les matrices de confusion. Nous concluons que les deux méthodes améliorent l'image pendant le processus de nettoyage de l'image. Le modèle GMRF est plus approprié pour les scènes naturelles et le modèle ABM pour les structures artificielles (man-made). Toutefois, l'évaluation des méthodes d'extraction d'information ne suffit pas pour une validation complète de systèmes de type IIM, parce que nous devons nous adapter aux conjectures de l'utilisateur en créant des scénarios de validation et en évaluant le degré de satisfaction des utilisateurs ainsi comme l'efficacité du processus de récupération. Nous concevons et générons deux cas d'étude, qui reflètent les besoins des utilisateurs dans la résolution rapide d'applications de cartographie. L'utilisateur final est inclus dans la méthode d'évaluation en créant deux scénarios d'évaluation dans le cadre de la surveillance des catastrophes: détection des déversements de pétrole et d'inondation. Les scénarios sont effectués en utilisant des produits ScanSAR et High Resolution Spotlight TerraSAR-X, respectivement. Les métriques quantitatives comme la précision et le rappel (recall) sont utilisés comme facteurs de qualité Afin d'avoir des mesures sur le degré de satisfaction des utilisateurs, un groupe d'évaluateurs sont invités à classer de façon qualitative les résultats récupérés. Nous concluons que l'efficacité du processus de récupération est supérieure à 80 pour cent et le degré de satisfaction des utilisateurs est bonne pour les deux scénarios.
10

Contributions à la modélisation, évaluation et conception de systèmes de recherche d'information en pair-à-pair

Sicard, Jérôme 23 November 2010 (has links) (PDF)
Cette thèse se base sur une vision originale des systèmes de Recherche d'Information en pair-à-pair (RI-P2P) ; pour proposer un ensemble d'outils pour mieux les évaluer et mieux les concevoir.Synthétiquement, la problématique d'évaluation consiste à comprendre quel système fonctionne bien dans quelles conditions ; comment les différents composants/aspects d'un système contribuent à ses performances ; comment des modifications du système peuvent faire évoluer ses performances. D'un point de vue conception, on voudrait savoir choisir une approche P2P en fonction du contexte de l'application à implémenter (jeu de données, propriétés du réseau...) ; comprendre comment mixer des systèmes ; mieux maîtriser l'impact d'une modification de l'implémentation sur le comportement et les performances d'un système.Nous pensons que ces deux problématiques d'évaluation et de conception sont fortement liées. Un même fondement est nécessaire pour progresser dans ces deux sens : mieux comprendre l'architecture des systèmes RI-P2P. À la base de notre réflexion, nous considérons qu'un système RI-P2P est l'implémentation en P2P d'un modèle RI, idée qui s'oppose au modèle traditionnel en deux couches. Nous nous appuyons sur cette idée pour donner un ensemble de définitions qui permettent de mieux appréhender les différents composants RI et composants P2P d'un même système et la façon dont ils s'organisent. Nous montrons ensuite comment on peut utiliser cette vision originale du domaine pour spécifier la démarche d'évaluation d'un système P2P et pour aider à la conception de nouveaux systèmes.

Page generated in 0.1386 seconds