Spelling suggestions: "subject:"computation.""
61 |
Essays on numerically efficient inference in nonlinear and non-Gaussian state space models, and commodity market analysis.Djegnéné, Gbowan Barnabé 06 1900 (has links)
The first two articles build procedures to simulate vector of univariate states
and estimate parameters in nonlinear and non Gaussian state space models. We
propose state space speci fications that offer more flexibility in modeling dynamic
relationship with latent variables. Our procedures are extension of the HESSIAN
method of McCausland[2012]. Thus, they use approximation of the posterior density
of the vector of states that allow to : simulate directly from the state vector
posterior distribution, to simulate the states vector in one bloc and jointly with the
vector of parameters, and to not allow data augmentation. These properties allow
to build posterior simulators with very high relative numerical efficiency. Generic,
they open a new path in nonlinear and non Gaussian state space analysis with
limited contribution of the modeler.
The third article is an essay in commodity market analysis. Private firms coexist
with farmers' cooperatives in commodity markets in subsaharan african countries.
The private firms have the biggest market share while some theoretical models predict
they disappearance once confronted to farmers cooperatives. Elsewhere, some
empirical studies and observations link cooperative incidence in a region with interpersonal trust, and thus to farmers trust toward cooperatives. We propose a model
that sustain these empirical facts. A model where the cooperative reputation is a
leading factor determining the market equilibrium of a price competition between
a cooperative and a private firm / Les deux premiers articles élaborent des procédures de simulation du vecteur
d'état et d'estimation des paramètres dans des modèles espace-états non linéaires
et non-Gaussiens. Nous proposons des spécifi cations des modèles espace-états qui
offrent plus de flexibilité dans la modélisation des relations dynamiques avec variables
latentes. Les procédures d'estimation des paramètres dans ces modèles sont
une extension de la méthode HESSIAN de McCausland[2012]. Ainsi, elles utilisent
une approximation de la densité à posteriori du vecteur d'état qui permet de : simuler
directement de la loi à posteriori du vecteur d'état, de simuler en seul bloc le
vecteur d'état et de le simuler conjointement avec le vecteur de paramètres, et de ne
pas admettre l'introduction d'inconnues additionnelles. Ces propriétés permettent
d'obtenir des simulateurs à posteriori avec une efficacité numérique relative très
élevée. Les procédures d'estimation élaborées sont génériques. Elles ouvrent ainsi
une voie pour une analyse des modèles espace-états non linéaires et non-Gaussiens
sans une grande contribution du modélisateur.
Le troisième article est une contribution dans l'analyse des marchés agricoles.
Les firmes privées coexistent avec les coopératives de fermiers dans les marchés
agricoles en Afrique subsaharienne. Les firmes privées accaparent les plus grandes
parts de marché, alors que certains modèles théoriques prédisent leur disparition
une fois confrontées aux coopératives agricoles. Par ailleurs, certaines observations
et études empiriques lient la forte incidence d'une coopérative dans une région à la
confiance interpersonnelle entre les personnes de cette région, et par conséquent la
confiance de ces personnes envers les coopératives existantes. Nous proposons un
modèle théorique qui cadre mieux avec ces observations empiriques. Un modèle où
la réputation de la coopérative est un facteur déterminant de l'équilibre de marché
dans la compétition sur le prix à la livraison entre celle-ci et une firme privée.
|
62 |
Automated Verification of Exam, Cash, aa Reputation, and Routing Protocols / Vérification automatique de protocoles d'examen, de monnaie, de réputation, et de routageKassem, Ali 18 September 2015 (has links)
La sécurité est une exigence cruciale dans les applications basées sur l'information et la technologie de communication, surtout quand un réseau ouvert tel que l'Internet est utilisé. Pour assurer la sécurité dans ces applications des protocoles cryptographiques ont été développé. Cependant, la conception de protocoles de sécurité est notoirement difficile et source d'erreurs. Plusieurs failles ont été trouvées sur des protocoles qui se sont prétendus sécurisés. Par conséquent, les protocoles cryptographiques doivent être vérifiés avant d'être utilisés. Une approche pour vérifier les protocoles cryptographiques est l'utilisation des méthodes formelles, qui ont obtenu de nombreux résultats au cours des dernières années.Méthodes formelles portent sur l'analyse des spécifications des protocoles modélisées en utilisant, par exemple, les logiques dédiés, ou algèbres de processus. Les méthodes formelles peuvent trouver des failles ou permettent de prouver qu'un protocole est sécurisé sous certaines hypothèses par rapport aux propriétés de sécurité données. Toutefois, elles abstraient des erreurs de mise en ouvre et les attaques side-channel.Afin de détecter ces erreurs et la vérification des attaques d'exécution peut être utilisée pour analyser les systèmes ou protocoles exécutions. En outre, la vérification de l'exécution peut aider dans les cas où les procédures formelles mettent un temps exponentielle ou souffrent de problèmes de terminaison. Dans cette thèse, nous contribuons à la vérification des protocoles cryptographiques avec un accent sur la vérification formelle et l'automatisation. Tout d'abord, nous étudions les protocoles d'examen. Nous proposons des définitions formelles pour plusieurs propriétés d'authentification et de confidentialité dans le Pi-calcul Appliqué.Nous fournissons également une des définitions abstraites de propriétés de vérifiabilité. Nous analysons toutes ces propriétés en utilisant automatiquement ProVerif sur plusieurs études de cas, et avons identifié plusieurs failles. En outre, nous proposons plusieurs moniteurs de vérifier les exigences d'examen à l'exécution. Ces moniteurs sont validés par l'analyse d'un exécutions d'examen réel en utilisant l'outil MARQ Java.Deuxièmement, nous proposons un cadre formel pour vérifier les propriétés de sécurité de protocoles de monnaie électronique non transférable. Nous définissons la notion de vie privée du client et les propriétés de la falsification. Encore une fois, nous illustrons notre modèle en analysant trois études de cas à l'aide ProVerif, et confirmons plusieurs attaques connues.Troisièmement, nous proposons des définitions formelles de l'authentification, la confidentialité et les propriétés de vérifiabilité de protocoles de réputation électroniques. Nous discutons les définitions proposées, avec l'aide de ProVerif, sur un protocole de réputation simple. Enfin, nous obtenons un résultat sur la réduction de la vérification de la validité d'une route dans les protocoles de routage ad-hoc, en présence de plusieurs attaquants indépendants qui ne partagent pas leurs connaissances. / Security is a crucial requirement in the applications based on information and communication technology, especially when an open network such as the Internet is used.To ensure security in such applications cryptographic protocols have been used.However, the design of security protocols is notoriously difficult and error-prone.Several flaws have been found on protocols that are claimed secure.Hence, cryptographic protocols must be verified before they are used.One approach to verify cryptographic protocols is the use of formal methods, which have achieved many results in recent years.Formal methods concern on analysis of protocol specifications modeled using, e.g., dedicated logics, or process algebras.Formal methods can find flaws or prove that a protocol is secure under ``perfect cryptographic assumption" with respect to given security properties. However, they abstract away from implementation errors and side-channel attacks.In order to detect such errors and attacks runtime verification can be used to analyze systems or protocols executions.Moreover, runtime verification can help in the cases where formal procedures have exponential time or suffer from termination problems.In this thesis we contribute to cryptographic protocols verification with an emphasis on formal verification and automation.Firstly, we study exam protocols. We propose formal definitions for several authentication and privacy propertiesin the Applied Pi-Calculus. We also provide an abstract definitions of verifiability properties.We analyze all these properties automatically using ProVerif on multiple case studies, and identify several flaws.Moreover, we propose several monitors to check exam requirements at runtime. These monitors are validated by analyzing a real exam executions using MARQ Java based tool.Secondly, we propose a formal framework to verify the security properties of non-transferable electronic cash protocols.We define client privacy and forgery related properties.Again, we illustrate our model by analyzing three case studies using ProVerif, and confirm several known attacks.Thirdly, we propose formal definitions of authentication, privacy, and verifiability properties of electronic reputation protocols. We discuss the proposed definitions, with the help of ProVerif, on a simple reputation protocol.Finally, we obtain a reduction result to verify route validity of ad-hoc routing protocols in presence of multiple independent attackers that do not share their knowledge.
|
63 |
Indemnisation du préjudice économique en cas d'inexécution contractuelle : étude comparative en common law américaine, droit civil français et droit commercial international : application aux avant-contrats, atteintes à la réputation commerciale et activités sans base établie / Damages as a remedy for (economic loss in) contract breach : a comparative analysis between American common law, French civil lâw ând International commercial law : application to agreement to negotiate/agree, harm to commercial reputation and new businessGiaoui, Franck S. 21 September 2018 (has links)
Force est de constater l'absence dans les textes de loi d'une définition précise de la réparation intégrale et a fortiori de règles d'évaluation des dommages-intérêts compensatoires. La doctrine tente bien de pallier ce vide en décrivant les différents types d'indemnisation, notamment aux États-Unis. Pourtant, la difficulté reste entière lorsque le préjudice existe mais que son estimation est délicate ou incertaine. En effet, ces questions sont considérées uniquement comme des questions de faits ; les juges du fond restent donc souverains, ce qui débouche sur une grande imprévisibilité pour les parties. Réduire l'imprévisibilité judiciaire du dommage passe par le choix et la définition d'un cadre de travail commun. S'appuyant notamment sur les résultats d'une analyse empirique comparative de centaines de cas de jurisprudence, l'étude formalise des prescriptions à l'intention des parties qui souhaitent améliorer leurs chances de succès dans le recouvrement des gains manqués et de la perte de chance. Elle évoque aussi la nécessité d'améliorer la pratique judiciaire dans l'application du droit actuel à la réparation intégrale. Surtout, elle aboutit à une conclusion normative fondamentale qui consisterait à considérer le préjudice économique et financier, les dommages intérêts et le calcul du quantum également comme des questions de droit. Dès lors, il relèverait d'une bonne justice que la Cour de cassation préconisa et contrôla l'usage de telle ou telle méthode d'évaluation. Chaque chef de préjudice économique serait ainsi qualifié juridiquement et la notion de réparation intégrale serait élargie pour indemniser plus complètement le préjudice économique difficilement quantifiable.Il ressort enfin que des barèmes référencés d'indemnisation peuvent être construits à partir de l'observation de précédents jugés d'inexécutions contractuelles. L'introduction de ces barèmes pourrait bénéficier aux chercheurs dans leurs débats académiques, aux parties dans la rédaction de leurs contrats, aux conseils dans leurs échanges précontentieux voire aux juges comme outil d'aide à la décision. Si ces barèmes étaient validés et partagés, ils pourraient donner naissance à des modèles d'intelligence artificielle de type machine learning dont la valeur -notamment prédictive -serait sans commune mesure avec ce qu'on en perçoit aujourd'hui. / Law statutes and codes lack of a precise definition of the « full compensation » principle, and a fortiori they Jack of rules for assessing compensatory damages. The legal doctrine tries to fil] in the blank by describing the different types of damages awarded, notably in the United States. Yet, the issue remains full when the Joss is certain but its valuation remains complex or uncertain. The assessment of the economic Joss and the calculation methodology for damages are considered to be only matters of facts: trial courts and judges thus retain a sovereign power, resulting in great uncertainty for the parties. Reducing judicial uncertainty requires the choice and creation of a common framework. Based on the results of an empirical law and economics analysis of several hundreds of precedent cases, the dissertation formulates simple and practical suggestions for parties looking to improve their chances of success in recouping lost profits and lost opportunities. It also evidences which improvements of the judicial systems are required in order to actually implement the current right to full compensation. More importantly the research reaches a fundamental nonnative conclusion: economic Joss, compensatory damages and hence, the calculation of the quantum granted should be considered, not as mere matters of facts but also as matters of law. Henceforth, it would be logical that the Cour de cassation ( or the highest court) advises and controls the use of calculation methodology. Each head of damages would thus be legally qualified and the principle of full compensation would be extended in order to better compensate the loss when evaluating its quantum is complex. It finally results that referenced compensatory scales can be practically developed from compiling relevant legal precedents. The introduction of such scales would benefit academics in their debates, parties in the drafting of their contracts and counsels in their pre-trial exchanges. Eventually, judges could use them as tools to assist their rulings. If those scales were to be adopted and shared, they would enable the creation of such artificial intelligence as machine learning which value - notably the predictive value - would far exceed what is perceived today.
|
64 |
Essays on numerically efficient inference in nonlinear and non-Gaussian state space models, and commodity market analysisDjegnéné, Gbowan Barnabé 06 1900 (has links)
No description available.
|
65 |
Veille technologique et intelligence économique en PME et TPE : réalités d'une approche nouvelle avec le Web 2.0Diakhate, Djibril 04 November 2011 (has links)
Avec les mutations de l’internet induites par le développement des outils collaboratifs (blogs, flux RSS, réseaux sociaux, partage d’informations...) l'information change de nature. Sa production devient de plus en plus simple. L'utilisateur, qui depuis les débuts de l’internet grand-public, se contentait d’un rôle de consommateur tout-court d'informations s'est, petit-à-petit, transformé en « consommateur-producteur ». Il est au cœur du nouveau système de production et de diffusion de l’information. Ce changement qui s'opère dans toutes les couches sociales avec comme caractéristiques principales la floraison des blogs, la veille personnalisée, la customisation des outils, le partage, la collaboration dans les réseaux sociaux ..., s’identifie à travers les appellations « web 2.0 », « web social », « web collaboratif ». Plus que des mots, il s’agit de pratiques informationnelles qui mettraient en cause les acquis des entreprises en matière de veille et d'Intelligence Économique. Ainsi, l'intérêt de mesurer les tenants et les aboutissants de ce renouvellement des usages informationnels nous pousse à travers cette thèse à s’interroger sur leur impact réel ou supposé dans la veille et l'Intelligence Économique. Ce travail propose de mesurer le degré de récupération des compétences des utilisateurs du web 2.0 dans les démarches de veille et d’IE en PME et TPE. À l’issue d’une enquête de terrain portant sur un échantillon de 70 entreprises de différentes régions du monde (France, États-Unis, Grande-Bretagne, Maroc, Sénégal…) il a été intéressant de constater que le web 2.0 est assez bien connu dans les entreprises quelle que soit leur taille. Toutefois, la récupération de ses applications dans une démarche de veille et d’Intelligence Économique reste assez dispersée du fait, notamment, de la méconnaissance des potentialités de certains outils, qui a comme conséquence leur non prise en compte dans les politiques informationnelles. Ce résultat nous a convaincu de proposer aux TPE et aux PME une démarche de mise en place d’un dispositif de veille collaborative qui a l’originalité d’intégrer les outils du web 2.0. S’inscrivant dans la logique d’un dispositif de veille de seconde génération (Lietzelman et al.), la démarche proposée constitue une amélioration de celles déjà existantes (AFNOR, Paul Degoul). Elle prend en compte dans chacune des phases (conception, planification et mise en œuvre) la dimension sociale de l’internet et de ses pratiques. Un exposé de techniques d’exploitation de certains de ces outils pour un problème de veille a été produit afin de sensibiliser sur leurs potentialités dans l’éventualité de leur intégration dans un système de veille et d’intelligence économique / With the web as a platform and the development of collaborative tools (blogs, RSS feeds, social networking, information sharing ...) information is changing and its production becomes increasingly simple. The average user, who since the advent of the Internet has merely a short role as consumer of information, is transformed into a "consumer-producer" of information. He is at the heart of the new system of production and dissemination of information. This change whose characteristics cannot be ignored: blogs, personal monitoring, social bookmarking, personalization tools for research, collaboration in social networks etc. and known under the names "Web 2.0", "social web", "collaborative web" would undermine the achievements of companies in terms of information monitoring and Competitive Intelligence (CI); hence the importance of measuring the ins and outs of this renewal informational practices. In addition to questions about the real or supposed changes in information monitoring and Competitive Intelligence in the Age of social web, our research also wanted to measure the degree of recovery skills of web 2.0’s users in SMEs CI‘s systems. With a field survey covering a sample of 70 companies from different regions of the world (France, USA, Great Britain, Morocco, Senegal ...) we noticed that the Web 2.0 is fairly well known by companies regardless of their size, but the recovery of its applications in a process to monitor information is dispersed (using disparate, breach of certain tools potential, lack of information policy incorporating tools 2.0...). This result has convinced us to propose to the SME an approach of establishing a collaborative information monitoring system which has the originality to include the tools of Web 2.0 since the phases of design, planning and implementation. In order to respect the logic of a second generation Information Monitoring System (Lietzelman et al.), the proposed approach is an improvement of existing ones like the AFNOR system or that of Paul Degoul. It is accompanied, for sensitizing SME by a statement of operational techniques of some social media tools for their possible inclusion in a Competitive Intelligence System
|
66 |
Musée et pouvoir symbolique. Regard géographique sur le Louvre / Museum and symbolic power : a geographical study of the LouvreMolinié-Andlauer, Marie-Alix 02 December 2019 (has links)
Le pouvoir symbolique du Louvre se traduit dans le nouveau modèle territorial qu’il propose. Instrument de la diplomatie française, il incarne le rayonnement culturel français par excellence qui sert autant une région française en régénérescence urbaine (Hauts de France) que des pays en re-structuration politique et économique (Émirats arabes unis, Iran). Dans un contexte de mondialisations (Ghorra-Gobin, 2005), la réputation liée aux représentations du Louvre génère un désir de lieux. Les représentations analysées montrent que ce géosymbole (Bonnemaison, 1981) inscrit dans l’imaginaire commun participe à multi-situer le Louvre. Le musée du Louvre, le Louvre-Atlanta, le Louvre-Lens, le Louvre Abu Dhabi puis le Louvre Téhéran, auxquels s’ajoutent les réseaux professionnels, les partenariats, la circulation des œuvres, sont des éléments qui permettent de faire émerger plus qu’un réseau, un territoire Louvre qui peut se comprendre par les temporalités (Braudel). Pourtant, la transposition d’un Louvre interpelle puisque le musée se définit par sa part sacrée, c’est-à-dire sa collection. On se demande dans cette thèse comment (à partir de cette part sacrée) le Louvre participe à une mise en relation de lieux dans un contexte de mondialisations et comment il créé in fine un territoire à part entière ? Les références mobilisées pour penser le territoire sont les travaux de Guy Di Méo sur la territorialité et d’Yves Lacoste et de Claude Raffestin en géographie politique sur les relations asymétriques et les enjeux de pouvoirs. Les résultats de cette thèse amènent à réfléchir à l’évolution et l’impact d’un territoire Louvre en archipel ou multi-situé. / The symbolic force of the Louvre expresses itself through its latest territorial model. Instrumental to the French diplomacy, The Louvre embodies the French cultural influence on a French region in urban reconstruction (Hauts de France) or in countries in economical or political re-structuration (Émirats arabes unis, Iran). In a mondialisations context (Ghorra-Gobin, 2005), this reputation linked to the Louvre representations favours a locus desire. Our analysis of these representations emphasizes the fact that this géosymbol (Bonnemaison, 1981), present in the collective imaginary, is instrumental in the multiplication of the Louvre sites. The Louvre museum, the Louvre-Atlanta, the Louvre-Lens, the Louvre Abu Dhabi and the Louvre Téhéran, plus the professional networks, partnerships, works of art circulation are as many aspects that facilitate the emergence of something superior to a network: the notion of a Louvre territory that can be understood by its temporalities (Braudel). Most importantly, the propagation of the Louvre (as a model) raises various questions as the museum itself is defined by its sacred part (i.e. its collections). This research work is an attempt to answer a crucial question: how (with this sacred part as a starting point), can the Louvre be an actor to the linkage of various loci (places) in a mondialisations context and how can the Louvre in fine initiate the creation of a territory. To conclude with, this research is an invitation to think about the impact (and evolution) of a Louvre territory in terms of an archipelago or of multi-situated territory. Our references to approach the territory concept are Guy Di Méo’s on territoriality and Yves Lacoste and Claude Raffestin’s in political geography on asymetrical relationships and power issues.
|
67 |
Hosting Tour De France Under Covid-19: Bargain Or Burden For New Stage Cities?Herzet, Cyril January 2021 (has links)
The Tour De France (TDF) is the third largest sporting event in the world and the biggest cycling race in terms of popularity and prestige. The event generates global media exposure and attracts millions of short- and long-term visitors each year, thus, TDF is extremely appealing for communities in search of profits. Using Linear Directional Mean (LDM) and semi-structured interviews (community and organization sides), this paper analyzes how TDF has spatially evolved through time by comparing the 2021 racetrack to other time intervals. Additionally, reasons of the potential shift in terms of spatial distribution are investigated considering current issues due to the COVID-19 pandemic that has severely affected the tourism sector and therefore, the benefits that communities were expecting to perceive by hosting TDF. Findings showed that the 2021 route deviated from previous editions time of the TDF history including 10 new stage cities that never hosted the event before. The respondent from the organization indicated the pandemic only indirectly affected the TDF route and that the location of the Grand Départ as well as the main internal constraints imposed to the organizers are key elements in the spatial distribution of the event. Interviewed communities acknowledged that there was risk while hosting TDF this year due to potential restrictive measures. However, they recognized that benefits brought by the race largely overweight potential negative impacts from the epidemic. Indeed, TDF remains a way to bring economic benefits, social cohesion, happiness, pride and satisfaction to hosting cities at a time when the tourism industry is at a standstill. / Le Tour de France (TDF) est le troisième événement sportif au monde et la plus grande course cycliste en termes de popularité et de prestige. L’événement génère une exposition médiatique mondiale et attire chaque année des millions de visiteurs à court et à long terme. Le TDF est donc extrêmement attrayant pour les communautés à la recherche de profits. À l’aide de la Direction Moyenne Linéaire (MLD) et d’interviews semi-structurées (côté communauté et organisation), ce mémoire analyse l’évolution spatiale du TDF au fil du temps en comparant le parcours de 2021 à d’autres intervalles temporelles de la course. En outre, les raisons du changement potentiel en termes de distribution spatiale sont étudiées en tenant compte des problèmes actuels dus à la pandémie de COVID-19 ayant gravement affecté le secteur du tourisme et, par conséquent, les avantages que les communautés espéraient percevoir en accueillant le TDF. Les résultats ont montré que l’itinéraire de 2021 s’écarte des éditions précédentes de l’histoire du TDF en incluant 10 nouvelles villes étapes qui n’ont jamais accueilli l’événement auparavant. Le répondant de l’organisation a indiqué que la pandémie n’a affecté qu’indirectement le parcours du TDF et que l’emplacement du Grand Départ ainsi que les principales contraintes internes imposées aux organisateurs sont des éléments clés dans la répartition spatiale de l’événement. Les communautés interrogées ont reconnu qu’il y avait un risque à accueillir le TDF cette année en raison des mesures restrictives potentielles. Cependant, elles ont admis que les bénéfices apportés par la course surpassaient largement les impacts négatifs potentiels dus à l’épidémie. En effet, le TDF reste un moyen d’apporter des effets économiques positifs, de la cohésion sociale, du bonheur, de la fierté et de la satisfaction aux villes hôtes à un moment où l’industrie du tourisme est au point mort.
|
68 |
Mobility management and vertical handover decision making in heterogeneous wireless networks / Prise de décision de handover vertical pour la gestion de mobilité dans les réseaux hétérogènes sans filZekri, Mariem 23 January 2012 (has links)
L’évolution des technologies réseaux sans fil, des terminaux mobiles ainsi que des contenus et des services créent des environnements hétérogènes de plus en plus complexes. Dans ce contexte, un compromis entre la mobilité, la transparence et la performance apparaît. Des utilisateurs mobiles, ayant différents profils et préférences, voudraient être toujours connectés au meilleur réseau à tout moment, sans avoir à se soucier des différentes transitions entre réseaux hétérogènes. Face à cette complexité, il parait nécessaire de proposer de nouvelles approches afin de rendre ces systèmes plus autonomes et de rendre les décisions de handover vertical plus efficaces. Cette thèse se concentre sur la gestion de mobilité verticale, plus précisément sur la prise de décision de handover vertical dans un environnement de réseaux hétérogènes sans fil. Après l’identification des différents paramètres de prise de décision et l’analyse de l’état de l’art relié à la gestion de la mobilité verticale, nous avons proposé un système de réputation qui permet de réduire les délais de prise de décision. La réputation d’un réseau est introduite comme une nouvelle métrique de prise de décision qui peut être recueillie à partir des expériences précédentes des utilisateurs sur ce réseau. Nous montrons que la réputation est une métrique efficace qui permet l’anticipation du handover et accélère la prise de décision. Bien que l’objectif principal soit de garantir la meilleure qualité de service et l’utilisation optimale des ressources radios, les aspects économiques doivent également être considérés, y compris la minimisation des coûts pour les utilisateurs et la maximisation des revenus pour les fournisseurs de services ou les opérateurs. Nous proposons alors, dans la deuxième partie de la thèse, un mécanisme de prise de décision basé sur la théorie des jeux. Ce dernier permet la maximisation des utilités des réseaux et des utilisateurs. Dans cette solution, chaque réseau disponible joue un jeu de Stackelberg avec un ensemble d’utilisateurs, tandis que les utilisateurs jouent un jeu de Nash entre eux pour partager les ressources radios limitées. Un point d’équilibre de Nash, qui maximise l’utilité de l’utilisateur et les revenus des fournisseurs de services, est trouvé et utilisé pour le contrôle d’admission et la prise de décision de handover vertical. Dans la troisième partie de cette thèse, nous proposons et discutons deux différentes solutions architecturales sur lesquelles nos mécanismes de prise de décision proposés peuvent être intégrés. La première architecture proposée est basée sur la norme IEEE 802.21 à laquelle nous proposons certaines extensions. La seconde architecture proposée est basée sur un niveau de contrôle composé de deux couches de virtualisation. La virtualisation est assurée via des agents capables de faire un raisonnement et de prendre des décisions pour le compte d’entités physiques qu’ils représentent au sein du système. Cette architecture permet une plus grande flexibilité / Mobility management over heterogeneous wireless networks is becoming a major interest area as new technologies and services continue to proliferate within the wireless networking market. In this context, seamless mobility is considered to be crucial for ubiquitous computing. Service providers aim to increase the revenue and to improve users’ satisfaction. However there are still many technical and architectural challenges to overcome before achieving the required interoperability and coexistence of heterogeneous wireless access networks. Indeed, the context of wireless networks is offering multiple and heterogeneous technologies (e.g. 2G to 4G, WiFi, Wimax, TETRA,...). On the one hand, this rich environment allows users to take profit from different capacities and coverage characteristics. Indeed, this diversity can provide users with high flexibility and allow them to seamlessly connect at any time and any where to the access technology that best fits their requirements. Additionally, cooperation between these different technologies can provide higher efficiency in the usage of the scarce wireless resources offering more economic systems for network providers. On the other hand, the heterogeneity of technologies and architectures and the multiplication of networks and service providers creates a complex environment where cooperation becomes challenging at different levels including and not limited to mobility management, radio resource provisioning, Quality of Service and security guarantees. This thesis is focusing on mobility management and mainly on decision making for Vertical handover within heterogeneous wireless network environments. After the analysis of the related state of the art, we first propose a reputation based approach that allows fast vertical handover decision making. A decision making scheme is then built on that approach. Network’s reputation, is a new metric that can be gathered from previous users’ experiences in the networks. We show that it is an efficient construct to speed up the vertical handover decision making thanks to anticipation functionalities. While the main objective remains guaranteeing the best Quality of Service and optimal radio resource utilization, economical aspects have also to be considered including cost minimization for users and revenue maximization for network providers. For this aim, we propose, in the second part of the thesis, a game theoretic based scheme that allows maximizing benefits for both networks and users. In this solution, each available network plays a Stackelberg game with a finite set of users, while users are playing a Nash game among themselves to share the limited radio resources. A Nash equilibrium point, that maximizes the user’s utility and the service provider revenue, is found and used for admission control and vertical handover decision making. The analyses of the optimal bandwidth/prices and the revenue at the equilibrium point show that there are some possible policies to use according to user’s requirements in terms of QoS and to network capacities. For instance, we pointed out that networks having same capacities and different reputation values should charge users with different prices which makes reputation management very important to attract users and maximize networks’ revenue. In the third part of this thesis, we provide and discuss two different architectural and implementation solutions on which our proposed vertical handover decision mechanisms can be integrated. The first proposed architecture is a centralized one. It is based on the IEEE 802.21 standard to which some extensions are proposed. The second proposed architecture is distributed. It is based on an overlay control level composed of two virtualization layers able to make reasoning on behalf of physical entities within the system. This architecture allows higher flexibility especially for loosely coupled interconnected networks
|
69 |
Économie de la réputation commerciale. Une histoire du crédit marchand à Montréal au 19e siècleLapalme, Alexandre 08 1900 (has links)
Cette thèse examine les dossiers de crédit produits entre 1847 et 1872 par la succursale montréalaise
de la Mercantile Agency, l’une des plus célèbres et puissantes agences d’évaluation de crédit en
Amérique du Nord au 19e siècle.
Le 19e siècle est notamment caractérisé par l’accélération de la commercialisation transatlantique.
Montréal étant située géographiquement plus ou moins entre la Grande-Bretagne et les États-Unis,
elle est au coeur des transformations économiques. Les institutions légales, commerciales et
financières de la métropole doivent s’ajuster au contexte généralement associé à l’entrée dans le
capitalisme. Le climat économique bouillonnant force effectivement les gouvernements à faire
adopter des lois sur les faillites pour amoindrir les effets négatifs des créances irrécouvrables et
pour encourager et soutenir la diffusion du crédit commercial. Plusieurs raisons, liées par exemple
aux problèmes d’accessibilité, à la complexité et aux coûts engendrés par les procédures, font en
sorte que les lois sont pourtant, aux yeux de la communauté marchande qui bénéficie des
législations, inaptes à garantir pleinement le recouvrement du crédit. La thèse soutient que les
agences d’évaluations constituent une réponse des gens d’affaires aux problèmes de l’asymétrie
d’information que les gouvernements n’ont pas été en mesure de régler par la législation.
Les agences établissent une forme d’autorégulation du crédit marchand. Elles proposent une
estimation des risques que pose un potentiel débiteur. Pour conduire leur expertise, les enquêtes de
crédit ont pour méthode de recueillir puis de faire une synthèse de l’opinion publique commerciale.
Elles traduisent textuellement ce qui se dit sur les commerçants qui font l’objet d’une enquête.
Les bureaux de crédit organisent, gèrent et diffusent à son réseau d’abonnés la réputation des
commerçants qu’elle évalue. Ce système mène à la création d’une économie des réputations. À
l’intérieur de cette structure, les réputations retranscrites dans les dossiers de crédits prescrivent les
conditions d’emprunt aux yeux des créditeurs qui souscrivent aux services offerts par la Mercantile
Agency.
L’analyse, qui s’appuie sur les postulats de la « nouvelle histoire du capitalisme », explore cette
économie des réputations construites par les agences qui influence les relations de crédits entre les
prêteurs et l’emprunteur. Les dossiers de crédit conçoivent une forme de savoir qui a l’ambition
d’avantager les conditions d’asymétrie de l’information en faveur des créditeurs.
Dans les dossiers de crédit de cette époque, la réputation traduit donc le degré de solvabilité. Les
différents chapitres décortiquent les modalités de cette forme d’organisations des réputations, les
variables évoquées dans les évaluations, les principes et les vertus définissant la réputation
commerciale et les tensions qui découlent de cet encadrement pionnier du crédit marchand. / This thesis examines the credit records between 1847 and 1872 of the Montreal branch of the
Mercantile Agency, among the most important credit bureaus in 19th century North America.
The 19th century saw the acceleration of transatlantic trade. Montreal, located between Great
Britain and the United States, was at the crossroads of the economic expansion. In this period,
commonly referred to as the transition to capitalism, the legal, commercial and financial institutions
of the metropolis were forced to adjust.
In the financial sector, the state was compelled to adopt bankruptcy laws to lessen the negative
effects of bad debts and to encourage and support the spread of commercial credit. However,
because of limited accessibility, and the complexity and costs of the procedure, the laws were
unable to fully guarantee the recovery of loans and were deemed unsatisfactory by the business
community. The thesis claims that the emergence of credit agencies responded to the needs of the
business community to address problems of information asymmetry.
These agencies, like the Mercantile Agency, established a type of self-regulation of commercial
credit. They provided information on risk to lenders. To a large extent, the information gathered
represented the opinion of the Montreal merchant community. The credit offices of the Mercantile
Agency used this information to generate rankings of the credit worthiness of merchants. The
information was disseminated to the Agency’s network of subscribers. In this fashion, the Agency
contributed to the construction of an economy of reputations.
The research, which is inspired by contributions to the new history of capitalism, explores the
effects of the construction of the economy of reputations on the relationship between lenders and
borrowers. I find that the structure of the relationship favored creditor over debtors.
The chapters of the thesis describe the role of reputation in the creditor-debtor relationship, the
determinants adopted to measure credit worthiness, and the tensions and conflicts that emerged in
the economy of reputations.
|
70 |
Personalized fake news aware recommendation systemSallami, Dorsaf 08 1900 (has links)
In today’s world, where online news is so widespread, various methods have been developed
in order to provide users with personalized news recommendations. Wonderful accomplish ments have been made when it comes to providing readers with everything that could attract
their attention. While accuracy is critical in news recommendation, other factors, such as
diversity, novelty, and reliability, are essential in satisfying the readers’ satisfaction. In fact,
technological advancements bring additional challenges which might have a detrimental im pact on the news domain. Therefore, researchers need to consider the new threats in the
development of news recommendations. Fake news, in particular, is a hot topic in the media
today and a new threat to public safety.
This work presents a modularized system capable of recommending news to the user and
detecting fake news, all while helping users become more aware of this issue. First, we suggest
FANAR, FAke News Aware Recommender system, a modification to news recommendation
algorithms that removes untrustworthy persons from the candidate user’s neighbourhood.
To do this, we created a probabilistic model, the Beta Trust model, to calculate user rep utation. For the recommendation process, we employed Graph Neural Networks. Then,
we propose EXMULF, EXplainable MUltimodal Content-based Fake News Detection Sys tem. It is tasked with the veracity analysis of information based on its textual content and
the associated image, together with an Explainable AI (XAI) assistant that is tasked with
combating the spread of fake news. Finally, we try to raise awareness about fake news by
providing personalized alerts based on user reliability.
To fulfill the objective of this work, we build a new dataset named FNEWR. Our exper iments reveal that EXMULF outperforms 10 state-of-the-art fake news detection models in
terms of accuracy. It is also worth mentioning that FANAR , which takes into account vi sual information in news, outperforms competing approaches based only on textual content.
Furthermore, it reduces the amount of fake news found in the recommendations list / De nos jours, où les actualités en ligne sont si répandues, diverses méthodes ont été dé veloppées afin de fournir aux utilisateurs des recommandations d’actualités personnalisées.
De merveilleuses réalisations ont été faites lorsqu’il s’agit de fournir aux lecteurs tout ce qui
pourrait attirer leur attention. Bien que la précision soit essentielle dans la recommandation
d’actualités, d’autres facteurs, tels que la diversité, la nouveauté et la fiabilité, sont essentiels
pour satisfaire la satisfaction des lecteurs. En fait, les progrès technologiques apportent des
défis supplémentaires qui pourraient avoir un impact négatif sur le domaine de l’information.
Par conséquent, les chercheurs doivent tenir compte des nouvelles menaces lors de l’élabo ration de nouvelles recommandations. Les fausses nouvelles, en particulier, sont un sujet
brûlant dans les médias aujourd’hui et une nouvelle menace pour la sécurité publique.
Au vu des faits mentionnés ci-dessus, ce travail présente un système modulaire capable
de détecter les fausses nouvelles, de recommander des nouvelles à l’utilisateur et de les aider
à être plus conscients de ce problème. Tout d’abord, nous suggérons FANAR, FAke News
Aware Recommender system, une modification d’algorithme de recommandation d’actuali tés qui élimine les personnes non fiables du voisinage de l’utilisateur candidat. A cette fin,
nous avons créé un modèle probabiliste, Beta Trust Model, pour calculer la réputation des
utilisateurs. Pour le processus de recommandation, nous avons utilisé Graph Neural Net works. Ensuite, nous proposons EXMULF, EXplainable MUltimodal Content-based Fake
News Detection System. Il s’agit de l’analyse de la véracité de l’information basée sur son
contenu textuel et l’image associée, ainsi qu’un assistant d’intelligence artificielle Explicable
(XAI) pour lutter contre la diffusion de fake news. Enfin, nous essayons de sensibiliser aux
fake news en fournissant des alertes personnalisées basées sur le profil des utilisateurs.
Pour remplir l’objectif de ce travail, nous construisons un nouveau jeu de données nommé
FNEWR. Nos résultats expérimentaux montrent qu’EXMULF surpasse 10 modèles de pointe
de détection de fausses nouvelles en termes de précision. Aussi, FANAR qui prend en compte
les informations visuelles dans les actualités, surpasse les approches concurrentes basées
uniquement sur le contenu textuel. De plus, il permet de réduire le nombre de fausses
nouvelles dans la liste des recommandations.
|
Page generated in 0.0716 seconds