• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 43
  • 20
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 76
  • 23
  • 14
  • 12
  • 12
  • 12
  • 10
  • 10
  • 10
  • 9
  • 9
  • 9
  • 9
  • 9
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Discount retail internationalisation : barriers to the deployment of glocalisation

Christiansen, Hans January 2017 (has links)
The standardisations/adaptation theme is amongst the most debated within International Retailing. Much research has attended to the question of whether an MNC should adapt to local market needs or, if instead, it should emphasise the upholding of global standards to reap efficiencies. Within this debate there is much focus on resonating to market needs but less on the inheritance, history and structure of the MNC and how this affects the ability to adapt or standardise, or indeed to do both by applying the glocalisation theme. Existing research has placed less emphasis on how the MNC might be biased towards either standardising or adapting regardless of market conditions. Central to this debate is the transfer of a retail formula. It is commonly understood that the faithful replication of a retail formula means that each element of the marketing mix is copied ‘as is’ from home to host country. This can at best be a benchmark as no MNC would be able to completely copy a home-derived standard to the host market, however, some retail concepts are generically better able to perform this ideal act than others. They would attempt to standardise as much as possible, adopting a strategy that maximises replication as it seeks not to duplicate resources across borders. The key point in this attempt is whether it does so out of recognising that differences are insignificant, or if it does so because it is unable to see that the differences do matter. Seen from an institutionalisation perspective and, initially looking at the home-derived context only, one recognises the well-defined relationship and interaction between MNC and consumer culture and the position the MNC has obtained in terms of brand strength and success. It is easy to see that context will be different in the host market, but difficult to take this into account when transferring the retail formula out of the home context. More recent literature on embeddedness has addressed some of these linkages and influences which affect the way MNCs transfer their retail concepts, but the literature fails to recognise the full impact. The structural paradox embodies some of the dilemma in this discussion as it addresses the conflict between transferred operational structure and the need to adapt locally to market needs. The glocalisation theme approaches the same dilemma from a competency perspective but does not embrace what stops the MNC from being more adaptive. This research develops a model that aims to combine these perspectives. This model is deployed to three cases, all detailing the transfer of a highly standardised retail concept, hard discounting, which is an ideal platform to explore how home-derived structure is transferred and how it deals with trans-contextual dimensions across borders. The research looks critically and in-depth at how the standards applied impact on the levels of awareness paid towards the need to adapt to trans-contextual dimensions and seeks evidence that demonstrate how attention to the differences become vital to success. At the same time, the cases illustrate that the differences may alter, but the approach taken towards them remain the same. The model defines this approach as a strategic trajectory called ‘MaxRep’, which is developed out of the home context and remains aligned to this particular foreign context when transferred in on the host settings. The benchmarking of this approach against the glocalisation theme leads to the identification of gaps and definition of action to be taken to overcome these barriers to applying effective glocalisation.
42

Motion Capture of Deformable Surfaces in Multi-View Studios / Acquisition de surfaces déformables à partir d'un système multicaméra calibré

Cagniart, Cédric 16 July 2012 (has links)
Cette thèse traite du suivi temporel de surfaces déformables. Ces surfaces sont observées depuis plusieurs points de vue par des caméras qui capturent l'évolution de la scène et l'enregistrent sous la forme de vidéos. Du fait des progrès récents en reconstruction multi-vue, cet ensemble de vidéos peut être converti en une série de clichés tridimensionnels qui capturent l'apparence et la forme des objets dans la scène. Le problème au coeur des travaux rapportés par cette thèse est de complémenter les informations d'apparence et de forme avec des informations sur les mouvements et les déformations des objets. En d'autres mots, il s'agit de mesurer la trajectoire de chacun des points sur les surfaces observées. Ceci est un problème difficile car les vidéos capturées ne sont que des séquences d'images, et car les formes reconstruites à chaque instant le sont indépendemment les unes des autres. Si le cerveau humain excelle à recréer l'illusion de mouvement à partir de ces clichés, leur utilisation pour la mesure automatisée du mouvement reste une question largement ouverte. La majorité des précédents travaux sur le sujet se sont focalisés sur la capture du mouvement humain et ont bénéficié de la nature articulée de ce mouvement qui pouvait être utilisé comme a-priori dans les calculs. La spécificité des développements présentés ici réside dans la généricité des méthodes qui permettent de capturer des scènes dynamiques plus complexes contenant plusieurs acteurs et différents objets déformables de nature inconnue a priori. Pour suivre les surfaces de la façon la plus générique possible, nous formulons le problème comme celui de l'alignement géométrique de surfaces, et déformons un maillage de référence pour l'aligner avec les maillages indépendemment reconstruits de la séquence. Nous présentons un ensemble d'algorithmes et d'outils numériques intégrés dans une chaîne de traitements dont le résultat est un maillage animé. Notre première contribution est une méthode de déformation de maillage qui divise la surface en une collection de morceaux élémentaires de surfaces que nous nommons patches. Ces patches sont organisés dans un graphe de déformation, et une force est appliquée sur cette structure pour émuler une déformation élastique par rapport à la pose de référence. Comme seconde contribution, nous présentons une formulation probabiliste de l'alignement de surfaces déformables qui modélise explicitement le bruit dans le processus d'acquisition. Pour finir, nous étudions dans quelle mesure les a-prioris sur la nature articulée du mouvement peuvent aider, et comparons différents modèles de déformation à une méthode de suivi de squelette. Les développements rapportés par cette thèse sont validés par de nombreuses expériences sur une variété de séquences. Ces résultats montrent qu'en dépit d'a-prioris moins forts sur les surfaces suivies, les idées présentées permettent de traiter des scènes complexes contenant de multiples objets tout en se comportant de façon robuste vis-a-vis de données fragmentaires et d'erreurs de reconstruction. / In this thesis we address the problem of digitizing the motion of three-dimensional shapes that move and deform in time. These shapes are observed from several points of view with cameras that record the scene's evolution as videos. Using available reconstruction methods, these videos can be converted into a sequence of three-dimensional snapshots that capture the appearance and shape of the objects in the scene. The focus of this thesis is to complement appearance and shape with information on the motion and deformation of objects. In other words, we want to measure the trajectory of every point on the observed surfaces. This is a challenging problem because the captured videos are only sequences of images, and the reconstructed shapes are built independently from each other. While the human brain excels at recreating the illusion of motion from these snapshots, using them to automatically measure motion is still largely an open problem. The majority of prior works on the subject has focused on tracking the performance of one human actor, and used the strong prior knowledge on the articulated nature of human motion to handle the ambiguity and noise inherent to visual data. In contrast, the presented developments consist of generic methods that allow to digitize scenes involving several humans and deformable objects of arbitrary nature. To perform surface tracking as generically as possible, we formulate the problem as the geometric registration of surfaces and deform a reference mesh to fit a sequence of independently reconstructed meshes. We introduce a set of algorithms and numerical tools that integrate into a pipeline whose output is an animated mesh. Our first contribution consists of a generic mesh deformation model and numerical optimization framework that divides the tracked surface into a collection of patches, organizes these patches in a deformation graph and emulates elastic behavior with respect to the reference pose. As a second contribution, we present a probabilistic formulation of deformable surface registration that embeds the inference in an Expectation-Maximization framework that explicitly accounts for the noise and in the acquisition. As a third contribution, we look at how prior knowledge can be used when tracking articulated objects, and compare different deformation model with skeletal-based tracking. The studies reported by this thesis are supported by extensive experiments on various 4D datasets. They show that in spite of weaker assumption on the nature of the tracked objects, the presented ideas allow to process complex scenes involving several arbitrary objects, while robustly handling missing data and relatively large reconstruction artifacts.
43

Application du contrôle stochastique en théorie de la décision avec croyances multiples et non dominées en temps / Incertitude Knightienne, arbitrage, maximisation d’utilité, prix d’indifférence d’utilité, croyances multiples non dominées , programmation dynamique, théorie de la mesure, sélection mesurable, ensemble analytique Stochastic control applied in the

Blanchard, Romain 25 September 2017 (has links)
Cette dissertation traite des trois thématiques suivantes : incertitude, fonctions d’utilité et non-arbitrage. Dans le premier chapitre, nous supposons qu’il n’y a pas d’incertitude sur les croyances et établissons l’existence d’un portefeuille optimal pour un investisseur qui opère dans un marché financier multi-période à temps discret et maximise son espérance terminale d’utilité. Nous considérons des fonctions d’utilité aléatoires non concaves, non continues définies sur l’axe réel positif. La preuve repose sur de la programmation dynamique et des outils de théorie de la mesure.Dans les trois chapitres suivant nous introduisons le concept d’incertitude knightienne et adoptons le modèle de marché financier multi-période à temps discret avec croyances multiples non dominées introduit par B. Bouchard and M. Nutz (Arbitrage and duality in nondominated discrete-time models)Dans le second chapitre, nous étudions la notion de non-arbitrage quasi-sûre introduite par B. Bouchard and M. Nutz (Arbitrage and duality in nondominated discrete-time models) et en proposons deux formulations équivalentes: une version quantitative et une version géométrique. Nous proposons aussi une condition forte de non-arbitrage afin de simplifier des difficultés techniques.Nous utilisons ces résultats dans le troisième chapitre pour résoudre le problème de la maximisation d’espérance d’utilité sous la plus défavorable des croyances pour des fonctions d’utilité concaves, définies sur l’axe positif réel non-bornées. La preuve utilise à nouveau de la programmation dynamique et des techniques de sélection mesurable.Finalement, dans le dernier chapitre, nous développons un modèle de d’évaluation par indifférence d’utilité et démontrons que sous de bonnes conditions, le prix d’indifférence d’un actif contingent converge vers son prix de sur réplication. / This dissertation evolves around the following three general thematic: uncertainty, utility and no-arbitrage.In the first chapter we establish the existence of an optimal portfolio for investor trading in a multi-period and discrete-time financial market without uncertainty and maximising its terminal wealth expected utility. We consider general non-concave and non-smooth random utility function defined on the half real-line. The proof is based on dynamic programming and measure theory tools.In the next three chapters, we introduce the concept of Knightian uncertainty and adopt the multi-prior non dominated and discrete time framework introduced in [25]..In this setting, in the second chapter we study the notion of quasi-sure no-arbitrage introduced in [25] and propose two equivalent definitions: a quantitative and geometric characterisation. We also introduce a stronger no-arbitrage condition that simplifies some of the measurability difficulties.In the third chapter, we build on the results obtained in the previous chapter to study the maximisation of multiple-priors non-dominated worst-case expected utility for investors trading in a multi-period and discrete-time financial for general concave utility functions defined on the half-real line unbounded from above. The proof uses again a dynamic programming framework together with measurable selection.Finally the last chapter formulates a utility indifference pricing model for investor trading in a multi-period and discrete-time financial market. We prove that under suitable condition the multiples-priors utility indifference prices of a contingent claim converge to its multiple-priors superreplication price
44

Neutrino velocity measurement with the OPERA experiment in the CNGS beam / Mesure de la vitesse des neutrinos avec l'expérience OPERA sur le faisceau CNGS

Brunetti, Giulia 20 May 2011 (has links)
Les travaux de recherche présentés dans cette thèse étudient la vitesse des neutrinos mesurée par l’expérience OPERA sur le faisceau CNGS au CERN. Divers modèles théoriques de gravité quantique et d’extra-dimensions prévoient des effets importants sur la violation de la conservation de Lorentz qui serait observable par la mesure de la vitesse des neutrinos. L’expérience MINOS a publié en 2007 une mesure de la vitesse des neutrinos muoniques sur une distance de 730 km avec un écart par rapport à celui de la lumière de 126 ns avec une erreur statistique de 32 ns et une erreur systématique de 64 ns. L’expérience OPERA détecte également des neutrinos muoniques ayant parcourut 730 km avec une sensibilité significativement meilleure que MINOS grâce à une statistique plus élevée due à l’énergie plus élevée du faisceau et à le système de synchronisation entre OPERA et le faisceau CNGS beaucoup plus sophistiquée et modifié dans le but de réduire l’erreur systématique. Ce système est composé par des horloges au césium et de récepteurs GPS spéciaux fonctionnant en common view mode. Le tout permet un time transfer entre les deux sites précis à l’ordre de 1 ns. Un système d’échantillonnage à 1 GHz (fast waveform digitizer) capable de reconstruire la distribution temporelle des protons envoyés sur la cible du CNGS a été intégré au système existant de mesure du faisceau CNGS. Le résultat consiste en la mesure de la vitesse des neutrinos produits artificiellement avec la précision la plus élevée jamais atteinte: le temps de vol des neutrinos a été déterminé avec une incertitude statistique d’environ 10 ns et une incertitude systématique plus petite de 20 ns. / The thesis concerns the measurement of the neutrino velocity with the OPERA experiment in the CNGS beam. There are different theoretical models that allow for Lorentz violating effects which can be investigated with measurements on terrestrial neutrino beams. The MINOS experiment published in 2007 a measure on the muon neutrinos over a distance of 730 km finding a deviation with respect to the expected time of flight of 126 ns with a statistical error of 32 ns and a systematic error of 64 ns. The OPERA experiment observes as well muon neutrinos 730 km away from the source, with a sensitivity significantly better than MINOS thanks to the higher number of interactions in the detector due to the higher energy beam and the much more sophisticated timing system explicitly upgraded in view of the neutrino velocity measurement. This system is composed by atomic cesium clocks and GPS receivers operating in “common view mode”. Thanks to this system a time-transfer between the two sites with a precision at the level of 1 ns is possible. Moreover, a Fast Waveform Digitizer was installed along the proton beam line at CERN in order to measure the internal time structure of the proton pulses that are sent to the CNGS target. The result on the neutrino velocity is the most precise measurement so far with terrestrial neutrino beams: the neutrino time of flight was determined with a statistical uncertainty of about 10 ns and a systematic uncertainty smaller than 20 ns.
45

Tactical production planning for physical and financial flows for supply chain in a multi-site context / Planification tactique de production des flux physiques et financiers d’une chaîne logistique multi-site

Bian, Yuan 19 December 2017 (has links)
En période de crise financière, les entreprises ont besoin de trésorerie pour réagir efficacement aux aléas et assurer leur solvabilité. Cette thèse se situe à l’interface entre l’opérationnel et la finance pour développer des modèles de planification tactique gérant simultanément les flux physiques et financiers dans la supply chain. Le coût de financement des opérations basé sur le besoin en fond de roulement (BFR) est intégré comme un nouvel aspect financier jamais considéré dans la littérature de lot-sizing. Nous débutons par une extension du modèle EOQ considérant les coûts de financement du BFR. L’objectif est la maximisation du profit. Une quantité de production optimale est obtenue analytiquement ainsi que l’analyse de la sensibilité du modèle. De plus, les comparaisons avec le modèle EOQ et un modèle qui considère le coût du capital sont étudiées. Ensuite, un modèle basé sur un lot-sizing dynamique est établi. La propriété ZIO est démontrée et permet l’utilisation d’un algorithme en temps polynomial. Enfin un scénario multi-niveau à capacité infini est étudié avec une approche séquentielle puis centralisée. La propriété ZIO est prouvée dans ces deux cas. Des algorithmes de programmation dynamique sont utilisés pour obtenir une solution optimale. Cette thèse peut être considérée comme un premier, mais significatif, travail combinant la planification de production et la gestion du besoin en fond de roulement dans des modèles de planification tactique. Nous montrons que les aspects financiers ont un impact significatif sur les plans de production. Les cas étudiés dans cette thèse peuvent être considérés comme des sous-problèmes dans l’étude de scénario plus réalistes. / In financial crisis, companies always need free cash flow to efficiently react to any uncertainties to ensure solvency. Thus, this thesis serves as an interface between operations and finance to develop tactical production planning models for joint management of physical and financial flows in the supply chain. In these models, the financing cost of operation-based working capital requirement (WCR) is integrated as a new financial aspect never before considered in the lot-sizing literature. We first focus on extending the classic EOQ model by considering the financing cost of WCR with a profit maximization objective. The optimal analytic production quantity formula is derived as well as sensitivity analysis of this model. Moreover, a comparison with the EOQ model and with the formula which considers the cost of capital are discussed. Secondly, a dynamic lot-sizing-based, discounted cash flow model is established based on Uncapacitated lot-sizing model. The zero-inventory ordering property is proven valid for this case and a polynomial-time algorithm can thus be established. Thirdly, multi-level and infinite capacity scenario is investigated with both sequential and centralized approaches. The ZIO property is demonstrated valid in both cases. Dynamic-programming based algorithms are constructed in order to obtain an optimal solution. This thesis should be considered as a first, but significant setup of combining production planning and working capital management. It is shown the significant financial consequences of lot-sizing decision on production planning. The cases investigated in this thesis may be tackled as subproblems in the study of more realistic scenarios.
46

Influencers characterization in a social network for viral marketing perspectives / Caractérisation des influenceurs dans un réseau social pour des perspectives de Marketing viral

Jendoubi, Siwar 16 December 2016 (has links)
Le marketing viral est une nouvelle forme de marketing qui exploite les réseaux sociaux afin de promouvoir un produit, une marque, etc. Il se fonde sur l'influence qu'exerce un utilisateur sur un autre. La maximisation de l'influence est le problème scientifique pour le marketing viral. En fait, son but principal est de sélectionner un ensemble d'utilisateurs d'influences qui pourraient adopter le produit et déclencher une large cascade d'influence et d'adoption à travers le réseau. Dans cette thèse, nous proposons deux modèles de maximisation de l'influence sur les réseaux sociaux. L'approche proposée utilise la théorie des fonctions de croyance pour estimer l'influence des utilisateurs. En outre, nous introduisons une mesure d'influence qui fusionne de nombreux aspects d'influence, comme l'importance de l'utilisateur sur le réseau et la popularité de ces messages. Ensuite, nous proposons trois scénarii de marketing viral. Pour chaque scénario, nous introduisons deux mesures d'influence. Le premier scénario cherche les influenceurs ayant une opinion positive sur le produit. Le second scénario concerne les influenceurs ayant une opinion positive et qui influencent des utilisateurs ayant une opinion positive et le dernier scénario cherche des influenceurs ayant une opinion positive et qui influencent des utilisateurs ayant une opinion négative. Dans un deuxième lieu, nous nous sommes tournés vers un autre problème important, qui est le problème de la prédiction du sujet du message social. En effet, le sujet est également un paramètre important dans le problème de la maximisation de l'influence. A cet effet, nous introduisons quatre algorithmes de classification qui ne nécessitent pas le contenu du message pour le classifier, nous avons juste besoin de ces traces de propagation. Dans nos expérimentations, nous comparons les solutions proposées aux solutions existantes et nous montrons la performance des modèles de maximisation de l'influence et les classificateurs proposés. / The Viral Marketing is a relatively new form of marketing that exploits social networks in order to promote a product, a brand, etc. It is based on the influence that exerts one user on another. The influence maximization is the scientific problem for the Viral Marketing. In fact, its main purpose is to select a set of influential users that could adopt the product and trigger a large cascade of influence and adoptions through the network. In this thesis, we propose two evidential influence maximization models for social networks. The proposed approach uses the theory of belief functions to estimate users influence. Furthermore, we introduce an influence measure that fuses many influence aspects, like the importance of the user in the network and the popularity of his messages. Next, we propose three Viral Marketing scenarios. For each scenario we introduce two influence measures. The first scenario is about influencers having a positive opinion about the product. The second scenario searches for influencers having a positive opinion and influence positive opinion users and the last scenario looks for influencers having a positive opinion and influence negative opinion users. On the other hand, we turned to another important problem which is about the prediction of the social message topic. Indeed, the topic is also an important parameter in the influence maximization problem. For this purpose, we introduce four classification algorithms that do not need the content of the message to classify it, they just need its propagation traces. In our experiments, we compare the proposed solutions to existing ones and we show the performance of the proposed influence maximization solutions and the proposed classifiers.
47

Fair vaccination strategies with influence maximization : a case study on COVID-19

Neophytou, Nicola 11 1900 (has links)
Pendant la pandémie de Covid-19, les minorités raciales et les groupes économiquement défavorisés ont connu des taux accrus d’infection, d’hospitalisation et de décès dans les zones urbaines. Cette disparité témoigne de l’oppression systématique à laquelle sont confrontées les minorités raciales et la classe ouvrière, qui s’étend évidemment aux services de santé. Les inégalités flagrantes en matière de santé étaient évidentes avant que les vaccins ne soient disponibles, nous ne pouvons donc pas simplement les attribuer à des attitudes culturelles d’hésitation à la vaccination. Dans ce travail, nous présentons des solutions pour optimiser la distribution équitable des vaccins pour différents groupes démographiques, afin de promouvoir un accès équitable aux vaccins lors du premier cycle d’attribution. Nous nous appuyons sur des travaux antérieurs pour construire des réseaux de mobilité de trois zones métropolitaines américaines en utilisant des données de visites réelles dans des lieux publics au cours des premières semaines de la pandémie. Nous proposons une nouvelle méthode utilisant la maximisation de l’influence pour détecter les quartiers les plus influents de la zone urbaine en termes d’efficacité dans la propagation de la maladie. Nous modélisons ensuite la propagation ultérieure de la maladie avec ces quartiers sélectionnés vaccinés. De plus, nous introduisons des considérations d’équité afin de mettre en œuvre un accès équitable aux vaccins pour les groupes raciaux et les groupes de revenus du réseau. Pour fusionner nos solutions avec les stratégies actuelles, nous combinons nos stratégies équitables avec une méthode de priorisation pour les groupes plus âgés du réseau. / During the Covid-19 pandemic, racial minorities and economically-disadvantaged groups experienced heightened rates of infection, hospitalization and death in urban areas. This disparity speaks to the systematic oppression faced by racial minorities and the working classes, which evidently extends to healthcare provisions. The stark inequalities in health outcomes were clear before vaccines became available, so we cannot simply attribute this to cultural attitudes of vaccine hesitancy. In this work, we present solutions to optimize the fair distribution of vaccines for different demographic groups, in order to promote equitable vaccine access in the first round of allocation. We build on previous work to construct mobility networks of three US metropolitan areas using data of real visits to public places during the first weeks of the pandemic. We propose a novel method using influence maximization (IM) to detect the most influential neighborhoods in the urban area in terms of efficacy in spreading the disease. We then model the subsequent disease spread with these selected neighborhoods vaccinated. Additionally, we introduce fairness considerations, to implement equitable vaccine access for racial groups and income groups in the network. To merge our solutions with current strategies, we combine our fair strategies with a prioritization method for older-age groups in the network.
48

Perspectives modernes de la fonction d'administrateur, corollaires de la responsabilité sociale de la société commerciale

Villiard, Patrick 02 1900 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal. / Ce mémoire de maîtrise traite de la responsabilité des administrateurs au sein du conseil d'administration d'une société commerciale'. Dans une perspective historique, la mission de la société commerciale a été perçue comme étant la maximisation des profits dont profiteraient les actionnaires, le gain étant alors la seule préoccupation de l'administrateur. La révolution industrielle ayant provoqué l'apparition de sociétés commerciales "géantes" ainsi qu'un élargissement des valeurs véhiculées par la société, la société commerciale se voit aujourd'hui aux prises avec une mission sociale élargie et la responsabilité sociale qui en découle. Or, par le fait même, la responsabilité des administrateurs se trouve modifiée en ce qu'ils doivent tenir compte de considérations sociales plus larges. Il importe donc de faire la lumière sur les différents aspects de la mission de la société commerciale dans sa conception classique et de voir quels étaient alors le statut et les devoirs incombant aux administrateurs de celle-ci. La société commerciale d'aujourd'hui n'existe plus pour le seul bénéfice des actionnaires. Elle existe pour un ensemble de bénéficiaires ou partenaires dans l'entreprise qui convergent leurs efforts vers un but commun et dont le respect des intérêts est devenu le fondement de la société commerciale. Le profit, toujours important, est maintenant considéré comme le moyen d'atteindre la finalité commune des partenaires. À l'heure actuelle, la fonction du conseil d'administration revêt un caractère double, soit la fonction de gestion qui lui revient légalement et celle de contrôle de cette gestion que notre droit corporatif lui a attribuée avec le temps. Plusieurs soutiennent que les structures administratives actuelles ne permettent plus à la société commerciale de remplir son rôle social et que des réformes doivent être apportées pour permettre la représentation des partenaires à l'intérieur d'un organe de contrôle qui doit être, dans le meilleur des mondes, complètement distinct de l'organe de gestion. Le présent mémoire traite de l'évolution de la mission de la société commerciale vers des éléments sociaux plus élargis et tente de déterminer si, avec la nouvelle fonction de conciliation des intérêts des partenaires corporatifs ou dans l'éventualité d'une réforme des structures administratives, le statut et les devoirs des administrateurs se trouvent modifiés.
49

Μελέτη υλοποίησης τεχνικών κατανεμημένου προσανατολισμού σε πραγματικές συνθήκες

Μπότσης, Βασίλειος 09 December 2013 (has links)
Σκοπός αυτής της εργασίας είναι η μελέτη τεχνικών κατανεμημένου προσανατολισμού σε πραγματικές συνθήκες. Πιο συγκεκριμένα σε αυτά στα συστήματα θεωρείται ότι ο κόμβος-πομπός δεν έχει καλή σύνδεση με το δέκτη και κατά συνέπεια δεν μπορεί να επικοινωνήσει απευθείας με τον κόμβο-δέκτη χωρίς δραματική αύξηση της ενέργειας μετάδοσης. Παρόλα αυτά η χρήση κατανεμημένου προσανατολισμού δίνει τη δυνατότητα να βελτιωθεί σημαντικά η κατανάλωση ενέργειας. Το σχήμα που θα χρησιμοποιηθεί είναι ενίσχυση και προώθηση (AF) 2 βημάτων, με το οποίο οι συνεργατικοί κόμβοι απλώς ενισχύουν και στην συνέχεια επαναμεταδίδουν το μήνυμα. Συνεπώς, ζητούμενο είναι η εύρεση των μιγαδικών βαρών με τα οποία πρέπει ο κάθε συνεργαζόμενος κόμβος χωριστά να ενισχύσει το σήμα. Οι τεχνικές που θα χρησιμοποιηθούν έχουν ως κριτήρια την ελαχιστοποίηση της ενέργειας μετάδοσης με ταυτόχρονη ικανοποίηση του SNR, μεγιστοποίηση του SNR με περιορισμένη ολική ενέργεια μετάδοσης και μεγιστοποίηση του SNR με περιορισμένη ενέργεια μετάδοσης ανά συνεργαζόμενο κόμβο. Το πρώτο κριτήριο θα εξεταστεί, επίσης, και σε συστήματα με πολλαπλούς πομπούς και δέκτες. Λόγω της φύσης του προβλήματος, ο κατανεμημένος προσανατολισμός αναμένεται να έχει μεγάλη απήχηση σε συστήματα με πολλούς διασκορπιστές και εμπόδια, όπως σε ένα αστικό περιβάλλον, και, επομένως, είναι λογικό να θεωρηθεί ότι τα κανάλια του συστήματος είναι Rayleigh, δηλαδή ασυσχέτιστα χωρίς οπτική επαφή (LOS). Για να προσομοιωθεί το σύστημα σε πραγματικές συνθήκες οι μέθοδοι που θα υλοποιήσουμε στην εργασία χρησιμοποιούν τα στατιστικά του καναλιού. Επιπλέον, η εκτίμηση καναλιού εφόσον θεωρούμε ότι έχουμε Gaussian λευκό θόρυβο θα γίνει με την χρήση του βέλτιστου γραμμικού εκτιμητή (BLUE). Η επίδραση της εκτίμησης του καναλιού θα μελετηθεί για δύο περιπτώσεις: με αμοιβαία και χωρίς αμοιβαία κανάλια. / The purpose of this thesis is the study of methods of distributed beamforming under real circumstances. More specifically, these systems are considered that the transmitter must increase tremendously the required transmit energy to communicate with the receiver. However the use of the distributed beamforming allows the system to improve the energy consumption. The scheme that is used from relays is amplify and forward of two steps, where the relays only amplify and then forward the message to the destination. That is, the purpose is to find the complex weights to be used by the corresponding relay so as to amplify the message of the transmitter. The methods that are implemented have as criterions the minimization of transmit energy while satisfying the SNR, maximization of SNR while limiting the system's transmit energy and maximization of SNR while limiting transmit energy of each relay individually. The first criterion is also studied at systems with more than one pair transmitter-receiver. Due to the nature of the problem, distributed beamforming is expected to be used at environments with many obstacles and scatterers, like urban environment, and so it is rationale to suppose that the channels should be Rayleigh, meaning uncorrelated without line of sight. To simulate the system under real circumstances the methods that we will implement shall use the second order statistics of the channels. Moreover, due to Gaussian white noise, channels are estimated using the Best Linear Unbiased Estimator. The impact of channel estimation is studied in two cases: "reciprocal" and "not reciprocal".
50

Some contributions to financial market modelling with transaction costs / Quelques contributions à la modélisation des marchés financiers avec coûts de transaction

Tran, Quoc-Tran 22 October 2014 (has links)
Cette thèse traite plusieurs problèmes qui se posent pour les marchés financiers avec coûts de transaction et se compose de quatre parties.On commence, dans la première partie, par une étude du problème de couverture approximative d’une option Européenne pour des marchés de volatilité locale avec coûts de transaction proportionnelles.Dans la seconde partie, on considère le problème de l’optimisation de consommation dans le modèle de Kabanov, lorsque les prix sont conduits par un processus de Lévy.Dans la troisième partie, on propose un modèle général incluant le cas de coûts fixes et coûts proportionnels. En introduisant la notion de fonction liquidative, on étudie le problème de sur-réplication d’une option et plusieurs types d’opportunités d’arbitrage.La dernière partie est consacrée à l’étude du problème de maximisation de l’utilité de la richesse terminale d’une portefeuille sous contraintes de risque. / This thesis deals with different problems related to markets with transaction costs and is composed of four parts.In part I, we begin with the study of assymptotic hedging a European option in a local volatility model with bid-ask spread.In part II, we study the optimal consumption problem in a Kabanov model with jumps and with default risk allowed.In part III, we sugest a general market model defined by a liquidation procès. This model is more general than the models with both fixed and proportional transaction costs. We study the problem of super-hedging an option, and the arbitrage theory in this model.In the last part, we study the utility maximization problem under expected risk constraint.

Page generated in 0.0729 seconds