• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 44
  • 20
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 76
  • 23
  • 14
  • 12
  • 12
  • 12
  • 10
  • 10
  • 10
  • 9
  • 9
  • 9
  • 9
  • 9
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

La faiblesse de volonté : conceptions classiques et dynamiques

Labonté, Jean-François 09 1900 (has links)
La présente thèse expose, analyse et critique les positions classiques et modernes à l’égard de la nature et des causes de la faiblesse de volonté. L’identification du problème par Platon et Aristote a donné lieu à l’explicitation de principes et propositions portant sur la rationalité pratique en général et la motivation en particulier. Une discussion de ces principes et propositions est faite dans la mesure où ils ont conservé une certaine pertinence pour les théories modernes. Ce qui est devenu la conception standard de la stricte akrasie ainsi que son caractère prétendument paradoxal sont mis de l’avant. Nous argumentons qu’une position sceptique à l’égard de la stricte akrasie ne peut pas reposer sur une version ou une autre de la théorie des préférences révélées et montrons qu’une description du processus décisionnel est nécessaire pour attribuer une préférence synthétique ou un meilleur jugement. Nous abordons le débat philosophique qui oppose une conception internaliste du lien entre le meilleur jugement et la décision à une conception externaliste, et soutenons, sur la base de résultats expérimentaux en psychologie cognitive et en neuroscience, que cette dernière conception est plus robuste, bien qu’imparfaite. Ces résultats ne vont pas toutefois à l’encontre de l’hypothèse que les agents sont des maximisateurs dans la satisfaction de leur préférence, laquelle hypothèse continue de justifier une forme de scepticisme à l’égard de la stricte akrasie. Nous exposons, par contre, des arguments solides à l’encontre de cette hypothèse et montrons pourquoi la maximisation n’est pas nécessairement requise pour le choix rationnel et que nous devons, par conséquent, réviser la conception standard de la stricte akrasie. Nous discutons de l’influente théorie de Richard Holton sur la faiblesse de volonté non strictement akratique. Bien que compatible avec une conception non maximisante, sa théorie réduit trop les épisodes de faiblesse de volonté à des cas d’irrésolution. Nous exposons finalement la théorie du choix intertemporel. Cette théorie est plus puissante parce qu’elle décrit et explique, à partir d’un même schème conceptuel, autant la stricte akrasie que l’akrasie tout court. Ce schème concerne les propriétés des distributions temporelles des conséquences des décisions akratiques et les attitudes prospectives qui motivent les agents à les prendre. La structure de ces distributions, couplée à la dévaluation à l’égard du futur, permet également d’expliquer de manière simple et élégante pourquoi la faiblesse de volonté est irrationnelle. Nous discutons de l’hypothèse qu’une préférence temporelle pure est à la source d’une telle dévaluation et mentionnons quelques éléments critiques et hypothèses concurrentes plus conformes à une approche cognitiviste du problème. / This thesis explains, analyses and examines the classical and modern positions on the nature and causes of the weakness of will. Since Plato and Aristotle’s identification of the problem, many principles and propositions on the subject of practical rationality in general and motivation in particular have been examined in details. These principles and propositions are being discussed on the basis that they are still somewhat relevant to modern theories. An emphasis is made on what is now known as the standard conception of strict akrasia and its supposedly paradoxical nature. We argue that a skeptical position toward strict akrasia cannot be based on one version or another of the preference-revealed theory and we demonstrate that a description of the decision process is necessary to assign an overall preference or a better judgment. We discuss the philosophical debate on internalist and externalist conceptions of the connection between better judgment and decision. We then argue that, based on experimental results in cognitive psychology and neuroscience, the externalist conception, although imperfect, is stronger. But these experimental results are not incompatible with the hypothesis that agents are maximizers when it comes to the satisfaction of their preference. This hypothesis continues to justify a form of skepticism toward strict akrasia. However, we strongly argue against this hypothesis and we demonstrate why maximization is not absolutely necessary to rational choice; therefore, we have to revise the standard conception of strict akrasia. We then discuss Richard Holton’s influential theory on non-strictly akratic weakness of will. Although compatible with a non-maximizing conception, Holton’s theory tends to reduce episodes of weakness of will to irresolution cases. Lastly, we introduce the theory of intertemporal choice, a more potent theory that describes and explains, with the same conceptual schema, both strict and non-strict akrasia. This schema concerns the properties of temporal distribution of akratic decision’s consequences and the prospective attitudes that motivate agents to make those decisions. Also, the structure of these distributions, along with the devaluation of the future, allows us to explain, clearly and simply, why weakness of will is irrational. We discuss the hypothesis that this devaluation of the future is due to a pure temporal preference and we mention a number of critical elements and rival hypothesis more in keeping with a cognitive approach to the problem.
32

Network mechanisms of memory storage in the balanced cortex / Mécanismes de réseau de stockage de mémoire dans le cortex équilibré

Barri, Alessandro 08 December 2014 (has links)
Pas de résumé en français / It is generally maintained that one of cortex’ functions is the storage of a large number of memories. In this picture, the physical substrate of memories is thought to be realised in pattern and strengths of synaptic connections among cortical neurons. Memory recall is associated with neuronal activity that is shaped by this connectivity. In this framework, active memories are represented by attractors in the space of neural activity. Electrical activity in cortical neurones in vivo exhibits prominent temporal irregularity. A standard way to account for this phenomenon is to postulate that recurrent synaptic excitation and inhibition as well as external inputs are balanced. In the common view, however, these balanced networks do not easily support the coexistence of multiple attractors. This is problematic in view of memory function. Recently, theoretical studies showed that balanced networks with synapses that exhibit short-term plasticity (STP) are able to maintain multiple stable states. In order to investigate whether experimentally obtained synaptic parameters are consistent with model predictions, we developed a new methodology that is capable to quantify both response variability and STP at the same synapse in an integrated and statistically-principled way. This approach yields higher parameter precision than standard procedures and allows for the use of more efficient stimulation protocols. However, the findings with respect to STP parameters do not allow to make conclusive statements about the validity of synaptic theories of balanced working memory. In the second part of this thesis an alternative theory of cortical memory storage is developed. The theory is based on the assumptions that memories are stored in attractor networks, and that memories are not represented by network states differing in their average activity levels, but by micro-states sharing the same global statistics. Different memories differ with respect to their spatial distributions of firing rates. From this the main result is derived: the balanced state is a necessary condition for extensive memory storage. Furthermore, we analytically calculate memory storage capacities of rate neurone networks. Remarkably, it can be shown that crucial properties of neuronal activity and physiology that are consistent with experimental observations are directly predicted by the theory if optimal memory storage capacity is required.
33

Quelques contributions au contrôle et aux équations rétrogrades en finance.

Fabre, Emilie 29 February 2012 (has links) (PDF)
Je me suis intéressée à résoudre certains problèmes financiers par du contrôle stochastique. On a premièrement considéré un problème mixte d'investissement optimal et de vente optimale. On a étudié le comportement d'un investisseur possédant un actif indivisible qu'il cherche à vendre tout en gérant en continu un portefeuille d'actifs risqués. Puis, on s'est intéressé à l'étude des équations stochastiques rétrogrades du premier et du second ordre avec contraintes convexes. Dans chaque cas, on a prouvé l'existence d'une solution minimale ainsi qu'une représentation stochastique pour ce problème. Enfin, on a étudié un modèle à volatilité stochastique où la volatilité instantanée dépend de la courbe de volatilité forward. On propose un développement asymptotique du prix de l'option pour de petites variations de la volatilité.
34

Inférence bayésienne pour la reconstruction d'écoulements complexes - Application au profil NACA0012

Leroux, Romain 16 March 2012 (has links) (PDF)
Cette thèse se place dans le cadre de la calibration de modèles réduits d'écoulement à partir de séquences expérimentales acquises par PIV résolue en temps autour d'un profil NACA0012 à différents angles d'incidence et nombres de Reynolds. Un modéle à espace d'état régissant l'évolution des variables d'état du modèle réduit POD-Galerkin et mesurant de manière directe ou indirecte une partie ou l'ensemble de ces variables d'état est alors utilisé. Une première partie est consacrée à l'application d'estimateurs bayésiens issus de l'assimilation séquentielle de données sur le modèle réduit POD-Galerkin linéaire et quadratique dans le cas où l'ensemble des observations est pris en compte. Les estimateurs bayésiens utilisés sont les filtres de Kalman linéaire et d'ensemble EnKF. Ils permettent au modèle réduit de restituer la dynamique de l'écoulement considéré au cours du temps et de reconstruire un pourcentage significatif de l'écoulement. La seconde partie traite de la reconstruction de champs de vitesse manquants après un sous-échantillonnage des données. Les coefficients manquants sont ensuite reconstruits à l'aide de l'algorithme EM. Une dernière partie est consacrée au filtrage stochastique du modèle réduit POD-Galerkin à l'aide du filtre EnKF en fonction d'un signal de tension obtenu par anémométrie à film chaud en aval du profil NACA0012. La PLSR a été mise en place pour définir un opérateur linéaire des observations dans le filtre de Kalman EnKF. Ces méthodes sont ensuite validées expérimentalement pour la reconstruction de champs de vitesse d'écoulements d'une des congurations étudiées.
35

Acquisition de classes verbales pour le français

Falk, Ingrid 13 June 2012 (has links) (PDF)
Des classifications verbales associant classes de verbes avec des propriétés syntaxiques et sémantiques communes aux membres d'une classe se sont montrées utiles aussi bien dans la recherche linguistique que dans le traitement automatique des langues. Cette thèse a pour objectif de présenter des approches pour l'acquisition automatique de classes verbales pour le Français palliant ainsi partiellement le manque de ce type de ressources pour le Français. Par rapport aux classes générées, dans la plupart des approches existantes, les classes de verbes produites ne sont pas associées avec une caractérisation explicite des propriétés syntaxiques et sémantiques partagées par les membres des classes. Notre approche permet non seulement de créer des classes de verbes mais aussi d'associer ces classes avec les cadres de sous-catégorisations et les grilles thématiques partagés par les membres d'une classe. Nous utilisons deux méthodes de classification pour acquérir des classes verbales. La première est une méthode symbolique appelée \textit{Analyse Formelle de Conceptes} (FCA - Formal Concept Analysis). La deuxième exploite un algorithme de gaz neuronal croissant basé sur l'étiquetage des clusters par maximisation de vraisemblance (IGNGF - Incremental Growing Neural Gas with Feature maximisation). Pour la création des classes verbales, nous appliquons ces deux méthodes aux même ressources Françaises et Anglaises. Celle-ci sont constituées d'une part d'un lexique syntaxique pour les verbes du Français, issue de la fusion de trois ressources pour le Français existantes. D'autre part elles sont obtenues par traduction automatique en Français des classes du Verbnet anglais. Les classes verbales produites sont associées à des informations syntaxiques et sémantiques explicites sous forme de cadres de sous-catégorisations et grilles thématiques. Les classifications produites sont évaluées dans un premier temps en tant que groupements de verbes par une comparaison à une référence (proposé par \cite{SunKorhonenEtAl}). Deuxièmement, les associations aux cadres syntaxiques et aux grilles thématiques sont évaluée d'une part d'une façon intrinsèque par une comparaison à une annotation manuelle en rôles thématiques. D'autre part nous effectuons une évaluation extrinsèque en utilisant les classes verbales dans une tâche d'annotation en rôles thématiques simplifiée. Ces évaluations montrent que les classifications obtenues par les deux méthodes sont pertinentes tant par rapport aux groupement de verbes produits qu'aux associations de ces verbes avec des cadres de sous-catégorisation et des grilles thématiques. Elles présentent néanmoins des caractéristiques complémentaires. Tandis que les classes produites par FCA se sont révélées plus performantes par rapport aux associations $\langle$verbe, cadre syntaxique$\rangle$ et $\langle$verbe, grille thématique$\rangle$, les classes générées par IGNGF correspondent mieux à la classification de référence et se sont montrées plus efficaces à l'attribution de rôles thématiques.
36

Sensor Fusion and Control Applied to Industrial Manipulators

Axelsson, Patrik January 2014 (has links)
One of the main tasks for an industrial robot is to move the end-effector in a predefined path with a specified velocity and acceleration. Different applications have different requirements of the performance. For some applications it is essential that the tracking error is extremely small, whereas other applications require a time optimal tracking. Independent of the application, the controller is a crucial part of the robot system. The most common controller configuration uses only measurements of the motor angular positions and velocities, instead of the position and velocity of the end-effector. The development of new cost optimised robots has introduced unwanted flexibilities in the joints and the links. The consequence is that it is no longer possible to get the desired performance and robustness by only measuring the motor angular positions.  This thesis investigates if it is possible to estimate the end-effector position using Bayesian estimation methods for state estimation, here represented by the extended Kalman filter and the particle filter. The arm-side information is provided by an accelerometer mounted at the end-effector. The measurements consist of the motor angular positions and the acceleration of the end-effector. In a simulation study on a realistic flexible industrial robot, the angular position performance is shown to be close to the fundamental Cramér-Rao lower bound. The methods are also verified in experiments on an ABB IRB4600 robot, where the dynamic performance of the position for the end-effector is significantly improved. There is no significant difference in performance between the different methods. Instead, execution time, model complexities and implementation issues have to be considered when choosing the method. The estimation performance depends strongly on the tuning of the filters and the accuracy of the models that are used. Therefore, a method for estimating the process noise covariance matrix is proposed. Moreover, sampling methods are analysed and a low-complexity analytical solution for the continuous-time update in the Kalman filter, that does not involve oversampling, is proposed.  The thesis also investigates two types of control problems. First, the norm-optimal iterative learning control (ILC) algorithm for linear systems is extended to an estimation-based norm-optimal ILC algorithm where the controlled variables are not directly available as measurements. The algorithm can also be applied to non-linear systems. The objective function in the optimisation problem is modified to incorporate not only the mean value of the estimated variable, but also information about the uncertainty of the estimate. Second, H∞ controllers are designed and analysed on a linear four-mass flexible joint model. It is shown that the control performance can be increased, without adding new measurements, compared to previous controllers. Measuring the end-effector acceleration increases the control performance even more. A non-linear model has to be used to describe the behaviour of a real flexible joint. An H∞-synthesis method for control of a flexible joint, with non-linear spring characteristic, is therefore proposed. / En av de viktigaste uppgifterna för en industrirobot är att förflytta verktyget i en fördefinierad bana med en specificerad hastighet och acceleration. Exempel på användningsområden för en industrirobot är bland annat bågsvetsning eller limning. För dessa typer av applikationer är det viktigt att banföljningsfelet är extremt litet, men även hastighetsprofilen måste följas så att det till exempel inte appliceras för mycket eller för lite lim. Andra användningsområden kan vara punktsvetsning av bilkarosser och paketering av olika varor. För dess applikationer är banföljningen inte det viktiga, istället kan till exempel en tidsoptimal banföljning krävas eller att svängningarna vid en inbromsning minimeras. Oberoende av applikationen är regulatorn en avgörande del av robotsystemet. Den vanligaste regulatorkonfigurationen använder bara mätningar av motorernas vinkelpositioner och -hastigheter, istället för positionen och hastigheten för verktyget, som är det man egentligen vill styra.  En del av utvecklingsarbetet för nya generationers robotar är att reducera kostnaden men samtidigt förbättra prestandan. Ett sätt att minska kostnaden kan till exempel vara att minska dimensionerna på länkarna eller köpa in billigare växellådor. Den här utvecklingen av kostnadsoptimerade robotar har infört oönskade flexibiliteter i leder och länkar. Det är därför inte längre möjligt att få den önskade prestandan och robustheten genom att bara mäta motorernas vinkelpositioner och -hastigheter. Istället krävs det omfattande matematiska modeller som beskriver dessa oönskade flexibiliteter. Dessa modeller kräver mycket arbete att dels ta fram men även för att identifiera parametrarna. Det finns automatiska metoder för att beräkna modellparametrarna men oftast krävs det en manuell justering för att få bra prestanda.  Den här avhandlingen undersöker möjligheterna att beräkna verktygspositionen med hjälp av bayesianska metoder för tillståndsskattning. De bayesianska skattningsmetoderna beräknar tillstånden för ett system iterativt. Med hjälp av en matematisk modell över systemet predikteras vad tillståndet ska vara vid nästa tidpunkt. Efter att mätningar av systemet vid den nya tidpunkten har genomförts justeras skattningen med hjälp av dessa mätningar. De metoder som har använts i avhandlingen är det så kallade extended Kalman filtret samt partikelfiltret.  Informationen på armsidan av växellådan ges av en accelerometer som är monterad på verktyget. Med hjälp av accelerationen för verktyget och motorernas vinkelpositioner kan en skattning av verktygspositionen beräknas. I en simuleringsstudie för en realistisk vek robot har det visats att skattningsprestandan ligger nära den teoretiska undre gränsen, känd som Raooch mätstörningar som påverkar roboten. För att underlätta trimningen så har en metod för att skatta processbrusets kovariansmatris föreslagits. En annan viktig del som påverkar prestandan är modellerna som används i filtren. Modellerna för en industrirobot är vanligtvis framtagna i kontinuerlig tid medan filtren använder modeller i diskret tid. För att minska felen som uppkommer då de tidskontinuerliga modellerna överförs till diskret tid har olika samplingsmetoder studerats. Vanligtvis används enkla metoder för att diskretisera vilket innebär problem med prestanda och stabilitet. För att hantera dessa problem införs översampling vilket innebär att tidsuppdateringen sker med en mycket kortare sampeltid än vad mätuppdateringen gör. För att undvika översampling kan det motsvarande tidskontinuerliga filtret användas för att prediktera tillstånden vid nästa diskreta tidpunkt. En analytisk lösning med låg beräkningskomplexitet till detta problem har föreslagits.  Vidare innehåller avhandlingen två typer av reglerproblem relaterade till industrirobotar. För det första har den så kallade norm-optimala iterative learning control styrlagen utökats till att hantera fallet då en skattning av den önskade reglerstorheten används istället för en mätning. Med hjälp av skattningen av systemets tillståndsvektor kan metoden nu även användas till olinjära system vilket inte är fallet med standardformuleringen. Den föreslagna metoden utökar målfunktionen i optimeringsproblemet till att innehålla inte bara väntevärdet av den skattade reglerstorheten utan även skattningsfelets kovariansmatris. Det innebär att om skattningsfelet är stort vid en viss tidpunkt ska den skattade reglerstorheten vid den tidpunkten inte påverka resultatet mycket eftersom det finns en stor osäkerhet i var den sanna reglerstorheten befinner sig.  För det andra har design och analys av H∞-regulatorer för en linjär modell av en vek robotled, som beskrivs med fyra massor, genomförts. Det visar sig att reglerprestandan kan förbättras, utan att lägga till fler mätningar än motorns vinkelposition, jämfört med tidigare utvärderade regulatorer. Genom att mäta verktygets acceleration kan prestandan förbättras ännu mer. Modellen över leden är i själva verket olinjär. För att hantera detta har en H∞-syntesmetod föreslagits som kan hantera olinjäriteten i modellen. / Vinnova Excellence Center LINK-SIC
37

La faiblesse de volonté : conceptions classiques et dynamiques

Labonté, Jean-François 09 1900 (has links)
La présente thèse expose, analyse et critique les positions classiques et modernes à l’égard de la nature et des causes de la faiblesse de volonté. L’identification du problème par Platon et Aristote a donné lieu à l’explicitation de principes et propositions portant sur la rationalité pratique en général et la motivation en particulier. Une discussion de ces principes et propositions est faite dans la mesure où ils ont conservé une certaine pertinence pour les théories modernes. Ce qui est devenu la conception standard de la stricte akrasie ainsi que son caractère prétendument paradoxal sont mis de l’avant. Nous argumentons qu’une position sceptique à l’égard de la stricte akrasie ne peut pas reposer sur une version ou une autre de la théorie des préférences révélées et montrons qu’une description du processus décisionnel est nécessaire pour attribuer une préférence synthétique ou un meilleur jugement. Nous abordons le débat philosophique qui oppose une conception internaliste du lien entre le meilleur jugement et la décision à une conception externaliste, et soutenons, sur la base de résultats expérimentaux en psychologie cognitive et en neuroscience, que cette dernière conception est plus robuste, bien qu’imparfaite. Ces résultats ne vont pas toutefois à l’encontre de l’hypothèse que les agents sont des maximisateurs dans la satisfaction de leur préférence, laquelle hypothèse continue de justifier une forme de scepticisme à l’égard de la stricte akrasie. Nous exposons, par contre, des arguments solides à l’encontre de cette hypothèse et montrons pourquoi la maximisation n’est pas nécessairement requise pour le choix rationnel et que nous devons, par conséquent, réviser la conception standard de la stricte akrasie. Nous discutons de l’influente théorie de Richard Holton sur la faiblesse de volonté non strictement akratique. Bien que compatible avec une conception non maximisante, sa théorie réduit trop les épisodes de faiblesse de volonté à des cas d’irrésolution. Nous exposons finalement la théorie du choix intertemporel. Cette théorie est plus puissante parce qu’elle décrit et explique, à partir d’un même schème conceptuel, autant la stricte akrasie que l’akrasie tout court. Ce schème concerne les propriétés des distributions temporelles des conséquences des décisions akratiques et les attitudes prospectives qui motivent les agents à les prendre. La structure de ces distributions, couplée à la dévaluation à l’égard du futur, permet également d’expliquer de manière simple et élégante pourquoi la faiblesse de volonté est irrationnelle. Nous discutons de l’hypothèse qu’une préférence temporelle pure est à la source d’une telle dévaluation et mentionnons quelques éléments critiques et hypothèses concurrentes plus conformes à une approche cognitiviste du problème. / This thesis explains, analyses and examines the classical and modern positions on the nature and causes of the weakness of will. Since Plato and Aristotle’s identification of the problem, many principles and propositions on the subject of practical rationality in general and motivation in particular have been examined in details. These principles and propositions are being discussed on the basis that they are still somewhat relevant to modern theories. An emphasis is made on what is now known as the standard conception of strict akrasia and its supposedly paradoxical nature. We argue that a skeptical position toward strict akrasia cannot be based on one version or another of the preference-revealed theory and we demonstrate that a description of the decision process is necessary to assign an overall preference or a better judgment. We discuss the philosophical debate on internalist and externalist conceptions of the connection between better judgment and decision. We then argue that, based on experimental results in cognitive psychology and neuroscience, the externalist conception, although imperfect, is stronger. But these experimental results are not incompatible with the hypothesis that agents are maximizers when it comes to the satisfaction of their preference. This hypothesis continues to justify a form of skepticism toward strict akrasia. However, we strongly argue against this hypothesis and we demonstrate why maximization is not absolutely necessary to rational choice; therefore, we have to revise the standard conception of strict akrasia. We then discuss Richard Holton’s influential theory on non-strictly akratic weakness of will. Although compatible with a non-maximizing conception, Holton’s theory tends to reduce episodes of weakness of will to irresolution cases. Lastly, we introduce the theory of intertemporal choice, a more potent theory that describes and explains, with the same conceptual schema, both strict and non-strict akrasia. This schema concerns the properties of temporal distribution of akratic decision’s consequences and the prospective attitudes that motivate agents to make those decisions. Also, the structure of these distributions, along with the devaluation of the future, allows us to explain, clearly and simply, why weakness of will is irrational. We discuss the hypothesis that this devaluation of the future is due to a pure temporal preference and we mention a number of critical elements and rival hypothesis more in keeping with a cognitive approach to the problem.
38

RSE et Service Public : oppositions, juxtapositions et articulations : le cas France Télécom

Ngaha, Angélique 08 July 2011 (has links) (PDF)
Aujourd'hui, RSE et Service Public dont les logiques prétendent servir l'intérêt général imprègnent le management des grands services publics de réseaux historiques français privatisés ou en voie de l'être. La recherche présentée vise à comprendre comment ces logiques s'opposent, se juxtaposent, et s'articulent concrètement dans un tel contexte managérial dominé par la logique de Maximisation de la Valeur pour l'Actionnaire.Pour ce faire, nous mobilisons le concept de dispositif forgé par Foucault ainsi que la sociologie de l'acteur réseau. Nous nous centrons sur le cas de l'entreprise France Télécom (FT) et de son dispositif RSE en y apportant quelques éclairages comparatifs.Nos résultats indiquent que chez FT le dispositif RSE officiel se déploie en se détachant des logiques de Service Public et en privilégiant le Business Case. Il poursuit prioritairement des objectifs de communication et d'anticipation des risques. Mais de manière décentralisée et autonome, émergent progressivement des initiatives RSE innovantes qui reposent sur la R&D, le Marketing stratégique et les partenariats avec les principaux fournisseurs. Elles visent la protection de l'environnement, le Service Public par procuration (en fournissant aux services publics des prestations leur permettant de mieux assurer leurs missions), et le dépassement de la fracture numérique, en même temps que la profitabilité. Dans le domaine social cependant, la RSE s'incarne surtout à travers des politiques de diversité (en interne) et de contrôle de la chaine d'approvisionnement pour éviter des violations majeures des droits de l'homme, ne touchant guère le cœur de la relation d'emploi, à moins que les contre-pouvoirs ne s'en emparent, comme nous le montrons dans l'étude du cas de l'Accord Cadre International sur les droits sociaux fondamentaux au travail de FT.
39

The theory of self-interest in modern economic discourse: a critical study in the light of African Humanism and process philosophical Anthropology

Murove, Munyaradzi Felix 09 1900 (has links)
Modern economic theory of self-interest alleges that in their economic relations people always behave in a way that maximises their utility. The idea whether human beings were solely self-interested has a long history as it can be seen from the writings of Greek philosophers and the Church fathers. Among Greek philosophers there were those who argued that human beings were naturally self-interested (Aristotle) and those who maintained that human beings were communal by nature (Plato, Stoics and the Pythagoreans). The later position was adopted by the Church fathers as they condemned self-interest as the sin of avarice and greed. The justification of self-interest in human and political activities was part and parcel of the economic and political early modernists, as it can be seen in the works of Mandeville, Hobbes, Hume and Adam Smith. In the writings of these thinkers, the flourishing of wealth depended on individual freedom to pursue their self-interests. In this regard, selfinterest became the sole source of motivation in the behaviour of homo economicus. A persistent motif in late modern economic discourse on self-interest is based on the idea that people think and act on the basis of that which is to their self-interest. It is mainly for this reason that late modern economic thinkers maintain that society would prosper when people are left alone to pursue their self-interests. Late modern economic theory of utility maximisation alleges that individuals act only after calculating costs and benefits. The argument of this thesis, based on the commonalities between African humanism and process philosophical anthropology, is that self-interest is antithetical to communal life as advocated in the ethic of Ubuntu. One who acts solely on the basis of maximising his or her utility would inevitably deprive others of a humane existence. A holistic metaphysical outlook based on the relatedness and interrelatedness of everything that exists as we find it in African humanism and process philosophical anthropology implies that the individual exists in internal relations with everything else. We should go beyond selfinterest by giving primacy to a holistic ethic. / Philosophy, Practical and Systematic Theology / D. Div. (Theological Ethics)
40

Discount retail internationalisation : barriers to the deployment of glocalisation

Christiansen, Hans January 2017 (has links)
The standardisations/adaptation theme is amongst the most debated within International Retailing. Much research has attended to the question of whether an MNC should adapt to local market needs or, if instead, it should emphasise the upholding of global standards to reap efficiencies. Within this debate there is much focus on resonating to market needs but less on the inheritance, history and structure of the MNC and how this affects the ability to adapt or standardise, or indeed to do both by applying the glocalisation theme. Existing research has placed less emphasis on how the MNC might be biased towards either standardising or adapting regardless of market conditions. Central to this debate is the transfer of a retail formula. It is commonly understood that the faithful replication of a retail formula means that each element of the marketing mix is copied ‘as is’ from home to host country. This can at best be a benchmark as no MNC would be able to completely copy a home-derived standard to the host market, however, some retail concepts are generically better able to perform this ideal act than others. They would attempt to standardise as much as possible, adopting a strategy that maximises replication as it seeks not to duplicate resources across borders. The key point in this attempt is whether it does so out of recognising that differences are insignificant, or if it does so because it is unable to see that the differences do matter. Seen from an institutionalisation perspective and, initially looking at the home-derived context only, one recognises the well-defined relationship and interaction between MNC and consumer culture and the position the MNC has obtained in terms of brand strength and success. It is easy to see that context will be different in the host market, but difficult to take this into account when transferring the retail formula out of the home context. More recent literature on embeddedness has addressed some of these linkages and influences which affect the way MNCs transfer their retail concepts, but the literature fails to recognise the full impact. The structural paradox embodies some of the dilemma in this discussion as it addresses the conflict between transferred operational structure and the need to adapt locally to market needs. The glocalisation theme approaches the same dilemma from a competency perspective but does not embrace what stops the MNC from being more adaptive. This research develops a model that aims to combine these perspectives. This model is deployed to three cases, all detailing the transfer of a highly standardised retail concept, hard discounting, which is an ideal platform to explore how home-derived structure is transferred and how it deals with trans-contextual dimensions across borders. The research looks critically and in-depth at how the standards applied impact on the levels of awareness paid towards the need to adapt to trans-contextual dimensions and seeks evidence that demonstrate how attention to the differences become vital to success. At the same time, the cases illustrate that the differences may alter, but the approach taken towards them remain the same. The model defines this approach as a strategic trajectory called ‘MaxRep’, which is developed out of the home context and remains aligned to this particular foreign context when transferred in on the host settings. The benchmarking of this approach against the glocalisation theme leads to the identification of gaps and definition of action to be taken to overcome these barriers to applying effective glocalisation.

Page generated in 0.0759 seconds