• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1259
  • 232
  • 137
  • 6
  • 4
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1670
  • 820
  • 411
  • 211
  • 205
  • 182
  • 178
  • 134
  • 132
  • 130
  • 126
  • 120
  • 113
  • 101
  • 99
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
941

Vers un dimensionnement optimal structure-commande de système multi-convertisseurs. : Application aux réseaux de tramways / Optimal design stucture-control of multi-converter systems. : Application to tramways network

Vial, Rémi 26 January 2012 (has links)
La réduction de la facture énergétique et la réalisation des services systèmes au réseau électrique passent par l’intégration massive de convertisseurs d’électronique de puissance.On parle alors de systèmes multi-convertisseurs, de structures relativement complexes.Leur dimensionnement tant énergétique que dynamique peut ainsi s’avérer délicat e timpose actuellement au concepteur d’étudier chaque convertisseur indépendamment de son environnement. En négligeant ces interactions, cette méthode conduit souvent à un surdimensionnement, notamment des filtres d’entrée des convertisseurs, et ne prémunit pas le réseau d’éventuelles instabilités dynamiques.Les travaux de cette thèse proposent donc une méthode systémique pour le dimensionnement du réseau dans son ensemble. A partir d’un modèle construit automatiquement et intégrant l’ensemble des contraintes intervenant dans le dimensionnement énergétique,dynamique ou harmonique d’un système multi-convertisseurs, des outils de commande avancés permettent d’optimiser ce dimensionnement.Cette méthodologie de conception est alors appliquée à une nouvelle structure d’alimentation d’un réseau de tramways permettant un meilleur rendement sur cycle de fonctionnement complet. / Optimal design stucture-control of multi-converter systems. Application to a tramwaynetworkPower electronic is now widely used and allows better efficiency and performances. Wetalk about multi-converter to describe this complex system.Usually, to design this kind of system, engineers study each different part regardless ofpossible interactions. To avoid potential instability caused by this approximation, designershave to oversize input filter which lead to bulk solution.This thesis deals with system view use for design wide grid. A model is built automatically,and constraints are added, to take into account energy, dynamic and harmonicrequirements. Optimal and robust control are used to obtain the best design.This approach is used on a new power architecture for tramways, and allows a betterefficiency over operating cycle.
942

Méthodes numériques et formelles pour l'ingénierie des réseaux biologiques : traitement de l'information par des populations d'oscillateurs. Approches par contraintes et Taxonomie des réseaux biologiques / Numerical and formal methods for biological networks engineering : Computing by populations of oscillators, constraint-based approaches and taxonomy of biological networks

Ben Amor, Mohamed Hedi 11 July 2012 (has links)
Cette thèse concerne l'ingénierie des systèmes complexes à partir d'une dynamique souhaitée. En particulier, nous nous intéressons aux populations d'oscillateurs et aux réseaux de régulation génétique. Dans une première partie, nous nous fondons sur une hypothèse, introduite en neurosciences, qui souligne le rôle de la synchronisation neuronale dans le traitement de l'information cognitive. Nous proposons de l'utiliser sur un plan plus large pour étudier le traitement de l'information par des populations d'oscillateurs. Nous discutons des isochrons de quelques oscillateurs classés selon leurs symétries dans l'espace des états. Cela nous permet d'avoir un critère qualitatif pour choisir un oscillateur. Par la suite, nous définissons des procédures d'impression, de lecture et de réorganisation de l'information sur une population d'oscillateurs. En perspective, nous proposons un système à couches d'oscillateurs de Wilson-Cowan. Ce système juxtapose convenablement synchronisation et désynchronisation à travers l'utilisation de deux formes de couplage: un couplage continu et un couplage par pulsation. Nous finissons en proposant une application de ce système: la détection de contours dans une image. En deuxième partie, nous proposons d'utiliser une approche par contraintes pour identifier des réseaux de régulation génétique à partir de connaissances partielles sur leur dynamique et leur structure. Le formalisme que nous utilisons est connu sous le nom de réseaux d'automates booléens à seuil ou réseaux Hopfield-semblables. Nous appliquons cette méthode, afin de déterminer le réseau de régulation de la morphogenèse florale d'Arabidopsis thaliana. Nous montrons l'absence d'unicité des solutions dans l'ensemble des modèles valides (ici, 532 modèles). Nous montrons le potentiel de cette approche dans la détermination et la classification de modèles de réseaux de régulation génétique. L'ensemble de ces travaux mène à un certain nombre d'applications, en particulier dans le développement de nouvelles méthodes de stockage de l'information et dans le design de systèmes de calcul non conventionnel. / This thesis is concerned by the engineering of complex systems from a desired dynamics. Particularly, we are interested by populations of oscillators and genetical regulatory networks. In a first part, we start from a hypothesis introduced in neuroscience, which highlight the role of neural synchronization in the cognitive processing. We propose to use this hypothesis in a more general panorama to investigate the computing with populations of oscillators. We discuss about the isochrons of few oscillators selected according to their symmetry in the state space. Therefore, we define procedures for making footprints, for reading and for reorganizing information by a population of oscillators. As a perspective, we propose a system of lattices of Wilson-Cowan oscillators organized in several interconnected layers. This system properly mixes synchronization and desynchronization by using two types of coupling : pulsed and continuous coupling. At the end of this part, we propose to use this system in order to detect the edges of an image. In the second part, we propose a constraint-based approach to determine the structure of genetic regulatory networks starting from incomplete knowledge on their structure and their dynamics. The formalism we use is widely called thresholded Boolean automata networks or Hopfield-like networks. As an proof of concept, we apply this method to determine the regulatory network of Arabidopsis thaliana flower morphogenesis. We obtain 532 valid models instead of one unique solution and then classify them by using structural robustness criteria. By this way, we showed the potential of this approach in determining and classifying thresholded Boolean automata networks like genetic regulatory networks or neural networks. This works leads to many applications, in particular the developpement and the design of new methods for processing information and the design of systems of unconventional computing.
943

Analyse des environnements supports à l'ingénierie collaborative synchrone à distance : approche ergonomique pour l'amélioration des outils via l'analyse des usages / Analysis environments to support synchronous collaborative engineering from a distance : approach ergonomic to improvement tools by means of analysis of uses

Vu thi, Hanh 06 June 2012 (has links)
La conception de produits industriels complexes exige la collaboration de plusieurs acteurs de différents domaines et est distribuée géographiquement tout au long du processus de conception. Afin d'améliorer les résultats au regard du triptyque qualité, coût, délais et de la mondialisation des marchés, des concepteurs, distribués dans l'espace et dans le temps ont besoin d'un environnement de travail pour collaborer, afin de : créer une compréhension partagée entre les différents acteurs d'une équipe, les concepteurs doivent négocier et argumenter les solutions. partager des informations sur le produit entre différents métiers dans les étapes du processus de conception. synchroniser les différentes versions de modèles du produit entre les concepteurs. Le travail collaboratif s'organisant comme une alternance de travaux synchrones et asynchrones, nous souhaitons améliorer la continuité des flux d'informations entre ces différents modes de collaboration. Ceci passe par une amélioration des outils de communication technique en mode synchrone, et par la possibilité pour les concepteurs de synchroniser les versions de modèles modifiées en mode asynchrone. Ce deuxième point est obtenu par une identification de conflits entre version, et une facilitation du dialogue argumentatif synchrone afin de converger dans la négociation des choix de résolution de ces conflits. La démarche générale de la thèse se base sur la Design Research Methodology, basée sur une observation de situation industrielle et une analyse de scénarios d'usage, la proposition et le développement de nouveaux outils, et finalement une évaluation de l'utilisabilité / The design of complex industrial products requires the collaboration of several actors of various domains and is geographically distributed throughout the process of design. To improve the results with regard to the triptych quality, cost, time and of the globalization of markets, designers, distributed in the space and in the time need a working environment to collaborate, to: To create an understanding shared between the various actors of a team, the designers have to negotiate and argue the solutions. Share information on the product between various trades in the stages of the process of design. Synchronize the various versions of models of the product between the designers. Collaborative design is organized as alternating synchronous and asynchronous work, we wish to improve continuity of information flow between these different modes of collaboration. This requires improved communication technology tools in synchronous mode, and the possibility for developers to synchronize models modified versions asynchronously. This second point is obtained by identifying conflicts between version, and facilitation of synchronous argumentative dialogue to converge in the negotiation of choice for resolving these conflicts.
944

Prévention et résolution des crises de la dette souveraine : la décentralisation en question. / Prevention and resolution of sovereign debt crises : the decentralization in question

Barraud, Claire 10 December 2012 (has links)
Cette thèse cherche à savoir si la méthode décentralisée, officiellement mise en avant dans la gestion des crises de la dette souveraine depuis leur origine, est non seulement réalisable, mais également efficace en termes de répartition équitable du fardeau de la dette. Nous définissons en effet un processus de restructuration efficace comme une procédure de courte durée (inférieure à un an) et qui respecte les besoins des deux parties prenantes au contrat. Si du côté des créanciers, la décote ne doit pas être abusive, du côté du débiteur, la dette doit redevenir soutenable, au sens à la fois économique et social du terme. Le terrain d'analyse des processus de renégociation de la dette se concentre exclusivement sur les économies d'Amérique Latine, dans la mesure où elles représentent les débiteurs ayant enregistré le plus grand nombre de défauts au cours de l'histoire. À travers une méthode pluridisciplinaire, nous défendons finalement la thèse selon laquelle l'échec des différents processus de restructuration est directement subordonné à l'iniquité du partage du fardeau de la dette, laquelle fait suite à un déséquilibre des pouvoirs de négociation inhérente au cadre de gestion décentralisée. Notre posture macroéconomique et notre démarche inductive induisent un cadre d'analyse socio-économique, lequel fait appel à un approfondissement historique, en termes d'économie politique, mais également à une étude basée sur la psychologie sociale. La thèse est structurée autour de deux parties, elles-mêmes subdivisées en deux chapitres. La première partie s'attache à comprendre les origines et les modalités de prévention et de gestion des crises, ainsi que leurs échecs. Elle conjugue de fait l'observation empirique et les soubassements théoriques de la décentralisation. De fait, le premier chapitre fait état, au vu de la double responsabilité à l'œuvre dans le déclenchement et l'enlisement dans la crise, de l'échec de la méthode décentralisée sur le long terme. En effet, non seulement la décentralisation apparaît inapplicable, puisqu'une tierce partie est systématiquement contrainte d'intervenir, mais elle ne permet pas non de plus de répartir équitablement les coûts de la crise. Le second chapitre cherche consécutivement à comprendre pourquoi ce processus de restructuration est néanmoins maintenu. L'économie politique de la décentralisation montre alors que le choix entre la régulation et le « laissez-faire » ne tient pas tant à des critères d'efficacité économique qu'à des considérations idéologiques et politiques. La deuxième partie de cette thèse propose symétriquement des pistes de réflexion afin de pallier les principaux écueils relevés lors des différents épisodes de défaut et de restructuration. Ainsi, si le troisième chapitre répond au second, le quatrième fait écho au premier. En effet, le troisième chapitre montre que la décentralisation ne peut aboutir en raison non seulement de ses écueils techniques, mais surtout de la nature des deux parties au contrat. L'immunité souveraine ayant été relativisée dans les deux premiers chapitres, il s'agit ici d'analyser le fonctionnement des marchés selon une méthode alternative au concept d'efficience. C'est la raison pour laquelle nous faisons appel aux préceptes de Keynes (1936) et de son analyse en termes psychosociaux, que nous approfondissons au travers du courant de la finance comportementale. Une telle étude révèle ainsi l'incapacité des créanciers à s'organiser de bonne foi, laquelle représente pourtant la condition sine qua non de la réalisation et de l'efficacité de la méthode décentralisée. Par conséquent, le dernier chapitre de ce travail conclue sur la nécessité d'un revirement en faveur d'une approche plus centralisée, laquelle inclut une tierce partie neutre, compétente et institutionnalisée. / The aim of this dissertation is to know whether the decentralized approach, officially put forward in the management of sovereign debt crises since their origin, is not only feasible but also efficient in terms of equity of the debt burden sharing. We define indeed an efficient restructuring process as a procedure of short duration (less than one year) and that meets the needs of both parties. If, in the side of creditors, the discount should not be abusive, towards the debtor, the debt must become sustainable, in both economic and social terms. Field analysis process of renegotiating debt focuses exclusively on Latin American economies, insofar as they represent debtors who historically recorded the highest number of defaults. Through a multidisciplinary approach, we finally defend the thesis that the failure of the various restructuring process is directly subordinate to the iniquity of sharing the debt burden, which is due to an imbalance of bargaining power, as an inherent part of decentralized management. Our macroeconomic and inductive approaches built the framework for socio-economic analysis, which uses history, political economy, but also a study based on social psychology. This dissertation is structured in two parts, themselves divided into two chapters. The first part focuses on understanding the origins of crises, their prevention and crisis management, and then their failures. It combines empirical observation and theoretical underpinnings of the decentralization. Specifically, the first chapter outlines, given the dual responsibility in the onset and sinking into the crisis, the failure of the decentralized approach in the long term. It concludes that not only decentralization is inapplicable, since a third party is always forced to intervene, but nor it does allow an fair sharing of the crisis costs. The second chapter consecutively seeks to understand why such a restructuring process is still maintained. The political economy of decentralization then shows that the choice between regulation and "laissez-faire" is not so much linked to economic efficiency criteria, but rather to ideological and political considerations. The second part of this work symmetrically proposes lines of thought to overcome the main obstacles identified in most cases of defaults and restructurings. Thus, if the third chapter addresses the second, fourth echoes the first. Indeed, the third chapter shows that decentralization can't be efficient, not only because of its technical pitfalls, but also because of the nature of the both contractual parties. Sovereign immunity having been put into perspective in the first two chapters, the point here is to analyze the functioning of financial markets in an alternative way, compared with the efficiency hypothesis. That is why we go into the Keynes psychosocial analysis (1936) in depth with the behavioral finance. Such a study reveals the inability of creditors to organize themselves in good faith, while it is the sine qua non condition of the decentralized approach implementation and efficiency. Therefore, the final chapter concludes on the need for a shift towards a more centralized approach, which includes a neutral, competent and institutionalized third party. Here, if multilateralism must prevail as a model of collaborative thinking, in regard to the management of the current debt crisis in Europe, such a possibility remains unlikely in the short term. This is why debtor countries may have to take some unilateral decisions, including potentially legitimate and transparent debt repudiation in case of sinking into the crisis, in order to compel the international community to make that needed shift. Keywords: Sovereign debt, Restructuration, Decentralized approach, Dependency theories, Political Economy, Behavioral Finance.
945

ApAM : un environnement pour le développement et l'exécution d'applications ubiquitaires / ApAM : An environment for the development and execution of ubiquitous applications

Damou, Elmehdi 25 October 2013 (has links)
Simplifier notre interaction avec les entités informatiques interconnectées de notre environnement et faciliter l'exploitation des informations générées par celles-ci est l'objectif des environnements et applications ubiquitaires. Le comportement des applications ubiquitaires dépend de l'état et de la disponibilité des entités (logicielles ou dispositifs) qui compose l'environnement ubiquitaire dans lequel ils évoluent, ainsi que des préférences et localisation des utilisateurs. Développer et exécuter des applications ubiquitaires est un véritable défi que notre approche essaie de relever au travers de l'environnement d'exécution ApAM. Considérant que l'environnement d'exécution est imprévisible, nous partons du principe qu'une application ubiquitaire doit disposer d'une grande flexibilité dans le choix de ses composants et que cette composition doit être automatique. Nous proposons une description abstraite et implicite de la composition (où les composants et les liens entre eux ne sont pas décrits explicitement), ce qui permet de construire l'application incrémentalement pendant la phase d'exécution. La plate-forme d'exécution ApAM implémente ces mécanismes de composition incrémentale et s'en sert pour conférer aux applications ubiquitaires la capacité de « résister » et de s'adapter aux changements imprévisibles de l'environnement d'exécution. Cette propriété dite de résilience est au cœur de notre approche car elle permet aux programmeurs de développer « simplement » des applications « résilientes » sans avoir à décrire les diverses adaptations à réaliser, et même sans connaitre toutes les perturbations de l'environnement auquel elles seront soumises. Notre proposition offre le moyen de développer et d'exécuter des applications ayant un haut niveau de résilience vis-à-vis des évolutions de leur contexte d'exécution, grâce à des mécanismes automatiques capables de construire et de modifier à l'exécution l'architecture logicielle des applications ubiquitaire. Les mécanismes fournis sont génériques mais peuvent être étendus et spécialisés pour s'adapter plus finement à certaines applications ou à des domaines métiers spécifiques. / The goal of ubiquitous environments and applications is to simplify our interaction with interconnected software and hardware entities, and to allow the exploitation of the information that they gather and generate. The behavior of ubiquitous applications depends on the state and the availability of the software and hardware entities that compose the ubiquitous environment in which they are constantly evolving, as well as, the preferences and locations of users. Developing and executing ubiquitous applications is a difficult challenge that our approach attempts to address with the creation of the ApAM execution environment. Knowing that the execution environment is unpredictable, we believe that ubiquitous applications require a large amount of flexibility in choosing the components that compose the application, and that the composition should be automated. We propose an abstract and implicit description of the composition, where components and bindings are not explicitly described. This allows to incrementally building an application at runtime. The ApAM execution platform implements the mechanisms to achieve incremental composition and uses them to provide ubiquitous applications with the resilience and adaptability necessary to face unpredictable changes that originate in the execution environment. Resilience is a core property of our approach because it allows developers to easily build applications without the need to either describe nor predict the multiple adaptations required to support environmental disturbances which the applications will encounter. Our proposal offers the means of developing and executing applications with a high level of resilience in regards to their continuously evolving context. This is possible thanks to the mechanisms described in this dissertation that allow building and changing, at runtime, ubiquitous applications. These mechanisms are generic but can be extended or specialized in order to solve domain or application-specific issues.
946

Analyse macroscopique des grands systèmes : émergence épistémique et agrégation spatio-temporelle / Macroscopic Analysis of Large-scale Systems : Epistemic Emergence and Spatiotemporal Aggregation

Lamarche-Perrin, Robin 14 October 2013 (has links)
L'analyse des systèmes de grande taille est confrontée à des difficultés d'ordre syntaxique et sémantique : comment observer un million d'entités distribuées et asynchrones ? Comment interpréter le désordre résultant de l'observation microscopique de ces entités ? Comment produire et manipuler des abstractions pertinentes pour l'analyse macroscopique des systèmes ? Face à l'échec de l'approche analytique, le concept d'émergence épistémique - relatif à la nature de la connaissance - nous permet de définir une stratégie d'analyse alternative, motivée par le constat suivant : l'activité scientifique repose sur des processus d'abstraction fournissant des éléments de description macroscopique pour aborder la complexité des systèmes. Cette thèse s'intéresse plus particulièrement à la production d'abstractions spatiales et temporelles par agrégation de données. Afin d'engendrer des représentations exploitables lors du passage à l'échelle, il apparaît nécessaire de contrôler deux aspects essentiels du processus d'abstraction. Premièrement, la complexité et le contenu informationnel des représentations macroscopiques doivent être conjointement optimisés afin de préserver les détails pertinents pour l'observateur, tout en minimisant le coût de l'analyse. Nous proposons des mesures de qualité (critères internes) permettant d'évaluer, de comparer et de sélectionner les représentations en fonction du contexte et des objectifs de l'analyse. Deuxièmement, afin de conserver leur pouvoir explicatif, les abstractions engendrées doivent être cohérentes avec les connaissances mobilisées par l'observateur lors de l'analyse. Nous proposons d'utiliser les propriétés organisationnelles, structurelles et topologiques du système (critères externes) pour contraindre le processus d'agrégation et pour engendrer des représentations viables sur les plans syntaxique et sémantique. Par conséquent, l'automatisation du processus d'agrégation nécessite de résoudre un problème d'optimisation sous contraintes. Nous proposons dans cette thèse un algorithme de résolution générique, s'adaptant aux critères formulés par l'observateur. De plus, nous montrons que la complexité de ce problème d'optimisation dépend directement de ces critères. L'approche macroscopique défendue dans cette thèse est évaluée sur deux classes de systèmes. Premièrement, le processus d'agrégation est appliqué à la visualisation d'applications parallèles de grande taille pour l'analyse de performance. Il permet de détecter les anomalies présentes à plusieurs niveaux de granularité dans les traces d'exécution et d'expliquer ces anomalies à partir des propriétés syntaxiques du système. Deuxièmement, le processus est appliqué à l'agrégation de données médiatiques pour l'analyse des relations internationales. L'agrégation géographique et temporelle de l'attention médiatique permet de définir des évènements macroscopiques pertinents sur le plan sémantique pour l'analyse du système international. Pour autant, nous pensons que l'approche et les outils présentés dans cette thèse peuvent être généralisés à de nombreux autres domaines d'application. / The analysis of large-scale systems faces syntactic and semantic difficulties: How to observe millions of distributed and asynchronous entities? How to interpret the disorder that results from the microscopic observation of such entities? How to produce and handle relevant abstractions for the systems' macroscopic analysis? Faced with the failure of the analytic approach, the concept of epistemic emergence - related to the nature of knowledge - allows us to define an alternative strategy. This strategy is motivated by the observation that scientific activity relies on abstraction processes that provide macroscopic descriptions to broach the systems' complexity. This thesis is more specifically interested in the production of spatial and temporal abstractions through data aggregation. In order to generate scalable representations, the control of two essential aspects of the aggregation process is necessary. Firstly, the complexity and the information content of macroscopic representations should be jointly optimized in order to preserve the relevant details for the observer, while minimizing the cost of the analysis. We propose several measures of quality (internal criteria) to evaluate, compare and select the representations depending on the context and the objectives of the analysis. Secondly, in order to preserve their explanatory power, the generated abstractions should be consistent with the background knowledge exploited by the observer for the analysis. We propose to exploit the systems' organisational, structural and topological properties (external criteria) to constrain the aggregation process and to generate syntactically and semantically consistent representations. Consequently, the automation of the aggregation process requires solving a constrained optimization problem. We propose a generic algorithm that adapts to the criteria expressed by the observer. Furthermore, we show that the complexity of this optimization problem directly depend on these criteria. The macroscopic approach supported by this thesis is evaluated on two classes of systems. Firstly, the aggregation process is applied to the visualisation of large-scale distributed applications for performance analysis. It allows the detection of anomalies at several scales in the execution traces and the explanation of these anomalies according to the system syntactic properties. Secondly, the process is applied to the aggregation of news for the analysis of international relations. The geographical and temporal aggregation of media attention allows the definition of semantically consistent macroscopic events for the analysis of the international system. Furthermore, we believe that the approach and the tools presented in this thesis can be extended to a wider class of application domains.
947

Enseignement/apprentissage de la composante orale à travers Parlons français, méthode de FLE élaborée au Kenya à partir de la problématique de l’approche communicative / Teaching/learning of the oral component through Parlons français, a french text book written in Kenya based on the communicative approach

Jao, Lester Mtwana 16 November 2011 (has links)
La plupart des langues enseignées comportent deux composantes : la composante écrite et la composante orale. Cette dernière, communément appelée « oral », ne semble pas préoccuper beaucoup de chercheurs en didactique du FLE au Kenya. C’est plutôt la composante écrite de la langue qui fait l’objet de la plupart des recherches réalisées par des chercheurs en didactique du FLE dans ce pays. Si quelques chercheurs osent aborder la composante orale, ils traitent de son enseignement/apprentissage en général. Des études portant sur l’enseignement/apprentissage de la composante orale dans une méthode de FLE donnée sont inexistantes au Kenya. D’où notre intérêt à la présente étude, qui a pour but d’établir si, et dans quelle mesure, la méthode Parlons français est fidèle aux principes et exigences de l’approche communicative, méthodologie d’enseignement des langues étrangères sur laquelle ses concepteurs se sont basés. Plus particulièrement, dans cette étude les questions suivantes sont au premier plan de nos préoccupations : En quoi Parlons français se conforme-t-elle aux principes et exigences de l’approche communicative relatifs à l’enseignement/apprentissage de la composante orale en FLE ? Quelle est la place accordée à l’oral et à l’oralité dans cette méthode et comment se manifestent ces deux variantes de la composante orale ? Quelles difficultés les enseignants et apprenants de FLE utilisant Parlons français dans l’enseignement/apprentissage de la composante orale rencontrent-ils dans les écoles kenyanes ? La présente étude se propose d’apporter des réponses à ces questions. / Most languages taught consist of two components: the written and oral components. The latter, commonly referred to as “oral”, does not seem to interest many researchers of French as a Foreign Language in Kenya. In this country most researches conducted in the area of French as a Foreign Language focus mainly on the written component of the language. The few researchers who have ventured into the oral domain have dealt mainly with the teaching and learning of the oral component of language in general. It is noteworthy that studies on the oral component in a given French textbook in Kenya have not yet been carried out. This is what prompted us to undertake this study, which generally aims at determining the extent to which Parlons français conforms to principles and requirements of the Communicative Approach – the teaching methodology on which this textbook is based. In particular, in this study we ask ourselves the following crucial questions: In what way does Parlons français conform to principles and requirements of the Communicative Approach regarding the teaching and learning of the oral component of French as a Foreign Language? What importance is accorded to “oral” and “oralité” in this particular textbook? How are these two facettes of the oral component presented in the textbook? What difficulties do teachers and learners of French using Parlons français in the teaching and learning of the oral component encounter in Kenyan secondary schools? Our study seeks to provide answers to these questions.
948

La responsabilité sociale de l'entreprise multinationale à l'égard de ses territoires d'implantation / Corporate social responsibility of a multinational corporation towards territories

Cournac, Anna 28 November 2013 (has links)
L’objectif de cette recherche est d’évaluer la pertinence pour une entreprise multinationale d’une démarche sociétale en faveur de ses territoires d’implantation. A partir d’une revue de littérature pluridisciplinaire, nous proposons un cadre théorique intégrateur et une grille d’analyse des pratiques sociétales. Nous examinons les pratiques des multinationales françaises et leurs déterminants lors de deux études empiriques : une analyse de contenu des rapports sociétaux de trente-huit multinationales, et une étude de douze cas. Il ressort de cette recherche une différenciation stratégique des pratiques des multinationales entre les territoires. Les multinationales arbitrent dans le choix des pratiques à l’égard desterritoires, voire concentrent leurs efforts sur un nombre réduit de territoires. Cette recherche souligne également le rôle de la puissance publique et des parties prenantes d’un territoire dans le choix des pratiques sociétales. / The aim of this research is to consider the relevance of a CSR strategy towards territories for a multinational corporation.Through a pluridisciplinary literature review, we build a model to interpret social actions towards territories. We investigate empirically social actions of French Multinational corporations. Firstly, we analyse the content of thirty-eight French multinationals’ reports. Then, we interpret multinationals social actions through twelve case studies. One result of this research is a strategic differentiation of social actions by Multinational corporations depending on the territories. We find that Multinational corporations differentiate their social actions, or focus on specific territories. This research shows also therole of public actor and different stakeholders in the choice of social actions.
949

La Gestion Prévisionnelle des Emplois et des Compétences dans le cadre de la restructuration d'un organisme de santé : le cas du groupe CAPIO sur la côte atlantique. / The implementation of Provisional Management of Employment and Skills practices within the framework of a regrouping of several private French clinics belonging to a common health care provider : the case of CAPIO BAYONNE

Mousques, Cédric 07 October 2016 (has links)
Notre recherche doctorale se propose d’analyser la mise en place de la Gestion Prévisionnelle des Emplois et des Compétences (GPEC) dans le cadre d’un regroupement de cliniques privées appartenant à un même opérateur de santé. Organisée en trois temps, notre thèse vise à se démarquer de l’approche fonctionnaliste qui domine les écrits sur la GPEC en Sciences de Gestion et qui traite principalement du contenu de la démarche. Elle tente, en ce sens, d’ouvrir la « boîte noire » que constitue la GPEC à l’aune de la dimension humaine et du processus de construction. Dans un premier temps, nous mobilisons l’approche contextualiste de Pettigrew (1985, 1987, 1990) qui rend compte des interrelations entre trois grandes dimensions : un contenu de changement, le contexte interne et externe dans lequel il se développe et le processus de son déploiement. Ce cadre d’étude contextualiste initial ne suffit pas à lui-seul pour étudier un phénomène. Dès lors, nous proposons de le faire évoluer par l’introduction de variables explicatives dans ses trois dimensions. Cette modélisation systémique particulière est réalisée dans une logique abductive alternant des allers et retours entre les observations théoriques et les observations réalisées sur le terrain d’étude mobilisé, CAPIO BAYONNE. Dans un second temps, nous mettons à l’épreuve notre modèle contextualiste de recherche sur le terrain d’étude en question. La déclinaison empirique obtenue révèle de nombreux enseignements qui inscrivent la GPEC dans une vision multi-paradigmatique et intégrée combinant l’approche contingente, l’approche incrémentale et l’approche fonctionnaliste. Enfin, dans un troisième et dernier temps, la recherche cherche à établir, à partir de notre modèle contextualiste et de ses enseignements issus du terrain, un mode de gestion « générique » de GPEC pour les managers qui souhaitent se doter d’une telle démarche dans le cadre d’un regroupement de cliniques privées. / This doctoral research work proposes to analyse the implementation of Provisional Management of Employment and Skills practices (“GPEC” in French) within the framework of a regrouping of several private French clinics belonging to a common health care provider. Our thesis is organised in three parts, and aims to distinguish itself from the functionalist approach which currently dominates the literature on “GPEC” in Management Sciences and which limits itself mainly to studying the content of the approach. We thereby try to continue the work of opening up the "black box" of the “GPEC” in terms of the human dimension and the construction process involved. Firstly, we mobilise Pettigrew's contextualist approach (1985, 1987, 1990), which describes the interrelationships between three major dimensions : a content of change, the internal and external context in which this develops, and its deployment process. This initial contextualist framework is not in itself sufficient for studying a phenomenon.We therefore propose to further develop it by introducing explanatory variables into each of its three dimensions. This specific systemic modeling is performed using abductive logic to frequently alternate between the theoretical findings on the one hand and the observations conducted on the study site, CAPIO BAYONNE, on the other. Secondly, we test our contextualist research model on the study site in question. The empirical declination thus obtained teaches many lessons which set the “GPEC” in a multi-paradigm, integrated view of things, combining the contingency approach, the incremental approach and the functionalist approach. Finally, in a third and final part, our research seeks to establish, on the basis of our contextualist model and the lessons learnt from the field, a "generic" GPEC management mode for managers who wish to develop such an approach as part of a regrouping of private clinics.
950

Approches bayésiennes pour le pistage radar de cibles de surface potentiellement manoeuvrantes / Bayesian approaches for surface potentially-maneuvering target tracking

Magnant, Clément 21 September 2016 (has links)
Dans le cadre de la surveillance maritime ou terrestre par radar aéroporté, l’un des principaux objectifs est de détecter et de poursuivre une grande diversité de cibles au cours du temps.Ces traitements s’appuient généralement sur l’utilisation d’un filtre Bayésien pour estimer récursivement les paramètres cinématiques (position, vitesse et accélération) des cibles. Il repose surla représentation dans l’espace d’état du système et plus particulièrement sur la modélisation a priori de l’évolution des cibles à partir d’un modèle de mouvement (mouvement rectiligne uniforme, mouvement uniformément accéléré, mouvement rotationnel, etc.). Si les cibles pistées sont manoeuvrantes, plusieurs modèles de mouvement, chacun avec une dynamique prédéfinie,sont classiquement combinés au sein d’une structure à modèles multiples. Même si ces approches s’avèrent pertinentes, des améliorations peuvent être apportées à plusieurs niveaux, notamment sur la manière de sélectionner et définir a priori les modèles utilisés.Dans ce contexte d’étude, plusieurs problématiques doivent être traitées.1/ Lors de l’utilisation d’une structure à modèles multiples, on considère en général deux à trois modèles. Ce choix est fait lors de la phase de conception de l’algorithme selon la connaissance du système et l’expertise de l’utilisateur. Cependant, il n’existe pas à notre connaissance d’outils ou de règles permettant de définir les types de mouvement à associer et leurs paramètres.2/ Il est préférable que le choix du ou des modèles de mouvement soit cohérent avec le type de cible pisté.3/ Lorsqu’un type de mouvement est utilisé, ses paramètres sont fixés a priori mais ces valeurs ne sont pas nécessairement adaptées à toutes les phases du mouvement. L’une des difficultés majeures réside dans la manière de définir et de faire évoluer la matrice de covariance du bruit de modèle. Le travail présenté dans ce mémoire vise à proposer des solutions algorithmiques aux problématiques précédentes afin d’améliorer l’estimation des trajectoires des cibles d’intérêt.Dans un premier temps, nous établissons une mesure de dissimilarité fondée sur la divergence de Jeffrey entre deux densités de probabilité associés à deux modèles d’état différents. Celle-ci est appliquée à la comparaison de modèles de mouvement. Elle est ensuite utilisée pour comparer un ensemble de plusieurs modèles d’état. Cette étude est alors mise à profit pour proposer une méthode de sélection a priori des modèles constituant des algorithmes à modèles multiples.Puis, nous présentons des modèles Bayésiens non-paramétriques (BNP) utilisant les processus de Dirichlet pour estimer les statistiques du bruit de modèle. Cette modélisation a l’avantage de pouvoir représenter des bruits multimodaux sans avoir à spécifier a priori le nombre de modes et leurs caractéristiques. Deux cas sont traités. Dans le premier, on estime la matrice de précision du bruit de modèle d’un unique modèle de mouvement sans émettre d’a priori sur sa structure.Dans le second, nous tirons profit des formes structurelles des matrices de précision associées aux modèles de mouvement pour n’estimer qu’un nombre réduit d’hyperparamètres. Pour les deux approches, l’estimation conjointe des paramètres cinématiques de la cible et de la matrice de précision du bruit de modèle est réalisée par filtrage particulaire. Les contributions apportées sont notamment le calcul de la distribution d’importance optimale dans chacun des cas.Enfin, nous tirons profit des méthodes dites de classification et pistage conjoints (joint tracking and classification -JTC-) pour mener simultanément la classification de la cible et l’inférence de ses paramètres. Dans ce cas, à chaque classe de cible est associé un ensemble de modèles d’évolution qui lui est propre. [...] / As part of the ground or maritime surveillance by using airborne radars, one of the mainobjectives is to detect and track a wide variety of targets over time. These treatments are generallybased on Bayesian filtering to estimate recursively the kinematic parameters (position,velocity and acceleration) of the targets. It is based on the state-space representation and moreparticularly on the prior modeling of the target evolutions (uniform motion, uniformly acceleratedmotion, movement rotational, etc.). If maneuvering targets are tracked, several motionmodels, each with a predefined dynamic, are typically combined in a multiple-model structure.Although these approaches are relevant, improvements can be made at several levels, includinghow to select and define a priori the models to be used.In this framework, several issues must be addressed.1 / When using a multiple-model structure, it is generally considered two to three models. Thischoice is made in the algorithm design stage according to the system knowledge and the userexpertise. However, it does not exist in our knowledge tools or/and rules to define the types ofmotions and their associated parameters.2 / It is preferable that the choice of the motion model(s) is consistent with the type of targetto be tracked.3 / When a type of motion model is used, its parameters are fixed a priori but these values ??arenot necessarily appropriate in all phases of the movement. One of the major challenges is theway to define the covariance matrix of the model noise and to model its evolution.The work presented in this thesis consists of algorithmic solutions to the previous problemsin order to improve the estimation of target trajectories.First, we establish a dissimilarity measure based on Jeffrey divergence between probability densitiesassociated with two different state models. It is applied to the comparison of motion models.It is then used to compare a set of several state models. This study is then harnessed to providea method for selecting a priori models constituting multiple-model algorithms.Then we present non-parametric Bayesian models (BNP) using the Dirichlet process to estimatemodel noise statistics. This model has the advantage of representing multimodal noises withoutspecifying a priori the number of modes and their features. Two cases are treated. In the firstone, the model noise precision matrix is estimated for a single motion model without issue ofany a priori on its structure. In the second one, we take advantage of the structural forms ofprecision matrices associated to motion models to estimate only a small number of hyperparameters.For both approaches, the joint estimation of the kinematic parameters of the target andthe precision matrix of the model noise is led by particle filtering. The contributions includecalculating the distribution optimal importance in each case.Finally, we take advantage of methods known as joint tracking and classification (JTC) forsimultaneously leading the classification of the target and the inference of its parameters. Inthis case, each target class is associated with a set of evolution models. In order to achievethe classification, we use the target position measurements and the target extent measurementscorresponding to the projection of the target length on the line of sight radar-target. Note that this approach is applied in a single target tracking context and a multiple-target environment.

Page generated in 0.0843 seconds