51 |
Epidémiologie de la Péripneumonie Contagieuse bovine(PPCB) dans les régions du Delta Central du Mali : évaluation des performances de deux tests de diagnostic pour analyser la dynamique de transmission et développement d'outils d'aide à la décision pour la surveillance et le contrôle. / Epidemiology of contagious bovine pleuropneumonia (CBPP) in Central Delta of Niger areas in Mali : Performance evaluation of two diagnostic tests to analyze the dynamics of transmission and development of tools for decision support for monitoring and control.Sidibe, Cheick Abou Kounta 16 May 2012 (has links)
Deux tests sérologiques (test de fixation de complément (CFT) et l'ELISA de compétition (cELISA)) sont recommandés par l'OIE et utilisés couramment au Laboratoire Central Vétérinaire de Bamako parfois en parallèle dans le diagnostic et le dépistage de la péripneumonie contagieuse bovine (PPCB). La performance de ces tests a été estimée différemment par plusieurs auteurs dans des contextes épidémiologiques différents à partir de méthodes statistiques standards avec un statut sanitaire réel des animaux partiellement ou totalement connu. Dans un milieu où la PPCB est endémique avec différents stades d'évolution de la maladie, sachant que les tests sérologiques sont non parfaits (non gold standards), l'utilisation d'une approche bayésienne semblait appropriée pour une appréciation précise des paramètres de performance de tests qui sont la sensibilité et la spécificité, afin de mieux apprécier la prévalence de la maladie dans le cheptel bovin du delta central du Niger au Mali. Les résultats d'analyse de laboratoire des échantillons de terrain ont servi de bases de données importantes pour une analyse descriptive de la situation épidémiologique par appréciation des patrons de variations des principaux paramètres pouvant exercer une influence majeure sur la propagation de la PPCB. Ceci, dans le but d'aider à la réflexion sur la recherche d'outils et stratégies nouvelles dans le processus de prévention et d'éradication de la PPCB par le développement des modalités d'implantation d'une méthodologie innovante, pratique et efficace comme la qualification sanitaire troupeau concernant la PPCB dans un environnement d'élevage extensif. Cette thèse a permis de mieux définir les corrélations entre les deux tests, d'observer une meilleure sensibilité de cELISA par rapport à CFT permettant de justifier son utilisation seule dans un programme de dépistage à large échelle de la PPCB dans un milieu endémique. La démonstration dans l'étude de l'existence d'agrégation des animaux séropositifs à l'échelle du troupeau et aussi géographique montre qu'un système de qualification sanitaire troupeau pourrait jouer en collaboration avec le réseau national de surveillance épidémiologique vétérinaire, un rôle prépondérant dans la lutte ciblée et la maîtrise de la propagation de la PPCB au Mali. Mots clefs : PPCB-cELISA-CFT-Approche bayésienne-Agrégation-qualification sanitaire-Bovin / Two serological tests (complement fixation test (CFT) and competitive ELISA (cELISA)) are recommended by the OIE and commonly used in Central Veterinary Laboratory of Bamako sometimes in parallel, in the diagnosis and screening for contagious (CBPP). The performance of these tests has been estimated differently by several authors in different epidemiological settings using standard statistical methods with a real status of animals partially or completely known. In an environment where CBPP is endemic and where different stages of disease are available, given that serological tests are not perfect (not gold standard), the use of Bayesian approach seemed appropriate for an accurate assessment of the performance parameters of tests which are the sensitivity, specificity and predictive values to better assess the prevalence of the disease in cattle in the central Niger delta in Mali. The results of laboratory analysis of field samples were used as large database for epidemiological analysis of the geographical distribution of seroprevalence and the influence of major risk factors for the spread of CBPP. This, in order to aid reflection on tools research and new strategies in the process of prevention and eradication of CBPP by developing for implementation of an innovative, practical and effective methodology as sanitary qualification of cattle. This thesis has helped define the correlations between the two tests, observing a better sensitivity of cELISA compared to CFT to justify its use only in a program of widespread testing of CBPP in an endemic environment. In this study, the proof of the existence of aggregation of seropositive animals across herds and geographical level shows that a sanitary qualification system of cattle can play in collaboration with the national network of veterinary epidemiological surveillance a leadership role in targeted control and mastery of the spread of CBPP in Mali.Keys words: CBPP- cELISA - CFT- Bayesian approach -Aggregation- Sanitary qualification –Bovine
|
52 |
Manufactures Technophaniques / Technophanic workmanshipDe Visscher, Emile 26 November 2018 (has links)
Titre : Manufactures TechnophaniquesSous-titre : Une recherche par le design pour explorer les liens entre régimes technique, esthétique et symbolique dans les procédés de fabrication, stimulant une compréhension et participation collective.Problématique : Dans un contexte d’urgence écologique qui requiert de reconsidérer les impacts de la production matérielle, comment élaborer des outils de fabrication capables d’intéresser et de mobiliser des individus et des collectifs afin de constituer des publics alors parties prenantes de nouvelles formes de manufactures ?Hypothèse :Au-delà des outils de fabrication à échelle locale, accessibles et ouverts qui se développent actuellement dans le champ du design, il est possible d’inventer et de partager des manufactures technophaniques, qui articulent le processus technique, le régime symbolique et l’expérience sensible, afin d’enrôler des individus et des collectifs dans la transformation de nos modes de production et de consommation.Face à l’urgence écologique et la domination d’un système industriel nous rendant consommateurs d’objets dont nous ne maîtrisons ni ne connaissons les provenances et les conséquences, autrement dit les écologies, se pose la question de la compréhension et de l’accès à la technique pour une “response-abilisation” commune. C’est en ce sens qu’une série de mouvements récents se sont développés autour de l’invention d’outils de production ouverts, locaux, visibles et appréhendables, motivés par une volonté de démocratisation et de partage. Mais, malgré la portée et l’importance de ces initiatives, elles sont souvent présentées et traitées comme de simples moyens alternatifs, alors que réside dans cette socialisation de la mise en œuvre des opportunités de transformations fondamentales du rapport à la technique. Dans cette thèse, est proposé d’explorer les conditions d’invention, de développement et de partage de procédés techniques impliquant la pleine prise en compte de leurs régimes esthétiques et symboliques. Cette technicité sensible inscrite dans un réseau de significations culturelles, qualifiée de technophanie par Simondon en miroir à la hiérophanie d’Eliade, permet de puiser dans des imaginaires communs pour intéresser des collectifs et en fournir les clés de problématisation. Réintégrant le geste dans le processus de production, ces “manufactures technophaniques” nous sortent de l’inéluctabilité du progrès technique froid et distant, elles cherchent à nous faire “aimer les techniques à nouveau” pour devenir choses publiques, “res publica”, c’est-à-dire objets capables de fédérer des collectifs concernés par leurs pratiques. L’invention de tels procédés, liant régimes techniques, symboliques, esthétiques, scientifiques, écologiques et pratiques, nécessite une approche propre au design. Il s’agit de rendre appréhendables, au sens perceptif et physique du terme, des réalités habituellement inaccessibles. / Title :Technophanic ManufacturesSubtitle :A research through design to explore manufacturing processes’ technical, aesthetical and symbolic regimes, stimulating collective understanding and participation.Problem :The current environmental crisis requires to reconsider collectively our material production’s impacts and issues. How can we then create production tools able to engage and mobilise both individuals and collectives, inviting them to take part in the thinking and making of these new production systems?Hypothesis :Looking beyond the current “maker” movement which aims at developing locally accessible and open production tools, this research explores the conditions of “technophanic manufactures” which include not only the efficiency of the process, but also its symbolic and sensible aspects to engage individuals and communities in a production and consumption shift.The environmental crisis demands a closer look at the origin of things. Today, we barely know the provenance of the objects we buy and use on a daily basis, nor how they are made and how much energy they require. We don’t have access to their “ecologies”. This lack of knowledge keeps the environmental issues at stake out of reach, it “de-responsibilisates” us. Recent design movements have developed a more open, small-scale and accessible vision of production processes. They seek to democratize, share, and educate society in a global understanding and participation to the making of things. Though crucial, these movements are limited by the fact that they only develop and present these new inventions as alternative means. The thesis claims that the socialisation of production provides a unique occasion to rethink our relation to technologies and artefacts through narratives. This practice-based design research explores the conditions through which new manufacturing processes fully take into account the symbolic and aesthetic aspects that allow people to endorse the problems at stake, not only through use and efficiency, but also through sensation, imagination and wonder. This cultural approach to technologies has been named by Gilbert Simondon “Technophany”, in direct reference to Mircea Eliade’s “Hierophany”, which described the equally symbolic and efficiently driven relation to tools and processes that many non-Western people have developed and kept alive. These “technophanic manufactures” seek to “make us love techniques again” to become public things, “res publica” - able to enrol communities around the awareness of uses and impacts. To do so, a design approach is necessary, in order to include technical, symbolic, aesthetic, scientific, political, commercial and practical ways of thinking. It seeks to translate hidden realities into accessible and participative experiences.
|
53 |
Le sens en partage. Les outils linguistiques et approches théoriques de la signification [fin XIXe- XXe siècles] / Sharing meaning. Linguistic tools and theorical approaches to siginification end 19th-20th centuryBisconti, Valentina 08 December 2010 (has links)
La tension constante qui s’instaure entre dictionnaires et approches théoriques de la signification s’avère une dynamique majeure de l’histoire et de l’historicité des idées linguistiques. Il s’agit dès lors de faire ressortir la perméabilité, les effets de continuité et les ruptures éventuelles entre les dictionnaires en tant qu’outils linguistiques et les approches théoriques qui se penchent sur le sens. La période retenue permet de suivre, sur le moyen terme, les formes de cette interaction. Il s’agit, dans un premier temps, de voir comment la lexicographie monolingue française de la seconde moitié du XIXe siècle contribue à la promotion du sens au rang d’objet d’étude. En effet, le dictionnaire s’avère un lieu heuristique révélateur des problèmes théoriques que pose la description sémantique. À partir des matériaux empiriques collectés dans le cadre de cette description de la langue, les linguistes de la fin du XIXe siècle cherchent à parvenir à une synthèse des observations. Une relecture du débat qui se développe autour de l’institutionnalisation de la sémantique au XIXe siècle permet de montrer, dans un deuxième temps, que les dilemmes du lexicographe sont susceptibles d’aboutir à des impasses théoriques. Néanmoins, les failles repérées dans les outils linguistiques sollicitent la réflexion et lui suggèrent de nouvelles hypothèses. Dans un troisième temps, il s’agit de retracer, au cours du XXe siècle, la dispersion de l’interaction entre dictionnaires et approches théoriques du sens et ce, dans des horizons de recherche différents qui adoptent l’outil linguistique comme modèle de la langue, de la compétence sémantique ou comme terrain d’expérimentation. / The constant strain between dictionaries and theoretical approaches to signification proves to be one of the major dynamics of the history and the historicity of linguistic ideas. Hence what matters is to bring out the permeability, the effects of continuity and the possible breaking points between dictionaries as linguistic tools and the theoretical approaches that look into meaning. The period considered here provides an understanding of the various forms of this interaction in the medium term. First, this study shows how French monolingual lexicography in the second half of the 19th century contributes to making meaning an object of study. As a matter of fact dictionaries prove to play a heuristic role which reveals the theoretical problems raised by semantic description. From the empirical evidence collected in the context of that description of language, late 19th-century linguists seek to come to a synthesis of observations. A new reading of the debate surrounding the institutionalization of semantics in the 19th century then shows that a lexicographer’s dilemmas are likely to end up in theoretical deadlocks. Nevertheless, the faults found in linguistic tools trigger off further reflection and suggest new hypotheses. Finally, this study aims to trace back the dissipation of the interaction between dictionaries and theoretical approaches to meaning, during the 20th century, thanks to different research perspectives which take on linguistic tools as the model for language, for semantic competence, or as an experimental field.
|
54 |
Articulation entre activités formelles et activités semi-formelles dans le développement de logiciels / Articulation between definite and semi-definite activities in software developmentSayar, Imen 28 March 2019 (has links)
Le développement de spécifications formelles correctes pour des systèmes et logiciels commence par l’analyse et la compréhension des besoins du client. Entre ces besoins décrits en langage naturel et leur spécification définie dans un langage formel précis, un écart existe et rend la tâche de développement de plus en plus difficile à accomplir. Nous sommes face à deux mondes distincts. Ce travail de thèse a pour objectif d’expliciter et d’établir des interactions entre ces deux mondes et de les faire évoluer en même temps. Par interaction, nous désignons les liens, les échanges et les activités se déroulant entre les différents documents. Parmi ces activités, nous présentons la validation comme un processus rigoureux qui démarre dès l’analyse des besoins et continue tout au long de l’élaboration de leur spécification formelle. Au fur et à mesure du développement, des choix sont effectués et les retours des outils de vérification et de validation permettent de détecter des lacunes aussi bien dans les besoins que dans la spécification. L’évolution des deux mondes est décrite via l’introduction d’un nouveau besoin dans un système existant et à travers l’application de patrons de développement. Ces patrons gèrent à la fois les besoins et la spécification formelle associée ; ils sont élaborés à partir de la description de la forme des besoins. Ils facilitent la tâche de développement et aident à éviter les risques d’oublis. Quel que soit le choix, des questions se posent tout au long du développement et permettent de déceler des lacunes, oublis ou ambiguïtés dans l’existant. / The development of correct formal specifications for systems and software begins with the analysis and understanding of client requirements. Between these requirements described in natural language and their specification defined in a specific formal language, a gap exists and makes the task of development more and more difficult to accomplish. We are facing two different worlds. This thesis aims to clarify and establish interactions between these two worlds and to evolve them together. By interaction, we mean all the links, exchanges and activities taking place between the different documents. Among these activities, we present the validation as a rigorous process that starts from the requirements analysis and continues throughout the development of their formal specification. As development progresses, choices are made and feedbacks from verification and validation tools can detect shortcomings in requirements as well as in the specification. The evolution of the two worlds is described via the introduction of a new requirement into an existing system and through the application of development patterns. These patterns manage both the requirements and their associated formal specifications ; they are elaborated from the description of the form of the requirements in the client document. They facilitate the task of development and help to avoid the risk of oversights. Whatever the choice, the proposed approach is guided by questions accompanying the evolution of the whole system and makes it possible to detect imperfections, omissions or ambiguities in the existing.
|
55 |
Machines parallèles 5-axes pour l'usinage aéronautique de pièces minces / 5-axis parallel machine for thin aeronatical parts millingAncuta, Andreea Elena 20 July 2010 (has links)
Actuellement, certaines pièces aéronautiques sont usinées par des procédés chimiques efficaces, mais mettant en jeu des produits polluants et dangereux pour les ouvriers qui travaillent à leur contact. Par conséquent, il est impératif de trouver une solution qui serait au minimum aussi compétitive que l'usinage chimique et beaucoup moins risquée pour l'homme et l'environnement. Dans cette optique, l'usinage à grande vitesse (UGV) constitue une alternative sérieuse et efficace. Depuis des années, les machines-outils à structure parallèle ont fait leur preuve dans l'UGV. C'est donc dans ce contexte d'usinage des pièces aéronautiques de grandes longueurs et de formes complexes que de nouvelles architectures parallèles sont proposées. Dans ce manuscrit, d'après les contraintes de la tâche, nous sélectionnons une large famille de cinématiques parallèles que nous modelions de manières générique et complète. Nous utilisons cette modélisation pour différentes propositions de mécanismes : 4 degrés de liberté avec plateforme mobile articulée, 4 degrés de liberté avec plateforme rigide et 5 degrés de liberté avec redondance et plateforme articulée. Ces travaux ont conduit à la réalisation d'un prototype qui a validé le concept d'une de ces machines. / Currently, some aeronautical parts are milled by efficient chemical processes, but involving products pollutants and hazardous for workers working on their contact. Therefore, it is imperative to find a solution that would be at least as efficient as chemical milling and much less risky for humans and the environment. It is recognized in the literature that high-speed milling is a serious and effective alternative for the above mentioned problems. Moreover, for years, machine tools based on parallel structure have proven their utility in high-speed milling. In the context of milling of lengthy and complex shaped aeronautical parts, new parallel architectures are proposed. In this manuscript, according to the constraints of tasks, we select a large family of parallel kinematic mechanism that we modelize in a generic and complete way. We use these models for different propositions of mechanisms: 4 degrees of freedom with articulated platform, 4 degrees of freedom with rigid platform and 5 degrees of freedom with actuation redundancy and articulated platform. This work leads to the realization of a prototype that validates the concept of one of these machines.
|
56 |
Analyse et détection de logiciels de rançon / Analysis and detection of the ransomwarePalisse, Aurélien 04 March 2019 (has links)
La thèse s'intéresse aux logiciels de rançon, présente une plateforme d'analyse automatique et propose des contre-mesures. Nos contre-mesures sont conçues pour être temps réel et déployées sur une machine, c'est-à-dire ''End-Hosts''. En 2013 les logiciels de rançon font de nouveau parler d'eux, pour finalement devenir une des menaces les plus sérieuses à partir de 2015. Un état de l'art détaillé des contre-mesures existantes est fourni. On peut ainsi situer les contributions de cette thèse par rapport à la littérature. Nous présentons également une plateforme d'analyse automatique de logiciels malveillants composée de machines nues. L'objectif est de ne pas altérer le comportement des échantillons analysés. Une première contre-mesure basée sur l'utilisation d'une librairie cryptographique par les logiciels de rançon est proposée. Celle-ci peut être facilement contournée. Nous proposons donc une seconde contre-mesure générique et agnostique. Cette fois, des indicateurs de compromission sont utilisés pour analyser le comportement des processus sur le système de fichiers. Nous détaillons comment de manière empirique nous avons paramétré cette contre-mesure pour la rendre~: utilisable et efficace. Un des challenges de cette thèse étant de faire concilier performance, taux de détection et un faible taux de faux positifs. Enfin, les résultats d'une expérience utilisateur sont présentés. Cette expérience analyse le comportement des utilisateurs face à une menace. En dernière partie, nous proposons des améliorations à nos contributions mais aussi des pistes à explorer. / This phD thesis takes a look at ransomware, presents an autonomous malware analysis platform and proposes countermeasures against these types of attacks. Our countermeasures are real-time and are deployed on a machine (i.e., end-hosts). In 2013, the ransomware become a hot subject of discussion again, before becoming one of the biggest cyberthreats beginning of 2015. A detailed state of the art for existing countermeasures is included in this thesis. This state of the art will help evaluate the contribution of this thesis in regards to the existing current publications. We will also present an autonomous malware analysis platform composed of bare-metal machines. Our aim is to avoid altering the behaviour of analysed samples. A first countermeasure based on the use of a cryptographic library is proposed, however it can easily be bypassed. It is why we propose a second generic and agnostic countermeasure. This time, compromission indicators are used to analyse the behaviour of process on the file system. We explain how we configured this countermeasure in an empiric way to make it useable and effective. One of the challenge of this thesis is to collate performance, detection rate and a small amount of false positive. To finish, results from a user experience are presented. This experience analyses the user's behaviour when faced with a threat. In the final part, I propose ways to enhance our contributions but also other avenues that could be explored.
|
57 |
Surveillance of Listeria monocytogenes in food : benchmarking of standard typing tools and implementation of genomic tools / Surveillance de Listeria monocytogenes dans les aliments : analyse comparative des outils de typage standard et implémentation d'outils génomiquesHenri, Clémentine 21 June 2017 (has links)
Listeria monocytogenes (L. monocytogenes) est une bactérie ubiquitaire Gram-positive aux niches écologiques et porteurs divers. L'infection humaine, par ce micro-organisme, liée à la consommation d’aliments contaminés peut provoquer une infection rare, mais grave, la listériose. L'identification et le typage de cette bactérie sont des étapes importantes pour la maîtrise des dangers à chaque étape de la chaîne alimentaire. Les méthodes de typage disponibles que sont le sérotypage, le sérotypage moléculaire, la PFGE (Electrophorèse en Champs pulsé) et la MLST (Multiloci Type de séquence), ont permis de comprendre la diversité de L. monocytogenes et d’endiguer des épidémies. Ces dernières années, les NGS (Next Generation Sequencing) et le développement de méthodes de calcul ont rendu possible l'application du séquençage du génome entier (WGS) comme outils de typage. Dans cette étude, nous avons profité de la vaste collection de souches de L. monocytogenes isolées de l'alimentation et gérée par l'ANSES. Les outils de typage standards comme les protocoles WGS ont été appliqués et comparés sur cette collection. Nous avons observé que la population de L. monocytogenes est très structurée, quel que soit l’outil de typage utilisé, de plus, les résultats sont concordants. Chaque groupe de souches, désigné comme "séquence type " (ST) ou "complexe clonal" (CC) dans ce travail, montre des caractéristiques spécifiques sur leur fréquence, les résultats de typage, l'association à l'aliment ou au cas clinique et le profil de virulence. Ces données permettent de classer plus finement les souches de L. monocytogenes et de prédire le potentiel pathogénique de souches. De plus, les WGS permettent la surveillance en routine, la détection d'épidémies, l’identification des sources de contamination et des risques, de par leur forte résolution. Avec le programme « BlastP », une base de données de gènes associés à la virulence et le panel de souches de l'ANSES, nous avons pu distinguer un gène de virulence, InlF (internalin F), lequel, tronqué, pourrait expliquer la fréquence extrêmement faible de cas cliniques dans le groupe de souches ST121.Les WGS représentent une nouvelle étape vers une meilleure appréciation et gestion des risques de santé liés à L. monocytogenes. Cependant, des améliorations comme une nomenclature commune, des protocoles standardisés pour les WGS et des outils simplifiés pour partager des données et ainsi renforcer l'efficacité de la surveillance de L. monocytogenes seraient nécessaires / Listeria monocytogenes (L. monocytogenes) is a gram-positive bacterium present in diverse ecological environments and hosts. The microorganism may infect humans and these infections can often be traced back to contaminated foods. The bacterium can sometimes lead to rare but serious infection and in particular a lethal infection known as listeriosis. The bacterium can enter the food chain at all production stages and therefore identification and characterisation of this bacterium are critical steps in the control of potential hazards to the food chain. The current available characterisation methods, which include serotyping, molecular serotyping, PFGE (Pulsed-Field Gel Electrophoresis) and MLST (Multilocus Sequence Type), have provided understanding about the diversity of L. monocytogenes. Further the characterisation methods can facilitate the investigation of outbreaks. During the last few years, (NGS) Next Generation Sequencing and development of computational method for genome wide studies have made it possible to apply WGS (whole genome sequencing) as a typing tool. In this study, we took advantage of the large and the well-characterized collection of L. monocytogenes strains isolated from foods, which is available at Anses. Standard typing tools as well as recent WGS protocols were applied and compared. We observed that L. monocytogenes population could be distinctly separated and structured when analysed by diverse typing tools. Moreover, the investigation displayed consistency among the typing tools. Each cluster of strains, commonly referred to as Sequence Type (ST) or Clonal Complex (CC), shows specific features regarding prevalence, typing results, association to food or the clinical and virulence profile. It opens the possibility for a detailed classification of L. monocytogenes and the possibility to predict the potential pathogenicity of strains based on knowledge of those specific features. By utilising the BlastP program, a virulence associated genes database and the panel of strains housed by Anses, we identified one gene, internalin F (InlF), truncated specifically in ST121. It could therefore explain the observed low frequency of clinical case among strains from ST121.WGS represents a step towards even better identification and management of health risks related to L. Monocytogenes. However, in order to enhance efficiency of foodborne pathogen surveys it would be necessary to implement improvements such as common nomenclature, standard WGS protocols and uniform standards for data sharing
|
58 |
L'improvisation comme compétence, étude du déploiment d'un dispositif de gestion logistique / Improvisation as competence, study implementation of a device logistics managementHernandez-Ruiz, Haydée Margarita 28 January 2013 (has links)
Cette recherche est consacrée à l’étude du déploiement d’un dispositif de gestion logistique chez un constructeur automobile français. La théorie de la mise en acte des outils de gestion est utilisée pour analyser le processus du déploiement du dispositif de gestion MAF mutualisés. Celle-ci considère qu’il y a un processus d’adaptation par les utilisateurs lors de la mise en place du dispositif appelé « appropriation ». Notre proposition établit que cette appropriation se réalise « chemin faisant », sans planification et par la volonté des utilisateurs, trois caractéristiques de l’improvisation identifiées dans la littérature. A la suite des travaux de Ciborra, nous faisons appel au concept d’improvisation organisationnelle afin de caractériser les actions réalisées par les utilisateurs pour « faire avec » le dispositif de gestion. Notre démarche est fondée sur un aller-retour entre littérature et terrain qui nous a permis d’affiner les questions de recherche et la méthode d’analyse suite à la période d’observation participante d’un an (juillet 2009 à août 2010) au sein de l’équipe chez le constructeur automobile. Nous avons ainsi élaboré trois grilles de lecture pour identifier les difficultés rencontrées lors du déploiement du dispositif, caractériser les boucles prescription-improvisation lors de la mise en place du dispositif et les comparer. Notre étude nous emmène à proposer une définition de l’improvisation comme compétence à « faire avec » les outils de gestion et à construire un modèle du processus d’improvisation. / This research studies the implementation of a management device at a French car manufacturer. Implementation theory is use for analyzing the device’s implementation process called « mutualized MAF ». This theory considers that an adaptation process is realized by the users during the device implementation. This process is called "appropriation". Our findings propose that this appropriation is realized «making path», without planning and voluntarily by the users, three improvisation characteristics identified by the literature. Following Ciborras’s work, we use organizational improvisation concept to characterize the actions performed by users to "make do" with the management device. Our approach is based on a going-and-coming process between literature and research ground which helped us to suit better our research questions and our analyzing method after one year observation period (July 2009 to August 2010) within the team at the automaker. We have developed three reading grids to identify difficulties encountered during the device, characterize prescription-improvisation loops during the implementation of the device and compare loops between them. Our study leads us to propose a definition of improvisation as a skill to "make do" with the management tools and to build a model of improvisation.
|
59 |
L’influence de produits innovants sur l’émotion des utilisateurs : une approche multi-componentielle / Influence of innovative products on users' emotion : a multi-componential approachDupré, Damien 11 February 2016 (has links)
Étant donné l’investissement économique que représente le développement de produits innovants ainsi que leur faible taux de succès auprès du grand public, anticiper ce succès est devenu essentiel pour les industriels. Par conséquent, un cadre d’analyse centré sur l’expérience utilisateur met en avant l’émotion des individus comme critère déterminant pour prédire l’utilisation future d’un produit. Néanmoins, malgré les avantages des modèles issus de ce cadre d’analyse, ils apparaissent également comme étant limités du point de vue des prédictions qu’ils permettent de réaliser. Parallèlement, d’autres modèles issus de la théorie des intentions ont cherché à identifier les prédicteurs de l’intention comportementale des individus à utiliser pour la première fois ces produits ou bien ceux de l’intention comportementale des individus à les utiliser de nouveau. Ces modèles, comme le Technology Acceptance Model, l’Unified Theory of Acceptance and Use of Technology et le Consumer Acceptance of Technology, mettent en lien les attitudes envers les caractéristiques des produits et ces intentions d’utilisation. Cependant, ils posent également quelques problèmes vis-à-vis de leurs manières de prendre en compte l’émotion des individus.Pour répondre à la problématique de l’étude de l’émotion suscitée par des produits, nous proposons d’adopter le Component Process Model. Selon ce modèle l’émotion est le résultat de modifications internes et externes qui peuvent être regroupées en cinq composantes : la composante cognitive, la composante motivationnelle, la composante subjective, la composante expressive et la composante physiologique. Nous proposons d’utiliser ce modèle pour étudier spécifiquement l’influence de l’innovation des produits sur les émotions. Ainsi dans nos Études 1 et 2, nous monterons d’une part qu’il est possible d’analyser l’émotion suscitée par des produits avant même leur utilisation d’après trois des cinq composantes et d’autre part que ces émotions ne sont pas influencées par des caractéristiques propres aux individus. Ensuite dans nos Études 3 et 4, nous testerons expérimentalement ces composantes en comparant les émotions suscitées par les toutes premières utilisations de produits dits « innovants » avec l’utilisation de produits dits « communs ». Les résultats de ces études confirmeront l’intérêt qu’a l’utilisation du Component Process Model dans l’étude des émotions suscitées par des produits et plus particulièrement par des produits innovants. / Given the sizable economic investment of innovative products’ development, anticipating their success has become essential for companies. Therefore, a descriptive framework centered on user experience – also called UX – highlights individuals’ emotions as a criterion to predict the future use of products. Nevertheless, despite the pros of the models derived from this framework, they also have limits regarding the predictions they allow to make. Meanwhile, other psychological models aim to identify predictors of individuals’ behavioral intention to use these products for the first time or to use them again. These models – such as the Technology Acceptance Model, the Unified Theory of Acceptance and Use of Technologies or the Consumer Acceptance of Technology – enable to foresee individuals’ attitudes towards product characteristics and their intention to use them. However, they are also problematic regarding their way to take users’ emotions into account.To address the problem of the study of emotions triggered by products, we propose to adapt the Component Process Model. In this model emotions are the result of internal and external changes that can be categorized into five components: the cognitive component, the motivational component, the subjective component, the expressive component and the physiological component. We suggest using this model to specifically study the influence of a product’s innovational impact on emotions. Thus, in Studies 1 and 2 we show; firstly that it is possible to analyze the emotion elicited by products before their uses from three of the five components and secondly, that these emotions are not influenced by individuals’ personality and context. Then, in Studies 3 and 4, we experimentally test these components by comparing the emotions triggered by the first uses of so-called “innovative” products compared to the uses of products known as being “traditional”. The results of these studies confirm the advantage of using the Component Process Model to analyze emotions triggered by products and, more particularly, by innovative products.
|
60 |
Planification et ordonnancement de plateformes logistiques / Logistic platform planning and schedulingCarrera, Susana 05 November 2010 (has links)
L'objectif de cette thèse est de fournir des outils d'aide à la décision pour piloter les plateformes logistiques à court de moyen terme. La première partie décrit la problématique concernée et les notions essentielles dans le cadre des chaînes logistiques. Dans la deuxième partie, le problème de la planification est étudié, nous proposons des modèles linéaires pour minimiser les coûts de personnel, qui prennent en compte les flux : leurs variations saisonnières, la possibilité de les négocier localement en amont et en aval, ainsi que leur organisation et celle du travail. Ainsi, l'outil peut être utilisé dans la coordination des flux entres les partenaires de la chaîne livrées en amont et en aval de la plateforme et la négociation des dates de livraison. Ces modèles sont testés et validés sur des instances générées aléatoirement, sur des configurations inspirées de problèmes réels. Dans la troisième partie, nous travaillons sur l'ordonnancement des activités de préparation de commandes. Ici, nous combinons deux familles de contraintes difficiles : l'arrivée de composants (ressources consommables) à des dates et en quantités connues à l'amont de la plateforme, et des tournées de livraison à dates fixées à l'aval. Trois cas particuliers sont étudiés, selon la façon dont les tournées sont organisées. Nous proposons des procédures par séparation et évaluation pour ces problèmes, et un modèle linéaire en nombres entiers pour le cas le plus simple. Des expériences sont faites sur des familles d'instances générées aléatoirement et de manière partiellement hétérogène. Plusieurs perspectives de généralisation sont proposées / The aim of this thesis is to provide decision support systems to control logistic platforms at the mid-term and short-term levels. Several problems and main notions concerning logistic platform context are described in the first part. In the second part, planning problems are studied. Two linear programming models are proposed to minimize the workforce costs. These models take into account several characteristics : seasonal flow variations, work and flow organization in the platform, and local negotiations of the upstream and downstream flows. In consequence, our decision support system can be used in the flow coordination between supply chain partners. Two types of negotiations are considered : negotiations of upstream and downstream delivered quantities and negotiation of delivery dates. These models have been tested on pertinent randomly generated instances inspired from concerete problems. In the third part of the thesis, the external flows of the platforme are assumed to be fixed. Orders preparation scheduling problem inside the platform is considered. Two families of strong contraints are combined : staircase availability of components (consumable resources) and dixed delivery dates. According to the way the downstream deliveries are organized and penalised, three different cases (based on industrial applications) have been studied. We proposed three branch and bound procedures for these problems, and an integer linear program for the easiest problem. Experimental analysis has been done over heterogeneous randomly generated instance families. In the last part, a series of perspectives for this work are proposed
|
Page generated in 0.3264 seconds