• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 111
  • 67
  • 22
  • 16
  • 12
  • 4
  • 2
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 257
  • 50
  • 41
  • 40
  • 26
  • 24
  • 22
  • 22
  • 21
  • 19
  • 18
  • 17
  • 16
  • 16
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Terapeutens rätt : rättslig och terapeutisk logik i domstolsförhandlingar

Jacobsson, Maritha January 2006 (has links)
In this dissertation, I explore a quite unique legal situation, namely administrative court hearings relating to coercive interventions: the Care of Young Persons Act (LVU), Care of Abusers (Special Provisions) Act (LVM), and the Compulsory Psychiatric Care Act (LPT). There are three central participatory roles in the court hearings: The official party is the authority who files the application for coercive intervention – either a chief psychiatrist or a social welfare board (typically represented by a social worker or sometimes a lawyer assisted by a social worker), whereas the citizen party is the person about whom the application is brought. The citizen party is represented by a legal representative. The professionals represent two different logics: therapeutic and judicial. The purpose of this dissertation has been to study the tension between therapeutic and judicial logic in court hearings relating to compulsory care. With theoretical concepts from Scott (1995) and Wetherell & Potter (1998), it is possible to say that the therapeutic and judicial logics are built up by institutional elements that are communicated through interpretative repertoires. Three questions are central: 1. How do professional participators handle the different role expectations embedded in therapeutic and judicial logic? In this case, I am particularly interested in role conflicts faced by social workers and psychiatrists. 2. How do different institutional elements (regulative, normative/cognitive) play out in the court hearings? 3. To what extent can these court hearings be considered a scrutinizing order of discourse, where the arguments of official party are subjected to critical examination? In my analysis I am inspired by both critical discourse analysis and organizational theory, more precisely, new institutionalism. These two perspectives provide useful insights and make it possible to combine the micro- and macro levels in the analysis. Data for the analysis consist of 43 court hearings and 31 interviews, gathered from two different county administrative courts in Sweden. All written documents used and produced by the courts are also part of our data. The dissertation consists of five studies that indicate that the court hearings hardly can be described as a scrutinising order of discourse. In spite of this, the court constantly finds that the legal criteria for coercive intervention are satisfied. Neither the official party nor the legal representative argue according to a judicial logic. Instead, therapeutic logic dominates the order of discourse. When the arguments for compulsory care are therapeutic, they are not explicitly related to the criteria in the law. In my interpretation, the reason why the conflict between therapeutic and judicial logic is not realised can be found in the existence of a logic of normalisation. This ideological logic of normalisation can be found in most of the institutions in the Swedish society and are built on the idea of traditional welfare norms.
92

L'ange et le monstre : esthétisation foetale et deuil d'enfant : le cas de l'interruption médicale de grossesse (I.M.G) / The angel and the monster : foetal esthetisation and mourning of child : the case of the medical interruption of pregnancy (M.I.P)

Boullier, Jean-François 23 January 2015 (has links)
Cette thèse analyse l’évolution des imaginaires de la grossesse depuis 40 ans ainsi que certaines de ses incidences sociales.La science embryologiste avait installé depuis le 19ième siècle une tradition de représentation réaliste du foetus humain. Au cours de la 2ième moitié du 20ième, les choses semblent changer. En 1970, les photos de Lennart Nilsson notamment ont coloré, autonomisé, esthétisé et humanisé le foetus. En France, le ‟foetus anatomique” s’est vu par ailleurs retiré des muséums, son image s’absente du ‟Larousse médical illustré” et des manuels de sciences naturelles. Quant au foetus présent dans l’art contemporain, il est surdimensionné ou dégoûtant : ce qui ressemble donc le plus à un ‟vrai” foetus se déréalise. L’haptonomie et certaines technologies autour de la grossesse vont accentuer ces modifications de l’image du foetus au profit des imaginaires parentaux.Les effets sociaux de cette idéalisation foetale sont variés. L’humanisation du ‟beau foetus” enlaidissant l’anomalie, la hantise maternelle du ‟monstre foetal” est d’avantage intériorisée et trouble le travail en médecine foetale. Leur refus de l’anomalie devenant plus implicite, médecins et parents adoptent un langage euphémisé. Mais même l’image du foetus avorté s’humanise. Elle devient émouvante. Quand un foetus est condamné, il faudra donc le réparer, concrètement et symboliquement. Les soignants qui invitent les parents à voir le foetus après sa mort vont le présenter comme un bébé dormant, réparé de ses malformations. Certaines mères, surtout quand elles envisagent une nouvelle grossesse, le représentent alors comme un ange, cet ange devenu omniprésent sur les forums Internet.Ce dispositif questionne les sociétés contemporaines : les spécialistes de médecine foetale se retrouvent aujourd’hui confrontés à certains parents refusant la naissance d’un enfant atteint de malformations sans gravité. Au miroir de leur bébé surgit un indicible : l’horreur d’un foetus porteur d’anomalie. L’esthétisation ne rend-elle pas les imaginaires de l’anomalie d’autant plus puissants qu’ils n’ont plus d’espace, autre que le for intérieur, pour se déployer ? / This thesis analyses the evolution of imagination of the pregnancy for forty years as well as some of its social incidences.The science embryologist had installed since the 19 th century a realist tradition of presentation of the human foetus. During half of the 20 th, things seem to change. In 1970, the photographs of Lennart Nilsson in particular coloured, empowered, aestheticized and humanized the foetus. In France, the ‟anatomical foetus” saw itself besides out-of- the way of the museums, its image absent in in the ‟illustrated medical Larousse” and the textbooks of natural sciences. As for the foetus present in the contempory art, it is oversized or disgusting : what looks like mots of ‟real” foetus derealises. The haptonomy and certain technologies around the pregnancy are going to stress these modifications of the image of the foetus for the benefit of parental imagination.The social effects of the foetal idealization are varied. The humanisation of the ‟beautiful foetus” making ugly anomaly, the maternal obsession of the ‟foetal monster” is more interiorized and discorders work in foetal medicine. Their refusal of anomaly becoming more implicit, doctors and parents adopt an euphemized language. But, even the image of the aborted foetus fallen through humanizes. It becomes moving. When a foetus is condemned, it will thus have to be repaired concretely and symbolically. The nursing who invite the relatives to see the foetus after his death will present him as a sleeping baby, repaired by his deformations. Certain mother especially when they envisage a new pregnancy, represent him then as an angel, this angel become omnipresent on the Internet forums.This dispositf questions the contemporary societies : the specialists of foetal medicine are faced with certain parents refusing the birth of a child affected by deformations without gravity. In the miror of their baby appears an unspeakable : the horror of an expanding foetus of anomaly. Does not the esthetisation make the imagination of the anomaly all the more powerful as they do not have more space other than the heart of hearts to spread ?
93

La communication des informations comptables, sociales et financières dans les entreprises Algériennes, facteur d'attractivité des investissements étrangers ? / The communication of accounting, financiel and social information in Algerian companies, a factor of attractiveness to foreign investors ?

Bouchareb, Abderaouf 29 September 2018 (has links)
Tous les pays à ex-orientation socialiste, au Sud, à l'Est comme en Asie, qui se sont engagés dans un processus de transition à une économie de marché ont inscrit dans leur programme de transformation, soit spontanément par stratégie délibérée, soit sous l'effet de facteurs exogènes en particulier les exigences des investisseurs étrangers et les conditionnalités des institutions internationales de financement, la réforme du système comptable national.La transition à un système comptable adapté aux exigences de la globalisation, de l'ouverture économique et des transformations structurelles qui en découlent est souvent problématique dans ces pays au sens où ce type de changement induit souvent une démarche politico-législative complexe et de lourdes mesures connexes de mise en place d'un organisme de normalisation comptable, de création des professions de comptable et d'audit, de choix de l'approche de normalisation, de positionnement par rapport aux modèles dominants et de mobilisation de fonds souvent importants.Cette thèse s'intéresse particulièrement à un facteur qui fut souvent négligé mais qui se révèle être d'une importance capitale: la culture. ce travail a pour objectif d'étudier la pertinence de l'harmonisation comptable en Algérie avec le référentiel comptable international. / All countries with a socialist orientation, in the South, in the East and in Asia, which have embarked on a process of transition to a market economy have included in their transformation program, either spontaneously by deliberate strategy, or under the effect of exogenous factors especially the requirements of foreign investors and the conditionalities of international financial institutions, the reform of the national accounting system.The transition to an accounting system adapted to the requirements of globalization, economic openness and the resulting structural transformations is often problematic in these countries in the sense that this type of change often leads to a complex politico-legislative approach and heavy measures. related to the establishment of an accounting standard-setting body, the creation of accounting and auditing professions, the choice of the standardization approach, the positioning of dominant models and the mobilization of often significant funds.This thesis is particularly interested in a factor that has often been neglected but which turns out to be of paramount importance: culture. this work aims to study the relevance of accounting harmonization in Algeria with the international accounting standards.
94

L'ange et le monstre : esthétisation foetale et deuil d'enfant : le cas de l'interruption médicale de grossesse (I.M.G) / The angel and the monster : foetal esthetisation and mourning of child : the case of the medical interruption of pregnancy (M.I.P)

Boullier, Jean-François 23 January 2015 (has links)
Cette thèse analyse l’évolution des imaginaires de la grossesse depuis 40 ans ainsi que certaines de ses incidences sociales.La science embryologiste avait installé depuis le 19ième siècle une tradition de représentation réaliste du foetus humain. Au cours de la 2ième moitié du 20ième, les choses semblent changer. En 1970, les photos de Lennart Nilsson notamment ont coloré, autonomisé, esthétisé et humanisé le foetus. En France, le ‟foetus anatomique” s’est vu par ailleurs retiré des muséums, son image s’absente du ‟Larousse médical illustré” et des manuels de sciences naturelles. Quant au foetus présent dans l’art contemporain, il est surdimensionné ou dégoûtant : ce qui ressemble donc le plus à un ‟vrai” foetus se déréalise. L’haptonomie et certaines technologies autour de la grossesse vont accentuer ces modifications de l’image du foetus au profit des imaginaires parentaux.Les effets sociaux de cette idéalisation foetale sont variés. L’humanisation du ‟beau foetus” enlaidissant l’anomalie, la hantise maternelle du ‟monstre foetal” est d’avantage intériorisée et trouble le travail en médecine foetale. Leur refus de l’anomalie devenant plus implicite, médecins et parents adoptent un langage euphémisé. Mais même l’image du foetus avorté s’humanise. Elle devient émouvante. Quand un foetus est condamné, il faudra donc le réparer, concrètement et symboliquement. Les soignants qui invitent les parents à voir le foetus après sa mort vont le présenter comme un bébé dormant, réparé de ses malformations. Certaines mères, surtout quand elles envisagent une nouvelle grossesse, le représentent alors comme un ange, cet ange devenu omniprésent sur les forums Internet.Ce dispositif questionne les sociétés contemporaines : les spécialistes de médecine foetale se retrouvent aujourd’hui confrontés à certains parents refusant la naissance d’un enfant atteint de malformations sans gravité. Au miroir de leur bébé surgit un indicible : l’horreur d’un foetus porteur d’anomalie. L’esthétisation ne rend-elle pas les imaginaires de l’anomalie d’autant plus puissants qu’ils n’ont plus d’espace, autre que le for intérieur, pour se déployer ? / This thesis analyses the evolution of imagination of the pregnancy for forty years as well as some of its social incidences.The science embryologist had installed since the 19 th century a realist tradition of presentation of the human foetus. During half of the 20 th, things seem to change. In 1970, the photographs of Lennart Nilsson in particular coloured, empowered, aestheticized and humanized the foetus. In France, the ‟anatomical foetus” saw itself besides out-of- the way of the museums, its image absent in in the ‟illustrated medical Larousse” and the textbooks of natural sciences. As for the foetus present in the contempory art, it is oversized or disgusting : what looks like mots of ‟real” foetus derealises. The haptonomy and certain technologies around the pregnancy are going to stress these modifications of the image of the foetus for the benefit of parental imagination.The social effects of the foetal idealization are varied. The humanisation of the ‟beautiful foetus” making ugly anomaly, the maternal obsession of the ‟foetal monster” is more interiorized and discorders work in foetal medicine. Their refusal of anomaly becoming more implicit, doctors and parents adopt an euphemized language. But, even the image of the aborted foetus fallen through humanizes. It becomes moving. When a foetus is condemned, it will thus have to be repaired concretely and symbolically. The nursing who invite the relatives to see the foetus after his death will present him as a sleeping baby, repaired by his deformations. Certain mother especially when they envisage a new pregnancy, represent him then as an angel, this angel become omnipresent on the Internet forums.This dispositf questions the contemporary societies : the specialists of foetal medicine are faced with certain parents refusing the birth of a child affected by deformations without gravity. In the miror of their baby appears an unspeakable : the horror of an expanding foetus of anomaly. Does not the esthetisation make the imagination of the anomaly all the more powerful as they do not have more space other than the heart of hearts to spread ?
95

Towards RDF normalization / Vers une normalisation RDF

Ticona Herrera, Regina Paola 06 July 2016 (has links)
Depuis ces dernières décennies, des millions d'internautes produisent et échangent des données sur le Web. Ces informations peuvent être structurées, semi-structurées et/ou non-structurées, tels que les blogs, les commentaires, les pages Web, les contenus multimédias, etc. Afin de faciliter la publication ainsi que l'échange de données, le World Wide Web Consortium (ou W3C) a défini en 1999 le standard RDF. Ce standard est un modèle qui permet notamment de structurer une information sous la forme d'un réseau de données dans lequel il est possible d'y attacher des descriptions sémantiques. Ce modèle permet donc d'améliorer l'interopérabilité entre différentes applications exploitant des données diverses et variées présentes sur le Web.Actuellement, une grande quantité de descriptions RDF est disponible en ligne, notamment grâce à des projets de recherche qui traitent du Web de données liées, comme par exemple DBpedia et LinkedGeoData. De plus, de nombreux fournisseurs de données ont adopté les technologies issues de cette communauté du Web de données en partageant, connectant, enrichissant et publiant leurs informations à l'aide du standard RDF, comme les gouvernements (France, Canada, Grande-Bretagne, etc.), les universités (par exemple Open University) ainsi que les entreprises (BBC, CNN, etc.). Il en résulte que de nombreux acteurs actuels (particuliers ou organisations) produisent des quantités gigantesques de descriptions RDF qui sont échangées selon différents formats (RDF/XML, Turtle, N-Triple, etc.). Néanmoins, ces descriptions RDF sont souvent verbeuses et peuvent également contenir de la redondance d'information. Ceci peut concerner à la fois leur structure ou bien leur sérialisation (ou le format) qui en plus souffre de multiples variations d'écritures possibles au sein d'un même format. Tous ces problèmes induisent des pertes de performance pour le stockage, le traitement ou encore le chargement de ce type de descriptions. Dans cette thèse, nous proposons de nettoyer les descriptions RDF en éliminant les données redondantes ou inutiles. Ce processus est nommé « normalisation » de descriptions RDF et il est une étape essentielle pour de nombreuses applications, telles que la similarité entre descriptions, l'alignement, l'intégration, le traitement des versions, la classification, l'échantillonnage, etc. Pour ce faire, nous proposons une approche intitulée R2NR qui à partir de différentes descriptions relatives à une même information produise une et une seule description normalisée qui est optimisée en fonction de multiples paramètres liés à une application cible. Notre approche est illustrée en décrivant plusieurs cas d'étude (simple pour la compréhension mais aussi plus réaliste pour montrer le passage à l'échelle) nécessitant l'étape de normalisation. La contribution de cette thèse peut être synthétisée selon les points suivants :i. Produire une description RDF normalisée (en sortie) qui préserve les informations d'une description source (en entrée),ii. Éliminer les redondances et optimiser l'encodage d'une description normalisée,iii. Engendrer une description RDF optimisée en fonction d'une application cible (chargement rapide, stockage optimisée...),iv. Définir de manière complète et formelle le processus de normalisation à l'aide de fonctions, d'opérateurs, de règles et de propriétés bien fondées, etc.v. Fournir un prototype RDF2NormRDF (avec deux versions : en ligne et hors ligne) permettant de tester et de valider l'efficacité de notre approche.Afin de valider notre proposition, le prototype RDF2NormRDF a été utilisé avec une batterie de tests. Nos résultats expérimentaux ont montré des mesures très encourageantes par rapport aux approches existantes, notamment vis-à-vis du temps de chargement ou bien du stockage d'une description normalisée, tout en préservant le maximum d'informations. / Over the past three decades, millions of people have been producing and sharing information on the Web, this information can be structured, semi-structured, and/or non-structured such as blogs, comments, Web pages, and multimedia data, etc., which require a formal description to help their publication and/or exchange on the Web. To help address this problem, the Word Wide Web Consortium (or W3C) introduced in 1999 the RDF standard as a data model designed to standardize the definition and use of metadata, in order to better describe and handle data semantics, thus improving interoperability, and scalability, and promoting the deployment of new Web applications. Currently, billions of RDF descriptions are available on the Web through the Linked Open Data cloud projects (e.g., DBpedia and LinkedGeoData). Also, several data providers have adopted the principles and practices of the Linked Data to share, connect, enrich and publish their information using the RDF standard, e.g., Governments (e.g., Canada Government), universities (e.g., Open University) and companies (e.g., BBC and CNN). As a result, both individuals and organizations are increasingly producing huge collections of RDF descriptions and exchanging them through different serialization formats (e.g., RDF/XML, Turtle, N-Triple, etc.). However, many available RDF descriptions (i.e., graphs and serializations) are noisy in terms of structure, syntax, and semantics, and thus may present problems when exploiting them (e.g., more storage, processing time, and loading time). In this study, we propose to clean RDF descriptions of redundancies and unused information, which we consider to be an essential and required stepping stone toward performing advanced RDF processing as well as the development of RDF databases and related applications (e.g., similarity computation, mapping, alignment, integration, versioning, clustering, and classification, etc.). For that purpose, we have defined a framework entitled R2NR which normalizes different RDF descriptions pertaining to the same information into one normalized representation, which can then be tuned both at the graph level and at the serialization level, depending on the target application and user requirements. We illustrate this approach by introducing use cases (real and synthetics) that need to be normalized.The contributions of the thesis can be summarized as follows:i. Producing a normalized (output) RDF representation that preserves all the information in the source (input) RDF descriptions,ii. Eliminating redundancies and disparities in the normalized RDF descriptions, both at the logical (graph) and physical (serialization) levels,iii. Computing a RDF serialization output adapted w.r.t. the target application requirements (faster loading, better storage, etc.),iv. Providing a mathematical formalization of the normalization process with dedicated normalization functions, operators, and rules with provable properties, andv. Providing a prototype tool called RDF2NormRDF (desktop and online versions) in order to test and to evaluate the approach's efficiency.In order to validate our framework, the prototype RDF2NormRDF has been tested through extensive experimentations. Experimental results are satisfactory show significant improvements over existing approaches, namely regarding loading time and file size, while preserving all the information from the original description.
96

Study of 3D genome organisation in budding yeast by heterogeneous polymer simulations

Fahmi, Zahra January 2019 (has links)
Investigating the arrangement of the packed DNA inside the nucleus has revealed the essential role of genome organisation in controlling genome function. Furthermore, genome architecture is highly dynamic and significant chromatin re-organisation occurs in response to environmental changes. However, the mechanisms that drive the 3D organisation of the genome remain largely unknown. To understand the effect of biophysical properties of chromatin on the dynamics and structure of chromosomes, I developed a 3D computational model of the nucleus of the yeast S. cerevisiae during interphase. In the model, each chromosome was a hetero-polymer informed by our bioinformatics analysis for heterogeneous occupancy of chromatin-associated proteins across the genome. Two different conditions were modelled, normal growth (25°C) and heat shock (37°C), where a concerted redistribution of proteins was observed upon transition from one temperature to the other. Movement of chromatin segments was based on Langevin dynamics and each segment had a mobility according to their protein occupancy and the expression level of their corresponding genes. The model provides a significantly improved match with quantitative microscopy measurements of telomere positions, the distributions of 3D distances between pairs of different loci, and the mean squared displacement of a labelled locus. The quantified contacts between chromosomal segments were similar to the observed Hi-C data. At both 25°C and 37°C conditions, the segments that were highly occupied by proteins had high number of interactions with each other, and the highly transcribed genes had lower contacts with other segments. In addition, similar to the experimental observations, heat-shock genes were found to be located closer to the nuclear periphery upon activation in the simulations. It was also shown that the determined distribution of proteins along the genome is crucial to achieve the correct genome organisation. Hence, the heterogeneous binding of proteins, which results in differential mobility of chromatin segments, leads to 3D self-organisation.
97

Normalisation polynomique d'une langue fortement dialectisée et fragmentée : l'aménagement lexical du berbère / Polynomic normalization of a language highly dialectalized and fragmented : the lexical planning of berber

Touati, Ramdane 27 November 2018 (has links)
L’objectif de cette recherche est d’étudier, dans une approche critique et interventionniste, l’aménagement lexical du berbère. L’étude critique des actions glottopolitiques, de la fragmentation dialectologique ainsi que la réflexion sur la revitalisation et la normalisation linguistique ont brossé l’essentiel de la berbérophonie. Cette thèse est organisée en trois parties. La première partie présente une étude critique des actions glottopolitiques concernant le berbère et la sociolinguistique étudiant ces questions. La deuxième partie explore la diversité linguistique et la configuration dialectale de cette langue. Dans une perspective de revitalisation et de normalisation linguistique, nous avons développé une réflexion sur l’adoption du concept de la langue polynomique au berbère, en nous basant en premier lieu sur sa situation dialectologique et sa vitalité. La dernière partie met en pratique les réflexions théoriques, présentées dans les deux parties précédentes, dans le domaine de l’aménagement lexical. C’est une illustration de l’aménagement du vocabulaire commun et spécialisé. Elle comprend également une réflexion sur l’aménagement terminologique, la normalisation linguistique et leur mise en pratique dans le cadre d’un processus d’aménagement à la fois polynomique et convergent. En conclusion, nous suggérons, pour la normalisation du berbère, un aménagement polynomique permettant à la fois d’intégrer la variation dialectologique et d’engager un processus de convergence. Celui-ci doit nécessairement s’appuyer sur l’étude de la dialectalisation de cette langue ainsi que sur la vitalité de ses différents groupes. / The objective of this research is to study, in a critical and interventionist approach, the lexical planning of Berber. Critical studies of glottopolitical actions and dialectological fragmentation, as well as reflections on revitalization and linguistic normalization, have brushed the great majority of the Berber-speaking world. This dissertation is organized into three parts. The first part presents a critical study of glottopolitical actions concerning Berber and sociolinguistics studying these questions. The objective is to establish an inventory of theoretical research and the implementation of glottopolitical actions in the Berber area. The second part explores the linguistic diversity and dialectal configuration of Berber. In a perspective of revitalization and linguistic normalization, we have developed a reflection on the adoption of the concept of the polynomic language to Berber, basing ourselves first and primarily on its dialectological situation and its vitality. The last part puts into practice the theoretical reflections presented in the two preceding parts in the field of lexical planning. This is an illustration of the planning of common and specialized vocabulary. It also includes a reflection on terminological planning, linguistic standardization and their application in a polynomic and convergent planning process. In conclusion, we suggest, for the “normalization” of Berber, a polynomic planning allowing both to integrate the dialectological variation and to initiate a process of convergence. This must necessarily be based on the study of the dialectalization of this language as well as on the vitality of its different groups.
98

De l’activité virtuelle à l’activité réelle : ressources et empêchements à la créativité de cadres formés au management d’équipe avec un serious gaming / From virtual activity to real activity : the ‎resources and impediments of creativity for executives in the use of serious games for team management training

Martin, Lydia 14 December 2015 (has links)
Cette thèse s’intéresse aux activités créatrices et de conformisation sollicitées dans des dispositifs de serious gaming et à leur impact sur les situations réelles de travail des cadres. Pour explorer cet impact, nous sommes intervenus dans un programme de formation utilisant un simulateur d’hélicoptère de l’armée qui a été adapté pour former des cadres au management d’équipe. La recherche a duré deux ans et nous avons observé 16 sessions de jeu, rencontré 44 cadres de la même entreprise, tous volontaires. La recherche a analysé l’écart entre le travail prescrit et réel. En anglais, contrairement au français, deux mots définissent le mot jeu : « play » et « game ». Winnicott (1971) s’appuie sur le jeu en train de s’élaborer spontanément (play), plutôt que sur le jeu organisé et défini selon des règles précises (game). Ce « play » est considéré par Winnicott, comme un espace transitionnel : espace de développement où la créativité est prépondérante. La compréhension de ce qui se joue dans cet espace intermédiaire est essentielle pour explorer la relation entre le « jeu sérieux » et le travail réel. Nos observations et analyses des sessions de jeu et des entretiens nous conduisent à souligner le peu d’inventivité, de créativité à la fois pendant l’activité du jeu et ensuite dans le travail réel. La réorganisation du travail, le changement de rôles, la renormalisation du temps et le sentiment de décisions sont rares. Ceci nous a amenés à analyser ce qui a empêché les cadres d’entrer dans cette aire intermédiaire où la créativité est sollicitée. Ces empêchements concernent la quête du « bien faire », la pression temporelle, la culture d’entreprise, les contraintes matérielles et la compétitivité. De plus, une autre activité vient empêcher celle du jeu : la plupart des cadres se sont sentis évalués, et s’auto-évaluent, en tant que managers. Notre recherche tend à démontrer que le jeu suspend la réflexion, la délibération entre pairs, ce qui favorise une conformisation aux prescriptions. La suspension de la réflexion permettrait, notamment, de s’affranchir d’éventuels conflits de valeurs et de culpabilité quand les prescriptions supposent de faire du « sale boulot » (c’est-à-dire de commettre des actes que la morale ou l’éthique peuvent réprouver). Enfin, nous interrogeons l’impact de cette expérience dans l’environnement virtuel du dispositif de formation sur les pratiques des managers en situations réelles : le transfert des apprentissages dans l’expérience du jeu opère par la médiation de la réflexivité suscitée par le changement de place dans la communication au sein de l’équipe (récepteur et non plus émetteur de consignes) et par les affects éprouvés lors de l’exercice simulé. L’éprouvé devient alors un instrument de travail pour réévaluer la manière dont ils tiennent leur rôle de manager et les activités associées. / This thesis speaks about the creativity and conformity in serious gaming and the link with real work situations of executives. To explore this link, we conducted a training program using an army helicopter flight simulator that had been redesigned to train executives in teamwork. The study was conducted over two years in 16 game sessions with 44 volunteer participants from the same company. The research analyzed the gap between prescribed and real work. In English, contrary to French, there are two words for games: "play" and "game". Winnicott (1971) is inclined more towards spontaneously developed games (play), rather than on games organized and defined according to precise rules (game). He considers "play" to be a transitional space. This transitional space is a third area, a paradoxical space, because it is situated between the interior and exterior of the player. It is a space of development where creativity is dominant. Understanding what takes place in this intermediate space is essential to explore the relationship between serious gaming and real work: a space in which group dynamics can enhance or inhibit individual creativity. From observation and analyses of game sessions and associated interviews, we identified several instances of creativity during the game and afterwards at work, including: reorganization of the work, exchanging roles, negotiating the length of games, and virtual empowerment leading to real-world decision-making. Then, we analyzed what prevented the executives from entering this intermediate area and from "play" with the equipment: the "pursuit of excellence", the temporal pressure, the corporate culture, equipment limitations, self-consciousness, and competitiveness. Furthermore, most participants were concerned that their competence as managers was being evaluated and they self-evaluated their skills. Afterwards, we analyzed the contention that lack of deliberation before executing the game prescriptions. Our research demonstrates that suspension of reflection allows freeing itself from possible value conflicts and guilt when the prescriptions lead to performing "dirty work" (that is, to commit morally or ethically questionable acts). At a minimum, we observe that executives see themselves acting in situ and become aware of the impact of their transmitters' role in communication with the team. Executives use this experience to revitalize their thinking about professional practice, which thus becomes a tool to gain a different view of their managers’ role.
99

Modèles et normalisation des preuves

Cousineau, Denis 01 December 2009 (has links) (PDF)
La notion de théorie s'est séparée de la notion de logique à la fin des années 1920, lorsque Hilbert et Ackermann ont distingué les règles de déduction, indépendantes de l'ob jet du discours, des axiomes qui lui sont spécifiques. S'est alors posée la question de caractériser les théories, définies donc comme des ensembles d'axiomes, que l'on peut utiliser pour formaliser une partie du raisonnement mathématique. Un premier critère est la cohérence de cette théorie : le fait qu'on ne puisse pas démontrer toutes les propositions de cette théorie. Cependant il est progressivement apparu que la cohérence n'était pas une propriété suffisante. Le fait que les démonstrations constructives vérifient les propriétés de la dijonction ou du témoin, ou la complétude de certaines méthodes de démonstration automatique ne découlent pas de la seule cohérence d'une théorie. Mais toutes trois sont par contre conséquentes d'une même propriété : la normalisation des démonstrations. En 1930, le théorème de complétude de Gödel montra que le critére de cohérence pouvait être vu sous différents angles. En plus de la définition précédente interne à la théorie de la démonstration, on peut également définir de manière algébrique la cohérence d'une théorie comme le fait qu'elle possède un modèle. L'équivalence entre ces deux définitions constitue un outil fondamental, qui a permis notamment la démonstration de la cohérence de nombreuses théories : la théorie des ensembles avec la négation de l'axiome du choix par Fraenkel et Mostovski, la théorie des ensembles avec l'axiome du choix et l'hypothèse du continue par Gödel, la théorie des ensembles avec la négation de l'hypothèse du continu par Cohen, . . . A l'inverse, la normalisation des démonstrations semblait ne pouvoir se définir que de manière interne à la théorie de la démonstration. Certains critères inspirés de la théorie des modèles étaient certes parfois utilisés pour démontrer la propriété de normalisation des démonstrations de certaines théories, mais la nécéssité de ces critéres n'avait pas été établie. Nous proposons dans cette thèse un critère algébrique à la fois nécessaire et suffisant pour la normalisation des démonstrations. Nous montrons ainsi que la propriété de normalisation des démonstrations peut également se définir comme un critère algébrique, à l'instar de la propriété de cohérence. Nous avons pour cela défini une nouvelle notion d'algèbre de valeurs de vérités (TVA) appelée algèbres de vérité dépendant du langage (LDTVA). La notion de TVA permet d'exhiber l'algèbre de valeurs de vérité des candidats de réductibilité définis par Girard en 1970. L'existence d'un modèle à valeurs dans cette algèbre définit un critère algébrique suffisant pour la propriété de normalisation des démonstrations. Puis nous avons défini un raffinement de la notion de candidats de réductibilité comme une de ces LDTVAs et avons montré que l'existence d'un modèle à valeurs dans cette algèbre définit un critère algébrique toujours suffisant mais également nécessaire pour la propriété de normalisation des démonstrations. Ce critère est défini pour les cadres logiques de la déduction minimale et du λΠ-calcul modulo. Et nous exhibons finalement la puissance du λΠ-calcul modulo en montrant que tous les systèmes de types purs fonctionnels peuvent être simulés dans ce cadre logique.
100

Une méthode de sélection de tests à partir de spécifications algébriques.

Boin, Clément 09 July 2007 (has links) (PDF)
Les travaux de cette thèse s'inscrivent dans le cadre de la vérification des logiciels et plus particulièrement du test à partir de spécifications algébriques. La soumission d'un jeu de tests exhaustif pour trouver toutes les erreurs d'un programme est généralement impossible. Il faut donc sélectionner un jeu de tests le plus judicieusement possible. Nous avons donc donné une méthode de sélection de tests par dépliage des axiomes de spécifications conditionnelles positives (clauses de Horn pour la logique équationnelle). Celle-ci permet de partitionner le jeu exhaustif des tests. Nous utilisons pour cela un critère de sélection qui utilise les axiomes de la spécification et qui peut être appliqué plusieurs fois de suite. Pour garantir de bonnes propriétés sur ce critère de sélection, nous avons également donné un cadre général pour la normalisation d'arbre de preuve. Il fonctionne pour n'importe quel système formel, et permet d'unifier un grand nombre de résultats en logique.

Page generated in 0.103 seconds