• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 111
  • 67
  • 22
  • 16
  • 12
  • 4
  • 2
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 257
  • 50
  • 41
  • 40
  • 26
  • 24
  • 22
  • 22
  • 21
  • 19
  • 18
  • 17
  • 16
  • 16
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Etude du processus de convergence entre le plan comptable américain et les normes IFRS : Institutions et institutionnalisation au sein de changement global en comptabilité / A study of the US GAAP - IFRS convergence process : Institutions and institutionalization in global accounting change

Karasiewicz Baudot, Lisa 25 June 2014 (has links)
Cette thèse étudie les efforts mis en oeuvre par le Financial Accounting Standards Board (FASB) et l'International Accounting Standards Board (IASB) afin de produire de manière conjointe un ensemble de normes comptables pour réguler les marchés dans le monde entier. Pour ce faire, elle examine comment un processus de changement comptable (institutionnel) – décrit comme un processus de convergence - a évolué au sein de l'espace transnational de normalisation comptable. Cette recherche étudie le rôle que les institutions et les politiques jouent dans le processus de convergence des FASB-IASB, ainsi que leur rôle dans les processus par lesquels les normalisateurs prennent une décision collective sur un standard très controversé. A partir de la littérature sur la normalisation comptable considérée comme le socle de base de cette thèse, je me sers d’un cadre théorique à la fois institutionnel et politique pour explorer systématiquement la convergence des normes comptables. J’effectue trois études empiriques. Chacune de ces études couvre les activités de normalisation ayant eu lieu entre 2002 et 2011 et utilise des études de cas s'appuyant sur plusieurs sources de données comprenant des documents d'archives, des observations indirectes et des entretiens avec des participants clés. Le premier article met l'accent sur la compréhension du phénomène de convergence des normes comptables en relation avec des tendances politiques et institutionnelles plus larges au moyen de divers mécanismes de diffusion de la théorie néo-institutionnelle. Ensuite, cette thèse souligne le rôle central des normalisateurs qui mobilisent des systèmes de sens pour faire converger les normes comptables. Le deuxième article se concentre sur les systèmes de sens concurrents auxquels se réfèrent les normalisateurs comptables, ainsi que les facteurs qui influencent leurs décisions collectives. Plus spécifiquement, il s’intéresse à l’ordre négocié (Strauss et al., 1963) qui prend forme sur la base de ces systèmes. Enfin, le troisième article étudie le processus par lequel les normalisateurs comptables convainquent les parties prenantes (et eux-mêmes) de la légitimité de leurs décisions par le biais des « économies de la grandeur » (Boltanski et Thévenot, 1991) et des mécanismes rhétoriques. Cette thèse contribue à développer par une étude multi-niveaux, nos connaissances sur les activités de convergence transnationale, en particulier celles qui visent à produire un ensemble commun de normes comptables, et comment ces normes évoluent en tenant compte du contexte, des acteurs et des institutions. / This dissertation explores the efforts of the Financial Accounting Standards Board (FASB) and the International Accounting Standards Board (IASB) to produce a common set of accounting standards accepted for worldwide market regulation. In doing so, it examines how a process of accounting (institutional) change - referred to as a convergence process - has evolved within the transnational accounting standard-setting space. This research investigates the role that institutions and politics play in the FASB-IASB convergence process, more broadly, as well as their role in the processes by which standard setters go about collective policy-making on one highly contested standard. With the accounting policy-making literature serving as a foundation tying together the works within this dissertation, I mobilize institutional and political perspectives to systematically explore the convergence of accounting standards through three empirical papers. Each of these studies focuses on standard-setting activities occurring between 2002 and 2011 and utilizes case study methods drawing on multiple data sources including archival documents, indirect observation and interviews with key informants. The first paper focuses on understanding the phenomenon of accounting convergence and its relationship to broader political and institutional trends through a variety of diffusionist mechanisms from neo-institutional theory. This dissertation then turns to the standard-setters themselves as focal actors and links these actors to the meaning systems they employ in the shaping of accounting convergence. The second paper focuses on competing meaning systems that standard setters adhere to and the factors that affect collective policy decisions. More specifically, it is interested in the negotiated order (Strauss et al. 1963) which takes shape on the basis of these factors. Finally, the third paper studies the process by which accounting standard setters persuade their public audience (and themselves) of the merits of their policy decisions by mobilizing orders of worth (Boltanski & Thévenot, ([1991], 2006) in their discourse. The primary contribution of this dissertation is to shed light, at multiple levels of analysis, on how transnational convergence activities, in particular those aimed at producing a common set of accounting standards, evolve in consideration of actors, institutions, and context.
72

Apport de l’électromyographie de surface en tennis : proposition d’une nouvelle méthode de normalisation des muscles du membre supérieur : influence de la vitesse et de la fatigue sur l’activité musculaire du membre supérieur en tennis / Contribution of surface electromyography in tennis : proposal for a new method of normalization of upper limb muscles : influence of velocity and fatigue on muscle activity of the upper limb in tennis

Rota, Samuel 22 April 2013 (has links)
L'objet principal de cette thèse est l'étude de l'activité musculaire du membre supérieur par le biais de l'électromyographie de surface (EMG) lors d'une activité dynamique. Une première étude a montré que sept muscles sur neuf peuvent être normalisés à partir de deux tâches maximales dynamiques, tandis que deux autres muscles doivent l'être avec la méthode traditionnelle isométrique. Cette procédure contribue à l'amélioration de la fiabilité de l'étude du membre supérieur tout en réduisant le temps de normalisation. D'autre part, l'étude de la relation entre activité EMG et vitesse de frappe en coup droit a permis de mettre en lumière les modifications d'amplitude EMG et des paramètres temporels d'activation de certains muscles du membre supérieur en réponse à l'augmentation de la vitesse de balle. Par ailleurs, une troisième étude a démontré que la fatigue générée par un exercice intense de tennis entraîne une baisse du niveau d'activation du grand pectoral et des muscles de l'avant-bras lors des frappes, sans toutefois entraîner de changement au niveau du timing d'activation. Cette diminution de l'activité EMG pourrait expliquer la dégradation de la performance relevée lors de cette expérience. Toutefois, des stratégies de protection de l'organisme et/ou de gestion du conflit vitesse-précision sont à envisager et ouvrent la voie à de futures études / The main purpose of this thesis is the study of upper limb muscle activity through surface electromyography (EMG) during a dynamic activity. An initial study showed that seven out of nine muscles can be normalized from two maximum dynamic tasks, while two other muscles require the traditional isometric method. This procedure helps to improve the reliability of the upper limb EMG while reducing the time of standardization. On the other hand, the study of the relationship between EMG and stroke velocity in forehand drive in tennis emphasized the changes in EMG amplitude and activation timing of some muscles in response to the increase of the ball velocity. Otherwise, a third study showed that fatigue generated by intense exercise tennis results in a decrease in activation level of the pectoralis major and the forearm muscles during strokes, without any change in activation timing. This decrease in EMG activity could explain the performance degradation observed during this experiment. However, strategies of organism protection and/or gestion of the speed-accuracy trade-off should be considered and may need future studies
73

The Impact of Creative Ambiguity - A Case Study of the Aftermath of the Kosovo-Serbia Brussels Agreement 2013

Odai, Minja January 2020 (has links)
Creative ambiguity as a negotiation strategy is used often in peace agreements and refers to when ambiguities are used in agreements to serve as a positive motivation to get over obstacles. While it has many positive impacts, the use of creative ambiguity also often times shifts the burden of the negotiation phase to the implementations phase, and thus can result into agreements that are not implemented as well as plummeting the relations between the parties affected. This thesis aims to understand how the use of creative ambiguity in the Brussels Agreement between Kosovo and Serbia had an impact on the heightened conflict between the countries. This thesis is a single instrumental case study that illustrates the issue of creative ambiguity through the case of the Brussels Agreement. Through analysing interferences from material mainly collected from both countries’ government websites, this study conducted that the use of creative ambiguity had a harmful impact not only on the relations between Kosovo and Serbia, but also on the implementation of the agreement.
74

Analyse statistique de données biologiques à haut débit / Statistical analysis of high-throughput biological data

Aubert, Julie 07 February 2017 (has links)
Les progrès technologiques des vingt dernières années ont permis l’avènement d'une biologie à haut-débit reposant sur l'obtention de données à grande échelle de façon automatique. Les statisticiens ont un rôle important à jouer dans la modélisation et l'analyse de ces données nombreuses, bruitées, parfois hétérogènes et recueillies à différentes échelles. Ce rôle peut être de plusieurs natures. Le statisticien peut proposer de nouveaux concepts ou méthodes inspirées par les questions posées par cette biologie. Il peut proposer une modélisation fine des phénomènes observés à l'aide de ces technologies. Et lorsque des méthodes existent et nécessitent seulement une adaptation, le rôle du statisticien peut être celui d'un expert, qui connaît les méthodes, leurs limites et avantages. Le travail présenté dans cette thèse se situe à l'interface entre mathématiques appliquées et biologie, et relève plutôt des deuxième et troisième type de rôles mentionnés.Dans une première partie, j’introduis différentes méthodes développées pour l'analyse de données biologiques à haut débit, basées sur des modèles à variables latentes. Ces modèles permettent d'expliquer un phénomène observé à l'aide de variables cachées. Le modèle à variables latentes le plus simple est le modèle de mélange. Les deux premières méthodes présentées en sont des exemples: la première dans un contexte de tests multiples et la deuxième dans le cadre de la définition d'un seuil d'hybridation pour des données issues de puces à ADN. Je présente également un modèle de chaînes de Markov cachées couplées pour la détection de variations du nombre de copies en génomique prenant en compte de la dépendance entre les individus, due par exemple à une proximité génétique. Pour ce modèle, nous proposons une inférence approchée fondée sur une approximation variationnelle, l'inférence exacte ne pouvant pas être envisagée dès lors que le nombre d'individus augmente. Nous définissons également un modèle à blocs latents modélisant une structure sous-jacente par bloc de lignes et colonnes adaptées à des données de comptage issue de l'écologie microbienne. Les données issues de méta-codebarres ou de métagénomique correspondent à l'abondance de chaque unité d'intérêt (par exemple micro-organisme) d'une communauté microbienne au sein d'environnement (rhizosphère de plante, tube digestif humain, océan par exemple). Ces données ont la particularité de présenter une dispersion plus forte qu'attendue sous les modèles les plus classiques (on parle de sur-dispersion). La classification croisée est une façon d'étudier les interactions entre la structure des communautés microbiennes et les échantillons biologiques dont elles sont issues. Nous avons proposé de modéliser ce phénomène à l'aide d'une distribution Poisson-Gamma et développé une autre approximation variationnelle pour ce modèle particulier ainsi qu'un critère de sélection de modèle. La flexibilité et la performance du modèle sont illustrées sur trois jeux de données réelles.Une deuxième partie est consacrée à des travaux dédiés à l'analyse de données de transcriptomique issues des technologies de puce à ADN et de séquençage de l’ARN. La première section concerne la normalisation des données (détection et correction de biais techniques) et présente deux nouvelles méthodes que j’ai proposées avec mes co-auteurs et une comparaison de méthodes à laquelle j’ai contribuée. La deuxième section dédiée à la planification expérimentale présente une méthode pour analyser les dispositifs dit en dye-switch.Dans une dernière partie, je montre à travers deux exemples de collaboration, issues respectivement d'une analyse de gènes différentiellement exprimés à partir de données issues de puces à ADN, et d'une analyse du traductome chez l'oursin à partir de données de séquençage de l'ARN, la façon dont les compétences statistiques sont mobilisées et la plus-value apportée par les statistiques aux projets de génomique. / The technological progress of the last twenty years allowed the emergence of an high-throuput biology basing on large-scale data obtained in a automatic way. The statisticians have an important role to be played in the modelling and the analysis of these numerous, noisy, sometimes heterogeneous and collected at various scales. This role can be from several nature. The statistician can propose new concepts, or new methods inspired by questions asked by this biology. He can propose a fine modelling of the phenomena observed by means of these technologies. And when methods exist and require only an adaptation, the role of the statistician can be the one of an expert, who knows the methods, their limits and the advantages.In a first part, I introduce different methods developed with my co-authors for the analysis of high-throughput biological data, based on latent variables models. These models make it possible to explain a observed phenomenon using hidden or latent variables. The simplest latent variable model is the mixture model. The first two presented methods constitutes two examples: the first in a context of multiple tests and the second in the framework of the definition of a hybridization threshold for data derived from microarrays. I also present a model of coupled hidden Markov chains for the detection of variations in the number of copies in genomics taking into account the dependence between individuals, due for example to a genetic proximity. For this model we propose an approximate inference based on a variational approximation, the exact inference not being able to be considered as the number of individuals increases. We also define a latent-block model modeling an underlying structure per block of rows and columns adapted to count data from microbial ecology. Metabarcoding and metagenomic data correspond to the abundance of each microorganism in a microbial community within the environment (plant rhizosphere, human digestive tract, ocean, for example). These data have the particularity of presenting a dispersion stronger than expected under the most conventional models (we speak of over-dispersion). Biclustering is a way to study the interactions between the structure of microbial communities and the biological samples from which they are derived. We proposed to model this phenomenon using a Poisson-Gamma distribution and developed another variational approximation for this particular latent block model as well as a model selection criterion. The model's flexibility and performance are illustrated on three real datasets.A second part is devoted to work dedicated to the analysis of transcriptomic data derived from DNA microarrays and RNA sequencing. The first section is devoted to the normalization of data (detection and correction of technical biases) and presents two new methods that I proposed with my co-authors and a comparison of methods to which I contributed. The second section devoted to experimental design presents a method for analyzing so-called dye-switch design.In the last part, I present two examples of collaboration, derived respectively from an analysis of genes differentially expressed from microrrays data, and an analysis of translatome in sea urchins from RNA-sequencing data, how statistical skills are mobilized, and the added value that statistics bring to genomics projects.
75

Možnosti vyučování o období normalizace s využitím české beletrie / History Teaching about the Normalisation Era Using Czech Fiction Literature

Martinovský, Jan January 2020 (has links)
This Master thesis examines Czech literary fiction as a historical source, which can be used as a teaching instrument for understanding the normalisation era. In its theoretical part, the thesis summarizes contemporary Czech historical discourse about the normalisation era. It analyzes the influence of culture and memory on historical consciousness, and the goals and methods of contemporary history teaching. More specifically, it investigates how primary sources can be used in teaching and how cultural historical sources-and fiction literature in particular-can be analyzed. It utilizes constructivist teaching methods with the goal of achieving historical competence. It its practical part, the thesis describes five history lessons that apply findings from the theoretical part. In the lessons, pupils first have the opportunity to explore a wide range of sources, and consequently to research, analyze and interpret them. Later, they work with film excerpts, historical documents and literary fiction. In a final section, the thesis connects the theoretical and practical findings in a reflection of the history lessons.
76

Young adults' perceptions of community violence experienced in a South African context during adolescence

Boshoff, Jenilee N. 12 1900 (has links)
Community violence (CV) is a social phenomenon that touches societies around the globe and exhibits alarming prevalence, especially among South African youth. Considering that CV exposure often causes severe internalising and externalising effects, it is not surprising that it can be one of the most destructive experiences for children. Since childhood informs further development, it is significant that factors influencing the general well-being of children be understood and discussed. This includes the exploration and study of a child’s perception, as perceptions have substantial influence over behaviour and well-being. However, few studies have been employed to understand how the youth perceive CV, despite the extensive literature available on this phenomenon. The current study was thus imperative in understanding how adolescents make sense of and perceive CV, which may contribute invaluable knowledge to the intervention efforts and strategies of social workers working with communities. The goal of this study was to explore and describe young adults’ perceptions of CV experienced in a South African context during adolescence. The major objectives of this study were to explore and describe how the participants were exposed to and perceived CV during adolescence, as well as how they believe they were affected by this exposure. The study followed a qualitative research approach and the participants, who comprise of the study population of young adults between the ages of 20 and 25 residing in the City of Tshwane, were attained through means of non-probability sampling, specifically the purposive and snowball sampling methods. An instrumental case study design was applied to the cases of ten (10) participants, who voluntarily participated in semi-structured qualitative interviews that were analysed according to the process phases of Thematic Analysis and were interpreted from the theoretical underpinning of Gestalt theory. The results show that adolescents’ exposure to CV took many different forms and infiltrated their everyday lives. In addition, adolescents’ perceptions of CV were greatly informed and influenced by various factors, both within themselves and within their environments. Furthermore, perceptions of CV were found to largely determine and affect their appraisal thereof, their relative interest therein, as well as their behavioural responses thereto. It can thus be concluded that the study on perceptions of CV is significant towards understanding adolescents’ internal and external functioning and for determining some of the threats encapsulated in CV exposure on adolescent development. Another conclusion drawn was that adolescents’ perceptions of CV may have certain limitations, which could negatively influence reasoning and decision-making and may place various restrictions on their lives. Through socialisation, beliefs and behaviour regarding CV can become normalised, which may lead to the desensitisation thereof. Moreover, perceptions of CV are highly complex and can shape adolescents’ worldviews and self-perception, which might go on to threaten their moral ground and cause disempowerment. The results provide some support for social workers working in violent communities by highlighting various protective factors that may curb the normalisation of CV, as well as its negative effects. Further research should be conducted to determine the degree to which CV has been normalised in South African communities, and the researcher recommends the use of a longitudinal and mixed-method research approach. / Mini Dissertation (MSW (Play-based Intervention))--University of Pretoria, 2020. / 2022/12/31 / Social Work and Criminology / MSW (Play-based Intervention) / Unrestricted
77

Analysis of chromosome conformation data and application to cancer / Analyse de données de conformation chromosomique et application au cancer

Servant, Nicolas 22 November 2017 (has links)
L’organisation nucléaire de la chromatine n’est pas aléatoire. Sa structure est parfaitement contrôlée, suivant un modèle hiérarchique avec différents niveaux d’organisation et de compaction. A large échelle, chaque chromosome occupe son propre espace au sein du noyau. A plus fine résolution, un chromosome est subdivisé en compartiments actifs ou répressifs, caractérisés par un état de la chromatine plus ou moins compact. A l’échelle du méga-base, cette organisation hiérarchique peut encore être divisée en domaines topologiques (ou TADs), jusqu’à la caractérisation de boucle d’ADN facilitant les interactions entre promoteurs et régions régulatrices. Très brièvement, et bien que les méchanismes exactes restent à déterminer, il a récemment été démontré que l’organisation spatiale de la chromatine dans une cellule normale joue un rôle primordial dans la régulation et l’expression des gènes. L’organisation en domaines topologiques implique la présence de complexes protéiques insulateurs tel que CTCF/cohésine. Ces facteurs jouent un rôle de barrière en restreignant et favorisant les interactions entre éléments régulateurs et gènes à l’intérieur d’un domaine, tout en limitant les interactions entre domaines. De cette façon, deux régions appartenant au même domaine topologique pourront fréquemment interagir, alors que deux régions appartenant à des domaines distincts auront une très faible probabilité d’interaction. Dans la cellule cancéreuse, l’implication de l’épigénome et de l’organisation spatiale de la chromatine dans la progression tumorale reste à ce jour largement inexplorée. Certaines études récentes ont toutefois démontré qu’une altération de la conformation de l’ADN pouvait être associée à l’activation de certains oncogènes. Même si les mécanismes exacts ne sont pas encore connus, cela démontre que l’organisation de la chromatine est un facteur important de la tumorigenèse, permettant, dans certains cas, d’expliquer les méchanismes moléculaires à l’origine de la dérégulation de certains gènes. Parmi les cas rapportés, une alération des régions insulatrices (ou frontières) entre domaines topologiques permettrait à des régions normalement éloignées spatialement de se retrouver en contact, favorisant ainsi l’activation de certains gènes. Une caractérisation systématique de la conformation spatiale des génomes cancéreux pourrait donc permettre d’améliorer nos connaissances de la biologie des cancers. Les techniques haut-débit d’analyse de la conformation de la chromatine sont actuellement largement utilisées pour caractériser les interactions physiques entre régions du génome. Brièvement, ces techniques consistent à fixer, digérer, puis liguer ensemble deux régions du génome spatialement proches. Les fragments d’ADN chimériques ainsi générés peuvent alors être séquencés par leurs extrémités, afin de quantifier le nombre de fois où ces régions ont été trouvées en contact. Parmi les différentes variantes de ces techniques, le Hi-C associé à un séquençage profond permet l’exploration systématique de ces interactions à l’échelle du génome, offrant ainsi une vue détaillée de l’organisation tri-dimensionnelle de la chromatine d’une population cellulaire. / The chromatin is not randomly arranged into the nucleus. Instead, the nuclear organization is tightly controlled following different organization levels. Recent studies have explored how the genome is organized to ensure proper gene regulation within a constrained nuclear space. However, the impact of the epigenome, and in particular the three-dimensional topology of chromatin and its implication in cancer progression remain largely unexplored. As an example, recent studies have started to demonstrate that defects in the folding of the genome can be associated with oncogenes activation. Although the exact mechanisms are not yet fully understood, it demonstrates that the chromatin organization is an important factor of tumorigenesis, and that a systematic exploration of the three-dimensional cancer genomes could improve our knowledge of cancer biology in a near future. High-throughput chromosome conformation capture methods are now widely used to map chromatin interaction within regions of interest or across the genome. The Hi-C technique empowered by next generation sequencing was designed to explore intra and inter-chromosomal contacts at the whole genome scale and therefore offers detailed insights into the spatial arrangement of complete genomes. The aim of this project was to develop computational methods and tools, that can extract relevant information from Hi-C data, and in particular, in a cancer specific context. The presented work is divided in three parts. First, as many sequencing applications, the Hi-C technique generates a huge amount of data. Managing these data requires optimized bioinformatics workflows able to process them in reasonable time and space. To answer this need, we developped HiC-Pro, an optimized and flexible pipeline to process Hi-C data from raw sequencing reads to normalized contact maps. HiC-Pro maps reads, detects valid ligation products, generates and normalizes intra- and inter-chromosomal contact maps. In addition, HiC-Pro is compatible with all current Hi-C-based protocols.
78

Condition monitoring of gearboxes operating under fluctuating load conditions

Stander, Cornelius Johannes 18 June 2007 (has links)
Conventional gearbox vibration monitoring techniques are based on the assumption that changes in the measured structural response are caused by deterioration in the condition of the gears in the gearbox. However, this assumption is not valid under fluctuating load conditions, since the fluctuating load will amplitude modulate the measured vibration signal and cause the rotational speed of the system to change. In general monitoring of machines subject to fluctuating load conditions is dealt with by considering the constant load conditions on gearboxes or during free rotational tests. The need to monitor the condition of large gearboxes in mineral mining equipment has attracted greater interest in order to improve asset management. An inherent need for signal processing techniques, with the ability to indicate degradation in gear condition, under fluctuating load conditions exist. Such techniques should enable the online monitoring of gearboxes that operate under fluctuating load conditions. A continued flow of up to date information should consequently be available for asset and production management. With this research, a load demodulation normalisation procedure was developed to remove the modulation caused by fluctuating load conditions, which obscures the detection of an incipient gear fault conditions. A rotation domain averaging technique is implemented which combines the ability of computer order tracking and time domain averaging to suppress the spectral smearing effect caused by the fluctuation in speed, as well as to suppress the amplitude of the vibration which is not synchronous with the rotation of the gear shaft. It is demonstrated that the instantaneous angular speed of a gearbox shaft can be utilised to monitor the condition of the gear on the shaft. The instantaneous angular speed response measurement is less susceptible to phase distortion introduced by the transmission path when compared to conventional gearbox casing vibration measurements. A phase domain averaging approach was developed to overcome the phase distortion effect of the transmission path under fluctuating load conditions. The load demodulation normalisation and rotation domain averaging signal processing procedures were applied to both the conventional gearbox casing vibration and instantaneous angular speed measurements prior to the calculation of a smoothed pseudo Wigner-Ville distribution of the data. Statistical parameters such as the energy ratio were calculated from the distribution. These parameters could be monotonically trended under different load conditions to indicate the degradation of gear conditions. / Thesis (PhD (Mechanical Engineering))--University of Pretoria, 2005. / Mechanical and Aeronautical Engineering / unrestricted
79

Dělníci autorského práva. Agentura DILIA v období tzv. normalizace ve vzpomínkách tehdejších zaměstnanců / Copyright workers. The agency DILIA during the time of so-called normalization in memories of its employees

Burman, Markéta January 2019 (has links)
In this thesis, I present Dilia, the Theater and Literary Agency, at the time of so-called normalization from the perspective of its employees. On the basis of available documentation, the organization's history from the beginning of 1949 until 1990 (a time of revolutionary societal changes) is mapped. Then I describe the organizational structure and different scope of work of each department and afterwards I turn back to the history again, this time with the focus on historical events, especially during the time of so-called normalization. I present the events as they were related to corresponding changes in directorship. In this thesis, I discover on the background of the era how the former employees recall their everyday life. I recall the employees' recollections of everyday life, working and private, in the context of the era. These recollections include forced membership in social organizations. Ultimately, they assess their their lives the vantage of today.
80

Normativités et usages judiciaires des technologies : l’exemple controversé de la neuroimagerie en France et au Canada

Genevès, Victor 04 1900 (has links)
L’observation du système nerveux, de son métabolisme et de certaines de ses structures est possible grâce à la neuroimagerie. Une littérature importante issue du « neurodroit » véhicule des imaginaires et des fantasmes relatifs aux possibilités judiciaires qu’offriraient ces technologies. Qu’il s’agisse de détection du mensonge, d’identification cérébrale des individus dangereux ou encore de prédiction de comportements déviants, la neuroimagerie, en l’état actuel des technologies, ne peut pourtant être sérieusement conçue comme pouvant faire l’objet de telles applications. L’utilisation de la neuroimagerie dans le cadre d’expertises est néanmoins une réalité, dans les tribunaux canadiens comme dans la loi française. Cette thèse souligne que les conceptions des technologies dont témoignent les deux systèmes juridiques étudiés s’avèrent lacunaires, ce qui engendre des risques. Elle évoque les conditions du recours à une normativité extra-juridique, la normalisation technique, qui pourrait s’élaborer dans ce contexte controversé, et esquisse les traits d’un dialogue amélioré entre les normativités juridique et technologique. / Neuroimaging allows the observation of the nervous system, of both its metabolism and some of its structures. An important literature in “neurolaw” conveys illusions and fantaisies about the judicial possibilities that imaging technologies would contain. Whether it is about lies detection, cerebral identifications of dangerous individuals through their neurobiology or predictions of criminal behaviors, neuroimaging, in the current state of technologies, can not be seriously conceived as being able to offer such applications. Judicial uses of neuroimaging through expertise are a reality nonetheless, in Canadian courts as in French law. This thesis emphasizes that the conceptions of imaging technologies integrated in the two legal systems studied are incomplete, which creates an important amount of risks. It discusses the conditions for the use of an extra-legal normativity, the international technical standardization, which could be elaborated in this particular and controversial context, and outlines several features of an increased dialogue between legal and technological norms

Page generated in 0.0804 seconds