• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 26
  • 8
  • 2
  • 1
  • Tagged with
  • 35
  • 13
  • 7
  • 7
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Le biais de surgénéralité en mémoire autobiographique : un facteur de vulnérabilité aux troubles dépressifs? Etudes chez l'enfant entre 7 et 13 ans

Deplus, Sandrine 18 April 2008 (has links)
La question du biais de surgénéralité comme facteur de vulnérabilité à la dépression guide notre revue de la littérature. Nous envisageons les explications théoriques du développement du biais de surgénéralité, ainsi que les nombreuses études qui analysent ce biais en lien avec la dépression. Notre cheminement dans la littérature sur le biais de surgénéralité au travers de la question de son éventuel effet sur la vulnérabilité à la dépression nous amène à nous poser la question de sa présence chez l’enfant : sa présence chez des enfants présentant un premier épisode de dépression, avant toute récurrence du trouble, voire même chez l’enfant présentant des niveaux sub-cliniques de dépression avant l’occurrence de tout trouble dépressif.La partie empirique de ce travail porte donc sur l’étude du biais de surgénéralité chez l’enfant dépressif. Elle comprend 6 chapitres développant nos différentes questions. Le Chapitre 1 consiste en une première étude du biais de surgénéralité chez l’enfant présentant des troubles dépressifs. Suite à cette étude, il nous semble important de retravailler la tâche de mémoire autobiographique utilisée et de nous cibler sur des enfants présentant un TDM. L’adaptation d’une Tâche d’Evaluation de la Mémoire Autobiographique à l’enfant (TeMA) fait donc l’objet du Chapitre 2. L’étude de la spécificité du rappel à cette tâche chez des enfants sans trouble psychologique (Chapitre 3) précède la comparaison entre des enfants présentant un TDM et des enfants sans trouble psychologique (Chapitre 4). Le Chapitre 5 envisagera la présence du biais de surgénéralité dans un échantillon d’enfants présentant des niveaux sub-cliniques de dépression, et le Chapitre 6 chez des enfants présentant un trouble déficitaire de l’attention avec hyperactivité (TDAH). Le travail se clôture par une discussion générale qui nous permet d’intégrer notre cheminement théorique et les résultats de nos études.
2

Le biais de surgénéralité en mémoire autobiographique : un facteur de vulnérabilité aux troubles dépressifs? Etudes chez l'enfant entre 7 et 13 ans

Deplus, Sandrine 18 April 2008 (has links)
La question du biais de surgénéralité comme facteur de vulnérabilité à la dépression guide notre revue de la littérature. Nous envisageons les explications théoriques du développement du biais de surgénéralité, ainsi que les nombreuses études qui analysent ce biais en lien avec la dépression. Notre cheminement dans la littérature sur le biais de surgénéralité au travers de la question de son éventuel effet sur la vulnérabilité à la dépression nous amène à nous poser la question de sa présence chez l’enfant : sa présence chez des enfants présentant un premier épisode de dépression, avant toute récurrence du trouble, voire même chez l’enfant présentant des niveaux sub-cliniques de dépression avant l’occurrence de tout trouble dépressif.La partie empirique de ce travail porte donc sur l’étude du biais de surgénéralité chez l’enfant dépressif. Elle comprend 6 chapitres développant nos différentes questions. Le Chapitre 1 consiste en une première étude du biais de surgénéralité chez l’enfant présentant des troubles dépressifs. Suite à cette étude, il nous semble important de retravailler la tâche de mémoire autobiographique utilisée et de nous cibler sur des enfants présentant un TDM. L’adaptation d’une Tâche d’Evaluation de la Mémoire Autobiographique à l’enfant (TeMA) fait donc l’objet du Chapitre 2. L’étude de la spécificité du rappel à cette tâche chez des enfants sans trouble psychologique (Chapitre 3) précède la comparaison entre des enfants présentant un TDM et des enfants sans trouble psychologique (Chapitre 4). Le Chapitre 5 envisagera la présence du biais de surgénéralité dans un échantillon d’enfants présentant des niveaux sub-cliniques de dépression, et le Chapitre 6 chez des enfants présentant un trouble déficitaire de l’attention avec hyperactivité (TDAH). Le travail se clôture par une discussion générale qui nous permet d’intégrer notre cheminement théorique et les résultats de nos études.
3

Optimized diagnosability of distributed discrete event systems through abstraction

Ye, Lina 07 July 2011 (has links) (PDF)
Depuis plusieurs années, de nombreuses recherches ont été menées autour du diagnostic. Cependant, il est impératif de se préoccuper dès la phase de conception d'un système des objectifs de diagnostic à atteindre. Aussi, de nombreux travaux se sont intéressés à analyser et à caractériser les propriétés de la diagnosticabilité d'un système. La diagnosticabilité est la propriété d'un système garantissant qu'il génère des observations permettant de détecter et discriminer les fautes en temps fini après leur occurrence.Le sujet de cette thèse porte sur les méthodes permettant d'établir les propriétés de la diagnosticabilité des systèmes à événements discrets dans le cadre distribué, sans construction du modèle global du système. Ce cadre est de première importance pour les applications réelles : systèmes naturellement distribués, systèmes trop complexes pour traiter leur modèle global, confidentialité des modèles locaux les uns par rapport aux autres. L'analyse de la diagnosticabilité de tels systèmes distribués se fonde sur des opérations de synchronisation des modèles locaux, par les observations et les communications. D'abord, nous étudions comment optimiser cette analyse de la diagnosticabilité en faisant abstraction de l'information nécessaire et suffisante à partir des objets locaux pour décider la diagnosticabilité globale. L'efficacité de l'algorithme peut être grandement améliorée par la synchronisation des objets locaux et abstraits en comparaison avec celle des objets locaux et non abstraits.Ensuite, nous proposons, dans le cadre distribué, l'algorithme de la diagnosticabilité de motifs d'événements particuliers a priori inobservables dans les systèmes. Ces motifs peuvent être simplement l'occurrence, brutale ou graduelle, d'une faute permanente ou transitoire, plusieurs occurrences d'une faute, plusieurs fautes en cascade, etc. Dans le cadre distribué, la reconnaissance du motif d'événements s'effectue d'abord progressivement dans un sous-système et ensuite la diagnosticabilité de ce motif peut être déterminée par la méthode abstraite et distribuée. Nous prouvons la correction et l'efficacité de notre algorithme à la fois en théorie et en pratique par la mise en œuvre de l'implémentation sur des exemples.Finalement, nous étudions le problème de la diagnosticabilité dans les systèmes distribués avec composants autonomes, où l'information observable est distribuée au lieu d'être centralisée comme jusqu'alors. En d'autres termes, chaque composant ne peut appréhender que ses propres événements observables. Nous donnons la définition de la diagnosticabilité conjointe. Et puis nous discutons de l'indécidabilité de diagnosticabilité conjointe dans le cas général, c'est à dire, les événements de communication ne sont pas observables, avant de proposer un algorithme pour tester sa condition suffisante. De plus, nous obtenons également un résultat de décidabilité et de l'algorithme lorsque les communications sont observables.
4

Styles d'attachement, psychotraumatismes et addiction aux drogues : contribution à l'analyse des facteurs déterminants la consommation de drogues et à l'étude des processus de résilience au Togo / Attachment styles, psychotrauma and drug addiction : contribution to the analysis of determinants of drug use and the study of resilience processes in Togo

Kpelly, Dzodzo Eli Ekploam 03 October 2018 (has links)
L'usage des drogues est devenu un problème majeur de santé publique. Face à la situation déplorable induite dans nos sociétés, la littérature explique l'addiction aux drogues par un contexte de recherches de satisfactions hédoniques, sociales et thérapeutiques ou par des facteurs personnels, familiaux et/ou environnementaux. Cependant, ces interprétations peuvent être davantage précisées et élargies. Ainsi, les consommations de drogues peuvent provenir aussi d'un environnement ponctué par l'insécurité de l'attachement parental connu en bas âge ou par de nombreux traumatismes psychiques anciens non assimilés. Elles sont aussi perçues comme une tentative non réussie de la résilience ou une pseudo-résilience afin d'éviter le pire. À partir d'une méthodologie mixte, nous avons comparé 30 sujets addict aux drogues à 30 de leurs frères et sœurs non addict. Ils ont été soumis à un entretien clinique, au Relationship Scales Questionnaire (Griffin et Bartholomew, 1994), aux échelles de dépistage des addictions au tabac (Fagerström Test, 1978/1991), à l'alcool (Alcohol Use Disorders Identification Test, Saunders et al., 1993), et aux autres drogues (Drug Abuse Screening Test, Skinner, 1982), à la Psycho-Traumatic Evaluation of Identity (Masson et al., 2016) ainsi qu'à la Resilience Scale for Adults (Hjemdal et al., 2011). Les résultats obtenus à partir d'une analyse quantitative et qualitative permettent d'éclairer les relations entre les styles d’attachement, les psychotraumatismes, les addictions aux drogues ainsi que la résilience, sans oublier que la problématique addictive est d'origine multifactorielle et convoque d'autres dimensions d'explication / Drug use has become a major public health problem. Faced with the deplorable situation induced in our societies, the literature explains the addiction to drugs by a context of research of hedonic, social and therapeutic satisfactions or by personal, family and / or environmental factors. However, these interpretations can be further clarified and expanded. Thus, drug use can also come from an environment punctuated by the insecurity of parental attachment known at a young age or by many former psychic traumas not assimilated. They are also perceived as an unsuccessful attempt at resilience or pseudo-resilience to avoid the worst.From a mixed methodology, we compared 30 drug addict subjects to 30 of their non-addicted siblings. They were subjected to a clinical interview, the Relationship Scales Questionnaire (Griffin and Bartholomew, 1994), the scales of detection of tobacco addictions (Fagerström Test, 1978/1991), alcohol (Alcohol Use Disorders Identification Test, Saunders et al., 1993), and other drugs (Drug Abuse Screening Test, Skinner, 1982), Psycho-Traumatic Evaluation of Identity (Masson et al., 2016) and the Resilience Scale for Adults (Hjemdal et al. al., 2011).The results obtained from a quantitative and qualitative analysis shed light on the relationships between attachment styles, psychotraumatisms, drug addiction and resilience, without forgetting that the addictive problem is of multifactorial origin. other dimensions of explanation
5

Intégration des évènements non périodiques dans les systèmes temps réel : application à la gestion des évènements dans la spécification temps réel pour Java

Masson, Damien 08 December 2008 (has links) (PDF)
Les systèmes temps réel sont des systèmes informatiques composés de tâches auxquelles sont associées des contraintes temporelles, appelées échéances. Dans notre étude, nous distinguons deux familles de tâches : les tâches temps réel dur et les tâches temps réel souple. Les premières possèdent une échéance stricte, qu'elles doivent impérativement respecter. Elles sont de nature périodique, ou sporadique, et l'étude analytique de leur comportement fait l'objet d'un état de l'art conséquent. Les secondes sont de nature apériodique. Aucune hypothèse sur leur modèle d'arrivéée ni sur leur nombre n'est possible. Aucune garantie ne saurait être donnée sur leur comportement dès lors que l'on ne peut écarter les situations de surcharge, où la demande de calcul peut dépasser les capacités du système. La problématique devient alors l'étude des solutions d'ordonnancement mixte de tâches périodiques et apériodiques qui minimisent les temps de réponse des tâches apériodiques tout en garantissant les échéances des tâches périodiques. De nombreuses solutions ont été proposées ces vingt dernières années. On distingue les solutions basées sur la réservation de ressources, les serveurs de tâches, des solutions exploitant les instants d'inactivité du système, comme les algorithmes de vol de temps creux. La spécification Java pour le temps réel (RTSJ) voit le jour dans les années 2000. Si cette norme répond à de nombreux problèmes liés à la gestion de la mémoire ou à l'ordonnancement des tâches périodiques, celui de l'ordonnancement mixte de tâches périodiques et apériodiques n'est pas abordé. Nous proposons dans cette thèse d'apporter les modifications nécessaires aux algorithmes principaux d'ordonnancement mixte, le Polling Server (PS), le Deferrable Server (DS) et le Dynamic Approximate Slack Stealer (DASS) en vue de leur implantation avec RTSJ. Ces algorithmes ne peuvent en effet être implantés directement tels qu'ils sont décrits, car ils sont trop liés à l'ordonnanceur du système. Nous proposons des extensions aux APIs RTSJ existantes pour faciliter l'implantation de ces mécanismes modifiés, et nous fournissons les interfaces utiles à l'ajout d'autres solutions algorithmiques. Nous proposons également des modifications sur les APIs existantes de RTSJ afin de répondre aux problèmes d'intégration et d'implantation d'algorithmes d'analyse de faisabilité. Nous proposons enfin un algorithme d'estimation des temps creux, le Minimal Approximate Slack Stealer (MASS), dont l'implantation au niveau utilisateur, permet son intégration dans RTSJ
6

Intégration des évènements non périodiques dans les systèmes temps réel : application à la gestion des évènements dans la spécification temps réel pour Java / Non periodic task integration in real-time systemes : application to the real-time specification for Java

Masson, Damien 08 December 2008 (has links)
Les systèmes temps réel sont des systèmes informatiques composés de tâches auxquelles sont associées des contraintes temporelles, appelées échéances. Dans notre étude, nous distinguons deux familles de tâches : les tâches temps réel dur et les tâches temps réel souple. Les premières possèdent une échéance stricte, qu'elles doivent impérativement respecter. Elles sont de nature périodique, ou sporadique, et l'étude analytique de leur comportement fait l’objet d’un état de l’art conséquent. Les secondes sont de nature apériodique. Aucune hypothèse sur leur modèle d’arrivéée ni sur leur nombre n’est possible. Aucune garantie ne saurait être donnée sur leur comportement dès lors que l’on ne peut écarter les situations de surcharge, où la demande de calcul peut dépasser les capacités du système. La problématique devient alors l'étude des solutions d’ordonnancement mixte de tâches périodiques et apériodiques qui minimisent les temps de réponse des tâches apériodiques tout en garantissant les échéances des tâches périodiques. De nombreuses solutions ont été proposées ces vingt dernières années. On distingue les solutions basées sur la réservation de ressources, les serveurs de tâches, des solutions exploitant les instants d'inactivité du système, comme les algorithmes de vol de temps creux. La spécification Java pour le temps réel (RTSJ) voit le jour dans les années 2000. Si cette norme répond à de nombreux problèmes liés à la gestion de la mémoire ou à l'ordonnancement des tâches périodiques, celui de l'ordonnancement mixte de tâches périodiques et apériodiques n'est pas abordé. Nous proposons dans cette thèse d’apporter les modifications nécessaires aux algorithmes principaux d’ordonnancement mixte, le Polling Server (PS), le Deferrable Server (DS) et le Dynamic Approximate Slack Stealer (DASS) en vue de leur implantation avec RTSJ. Ces algorithmes ne peuvent en effet être implantés directement tels qu'ils sont décrits, car ils sont trop liés à l'ordonnanceur du système. Nous proposons des extensions aux APIs RTSJ existantes pour faciliter l’implantation de ces mécanismes modifiés, et nous fournissons les interfaces utiles à l’ajout d'autres solutions algorithmiques. Nous proposons également des modifications sur les APIs existantes de RTSJ afin de répondre aux problèmes d'intégration et d'implantation d’algorithmes d’analyse de faisabilité. Nous proposons enfin un algorithme d’estimation des temps creux, le Minimal Approximate Slack Stealer (MASS), dont l’implantation au niveau utilisateur, permet son intégration dans RTSJ / In computer science, real-time systems are composed of tasks. To each task is associated a timing constraint called a deadline. We distinguish two kinds of tasks : the hard ones and the soft ones. Hard tasks have hard deadlines, which must be respected to ensure the correctness of the system. So hard tasks are in essence periodic, or sporadic. Their behavior has been extensively studied. Soft tasks have soft deadlines that the system has to try to respect. When a task arrival model is unknown, i.e. when task is aperiodic, burst arrivals situation can happens, which makes the tasks timing behavior unpredictable. So aperiodic tasks can only have soft deadlines. The studied problem in this thesis is then the joint scheduling of hard periodic tasks with soft aperiodic events, where the response times of soft tasks have to be as low as possible while the guarantee to meet their deadlines has to be given to hard tasks. A lot of solutions have been proposed these past two decades. We distinguish solutions based on resource reservation, like task servers, and solutions which take benefit from system idle times, like the slack stealer techniques. The first version of the Real-Time Specification for Java (RTSJ) was proposed in early 2000. This specification addresses a lot of problems related to the memory management or the scheduling of periodic tasks. But if it proposes a model to write aperiodic events, advanced mechanisms for the integration of such events to handle the above-mentioned problem are not discussed. We propose modifications to the main advanced mixed scheduling mechanisms like the Polling Server (PS), the Deferrable Server (DS) or the Dynamic Approximate Slack Stealer (DASS) in order to make their implementation possible with the RTSJ. Indeed, these algorithms are deeply connected to the system scheduler, and have to be adapted in order to be implemented in a user-land level.We propose extensions to current RTSJ APIs in order to integrate the modified algorithms and to allow the addition of other algorithms in a unified framework. We also propose some modifications to the RTSJ APIs in order to solve some problems we encountered during the integration of modified algorithms, especially in the field of the feasibility analysis algorithms integration in the specification. Finally, we propose the Minimal Approximate Slack Stealer algorithm (MASS), which is independent of the scheduler implementation and has a lower overhead than DASS
7

Modèles multiplicatifs du risque pour des événements successifs en présence d’hétérogénéité / Multiplicative intensity models for successive events in the presence of heterogeneity

Pénichoux, Juliette 17 September 2012 (has links)
L'analyse du risque de survenue d'événements récurrents est une motivation majeure dans de nombreuses études de recherche clinique ou épidémiologique. En cancérologie, certaines stratégies thérapeutiques doivent être évaluées au cours d'essais randomisés où l'efficacité est mesurée à partir de la survenue d'événements successifs marquant la progression de la maladie. L'état de santé de patients infectés par le VIH évolue en plusieurs étapes qui ont pu être définies par la survenue d'événements cliniques successifs.Ce travail de thèse porte sur les modèles de régression du risque pour l'analyse de la survenue d'événements successifs. En pratique, la présence de corrélations entre les temps d'attente séparant les événements successifs est une hypothèse qui peut rarement être écartée d'emblée. L'objectif de la thèse porte sur le développement de modèles de régression permettant d'évaluer une telle corrélation. Dans ce cadre, la méthode le plus souvent utilisée suppose que la corrélation entre les délais successifs a pour origine une hétérogénéité aléatoire, non observée, entre sujets. Le modèle correspondant définit le risque instantané individuel en fonction d'un terme aléatoire, ou « fragilité », de distribution gamma et dont la variance quantifie l'hétérogénéité entre sujets et donc la corrélation entre délais d'un même sujet. Cependant, l'utilisation de ce modèle pour évaluer l'ampleur des corrélations présente l'inconvénient de conduire à une estimation biaisée de la variance de la fragilité.Une première approche a été définie pour deux événements successifs dans une échelle de temps « par intervalles », c'est-à-dire où le risque est exprimé en fonction du temps écoulé depuis l'événement précédent. L'approche mise au point a été obtenue à partir d'une approximation du risque de second événement conditionnellement au premier délai dans un modèle à fragilité pour plusieurs distributions de fragilité. Une seconde approche a été définie en échelle de temps « calendaire », où le risque est exprimé en fonction du temps écoulé depuis le début du suivi du sujet. L'approche retenue a été obtenue à partir d'une approximation de l'intensité conditionnelle au passé dans un modèle à fragilité. Dans les deux échelles de temps, l'approche mise au point consiste à introduire une covariable interne, calculée sur le passé du processus, qui correspond à la différence entre le nombre d'événements observés pour le sujet sur la période passée, et le nombre attendu d'événements pour ce sujet sur la même période compte tenu de ses covariables externes. Une revue de la littérature des études de simulations a montré que le cas d'une hétérogénéité dans la population face au risque d'événement était souvent envisagé par les auteurs. En revanche, dans beaucoup d'études de simulations, le cas d'un risque dépendant du temps, ou d'une dépendance entre événements, n'étaient pas considérés. Des études de simulations ont permis de montrer dans les deux échelles de temps considérées un gain de puissance du test mis au point par rapport au test d'homogénéité correspondant au modèle à fragilité gamma. Ce gain est plus marqué en échelle de temps par intervalles. Par ailleurs, dans cette échelle de temps, le modèle proposé permet une amélioration de l'estimation de la variance de la fragilité dans le cas d'une hétérogénéité faible ou modérée, plus particulièrement pour de petits échantillons.L'approche développée en échelle de temps par intervalles a été utilisée pour analyser les données d'une cohorte de patients infectés par le VIH, montrant une corrélation négative entre le délai entre infection et première manifestation mineure d'immunodéficience et le délai entre première manifestation mineure d'immunodéficience et stade SIDA déclaré. / The risk analysis for the occurrence of recurrent events is a major concern in many clinical research studies or epidemiological studies. In the field of oncology, therapeutic strategies are evaluated in randomised clinical trials in which efficacy is assessed through the occurrence of sequential events that define the progression of the disease. In HIV-infected patients, the infection evolves in several stages that have been defined by the occurrence of successive clinical events. The frame of this work is the regression models for the risk of multiple successive events. In practice, the hypothesis of existing correlations between the inter-event times cannot be a priori discarded. The aim of this work is to develop a regression model that would assess such correlations. In this setting, the most common method is to assume that correlations between inter-event times are induced by a random, unobserved heterogeneity across individuals. The corresponding model defines the individual hazard as a function of a random variable, or " frailty ", assumed to be gamma-distributed with a variance that quantifies the heterogeneity across individuals and incidentally the correlations between inter-event times. However, the use of this model when evaluating the correlations has the drawback that it tends to underestimate the variance of the frailty.A first approach was proposed for two sequential events in a "gap-timescale", in which the risk is defined as a function of the time elapsed since the previous event. The proposed method was derived from an approximation of the risk of second event given the first time-to-event in a frailty model for various frailty distributions. Another approach was defined in "calendar-time", in which the risk is expressed as a function of the time elapsed since the beginning of the subject's follow-up. The proposed method was derived from an approximation of the intensity conditional on the past in a frailty model. In both timescales, the method that was developed consists in including in the model an internal covariate, that is calculated on the history of the process, and that corresponds to the difference between the observed number of events and the expected number of events in the past period given the individual's other covariates.A review of the literature involving simulation studies showed that when defining the generation processes, most authors considered the case of heterogeneity in the population. However, in many simulation studies, only constant hazards are considered, and no event-dependence is introduced. Simulations studies showed that in both timescales, the test of the effect of the internal covariate in the proposed model proved more powerful that the usual test of homogeneity in the gamma frailty model. This gain of power is more noticeable in gap-time. Additionally, in this timescale, the proposed model provides a better estimation of the variance of the frailty when heterogeneity is low or moderate, more particularly in small samples.The method developed in gap-time was used to analyse data from a cohort of HIV-infected patients. It showed a negative correlation between the time from infection to first minor manifestation of immunodeficiency and the time from first minor manifestation of immunodeficiency to AIDS. The method developed in calendar-time was used to study the occurrence of repeated progressions and severe toxicities in a clinical trial for patients with advanced colorectal cancer. In this example, the method corroborated the results obtained with a gamma frailty model which showed a significant heterogeneity.
8

Une démocratie à l’épreuve des mouvements sociaux : le cas du Chili post-dictatorial de 1988 à nos jours / Social movements and democracy : the case of post-dictatorial Chile, 1988-2017

Di Méo, Marion 26 November 2018 (has links)
Cette thèse vise à rendre compte de l'évolution, au Chili, de la gestion des événements protestataires par les institutions en charge de l'ordre public depuis le retour à la démocratie en 1990. Il s'agit d'examiner la manière dont un pays autrefois gouverné par la répression encadre, une fois la démocratie retrouvée, les protestations de différents groupes de la société. La thèse interroge aussi l'existence d'un traitement différencié de la contestation en fonction du public mobilisé. L'enquête a été menée entre mars 2015 et mai 2017 et repose sur un matériau composé d'observations, d'entretiens, d'archives de presse. Ce travail est composé de trois parties. La première revient sur les éléments qui ont façonné le contexte politique chilien de la transition, largement défavorable à la contestation. Il s'agit également de s'intéresser aux caractéristiques et à la culture institutionnelle de la police en charge du maintien de l'ordre, en observant comment s'articulent le caractère militaire de cette institution et les fondements de la doctrine du maintien de l'ordre. Dans la seconde, les mobilisations des peuples autochtones et des étudiants chiliens sont longuement décryptées, en particulier la question de leur répertoire d'action et les interactions entre ces groupes, l'État chilien et les forces de l'ordre. La troisième partie est consacrée à la manière dont le passé récent du Chili devient l'enjeu de discours et de mobilisations, et s'intéresse de près à différentes journées de commémoration. Elle examine enfin les effets de la militarisation de la police sur le maintien de l'ordre, et sur les représentations du monde qui entourent ses pratiques professionnelles / This thesis aims to give an account of the evolution, in Chile, of the management of the protest events by the institutions in charge of public order since the return to democracy in 1990. It aims to examine the way in which a country once ruled by repression frames, once the democracy returned, the protests of different groups of society. The thesis also questions the existence of a differentiated treatment of the protest events according to the public mobilized. The investigation was conducted between March 2015 and May 2017 and is based on a material consisting of observations, interviews, press archives. This work is composed of three parts. The first examines the elements that have shaped the Chilean political context of the transition, which is largely unfavorable to collective action. It also analyzes the characteristics and the institutional culture of the police in charge of policing protest, by observing how are articulated the military character of this institution and the bases of the doctrine of protest policing. In the second, the mobilizations of the indigenous peoples and students of Chile are lengthily deciphered, in particular the question of their repertoire of action and the interactions between these groups, the Chilean State and the police forces. The third part is devoted to the way in which the recent past of Chile becomes the issue of speeches and mobilizations, and is closely interested in different days of commemoration. Finally, it examines the effects of police militarization on law enforcement, and on the representations of the world surrounding its professional practices
9

Climate change over the next millennia using LOVECLIM, a new Earth system model including the polar ice sheets

Driesschaert, Emmanuelle 24 October 2005 (has links)
A new Earth system model of intermediate complexity, LOVECLIM, has been developed in order to study long-term future climate changes. In particular, LOVECLIM includes an interactive Greenland and Antarctic ice sheet model (AGISM) as well as an oceanic carbon cycle model (LOCH). Those climatic components can have a great impact on future climate. However, most studies investigating future climate changes do not take them into account. The few studies in recent literature assessing the impact of polar ice sheets on future climate draw very different conclusions, which shows the need for developing such a model. The aim of this study is to analyse the possible perturbations of climate induced by human activities over the next millennia. A particular attention is given to the evolution of the oceanic thermohaline circulation. A series of numerical simulations have been performed with LOVECLIM over the next millennia using various forcing scenarios. The global equilibrium warming computed by the model ranges from 0.55°C to 3.75°C with respect to preindustrial times. The model does not simulate a complete shut down of the oceanic thermohaline circulation but a transient weakening followed by a quasi-recovering at equilibrium. In most of the projections, the Greenland ice sheet undergoes a continuous reduction in volume, leading to an almost total disappearance in the most pessimistic scenarios. The impact of the Greenland deglaciation on climate has been assessed through sensitivity experiments. The removal of the Greenland ice sheet is responsible for a regional amplification of the global warming inducing a total melt of Arctic sea ice in summer. The freshwater flux from Greenland generates large salinity anomalies in the North Atlantic Ocean that reduce the rate of North Atlantic Deep Water formation, slowing down the oceanic thermohaline circulation.
10

Climate change over the next millennia using LOVECLIM, a new Earth system model including the polar ice sheets

Driesschaert, Emmanuelle 24 October 2005 (has links)
A new Earth system model of intermediate complexity, LOVECLIM, has been developed in order to study long-term future climate changes. In particular, LOVECLIM includes an interactive Greenland and Antarctic ice sheet model (AGISM) as well as an oceanic carbon cycle model (LOCH). Those climatic components can have a great impact on future climate. However, most studies investigating future climate changes do not take them into account. The few studies in recent literature assessing the impact of polar ice sheets on future climate draw very different conclusions, which shows the need for developing such a model. The aim of this study is to analyse the possible perturbations of climate induced by human activities over the next millennia. A particular attention is given to the evolution of the oceanic thermohaline circulation. A series of numerical simulations have been performed with LOVECLIM over the next millennia using various forcing scenarios. The global equilibrium warming computed by the model ranges from 0.55°C to 3.75°C with respect to preindustrial times. The model does not simulate a complete shut down of the oceanic thermohaline circulation but a transient weakening followed by a quasi-recovering at equilibrium. In most of the projections, the Greenland ice sheet undergoes a continuous reduction in volume, leading to an almost total disappearance in the most pessimistic scenarios. The impact of the Greenland deglaciation on climate has been assessed through sensitivity experiments. The removal of the Greenland ice sheet is responsible for a regional amplification of the global warming inducing a total melt of Arctic sea ice in summer. The freshwater flux from Greenland generates large salinity anomalies in the North Atlantic Ocean that reduce the rate of North Atlantic Deep Water formation, slowing down the oceanic thermohaline circulation.

Page generated in 0.0403 seconds