• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 311
  • 106
  • 32
  • 1
  • Tagged with
  • 451
  • 155
  • 83
  • 77
  • 69
  • 62
  • 61
  • 48
  • 41
  • 38
  • 38
  • 34
  • 34
  • 33
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
381

Modélisation et construction des bases de données géographiques floues et maintien de la cohérence de modèles pour les SGBD SQL et NoSQL / Modeling and construction of fuzzy geographic databases with supporting models consistency for SQL and NoSQL database systems

Soumri Khalfi, Besma 12 June 2017 (has links)
Aujourd’hui, les recherches autour du stockage et de l’intégration des données spatiales constituent un maillon important qui redynamise les recherches sur la qualité des données. La prise en compte de l’imperfection des données géographiques, particulièrement l’imprécision, ajoute une réelle complexification. Parallèlement à l’augmentation des exigences de qualité centrées sur les données (précision, exhaustivité, actualité), les besoins en information intelligible ne cessent d’augmenter. Sous cet angle, nous sommes intéressés aux bases de données géographiques imprécises (BDGI) et leur cohérence. Ce travail de thèse présente des solutions pour la modélisation et la construction des BDGI et cohérentes pour les SGBD SQL et NoSQL.Les méthodes de modélisation conceptuelle de données géographiques imprécises proposées ne permettent pas de répondre de façon satisfaisante aux besoins de modélisation du monde réel. Nous présentons une version étendue de l’approche F-Perceptory pour la conception de BDGI. Afin de construire la BDGI dans un système relationnel, nous présentons un ensemble de règles de transformation automatique de modèles pour générer à partir du modèle conceptuel flou le modèle physique. Nous implémentons ces solutions sous forme d’un prototype baptisé FPMDSG.Pour les systèmes NoSQL type document. Nous présentons un modèle logique baptisé Fuzzy GeoJSON afin de mieux cerner la structure des données géographiques imprécises. En plus, ces systèmes manquent de pertinence pour la cohérence des données ; nous présentons une méthodologie de validation pour un stockage cohérent. Les solutions proposées sont implémentées sous forme d'un processus de validation. / Today, research on the storage and the integration of spatial data is an important element that revitalizes the research on data quality. Taking into account the imperfection of geographic data particularly the imprecision adds a real complexity. Along with the increase in the quality requirements centered on data (accuracy, completeness, topicality), the need for intelligible information (logically consistent) is constantly increasing. From this point of view, we are interested in Imprecise Geographic Databases (IGDBs) and their logical coherence. This work proposes solutions to build consistent IGDBs for SQL and NoSQL database systems.The design methods proposed to imprecise geographic data modeling do not satisfactorily meet the modeling needs of the real world. We present an extension to the F-Perceptory approach for IGDBs design. To generate a coherent definition of the imprecise geographic objects and built the IGDB into relational system, we present a set of rules for automatic models transformation. Based on these rules, we develop a process to generate the physical model from the fuzzy conceptual model. We implement these solutions as a prototype called FPMDSG.For NoSQL document oriented databases, we present a logical model called Fuzzy GeoJSON to better express the structure of imprecise geographic data. In addition, these systems lack relevance for data consistency; therefore, we present a validation methodology for consistent storage. The proposed solutions are implemented as a schema driven pipeline based on Fuzzy GeoJSON schema and semantic constraints.
382

Etude de l'angioplastie guidée par tomographie en cohérence optique / Optical coherence tomography-guided angioplasty as a new tool to improve coronary evaluation and guide percutaneous coronary intervention procedures

Huang, Jianfeng 15 June 2018 (has links)
L'imagerie par tomographie en cohérence optique (OCT) est prometteuse comme support de la prise de décision au cours des procédures d'interventions coronariennes percutanées (PCI), pou évaluer les lésions athéromateuses, juger de la bonne implantation du stent, et dépister les lésions vasculaires dues au stent. L'OCT représente donc bien une aide potentielle pour le cardiologue interventionnel tout au long de la procédure de stenting, avec un impact certain sur la stratégie interventionnelle initialement programmée. De plus, l'OCT se révèle comme un nouvel outil pour prédire la dissection des bords de stent chez les patient avec ACS sans élévation du segment ST, rendant possible une stratification des patients quant à ce risque. Des essais cliniques randomisés sont maintenant nécessaires pour savoir si l'assistance par l'OCT pendant la procédure améliore le pronostic à long terme des patients après PCI / Optical Coherence Tomography (OCT) imaging is promising in decision making during Percutaneus Coronary Interventions {PCI) procedures, including evaluating controversial plaque lesions, assessing stent implantation, and surveying stent-related vascular injury. Thus, OCT has potential to guide interventional cardiologists throughout the stent implantation procedure, impacting on planned interventional strategy. In addition, OCT is the most novel image technology to predict stent edge dissection for patients with non-ST-segment elevation ACS, enabling risk stratification of patients who are at a higher risk of this complication. Large-scale randomized trials are now warranted to assess whether OCT results and guidance during de procedure improve long-term clinical outcomes of PCis.
383

Conditions d’articulation urbanisme-transports : le cas de l’agglomération d’Alger

Meguittif, Salim 08 1900 (has links)
L’articulation de l’urbanisme et des transports s’est imposée comme une question centrale dans la sphère des planifications à incidences spatiales. Le développement durable comme concept cadre a mis en relief cette problématique dont les enjeux décident de la qualité de vie urbaine au quotidien. Les objectifs de cette articulation coïncident avec la maitrise de l’étalement urbain et le report modale de la voiture vers le transport collectif. Pour atteindre ces objectifs, la cohérence des planifications respectives et de leur mise en œuvre doit être assurée. Ce qui appelle à remplir des conditions technico-politiques et organisationnelles. L’agglomération d’Alger présente dans ce cadre, un cas d’étude idéal pour l’évaluation du degré d’articulation urbanisme-transports de par les caractéristiques de son développement urbanistique et infrastructurel de transport collectif. / The articulation of urban planning and transport has become a central issue in the sphere of planning a space implications. Sustainable development as a concept framework has highlighted this problem whose stakes decide the quality of urban life on a daily basis. The objectives of this articulation coincide with the master of urban sprawl and the postponement of the modal car to public transport. To achieve these objectives, the coherence of planning responsibilities and their implementation must be ensured. What appeals to satisfy conditions techno-political and organizational. The city of Algiers in this framework, is an ideal case study for evaluating the degree of articulation-urban transport by the characteristics of its urban development and infrastructural public transportation.
384

Influence des plasmons de surface propagatifs sur la cohérence de systèmes optiques / Influence of surface plasmons propagation on the coherence of optical systems

Aberra Guebrou, Samuel 13 November 2012 (has links)
Cette thèse expérimentale s’est attachée à l’étude des effets induits par l’extension spatiale desplasmons de surface sur l’émission de matériaux organiques et inorganiques. Le système estformé d’un ensemble d’émetteurs localisés émettant principalement des plasmons de surfacedélocalisés. Dans un premier temps, nous nous sommes intéressés à l’imagerie par microscopieplasmon, technique de plus en plus utilisée dans divers domaines, notamment la biologie. Nousavons montré que l’émission détectée en un point provient essentiellement de l’environnementet non du point observé, définissant ainsi un cercle d’influence lié à la longueur de propagationdu plasmon de surface. Quand le plasmon interagit plus fortement avec des émetteurs, ilpeut entrer en régime de couplage fort. Ce couplage fort se traduit par un changement dansles énergies du système et par l’apparition de nouveaux états hybrides excitons-plasmons, lespolaritons. Les différents émetteurs localisés (des chaines de colorants agrégés) ne sont alorsplus indépendants entre eux. Des mesures de diffusion montrent un effet collectif induit par lecouplage fort. Ces expériences ont été confirmées par des mesures de cohérence spatiale, réaliséesen ajoutant une expérience de fentes d’Young au dispositif de microscopie plasmon. Ilapparait qu’un état cohérent étendu sur plusieurs microns se forme, conformément aux prévisionsthéoriques. L’ensemble d’émetteurs se comporte alors comme une macromolécule, dontl’interaction est induite par le plasmon de surface. / This experimental thesis studies effects induced by the spatial extension of surface plasmonpolaritons on the emission properties of organic and inorganic materials. First, we focused onleakage radiation microscopy images, a technic which is now widely used in a lot of differentscientific fields, as biology for exemple. We showed that the detected emission at a given point ofthe fluorescence image of an assembly of emitters mostly comes from the environment and notfrom the observed point, defining an influence circle related to the surface plasmon propagationlength. When the surface plasmon strongly interact with emitters, the strong coupling leadsto energy modifications in the system and new hybride states excitons-plasmons appear calledpolaritons. All the different localized emitters (aggregated dye chains) are not independantanymore. Diffusion measurments showed a collective effect induced by the strong-coupling.Two Young’s slits experiment added on the optical system confirm that an extended coherentstate of several micrometers is created as predicted by theory. All emitters behave as only onemacromolecule where the interaction is mediated by the surface plasmon.
385

Cohérence à un et deux électrons en optique quantique électronique / Single and two-electron coherence in electron quantum optics

Thibierge, Étienne 15 June 2015 (has links)
Cette thèse se place dans le domaine du transport quantique cohérent, et vise à développer un formalisme adapté à la modélisation d'expériences réalisées dans les canaux de bord de l'effet Hall quantique entier. Ce formalisme repose sur les analogies entre ces expériences et celles de l'optique quantique photonique.Le manuscrit commence par une introduction au contexte de la thèse qui propose un tour d'horizon des enjeux, des outils et des succès de l'optique quantique électronique.La première partie du travail traite des propriétés de cohérence mono-électronique et introduit la notion clé d'excès de cohérence à un électron. Plusieurs représentations sont proposées et analysées, permettant d’accéder aux informations physiques contenues dans la fonction de cohérence. Les états émis par des sources à électrons utilisées par plusieurs groupes expérimentaux sont ensuite analysés sous cet angle.Les effets à deux électrons sont au cœur de la seconde partie. L'excès de cohérence à deux électrons est défini en prenant en compte les effets de corrélation classique et d'échange quantique. Les conséquences de l'anti-symétrie fermionique sont également analysées en détail, montrant une redondance dans les informations encodées dans la cohérence à deux électrons. Enfin, un degré de cohérence normalisé est introduit pour étudier plus directement les effets d'indiscernabilité et d'anti-bunching.La mesure et la manipulation de la cohérence électronique par interférométrie sont abordées dans la troisième partie. Dans un premier temps, le lien entre les fonctions de cohérence électronique et les quantités directement accessibles dans les expériences est établi, ce qui justifie le besoin de protocoles plus complexes. La mesure d'excès de cohérence à un électron est alors envisagée par interférométrie Mach-Zehnder à un électron, puis par interférométrie Hong-Ou-Mandel à deux électrons, ce qui suggère une interprétation plus simple d'un protocole de tomographie électronique établi en 2011. Un protocole de mesure de l'excès de cohérence à deux électrons est ensuite proposé par interférométrie de type Franson, étendant les idées relatives à la mesure de cohérence à un électron par un interféromètre de Mach-Zehnder. Enfin, une vision complémentaire est apportée sur l'interféromètre de Franson, en utilisant celui-ci cette fois pour générer une cohérence à deux électrons non locale. / This thesis deals with coherent quantum transport and aims at developing a formalism well suited to model experiments conducted in edge channels of integer quantum Hall effect. This formalism relies on analogies between these experiments and photon quantum optics ones.The manuscript begins with an introduction to the context of the thesis and an overview of issues, tools and successes of electron quantum optics.The first part of the work addresses the question of single electron coherence properties and introduces the key notion of excess of single electron coherence. Several representations are proposed and analyzed, giving access to physical informations encoded in the coherence function. The quantum states emitted by experimentally demonstrated electron sources are then analyzed under this perspective.Two electron effects are at the heart of the second part. The excess of two-electron coherence is defined taking into account both classical correction and quantum exchange effects. A detailed analysis of consequences of fermionic anti-symmetry is provided and shows that information encoded into two-electron coherence is redundant. Last, a normalized degree of coherence is introduced in view of a more direct study of indistinguishability and anti-bunching.The issue of measuring and manipulating electronic coherence by interferometry is addressed in the third part. First the relation between electronic coherence functions and directly measurable quantities in experiments is established, justifying the need for more involved measurement protocols. The measure of the excess of single electron coherence is envisioned through single electron Mach-Zehnder interferometry and two-electron Hong-Ou-Mandel interferometry, suggesting a simpler interpretation of a tomography protocol established in 2011. A protocol for measuring the excess of two-electron coherence is then proposed by Franson-like interferometry, which generalizes the ideas used for measuring single electron coherence with a Mach-Zehnder interferometer. Last, a complementary point of view on Franson interferometer is given, by using it to generate a non-local two-electron coherence.
386

Architecture à base de situations pour le traitement des quiproquos dans l'exécution adaptative d'applications interactives / Situation-based architecture for misunderstanding management in the adaptive execution of interactive applications

Pham, Phuong Thao 04 July 2013 (has links)
Nos travaux s’inscrivent dans le cadre de la définition d’architectures pour la conception des applications informatiques se basant sur l’interactivité avec l’utilisateur. Nous nous plaçons dans un contexte de système médiateur, dans lequel les interactions sont traitées par le système afin de maitriser au mieux l’exécution de l’application interactive. Un point-clé de notre approche est l’hypothèse que le concepteur conçoit son application interactive en fonction d’un présupposé qu’il a sur l’utilisateur (compétence, comportement...). Afin de maintenir la cohérence de l’exécution vis-à-vis du comportement de l’utilisateur pour l’activité en cours, le mécanisme d’adaptation doit alors prendre en compte la logique perçue et interprétée de l’utilisateur. Le principe d’exécution adaptative permet donc à un système interactif d’ajuster sa logique d’exécution en fonction de l’état, des comportements, des réactions et des capacités de l’utilisateur. Ainsi, le point de départ de l’exécution adaptative est la définition des propriétés caractérisant l’état de l’utilisateur et/ou de son environnement, et l’observation ou la capture de cet état, qui permettra par la suite de prendre une décision sur la poursuite du déroulement du scénario. Cependant, cette décision d’adaptation peut être influencée ou entravée par la distance entre l’état observé et l’état réel de l’utilisateur, ainsi que par la distance entre l’état observé et l’état prédit (espéré) par le système. Les principaux obstacles à l’exécution adaptative dans un système interactif sont de 3 types : les ambiguïtés, les incohérences et les quiproquos. Ils peuvent survenir à chaque fois qu’un ensemble d’acteurs du système considéré interagissent, partagent des connaissances globales et gèrent leurs connaissances locales. Un quiproquo se produit lorsque deux acteurs ont des connaissances incohérentes dans leurs visions locales et les utilisent pendant leurs interactions ; cela peut entraîner une déviation de ces interactions. L’ambiguïté causant possiblement des mauvaises perceptions est une des origines de quiproquo. Les ambiguïtés et les quiproquos sont des entraves pouvant entrainer des conséquences graves pour le système, tel que la déviance du scénario, la propagation des quiproquos, l’interruption des interactions, la perte de motivation des utilisateurs... Ils diminuent à la fois la qualité de l’adaptation et la pertinence de l’interaction. La question principale à laquelle veulent répondre nos travaux est : comment peut-on gérer les quiproquos entre les acteurs du système lors de l’exécution, afin d’améliorer l’adaptativité dans les applications interactives ? Le principe de notre solution est de proposer un gabarit de conception et d’organisation des interactions ainsi qu’un gabarit de mécanisme de gestion de cohérence, que les concepteurs d’une application interactive pourront reprendre comme support pour développer leurs propres algorithmes de détection ou de correction. Ce modèle d’architecture doit être générique et réutilisable, les mécanismes doivent être transparents et préserver les propriétés importantes des systèmes interactifs. Pour atteindre cet objectif, notre recherche s’est divisée en trois points : proposer un cadre méthodologique à base de la notion de « situation » pour la conception des applications interactives, pour confiner les interactions et suivre les parcours d’actions de chaque acteur, afin de contrôler l’utilisation des ressources et assurer la cohérence des visions locales ; proposer une architecture robuste à base d’agents avec la surcharge des composants spécifiques en tant qu’infrastructure des systèmes interactifs adaptatifs ; enfin, transférer des techniques du domaine de la sûreté de fonctionnement et de la tolérance aux fautes, vers le domaine de l’interactivité et l’adaptativité pour traiter les quiproquos. / Our works focus on defining an architectural model for interactivity-based computer applications. The research context is placed in the mediator systems where the interactions are treated by the system itself, and in the scenarized applications where its execution is considered as a scenario. This aims to manage at best the interactive application execution. The observation and adaptation are key points of our approach where the designer develops his interactive application according to the presuppositions about users (behaviour, skills...). To maintain an execution consistence towards user’s behaviour in current activities, the adaptation mechanism has to take into account the perceived and interpreted user’s logic. That allows the system to adjust its execution logic to user’s state, behaviour, reactions and capacities. Hence, the starting point of adaptive execution is to define a set of proprieties characterising user’s state and his environment of which the observation permits thereafter to make decisions about the future scenario continuity. However, this decision can be influenced or hampered by the difference distance between the observed state and the real state of user, also the distance between the observed state and the expected one by the system. The principal obstacles against the adaptation and interactions are : the ambiguity, the inconsistency, and the misunderstanding. They can occur when the participant actors interact, share global data, and manage the local knowledge contained in their local visions at the same time. A misunderstanding in interaction arises during actors’ interactions using the inconsistent data in their local visions that can impact badly on interaction. The ambiguity causing possibly the wrong perceptions is one of the principal misunderstanding origines. Theses obstacles lead to serious consequences for the system and application such as scenario deviation, misunderstanding propagation, interaction interruption, user’s motivation lost...They decrease the adaptation quality and interaction pertinence. Hence, the principal question of this thesis is : how can we handle the misunderstanding in interactions between the actors during system execution in order to improve adaptability in the interactive applications ? Our solution principle is to propose a model for interaction designing and organizing, together with a model for consistency handling mechanisms that application designers can employ as a necessary support to install his own detection or correction algorithms. These models have to be generic, reusable to be applied in different types of application. The consistency managements have to be transparent to users, and preserve important properties of interactive systems. To attain this objective, our works follow three major points : propose a situation-based methodological model for interactive application designing to confine a sequence of interactions into a situation with the constraints of context and resource utilisation. This structuration into situations propose a robust system architecture with additional specific components that ensure misunderstanding in interaction detection and management. Integrate the adaptive treatment mechanisms to the dynamic system’s execution through the proposed situation-based architectural model. They are inspired and adapted from fault-tolerance techniques in dependability domain.
387

Dynamique induite par champ laser femtoseconde intense : alignement moléculaire en milieu gazeux dense et effet Kerr / Dynamics induced by femtosecond and intense laser pulses : molecular alignment in dense gaseous medium and Kerr effect

Vieillard, Thomas 24 June 2011 (has links)
Le sujet de cette thèse concerne l’étude de dynamiques induites par des impulsions lasers femtosecondes intenses. La première dynamique étudiée porte sur l’alignement de la molécule de CO2, pure ou en mélange avec l’argon ou l’hélium, en phase gazeuse dense (jusqu’à 20 bar), ce régime n’ayant jamais été étudié expérimentalement auparavant. L’alignement moléculaire, quand il est induit par une impulsion laser femtoseconde et intense, présente deux contributions qui apparaissent après passage de l’impulsion : un alignement permanent et un alignement transitoire. L’influence des collisions se manifeste alors par des transferts de population entre états rotationnels qui ont pour conséquence de faire décroître ces deux contributions. Le temps de décroissance de l’alignement permanent est seulement lié aux collisions inélastiques tandis que le temps de décroissance de l’alignement transitoire est lié à la fois aux collisions inélastiques et élastiques. Nous montrons alors que la détermination expérimentale de la contribution des collisions élastiques, expérimentalement difficile d’accès, est possible à partir de l’analyse des traces d’alignement moléculaire. Cette analyse se base sur la modélisation des taux de transfert entre états liés aux collisions inélastiques par des lois semi-empiriques du type ECS-(E)P. La contribution élastique des collisions déterminée est en bon accord avec des valeurs calculées selon un modèle classique. La deuxième dynamique étudiée est la dépendance en éclairement de l’effet Kerr électronique. Nous poursuivons alors les travaux menés par Loriot et al. en 2009 qui ont montré que l’indice Kerr électronique saturait avant de s’annuler puis de présenter une contribution négative lorsqu’on augmente l’éclairement (inversion du signe pour quelques dizaines de térawatts par centimètre carré). Nous avons alors étendu cette étude en observant à une longueur d’onde de 400 nm (800 nm dans l’étude originale) cette inversion du signe de l’indice Kerr dans l’air. / This thesis is devoted to the study of dynamics induced by intense femtoseconds lasers pulses. The first studied dynamics deals with molecular alignment of CO2-X mixtures (X=CO2, Ar, N2), in dense gases (up to 20 bar). Up to now, this regime has never been studied experimentally. In the field-free regime (after laser/matter interaction), molecular alignment exhibits two components : a permanent alignment and a transient one. The influence of collisions appears through population transfers between rotational states, which leads to a decrease of these two contributions. Permanent alignment relaxation time is only tied to inelastics collisions whereas transient alignment relaxation time is tied to both inelastics and elastics ones. We show that the determination of the elastic collisions contribution (for which the experimental determination is uneasy), is then possible thanks to the analysis of molecular alignment measurements. This analysis is based on the modelling of inelastics rotational state-to-state transfer rates by ECS-(E)P semi-empirical laws. The elastic contribution of collisions is experimentally determined and happened to be in a good agreement with classically calculated ones. The second studied dynamics is the intensity dependence of the electronic Kerr effect. We pursue the works led by Loriot and al. in 2009 which showed that electronic Kerr index saturated, before nullifying and then presenting a negative contribution when the intensity increases (inversion of the sign for some tens of terawatts by square centimeter). We complete the previous study by performing similar measurements in air at 400 nm (800 nm in the original study).
388

L’électroencéphalographie : un bio-marqueur pour le développement clinique de nouveaux traitements pharmacologiques de la maladie d’Alzheimer / Electroencephalography : a biomarker for clinical development of new pharmacological treatments for Alzheimer's disease

Leroy, Christopher 19 December 2016 (has links)
Les traitements pharmacologiques symptomatiques de la maladie d’Alzheimer (MA) actuellement commercialisés ont un effet modeste sur le fonctionnement cognitif. De plus, le développement clinique de nouveaux composés plus efficaces est freiné par l’absence de critères prédictifs pour juger précocement de leur efficacité clinique.Dans ce contexte, l’électroencéphalographie (EEG) pourrait constituer un bio-marqueur suffisamment sensible pour identifier précocement (Phase I) le potentiel thérapeutique d’une nouvelle molécule sur le fonctionnement cognitif. De plus, la difficulté pour détecter des améliorations subtiles dans les performances cognitives en Phase I (i.e. chez des sujets sains) pourrait être palliée par le développement de paradigmes expérimentaux, tels que la privation de sommeil (PS), visant à induire des déficits cognitifs réversibles chez le sujet sain.Ainsi, l’EEG et l’EEG couplée à la privation de sommeil (PS) seraient des stratégies innovantes et pertinentes pour juger et prédire l’efficacité clinique d’une molécule en Phase I.Dans ce travail, nous tentons de juger de la pertinence de telles stratégies en identifiant, chez des sujets sains, des marqueurs EEG du fonctionnement cognitif liés soit (1) à la prise d’un médicament ayant un effet sur la cognition, (2) soit à l’induction d’un déclin cognitif réversible, (3) soit à l’effet concomitant des deux paramètres. Pour y parvenir, deux études ont été réalisées.Dans une première étude, l’effet du donepezil sur l’activité électrique corticale a été étudié chez 30 volontaires adultes, jeunes et sains. Ces volontaires ont été traités par donepezil (5 mg/jour per os) (vs. placebo) pendant 15 jours suivant une procédure en double aveugle, randomisée et en cross-over. _x000D_A la fin de la période de traitement, un EEG (58 voies) a été réalisé au cours de deux tâches attentionnelles (auditive et visuelle). Les potentiels évoqués cognitifs (PEC), la cohérence de phase inter-essais (ITC) et la perturbation spectrale liée à l’événement (ERSP) ont ensuite été calculés.Dans une deuxième étude, l’effet d’une PS a été étudié chez 36 volontaires adultes, jeunes et sains. De plus, l’effet d’un médicament ayant un effet bien connu sur la cognition (en particulier sur la vigilance), le modafinil, a également été étudié sur cette PS.Suite à une PS de 24 h, les participants se sont vus administrés une dose de modafinil (200 mg en prise unique) (vs. placebo) suivant une procédure en double aveugle, randomisée et en cross-over. Un EEG (25 voies) a été réalisé au cours d’une tâche attentionnelle auditive (identique à celle de l’étude I) avant et après la PS. Les PEC, l’ITC et l’ERSP ont ensuite été calculés.Grâce à ces deux études, nous avons identifié, à l’échelle de groupe, des marqueurs EEG de la cognition liés soit à l’induction d’un déclin cognitif (induit par une PS), soit à l’intervention pharmacologique ciblant le système cholinergique (donepezil) ou différents neurotransmetteurs (modafinil). L’ensemble de ces marqueurs porterait sur la modulation de l’activité corticale au sein du réseau fronto-pariétal ventral, connu pour régir les processus attentionnels et exécutifs. Nous avons également confirmé que ce réseau serait sous-tendu par des activités oscillatoires δ/θ et α. L’efficience cognitive serait le reflet de l’intégrité de ce réseau.Nous avons conclu que l’EEG est un outil suffisamment sensible pour détecter des changements subtils dans les processus neurocognitifs de participants adultes, jeunes et sains suivant l’administration d’un traitement de la MA et de manière plus générale suivant l’administration d’un médicament ayant un effet sur la cognition lorsqu’un déclin cognitif est provoqué (PS).Sous réserve de réplication des résultats et d’analyses complémentaires, l’EEG ainsi que l’EEG couplée à la PS pourraient constituer des outils additionnels à l’évaluation cognitive pour prédire l’efficacité de nouveaux candidat médicaments de la MA. / Symptomatic pharmacological treatments currently marketed for Alzheimer’s disease (AD) have a modest effect on cognitive functioning. In addition, the clinical development of new and more effective compounds is hampered by the lack of predictive criteria to judge their early clinical efficacy.In this context, electroencephalography (EEG) could be a sufficiently sensitive biomarker to identify in an early stage (i.e. Phase I) the therapeutic potential of a new molecule on cognitive functioning. In addition, the difficulty to detect subtle improvements in cognitive performance in Phase I (i.e. in healthy subjects) could be overcome by the development of experimental paradigms such as sleep deprivation (SD), to induce cognitive deficits, still reversible in healthy subjects.EEG and EEG coupled with sleep deprivation (SD) would be innovative and relevant strategies to determine and predict the clinical effectiveness of a molecule in Phase I.In this work, we try to determine the relevance of such strategies by identifying, in healthy subjects, EEG markers of cognitive functioning related to (1) either the taking of a cognitive drug, (2) or the induction of a reversible cognitive decline, (3) or concomitant effects of the two parameters. In order to do that, two studies were performed.In a first study, the effect of donepezil on cortical electrical activity was studied in 30 young, healthy adult volunteers. These volunteers were treated with donepezil (5 mg/day orally) (vs. placebo) for 15 days following a double-blind, randomized, cross-over trial.At the end of the treatment period, an EEG (58 electrodes) was performed during two attentional tasks (auditory and visual). Event-related potentials (ERP), the inter-trial coherence (ITC) and the event-related spectral perturbation (ERSP) were then calculated.In a second study, the effect of SD was studied in 36 young, healthy adult volunteers. In addition, the effect of a cognitive drug (involving high alertness), the modafinil was also studied on this SD._x000D_Following a SD of 24 h, the participants were administered a dose of modafinil (200 mg in a single dose) (vs. placebo) in a double-blind, randomized, cross-over trial. An EEG (25 electrodes) was performed in a hearing attentional task (identical to that of Study 1) before and after the PS. The ERP, ITC and ERSP were then calculated.Through these two studies, we have found, at the group level, cognitive EEG markers related either to the induction of cognitive decline (SD) or pharmacological intervention targeting cholinergic system (donepezil) or several neurotransmitters (modafinil). All these markers would concern the modulation of cortical activity in the ventral frontoparietal network, known to regulate attentional and executive processes. We also confirmed that the network is underlying by δ/θ and α oscillatory activities. The cognitive efficiency would reflect the integrity of the network.We conclude that EEG is a sufficiently sensitive tool to detect subtle changes in neurocognitive processes of young, healthy adult volunteers, following the administration of a treatment of AD and more generally following the administration of a drug having an effect on cognition when cognitive decline is caused (SD).EEG and EEG coupled with SD could constitute additional tools to the current cognitive assessment for predicting the efficacy of new drug candidates for AD before initiation Phases II/III clinical trials. However, the present works needs to be replicated so that the EEG markers described here can be validated so as to be used in drug trials.
389

Essais sur l'inégalité et la mobilité / Essays on inequality and mobility

Mornet, Pauline 21 May 2015 (has links)
Cette thèse a pour objet de fournir une méthode d'évaluation simple de l'inégalité et de la mobilité des revenus. Nous utilisons une méthode de décomposition récemment introduite dans la littérature et aujourd'hui connue sous le nom de emph{décomposition faible}, pour analyser la répartition des écarts de revenus entre les individus appartenant à un même sous-groupe et ceux situés dans des sous-groupes distincts. Nous nous intéressons en particulier aux contextes dans lesquels il peut être pertinent de faire appel à un tel outil de décomposition. Nous approfondissons nos recherches en précisant les propriétés normatives des indicateurs compatibles avec le schéma de décomposition faible en sous-groupes. Nous énonçons notamment des principes de transferts intra- et intergroupes afin de fournir des moyens d'actions représentatifs des préférences d'un décideur politique. Les fondements axiomatiques de cette propriété de décomposition en sous-groupes sont également abordés. Des fonctions de pondération plus générale mais néanmoins conformes aux schémas de décomposition en sous-groupes usuels sont introduites. Cette généralisation nous permet de caractériser axiomatiquement des mesures d'inégalité à 2 paramètres que nous qualifions de (alpha,delta)-Gini. Ces 2 paramètres alpha et delta permettent de capter l'ensemble des points de vue politique des décideurs publics (d'extrême gauche à extrême droite). Nous montrons de plus que l'application de la décomposition faible en sous-groupes se généralise aisément à l'étude de la mobilité des revenus. Nous proposons ainsi une adaptation de la propriété de décomposition en sous-groupes dans un cadre bidimensionnel et caractérisons 2 classes de mesures d'inégalité de croissance ajustée et de mouvements de revenus cohérentes avec cette condition. Diverses études empiriques sont également menées afin d'illustrer les différentes notions développées dans cette thèse. / This Ph.D. Dissertation aims at providing accurate and simple tool to evaluate income inequality and mobility. Our work relies on a subgroup decomposition property recently introduced in the literature as the $``$emph{weak decomposition}$"$ to break down total disparities into within-group and between-group disparities. A particular interest is given to the context in which subgroup decomposition can be applied. We introduce within-group and between-group transfer principles that can be modulated according to a decision maker's preferences. The axiomatic basis of the subgroup decomposition property are also dealt with. Some general weighing functions are introduced to caracterize a two-parameters class of inequality measures denoted denoted (alpha,delta)-Gini. The parameters alpha and delta allow capturing the set of decision's maker point of view (from extrem leftist to extreme rightist). Furthermore, we demonstrate the the application of the weak decomposition can easily be extended to income mobility. We propose an adaptation of the subgroup decomposition property to a bimensional framework and we characterize 2 classes of inequality adjusted growth and income movements measures consistent with such a property. Various empirical studies are also carried out to illustrate the various developed concepts.
390

Comprendre la responsabilité civile / Understanding civil liability

Fadaie Ghotbi, Reza 09 May 2016 (has links)
La théorie de la responsabilité civile, en termes de la reconstruction rationnelle du droit constitue une connaissance nouvelle et importante de ce régime. L’analyse économique en reconstruit les règles et les institutions à partir de la norme de l’efficience. La théorie morale de la justice corrective interprète la responsabilité civile à travers l’égalité entre les parties. Mais, aucune de ces deux interprétations ne parvenue à expliquer la responsabilité civile. L’analyse économique, en traitant les règles de la responsabilité comme un moyen visant à maximiser la richesse, a modifié leur sens original. La justice corrective réduit la responsabilité civile au régime d’allocation équitable des coûts d’accident. La reconstruction de la responsabilité civile, afin de la comprendre, requiert de s’engager dans une approche philosophique qui trouve la rationalité dans la réalité. Dans cette optique, la responsabilité civile, contrairement à l’analyse économique ou à la justice corrective, est constituée à partir les droits et les principes indéniables, non les normes hypothétiques. La faute, en termes de droit de la volonté subjective, tout est redéfinie selon la pratique sociale sur l’attribution des résultats de nos actes, ce qui permet de croire que la responsabilité civile est toujours morale, même lorsque elle s’impose à partir d’une évaluation objective et extérieure. / Tort theory in terms of rational reconstruction of the law has constituted a new and important knowledge of the tort liability. Economic analysis has reconstructed the rules and institutions by the value of efficiency. Moral theory of corrective justice has interpreted liability through equality between the parties. But neither of these interpretations could come to explain liability. The economic analysis by treating the liability rules as a mean of wealth maximization has changed their original meaning. Corrective justice reduced tort liability to the regime fair allocation of accident costs. The reconstruction in order to understand civil liability requires engaging in a philosophical approach in which reality is the source of rationality. In this context, liability, unlike the economic analysis or corrective justice, is formed from undeniable rights and principles, not hypothetical norms. The negligence in terms of right of the subjective will is redefined by social practice on the attribution results of our actions, which suggests that civil liability is still moral idea, even when it is imposed from an objective and external assessment.

Page generated in 0.0362 seconds