• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 172
  • 80
  • 52
  • 12
  • 7
  • 6
  • 5
  • 5
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 1
  • Tagged with
  • 436
  • 94
  • 87
  • 45
  • 44
  • 35
  • 34
  • 33
  • 30
  • 28
  • 27
  • 27
  • 26
  • 26
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
321

Synthèse et étude de polymères thermo-associatifs pour le domaine des lubrifiants / Synthesis and study of thermo-associative polymers for lubricants

Derouineau, Thibault 13 December 2017 (has links)
Le contrôle de la viscosité des lubrifiants moteur est un enjeu clé dans la réduction de la consommation en carburant des moteurs thermiques. Une nouvelle approche basée sur l’utilisation de polymères thermo-associatifs a été développée pour diminuer la perte de viscosité naturelle des lubrifiants avec la température. Pour ce faire, des polymères complémentaires de faibles masses molaires (pour l’application moteur visée) qui peuvent s’associer réversiblement via la réaction d’échange diol-ester boronique lorsque la température augmente ont été conçus et synthétisés. Les faibles masses molaires des polymères et le caractère dynamique de la liaison ester boronique permettent de diminuer la sensibilité de ces systèmes aux forts cisaillements présents dans le moteur, en limitant notamment la rhéofluidification de ces lubrifiants. L’association des polymères est provoquée par l’augmentation d’accessibilité des fonctions portées par les polymères avec la température. L’association réversible des polymères thermo-associatifs a été mise en évidence dans les huiles apolaires par l’augmentation de la viscosité relative des solutions avec la température sur plusieurs cycles de chauffage-refroidissement. Une partie de l’étude a été consacrée à l’amélioration de la stabilité thermique des polymères dans le but de maintenir les bonnes propriétés lubrifiantes des formulations jusqu’à 150°C. Un grand nombre de polymères de natures, de tailles et d’architectures différentes ont été synthétisés. L’étude rhéologique en écoulement de ces polymères seuls et en formulations thermo-associatives a permis de mettre en évidence l’importance de ces différents leviers pour faire varier et contrôler les propriétés des solutions en fonction de la température. / Controlling the viscosity of engine lubricants is a key issue to reduce the fuel consumption of engines. A new approach based on the use of thermo-associative polymers has been developed in order to compensate the natural loss of viscosity of lubricants when the temperature increases. To this aim, complementary low molecular weight polymers (for engine targeted application) that can reversibly associate with temperature through the diol-boronic ester exchange reaction have been designed and synthesized. The low molecular weights of the polymers and the dynamic behavior of the boronic ester bond decrease the high shear sensitivity of the system and so limits the shear-thinning behavior of the lubricant. The increase of polymeric function availability as the temperature rises induces polymer association. The reversibility of the thermo-associative association of polymers in non polar oil is seen over several cycles of warming-cooling with the increase of the relative viscosity of the solutions with increasing temperature. Part of the study was also dedicated to the improvement of polymers’ thermal stability in order to maintain the good lubricant properties of the thermo-associative formulations up to 150°C. Many polymers of different natures, sizes and topologies have been synthesized. The flow behavior of these polymers in both individual state in solution or in thermo-associative formulations was studied by rheology, thus enabling to determine the impact of these levers on the solutions properties as a function of temperature.
322

La récupération du nom propre d'une personne : éléments fondamentaux sur les informations sémantiques en mémoire et éléments appliqués pour la prise en charge de la maladie d'Elzheimer.

Germain, Veronique 28 May 2013 (has links)
Pouvoir identifier la personne en face de soi et être capable de retrouver son nom apparaissent des activités indispensables aux interactions sociales quotidiennes. Or, le nom propre s‟avère être une information spécifique comparée aux autres informations disponibles sur une personne. La récupération de cette information est souvent décrite comme difficile. Pour autant, si les auteurs s‟accordent sur la spécificité du nom propre, l‟examen de l‟organisation en mémoire du nom propre et des informations sémantiques liées aux personnes sera l‟objet de ce travail. De plus, l‟accès aux informations sémantiques s‟avère déficitaire dans la maladie d‟Alzheimer.Une première expérience a permis d‟élaborer un matériel normé sur 210 visages/noms, permettant la sélection précise de stimuli. Afin d'étudier la question de l‟organisation en mémoire des informations sémantiques et plus particulièrement l‟information nom propre, deux études comportementales et trois études électrophysiologiques ont été menées. Dans les deux dernières études, nous avons travaillé sur l‟apprentissage et le maintien en mémoire de l‟information spécifique nom propre auprès d‟une population Alzheimer. La discussion des différents résultats s‟appuie sur les connaissances théoriques actuelles sur le sujet. / Being able to identify the person in front of us and being able to remember his or her name appear to be essential activities to daily social interactions. However, compared to other available information related to a person, the proper name seems to be specific information. Proper name retrieval has been very often described as particularly difficult. Although this work aims to study the organization of semantic information in memory, and more specifically the proper name information. Moreover, access to semantic information is known be deficient for Alzheimer disease.A first study has allowed to develope out a standardized material of 210 faces/names, permitting an accurate selection of stimuli. Two behavioural and three electrophysiological studies have been carried out to study the organization of semantic information in memory, and more specifically the proper name. For the last two experiments, we have worked on learning and how to keep specific information « proper name » into memory for Alzheimer‟s disease patients. Discussion of the different results is based on current theorical knowledge on the subject.
323

Calcul de motifs sous contraintes pour la classification supervisée

Gay, Dominique 30 November 2009 (has links) (PDF)
Ces dernières années, l'extraction de motifs locaux (itemsets fréquents et règles d'association) a suscité beaucoup d'entrain pour la classification supervisée. Cette thèse traite du calcul et de l'usage de motifs sous contraintes pour la classification supervisée. Nous nous attaquons à deux problèmes difficiles en classification supervisée à base de motifs et proposons deux contributions méthodologiques : D'un côté, lorsque les attributs sont bruités, les performances des classifieurs peuvent être désastreuses. Les méthodes existantes consistent à corriger les valeurs d'attributs ou supprimer les objets bruités -- ce qui génère une perte d'information. Dans ce mémoire, nous proposons une méthode générique de construction de descripteurs robustes au bruit d'attributs -- sans modifier les valeurs d'attributs ni supprimer les objets bruités. Notre approche se déroule en deux étapes : premièrement nous extrayons l'ensemble des règles delta-fortes de caractérisation. Ces règles offrent des propriétés de corps minimal, de non-redondance et sont basées sur les itemsets delta-libres et leur delta-fermeture -- qui ont déjà fait leur preuve pour la caractérisation de groupements dans des contextes bruités. Deuxièmement, nous construisons un nouveau descripteur numérique robuste pour chaque règle extraite. Les expérimentations menées dans des données bruitées, montrent que des classifieurs classiques sont plus performants en terme de précision sur les données munies des nouveaux descripteurs que sur les données avec les attributs originaux. D'autre part, lorsque la distribution des classes est inégale, les approches existantes de classification à base de motifs ont tendance à être biaisées vers la classe majoritaire. La précision sur la (ou les) classe(s) majoritaire(s) est alors élevée au détriment de la précision sur la (ou les) classe(s) minoritaire(s). Nous montrons que ce problème est dû au fait que les approches existantes ne tiennent pas compte de la répartition des classes et/ou de la fréquence relative des motifs dans chacune des classes de la base. Pour pallier ce problème, nous proposons un nouveau cadre de travail dans lequel nous extrayons un nouveau type de motifs : les règles de caractérisation One-Versus-Each (OVE-règles). Ce nouveau cadre de travail nécessite le paramétrage d'un nombre conséquent de seuils de fréquence et d'infréquence. Pour ce faire, nous proposons un algorithme d'optimisation de paramètres, fitcare ainsi qu'un algorithme d'extraction d'OVE-règles. Les expérimentations menées sur des données UCI multi-classes disproportionnées et sur des données de diagnostic de méningite aigüe, montrent que notre approche fitcare est plus performante que les approches existantes en terme de précision sur les classes mineures. L'application de notre méthode de classification associative à l'analyse de données d'érosion des sols en Nouvelle-Calédonie a mis en évidence l'intérêt de notre proposition pour caractériser les phénomènes d'érosion.
324

Heuristisk profilbaserad optimering av instruktionscache i en online Just-In-Time kompilator / Heuristic Online Profile Based Instruction Cache Optimisation in a Just-In-Time Compiler

Eng, Stefan January 2004 (has links)
<p>This master’s thesis examines the possibility to heuristically optimise instruction cache performance in a Just-In-Time (JIT) compiler. </p><p>Programs that do not fit inside the cache all at once may suffer from cache misses as a result of frequently executed code segments competing for the same cache lines. A new heuristic algorithm LHCPA was created to place frequently executed code segments to avoid cache conflicts between them, reducing the overall cache misses and reducing the performance bottlenecks. Set-associative caches are taken into consideration and not only direct mapped caches. </p><p>In Ahead-Of-Time compilers (AOT), the problem with frequent cache misses is often avoided by using call graphs derived from profiling and more or less complex algorithms to estimate the performance for different placements approaches. This often results in heavy computation during compilation which is not accepted in a JIT compiler. </p><p>A case study is presented on an Alpha processor and an at Ericsson developed JIT Compiler. The results of the case study shows that cache performance can be improved using this technique but also that a lot of other factors influence the result of the cache performance. Such examples are whether the cache is set-associative or not; and especially the size of the cache highly influence the cache performance.</p>
325

Data Distribution Management In Large-scale Distributed Environments

Gu, Yunfeng 15 February 2012 (has links)
Data Distribution Management (DDM) deals with two basic problems: how to distribute data generated at the application layer among underlying nodes in a distributed system and how to retrieve data back whenever it is necessary. This thesis explores DDM in two different network environments: peer-to-peer (P2P) overlay networks and cluster-based network environments. DDM in P2P overlay networks is considered a more complete concept of building and maintaining a P2P overlay architecture than a simple data fetching scheme, and is closely related to the more commonly known associative searching or queries. DDM in the cluster-based network environment is one of the important services provided by the simulation middle-ware to support real-time distributed interactive simulations. The only common feature shared by DDM in both environments is that they are all built to provide data indexing service. Because of these fundamental differences, we have designed and developed a novel distributed data structure, Hierarchically Distributed Tree (HD Tree), to support range queries in P2P overlay networks. All the relevant problems of a distributed data structure, including the scalability, self-organizing, fault-tolerance, and load balancing have been studied. Both theoretical analysis and experimental results show that the HD Tree is able to give a complete view of system states when processing multi-dimensional range queries at different levels of selectivity and in various error-prone routing environments. On the other hand, a novel DDM scheme, Adaptive Grid-based DDM scheme, is proposed to improve the DDM performance in the cluster-based network environment. This new DDM scheme evaluates the input size of a simulation based on probability models. The optimum DDM performance is best approached by adapting the simulation running in a mode that is most appropriate to the size of the simulation.
326

Data Distribution Management In Large-scale Distributed Environments

Gu, Yunfeng 15 February 2012 (has links)
Data Distribution Management (DDM) deals with two basic problems: how to distribute data generated at the application layer among underlying nodes in a distributed system and how to retrieve data back whenever it is necessary. This thesis explores DDM in two different network environments: peer-to-peer (P2P) overlay networks and cluster-based network environments. DDM in P2P overlay networks is considered a more complete concept of building and maintaining a P2P overlay architecture than a simple data fetching scheme, and is closely related to the more commonly known associative searching or queries. DDM in the cluster-based network environment is one of the important services provided by the simulation middle-ware to support real-time distributed interactive simulations. The only common feature shared by DDM in both environments is that they are all built to provide data indexing service. Because of these fundamental differences, we have designed and developed a novel distributed data structure, Hierarchically Distributed Tree (HD Tree), to support range queries in P2P overlay networks. All the relevant problems of a distributed data structure, including the scalability, self-organizing, fault-tolerance, and load balancing have been studied. Both theoretical analysis and experimental results show that the HD Tree is able to give a complete view of system states when processing multi-dimensional range queries at different levels of selectivity and in various error-prone routing environments. On the other hand, a novel DDM scheme, Adaptive Grid-based DDM scheme, is proposed to improve the DDM performance in the cluster-based network environment. This new DDM scheme evaluates the input size of a simulation based on probability models. The optimum DDM performance is best approached by adapting the simulation running in a mode that is most appropriate to the size of the simulation.
327

Decisions as Performatives

Murray, Dylan 21 April 2010 (has links)
Decisions are performatives - or at least, they share important features with performative utterances that can elucidate our theory of what type of thought they are, and what they do. Namely, decisions have an analogous force to that of performatives, where the force of a propositional attitude or utterance is constituted by (i) its point, or purpose, which is mainly a matter of its direction-of-fit, and (ii) its felicity conditions. The force of both decisions and performatives is to bring into being the states of affairs represented in their intentional contents, merely in virtue of the decision or performative’s occurrence and the satisfaction of the felicity conditions they presuppose. The first chapter of the thesis explicates this general framework, and the second and third attempt to show some of the work it can do for a theory of decisions.
328

Memory Processes in Frequency Judgment: The impact of pre-experimental frequencies and co-occurrences on frequency estimates.

Renkewitz, Frank 12 August 2004 (has links) (PDF)
Contemporary theories on frequency processing have been developed in different sub-disciplines of psychology and have shown remarkable discrepancies. Thus, in judgment and decision making, frequency estimates on serially encoded events are mostly traced back to the availability heuristic (Tversky &amp; Kahneman, 1973). Evidence for the use of this heuristic comes from several popular demonstrations of biased frequency estimates. In the area of decision making, these demonstrations led to the conclusion that frequency judgments were generally error-prone. On the other hand, in memory literature detailed computational memory models are used to explain frequency estimates. Although these models to some degree differ evidently in their specific representational assumptions, they all arrive at the basic prediction that frequency estimates should usually be quite accurate but regressed. This prediction was confirmed in numerous studies. However, up to now there have been no systematic efforts in memory literature to identify factors that cause biases in frequency judgments and to explain the demonstrations of erroneous estimates in the area of decision making. The two studies presented in this thesis pursue the questions whether memory models are able to explain errors in frequency judgments and to generate new predictions about biasing factors. In the focus of the first series of experiments is the "famous-names effect": If participants are presented with a list of names of female and male persons, then the frequency of that sex is overestimated that was represented with more famous names on the list. As more famous names are additionally recalled better, this effect was usually explained with the availability heuristic. An alternative account was suggested within the framework of the associationist-model PASS (Sedlmeier, 1999) and the multiple-trace model MINERVA-DM (Dougherty et al., 1999). According to this, the effect is primarily caused by the different pre-experimental frequencies of famous and non-famous names. If this is correct, the famous-names effect should generalize to any stimulus material. This hypothesis was tested in four experiments. The predictions of the memory models were compared with the predictions of a recall-estimate version of the availability heuristic (e.g. Watkins &amp; LeCompte, 1991). Contrary to the predictions of all tested approaches, the participants were mostly able to judge the frequencies of the presented categories approximately correctly. The results indicate furthermore that systematic biases only occurred if the participants based their judgments at least partially on the recall-estimate strategy. However, as the participants only did this in exceptional cases the entire result pattern is explained best within a multiple strategy perspective (Brown, 2002). A re-analysis of the data from all four experiments suggests that the size of the sample of retrieved exemplars is the crucial factor for the (additional) use of the recall-estimate strategy. In the second study new predictions about the influence of associations on frequency estimates are derived from the PASS-model and tested. In two experiments words that were either strongly or weakly associated with each other were presented to the participants. Predictions of the PASS model for the frequency estimates about this stimulus material were gained by means of simulations. In a first step PASS acquired associations between the stimulus words from a large text corpus. Subsequently, the model encoded the experimental study lists. PASS expects higher frequency judgments for associated than for non-associated words. The size of this effect should be independent of the actual presentation frequencies of the words. Finally, the model expects that the frequencies of associated words are discriminated slightly worse than the frequencies of non-associated words. These predictions were largely confirmed in both experiments. The decision times required by the participants to generate their estimates indicate here that they did not base their judgments on the recall-estimate strategy. The results thus strengthen the assumption that the encoding and representation of frequency information are based on associative learning. / Aktuelle Theorien zur Häufigkeitsverarbeitung wurden in unterschiedlichen Teilgebieten der Psychologie entwickelt und weisen erstaunliche Diskrepanzen auf. So werden Häufigkeitsschätzungen über seriell enkodierte Ereignisse in der Urteils- und Entscheidungsforschung zumeist auf die Verfügbarkeitsheuristik (Tversky &amp; Kahneman, 1973) zurückgeführt. Evidenz für die Verwendung dieser Heuristik stammt aus einigen populären Demonstrationen fehlerhafter Häufigkeitsschätzungen. Diese Demonstrationen führten in der Entscheidungsforschung zu der Schlussfolgerung, dass Häufigkeitsurteile generell fehleranfällig seien. Demgegenüber wurden in der Gedächtnispsychologie detaillierte, computerimplementierte Gedächtnismodelle benutzt, um Häufigkeitsschätzungen zu erklären. Obwohl sich diese Modelle in ihren spezifischen Repräsentationsannahmen zum Teil deutlich unterscheiden, kommen sie alle zu der grundlegenden Vorhersage, dass Häufigkeitsschätzungen in der Regel recht genau, aber regrediert sein sollten. Diese Vorhersage wurde in zahlreichen Untersuchungen bestätigt. In der gedächtnispsychologischen Forschung hat es jedoch bisher kein systematisches Bemühen gegeben, Faktoren, die zu Verzerrungen in Häufigkeitsschätzungen führen, zu identifizieren und die Demonstrationen fehlerhafter Schätzungen aus der Entscheidungsforschung zu erklären. Die zwei in der vorliegenden Arbeit präsentierten Studien verfolgen die Fragestellung, inwieweit Gedächtnismodelle in der Lage sind, Fehler in Häufigkeitsurteilen zu erklären und neue Vorhersagen über verzerrende Faktoren zu generieren. Im Mittelpunkt der ersten Serie von Experimenten steht dabei der "Famous-Names Effekt": Nach der Präsentation einer Liste mit Namen weiblicher und männlicher Personen wird die Häufigkeit desjenigen Geschlechts überschätzt, das mit berühmteren Namen auf der Liste vertreten war. Da berühmtere Namen zudem besser erinnert werden, wurde dieser Effekt gewöhnlich auf die Verfügbarkeitsheuristik zurückgeführt. Eine Alternativerklärung wurde sowohl im Rahmen des assoziationistischen PASS-Modells (Sedlmeier, 1999) als auch innerhalb des Exemplarmodells MINERVA-DM (Dougherty et al., 1999) vorgeschlagen. Demnach wird der Effekt primär durch die unterschiedliche prä-experimentelle Häufigkeit berühmter und nicht-berühmter Namen verursacht. Ist diese Annahme korrekt, so sollte der Famous-Names Effekt auch auf anderes Stimulusmaterial generalisieren. Diese Hypothese wurde in vier Experimenten überprüft. Dabei wurden die Vorhersagen der Gedächtnismodelle mit den Vorhersagen einer "Recall-Estimate" Version der Verfügbarkeitsheuristik (z. B. Watkins &amp; LeCompte, 1991) verglichen. Entgegen den Vorhersagen aller getesteten Ansätze waren die Teilnehmer in der Regel in der Lage, die Häufigkeit der verwendeten Kategorien recht gut einzuschätzen. Die Ergebnisse sprechen zudem dafür, dass systematische Fehler in den Häufigkeitsurteilen nur dann auftraten, wenn sich die Teilnehmer bei der Generierung ihrer Schätzungen zumindest teilweise auf die Recall-Estimate Strategie stützten. Da die Teilnehmer dies jedoch nur in Ausnahmefällen taten, kann das gesamte Ergebnismuster am besten innerhalb einer "Multiple Strategy Perspective" (Brown, 2002) erklärt werden. Eine Reanalyse der Daten aus allen vier Experimenten legt dabei die Schlussfolgerung nahe, dass die Stichprobengröße erinnerter Exemplare ausschlaggebend für die (zusätzliche) Verwendung der Recall-Estimate Strategie ist. In der zweiten Studie werden neuartige Vorhersagen über den Einfluss von Assoziationen auf Häufigkeitsschätzungen aus dem PASS-Modell abgeleitet und getestet. In zwei Experimenten wurden den Teilnehmern Wörter präsentiert, die untereinander entweder stark oder schwach assoziiert waren. Die Vorhersagen des PASS-Modells über die Häufigkeitsschätzungen zu diesem Stimulusmaterial wurden mit Hilfe von Simulationen gewonnen. In einem ersten Simulationsschritt erwarb PASS aus großen Textkorpora Assoziationen zwischen den Stimuluswörtern. Anschließend enkodierte das Modell die experimentellen Stimuluslisten. PASS erwartet, dass assoziierte Wörter höhere Schätzungen erhalten als nicht-assoziierte Wörter. Die Größe dieses Effekts sollte von der Präsentationshäufigkeit der Wörter unabhängig sein. Schließlich erwartet das Modell, dass die Häufigkeit assoziierter Wörter geringfügig schlechter diskriminiert wird als die Häufigkeit nicht-assoziierter Wörter. Diese Vorhersagen wurden in beiden Experimenten weitgehend bestätigt. Die Verwendung einer Recall-Estimate Strategie konnte dabei mit Hilfe von Reaktionszeitmessungen ausgeschlossen werden. Die Ergebnisse stützen damit die Annahme, dass die Enkodierung und Repräsentation von Häufigkeitsinformation auf assoziativem Lernen basiert.
329

UEFA Financial Fair Play : Regleringen av fotbolls-Europa

Bindå, Tobias, Carlgren, Robin January 2015 (has links)
Since 2011 UEFA, the managing organisation of European football, demands that all clubs wanting to participate in the two major European club football tournaments, UEFA Champions League and UEFA Europa League, has to abide by the rules for UEFA Financial Fair Play. This regulation was developed by UEFA to protect the long-term financial stability of European club football. The thesis focuses on the largely debated break-even requirement, to determine whether UEFA Financial Fair Play will come to affect the competitive balance between clubs in Europe. The main purpose of the study is to conclude whether UEFA Financial Fair Play has affected the market for football clubs and their opportunity to compete sporting success. Further, the study tries to determine if the critics of the regulation are right in saying that the rules preserve the existing power balance on the market. An analysis of the annual reports from 24 European football clubs of the last nine years has been conducted. The 24 clubs were chosen, from four of the biggest football leagues in Europe, by a stratified sampling. The theoretical framework of this study is based on three main theories. Associative competition, Rat-race-theory and regulation theory and these are used to analyse the results. Through hypothesis testing the study shows that, even though the regulation has had a positive effect on the clubs economical results, there are clear signs that the rules has made it harder for smaller clubs to challenge the big clubs for sporting success through economical investments. These results also conclude that the regulation contributes to conserve the existing balance in the market. / Sedan 2011 kräver UEFA, europeisk fotbolls styrande organ, att klubbar som vill delta i europeisk klubbfotbolls två största turneringar, UEFA Champions League och UEFA Europa League, följer regelverket UEFA Financial Fair Play. Detta är ett regelverk framtaget med syfte att förbättra den ekonomiska situationen inom europeisk klubbfotboll. Studien har utgått från det omdebatterade noll-resultat-kravet (Break-even requirement), för att se om UEFA Financial Fair Play kan komma att påverka den konkurrensmässiga situationen inom europeisk klubbfotboll. Syftet är att undersöka om UEFA:s införande av Financial Fair Play har påverkat marknaden för fotbollsklubbar och deras möjlighet att konkurrera om sportsliga framgångar. Vidare undersöks om detta indikerar att den kritik som riktats mot regelverket, att det cementerar befintliga maktstrukturer mellan klubbar, är rättfärdigad. Studien har genomförts genom analys av de nio senaste årens ekonomiska rapporter från 24 klubbar i fotbolls-Europa. Ett stratifierat urval har använts för att välja ut sex representanter var från fyra av Europas största ligor. Den teoretiska referensramen har utgått från associativ konkurrens, hyperaktivitet (rat-raceteorin) samt reglering för att kunna besvara studiens frågeställning och analysera empirin. Med hjälp av hypotesprövning visar undersökningen att, även om regelverket har haft en positiv påverkan på klubbarnas redovisade ekonomiska resultat, så finns det tydliga tendenser till att reglerna har försvårat möjligheterna för mindre klubbar att utmana storklubbar om sportslig framgång genom ekonomiska satsningar och att maktstrukturer på marknaden på så sätt cementeras.
330

Nikotinerger Einfluss auf die durch gepaarte assoziative Stimulation ausgelöste fokale inhibitorische Neuroplastizität bei Rauchern und Nichtrauchern / Nicotinergic impact on focal inhibitory neuroplasticity induced by Paired associative stimulation in smokers and non-smokers

Drees, Anne 28 January 2014 (has links)
Nikotin gilt als die Abhängigkeit verursachende Komponente im Zigarettenrauch. Zudem hat Nikotin einen Einfluss auf die Ausbildung von lang anhaltenden kortikalen Erregbarkeitsveränderungen. Diese als neuroplastisch bezeichneten Veränderungen gelten als neurophysiologische Grundlage von Lern- und Gedächtnisprozessen. Die kognitiven Fähigkeiten sind bei Rauchern im Nikotinentzug reduziert und bessern sich erst nach Nikotingabe wieder. Auch Nichtraucher zeigen verbesserte kognitive Leistungen nach Nikotingabe. Im Rahmen dieser Arbeit sollte untersucht werden, in welchem Maße nikotinerge Acetylcholin-Rezeptoren bei der Induktion von inhibitorischen kortikalen Erregbarkeitsveränderungen im menschlichen Gehirn eine Rolle spielen. Daher führten wir Versuche mit dem für diese Rezeptoren spezifischen Liganden Nikotin durch. Wir untersuchten den Einfluss von schnell anflutendem Nikotin in Form von Nasenspray und eines kontinuierlich hohen Nikotinspiegels in Form eines Nikotinpflasters auf inhibitorische kortikale Erregbarkeitsveränderungen bei Rauchern und Nichtrauchern. Für die Auslösung fokaler inhibitorischer Erregbarkeitsveränderungen verwendeten wir die gepaarte assoziative Stimulation (PAS). Mittels transkranieller Magnetstimulation wurden die kortikalen Exzitabilitätsveränderungen über die Änderung der MEP-Amplituden im Musculus abductor digiti minimi erfasst. Ohne Nikotin hatten sowohl Nichtraucher als auch Raucher die Fähigkeit zur Ausbildung von inhibitorischen kortikalen Erregbarkeitsveränderungen, wobei diese bei Rauchern im Nikotinentzug deutlich schlechter ausgeprägt waren als bei Nichtrauchern. Bei Nichtrauchern wurden die inhibitorischen Nacheffekte der PAS durch Nikotin aufgehoben bzw. vermindert, während sie bei Rauchern initial kürzer anhielten, später jedoch erneut auftraten. Unsere Ergebnisse zeigen, dass Nikotin eine wichtige Rolle bei der Ausbildung von inhibitorischen kortikalen Erregbarkeitsveränderungen spielt. Da diese als neuroplastisch bezeichneten Veränderungen als neurophysiologisches Korrelat für Lernvorgänge und Gedächtnis angesehen werden, lässt sich ein hierdurch vermittelter Einfluss von Nikotinabhängigkeit und Nikotinentzug auf kognitive Prozesse annehmen. Zudem nimmt Nikotin einen bedeutsamen Einfluss auf die durch zerebrale Stimulationsprotokolle wie die PAS ausgelösten Effekte.

Page generated in 0.0672 seconds