321 |
N-ary algebras. Arithmetic of intervals / Algèbres n-aires. Arithémtiques des intervallesGoze, Nicolas 26 March 2011 (has links)
Ce mémoire comporte deux parties distinctes. La première partie concerne une étude d'algèbres n-aires. Une algèbre n-aire est un espace vectoriel sur lequel est définie une multiplication sur n arguments. Classiquement les multiplications sont binaires, mais depuis l'utilisation en physique théorique de multiplications ternaires, comme les produits de Nambu, de nombreux travaux mathématiques se sont focalisés sur ce type d'algèbres. Deux classes d'algèbres n-aires sont essentielles: les algèbres n-aires associatives et les algèbres n-aires de Lie. Nous nous intéressons aux deux classes. Concernant les algèbres n-aires associatives, on s'intéresse surtout aux algèbres 3-aires partiellement associatives, c'est-à-dire dont la multiplication vérifie l'identité ((xyz)tu)+(x(yzt)u)+(xy(ztu))=0 Ce cas est intéressant car les travaux connus concernant ce type d'algèbres ne distinguent pas les cas n pair et n-impair. On montre dans cette thèse que le cas n=3 ne peut pas être traité comme si n était pair. On étudie en détail l'algèbre libre 3-aire partiellement associative sur un espace vectoriel de dimension finie. Cette algèbre est graduée et on calcule précisément les dimensions des 7 premières composantes. On donne dans le cas général un système de générateurs ayant la propriété qu'une base est donnée par la sous famille des éléments non nuls. Les principales conséquences sont L'algèbre libre 3-aire partiellement associative est résoluble. L'algèbre libre commutative 3-aire partiellement associative est telle que tout produit concernant 9 éléments est nul. L'opérade quadratique correspondant aux algèbres 3-aires partiellement associatives ne vérifient pas la propriété de Koszul. On s'intéresse ensuite à l'étude des produits n-aires sur les tenseurs. L'exemple le plus simple est celui d'un produit interne sur des matrices non carrées. Nous pouvons définir le produit 3aire donné par A . ^tB . C. On montre qu'il est nécessaire de généraliser un peu la définition de partielle associativité. Nous introduisons donc les produits -partiellement associatifs où est une permutation de degré p. Concernant les algèbres de Lie n-aires, deux classes d'algèbres ont été définies: les algèbres de Fillipov (aussi appelées depuis peu les algèbres de Lie-Nambu) et les algèbres n-Lie. Cette dernière notion est très générale. Cette dernière notion, très important dans l'étude de la mécanique de Nambu-Poisson, est un cas particulier de la première. Mais pour définir une approche du type Maurer-Cartan, c'est-à-dire définir une cohomologie scalaire, nous considérons dans ce travail les algèbres de Fillipov comme des algèbres n-Lie et développons un tel calcul dans le cadre des algèbres n-Lie. On s'intéresse également à la classification des algèbres n-aires nilpotentes. Le dernier chapitre de cette partie est un peu à part et reflète un travail poursuivant mon mémoire de Master. Il concerne les algèbres de Poisson sur l'algèbre des polynômes. On commence à présenter le crochet de Poisson sous forme duale en utilisant des équations de Pfaff. On utilise cette approche pour classer les structures de Poisson non homogènes sur l’algèbre des polynômes à trois variables . Le lien avec les algèbres de Lie est clair. Du coup on étend notre étude aux algèbres de Poisson dont l'algèbre de Lie sous jacent est rigide et on applique les résultats aux algèbres enveloppantes des algèbres de Lie rigides. La partie 2 concerne l'arithmétique des intervalles. Cette étude a été faite suite à une rencontre avec une société d'ingénierie travaillant sur des problèmes de contrôle de paramètres, de problème inverse (dans quels domaines doivent évoluer les paramètres d'un robot pour que le robot ait un comportement défini). [...] / This thesis has two distinguish parts. The first part concerns the study of n-ary algebras. A n-ary algebra is a vector space with a multiplication on n arguments. Classically the multiplications are binary, but the use of ternary multiplication in theoretical physic like for Nambu brackets led mathematicians to investigate these type of algebras. Two classes of n-ary algebras are fundamental: the associative n-ary algebras and the Lie n-ary algebras. We are interested by both classes. Concerning the associative n-ary algebras we are mostly interested in 3-ary partially associative 3-ary algebras, that is, algebras whose multiplication satisfies ((xyz)tu)+(x(yzt)u)+(xy(ztu))=0. This type is interesting because the previous woks on this subject was not distinguish the even and odd cases. We show in this thesis that the case n=3 can not be treated as the even cases. We investigate in detail the free partially associative 3-ary algebra on k generators. This algebra is graded and we compute the dimensions of the 7 first components. In the general case, we give a spanning set such as the sub family of non zero vector is a basis. The main consequences are the free partially associative 3-ary algebra is solvable. In the free commutative partially associative 3-ary algebra any product on 9 elements is trivial. The operad for partially associative 3-ary algebra do not satisfy the Koszul property. Then we study n-ary products on the tensors. The simplest example is given by a internal product of non square matrices. We can define a 3-ary product by taking A . ^tB . C. We show that we have to generalize a bit the definition of partial associativity for n-ary algebras. We then introduce the products -partially associative where is a permutation of the symmetric group of degree n. Concerning the n-ary algebras, two classes have been defined: Filipov algebras (also called recently Lie-Nambu algebras) and some more general class, the n-Lie algebras. Filipov algebras are very important in the study of the mechanic of Nambu-Poisson, and is a particular case of the other. So to define an approach of Maurer-Cartan type, that is, define a scalar cohomology, we consider in this work Fillipov as n-Lie algebras and develop such a calculus in the n-Lie algebras frame work. We also give some classifications of n-ary nilpotent algebras. The last chapter of this part concerns my work in Master on the Poisson algebras on polynomials. We present link with the Lie algebras is clear. Thus we extend our study to Poisson algebras which associated Lie algebra is rigid and we apply these results to the enveloping algebras of rigid Lie algebras. The second part concerns intervals arithmetic. The interval arithmetic is used in a lot of problems concerning robotic, localization of parameters, and sensibility of inputs. The classical operations of intervals are based of the rule : the result of an operation of interval is the minimal interval containing all the result of this operation on the real elements of the concerned intervals. But these operations imply many problems because the product is not distributive with respect the addition. In particular it is very difficult to translate in the set of intervals an algebraic functions of a real variable. We propose here an original model based on an embedding of the set of intervals on an associative algebra. Working in this algebra, it is easy to see that the problem of non distributivity disappears, and the problem of transferring real function in the set of intervals becomes natural. As application, we study matrices of intervals and we solve the problem of reduction of intervals matrices (diagonalization, eigenvalues, and eigenvectors).
|
322 |
Synthèse et étude de polymères thermo-associatifs pour le domaine des lubrifiants / Synthesis and study of thermo-associative polymers for lubricantsDerouineau, Thibault 13 December 2017 (has links)
Le contrôle de la viscosité des lubrifiants moteur est un enjeu clé dans la réduction de la consommation en carburant des moteurs thermiques. Une nouvelle approche basée sur l’utilisation de polymères thermo-associatifs a été développée pour diminuer la perte de viscosité naturelle des lubrifiants avec la température. Pour ce faire, des polymères complémentaires de faibles masses molaires (pour l’application moteur visée) qui peuvent s’associer réversiblement via la réaction d’échange diol-ester boronique lorsque la température augmente ont été conçus et synthétisés. Les faibles masses molaires des polymères et le caractère dynamique de la liaison ester boronique permettent de diminuer la sensibilité de ces systèmes aux forts cisaillements présents dans le moteur, en limitant notamment la rhéofluidification de ces lubrifiants. L’association des polymères est provoquée par l’augmentation d’accessibilité des fonctions portées par les polymères avec la température. L’association réversible des polymères thermo-associatifs a été mise en évidence dans les huiles apolaires par l’augmentation de la viscosité relative des solutions avec la température sur plusieurs cycles de chauffage-refroidissement. Une partie de l’étude a été consacrée à l’amélioration de la stabilité thermique des polymères dans le but de maintenir les bonnes propriétés lubrifiantes des formulations jusqu’à 150°C. Un grand nombre de polymères de natures, de tailles et d’architectures différentes ont été synthétisés. L’étude rhéologique en écoulement de ces polymères seuls et en formulations thermo-associatives a permis de mettre en évidence l’importance de ces différents leviers pour faire varier et contrôler les propriétés des solutions en fonction de la température. / Controlling the viscosity of engine lubricants is a key issue to reduce the fuel consumption of engines. A new approach based on the use of thermo-associative polymers has been developed in order to compensate the natural loss of viscosity of lubricants when the temperature increases. To this aim, complementary low molecular weight polymers (for engine targeted application) that can reversibly associate with temperature through the diol-boronic ester exchange reaction have been designed and synthesized. The low molecular weights of the polymers and the dynamic behavior of the boronic ester bond decrease the high shear sensitivity of the system and so limits the shear-thinning behavior of the lubricant. The increase of polymeric function availability as the temperature rises induces polymer association. The reversibility of the thermo-associative association of polymers in non polar oil is seen over several cycles of warming-cooling with the increase of the relative viscosity of the solutions with increasing temperature. Part of the study was also dedicated to the improvement of polymers’ thermal stability in order to maintain the good lubricant properties of the thermo-associative formulations up to 150°C. Many polymers of different natures, sizes and topologies have been synthesized. The flow behavior of these polymers in both individual state in solution or in thermo-associative formulations was studied by rheology, thus enabling to determine the impact of these levers on the solutions properties as a function of temperature.
|
323 |
La récupération du nom propre d'une personne : éléments fondamentaux sur les informations sémantiques en mémoire et éléments appliqués pour la prise en charge de la maladie d'Elzheimer.Germain, Veronique 28 May 2013 (has links)
Pouvoir identifier la personne en face de soi et être capable de retrouver son nom apparaissent des activités indispensables aux interactions sociales quotidiennes. Or, le nom propre s‟avère être une information spécifique comparée aux autres informations disponibles sur une personne. La récupération de cette information est souvent décrite comme difficile. Pour autant, si les auteurs s‟accordent sur la spécificité du nom propre, l‟examen de l‟organisation en mémoire du nom propre et des informations sémantiques liées aux personnes sera l‟objet de ce travail. De plus, l‟accès aux informations sémantiques s‟avère déficitaire dans la maladie d‟Alzheimer.Une première expérience a permis d‟élaborer un matériel normé sur 210 visages/noms, permettant la sélection précise de stimuli. Afin d'étudier la question de l‟organisation en mémoire des informations sémantiques et plus particulièrement l‟information nom propre, deux études comportementales et trois études électrophysiologiques ont été menées. Dans les deux dernières études, nous avons travaillé sur l‟apprentissage et le maintien en mémoire de l‟information spécifique nom propre auprès d‟une population Alzheimer. La discussion des différents résultats s‟appuie sur les connaissances théoriques actuelles sur le sujet. / Being able to identify the person in front of us and being able to remember his or her name appear to be essential activities to daily social interactions. However, compared to other available information related to a person, the proper name seems to be specific information. Proper name retrieval has been very often described as particularly difficult. Although this work aims to study the organization of semantic information in memory, and more specifically the proper name information. Moreover, access to semantic information is known be deficient for Alzheimer disease.A first study has allowed to develope out a standardized material of 210 faces/names, permitting an accurate selection of stimuli. Two behavioural and three electrophysiological studies have been carried out to study the organization of semantic information in memory, and more specifically the proper name. For the last two experiments, we have worked on learning and how to keep specific information « proper name » into memory for Alzheimer‟s disease patients. Discussion of the different results is based on current theorical knowledge on the subject.
|
324 |
Calcul de motifs sous contraintes pour la classification superviséeGay, Dominique 30 November 2009 (has links) (PDF)
Ces dernières années, l'extraction de motifs locaux (itemsets fréquents et règles d'association) a suscité beaucoup d'entrain pour la classification supervisée. Cette thèse traite du calcul et de l'usage de motifs sous contraintes pour la classification supervisée. Nous nous attaquons à deux problèmes difficiles en classification supervisée à base de motifs et proposons deux contributions méthodologiques : D'un côté, lorsque les attributs sont bruités, les performances des classifieurs peuvent être désastreuses. Les méthodes existantes consistent à corriger les valeurs d'attributs ou supprimer les objets bruités -- ce qui génère une perte d'information. Dans ce mémoire, nous proposons une méthode générique de construction de descripteurs robustes au bruit d'attributs -- sans modifier les valeurs d'attributs ni supprimer les objets bruités. Notre approche se déroule en deux étapes : premièrement nous extrayons l'ensemble des règles delta-fortes de caractérisation. Ces règles offrent des propriétés de corps minimal, de non-redondance et sont basées sur les itemsets delta-libres et leur delta-fermeture -- qui ont déjà fait leur preuve pour la caractérisation de groupements dans des contextes bruités. Deuxièmement, nous construisons un nouveau descripteur numérique robuste pour chaque règle extraite. Les expérimentations menées dans des données bruitées, montrent que des classifieurs classiques sont plus performants en terme de précision sur les données munies des nouveaux descripteurs que sur les données avec les attributs originaux. D'autre part, lorsque la distribution des classes est inégale, les approches existantes de classification à base de motifs ont tendance à être biaisées vers la classe majoritaire. La précision sur la (ou les) classe(s) majoritaire(s) est alors élevée au détriment de la précision sur la (ou les) classe(s) minoritaire(s). Nous montrons que ce problème est dû au fait que les approches existantes ne tiennent pas compte de la répartition des classes et/ou de la fréquence relative des motifs dans chacune des classes de la base. Pour pallier ce problème, nous proposons un nouveau cadre de travail dans lequel nous extrayons un nouveau type de motifs : les règles de caractérisation One-Versus-Each (OVE-règles). Ce nouveau cadre de travail nécessite le paramétrage d'un nombre conséquent de seuils de fréquence et d'infréquence. Pour ce faire, nous proposons un algorithme d'optimisation de paramètres, fitcare ainsi qu'un algorithme d'extraction d'OVE-règles. Les expérimentations menées sur des données UCI multi-classes disproportionnées et sur des données de diagnostic de méningite aigüe, montrent que notre approche fitcare est plus performante que les approches existantes en terme de précision sur les classes mineures. L'application de notre méthode de classification associative à l'analyse de données d'érosion des sols en Nouvelle-Calédonie a mis en évidence l'intérêt de notre proposition pour caractériser les phénomènes d'érosion.
|
325 |
Heuristisk profilbaserad optimering av instruktionscache i en online Just-In-Time kompilator / Heuristic Online Profile Based Instruction Cache Optimisation in a Just-In-Time CompilerEng, Stefan January 2004 (has links)
<p>This master’s thesis examines the possibility to heuristically optimise instruction cache performance in a Just-In-Time (JIT) compiler. </p><p>Programs that do not fit inside the cache all at once may suffer from cache misses as a result of frequently executed code segments competing for the same cache lines. A new heuristic algorithm LHCPA was created to place frequently executed code segments to avoid cache conflicts between them, reducing the overall cache misses and reducing the performance bottlenecks. Set-associative caches are taken into consideration and not only direct mapped caches. </p><p>In Ahead-Of-Time compilers (AOT), the problem with frequent cache misses is often avoided by using call graphs derived from profiling and more or less complex algorithms to estimate the performance for different placements approaches. This often results in heavy computation during compilation which is not accepted in a JIT compiler. </p><p>A case study is presented on an Alpha processor and an at Ericsson developed JIT Compiler. The results of the case study shows that cache performance can be improved using this technique but also that a lot of other factors influence the result of the cache performance. Such examples are whether the cache is set-associative or not; and especially the size of the cache highly influence the cache performance.</p>
|
326 |
Data Distribution Management In Large-scale Distributed EnvironmentsGu, Yunfeng 15 February 2012 (has links)
Data Distribution Management (DDM) deals with two basic problems: how to distribute data generated at the application layer among underlying nodes in a distributed system and how to retrieve data back whenever it is necessary. This thesis explores DDM in two different network environments: peer-to-peer (P2P) overlay networks and cluster-based network environments. DDM in P2P overlay networks is considered a more complete concept of building and maintaining a P2P overlay architecture than a simple data fetching scheme, and is closely related to the more commonly known associative searching or queries. DDM in the cluster-based network environment is one of the important services provided by the simulation middle-ware to support real-time distributed interactive simulations. The only common feature shared by DDM in both environments is that they are all built to provide data indexing service. Because of these fundamental differences, we have designed and developed a novel distributed data structure, Hierarchically Distributed Tree (HD Tree), to support range queries in P2P overlay networks. All the relevant problems of a distributed data structure, including the scalability, self-organizing, fault-tolerance, and load balancing have been studied. Both theoretical analysis and experimental results show that the HD Tree is able to give a complete view of system states when processing multi-dimensional range queries at different levels of selectivity and in various error-prone routing environments. On the other hand, a novel DDM scheme, Adaptive Grid-based DDM scheme, is proposed to improve the DDM performance in the cluster-based network environment. This new DDM scheme evaluates the input size of a simulation based on probability models. The optimum DDM performance is best approached by adapting the simulation running in a mode that is most appropriate to the size of the simulation.
|
327 |
Data Distribution Management In Large-scale Distributed EnvironmentsGu, Yunfeng 15 February 2012 (has links)
Data Distribution Management (DDM) deals with two basic problems: how to distribute data generated at the application layer among underlying nodes in a distributed system and how to retrieve data back whenever it is necessary. This thesis explores DDM in two different network environments: peer-to-peer (P2P) overlay networks and cluster-based network environments. DDM in P2P overlay networks is considered a more complete concept of building and maintaining a P2P overlay architecture than a simple data fetching scheme, and is closely related to the more commonly known associative searching or queries. DDM in the cluster-based network environment is one of the important services provided by the simulation middle-ware to support real-time distributed interactive simulations. The only common feature shared by DDM in both environments is that they are all built to provide data indexing service. Because of these fundamental differences, we have designed and developed a novel distributed data structure, Hierarchically Distributed Tree (HD Tree), to support range queries in P2P overlay networks. All the relevant problems of a distributed data structure, including the scalability, self-organizing, fault-tolerance, and load balancing have been studied. Both theoretical analysis and experimental results show that the HD Tree is able to give a complete view of system states when processing multi-dimensional range queries at different levels of selectivity and in various error-prone routing environments. On the other hand, a novel DDM scheme, Adaptive Grid-based DDM scheme, is proposed to improve the DDM performance in the cluster-based network environment. This new DDM scheme evaluates the input size of a simulation based on probability models. The optimum DDM performance is best approached by adapting the simulation running in a mode that is most appropriate to the size of the simulation.
|
328 |
Decisions as PerformativesMurray, Dylan 21 April 2010 (has links)
Decisions are performatives - or at least, they share important features with performative utterances that can elucidate our theory of what type of thought they are, and what they do. Namely, decisions have an analogous force to that of performatives, where the force of a propositional attitude or utterance is constituted by (i) its point, or purpose, which is mainly a matter of its direction-of-fit, and (ii) its felicity conditions. The force of both decisions and performatives is to bring into being the states of affairs represented in their intentional contents, merely in virtue of the decision or performative’s occurrence and the satisfaction of the felicity conditions they presuppose. The first chapter of the thesis explicates this general framework, and the second and third attempt to show some of the work it can do for a theory of decisions.
|
329 |
Memory Processes in Frequency Judgment: The impact of pre-experimental frequencies and co-occurrences on frequency estimates.Renkewitz, Frank 12 August 2004 (has links) (PDF)
Contemporary theories on frequency processing have been developed in different sub-disciplines of psychology and have shown remarkable discrepancies. Thus, in judgment and decision making, frequency estimates on serially encoded events are mostly traced back to the availability heuristic (Tversky & Kahneman, 1973). Evidence for the use of this heuristic comes from several popular demonstrations of biased frequency estimates. In the area of decision making, these demonstrations led to the conclusion that frequency judgments were generally error-prone. On the other hand, in memory literature detailed computational memory models are used to explain frequency estimates. Although these models to some degree differ evidently in their specific representational assumptions, they all arrive at the basic prediction that frequency estimates should usually be quite accurate but regressed. This prediction was confirmed in numerous studies. However, up to now there have been no systematic efforts in memory literature to identify factors that cause biases in frequency judgments and to explain the demonstrations of erroneous estimates in the area of decision making.
The two studies presented in this thesis pursue the questions whether memory models are able to explain errors in frequency judgments and to generate new predictions about biasing factors. In the focus of the first series of experiments is the "famous-names effect": If participants are presented with a list of names of female and male persons, then the frequency of that sex is overestimated that was represented with more famous names on the list. As more famous names are additionally recalled better, this effect was usually explained with the availability heuristic. An alternative account was suggested within the framework of the associationist-model PASS (Sedlmeier, 1999) and the multiple-trace model MINERVA-DM (Dougherty et al., 1999). According to this, the effect is primarily caused by the different pre-experimental frequencies of famous and non-famous names. If this is correct, the famous-names effect should generalize to any stimulus material. This hypothesis was tested in four experiments. The predictions of the memory models were compared with the predictions of a recall-estimate version of the availability heuristic (e.g. Watkins & LeCompte, 1991). Contrary to the predictions of all tested approaches, the participants were mostly able to judge the frequencies of the presented categories approximately correctly. The results indicate furthermore that systematic biases only occurred if the participants based their judgments at least partially on the recall-estimate strategy. However, as the participants only did this in exceptional cases the entire result pattern is explained best within a multiple strategy perspective (Brown, 2002). A re-analysis of the data from all four experiments suggests that the size of the sample of retrieved exemplars is the crucial factor for the (additional) use of the recall-estimate strategy.
In the second study new predictions about the influence of associations on frequency estimates are derived from the PASS-model and tested. In two experiments words that were either strongly or weakly associated with each other were presented to the participants. Predictions of the PASS model for the frequency estimates about this stimulus material were gained by means of simulations. In a first step PASS acquired associations between the stimulus words from a large text corpus. Subsequently, the model encoded the experimental study lists. PASS expects higher frequency judgments for associated than for non-associated words. The size of this effect should be independent of the actual presentation frequencies of the words. Finally, the model expects that the frequencies of associated words are discriminated slightly worse than the frequencies of non-associated words. These predictions were largely confirmed in both experiments. The decision times required by the participants to generate their estimates indicate here that they did not base their judgments on the recall-estimate strategy. The results thus strengthen the assumption that the encoding and representation of frequency information are based on associative learning. / Aktuelle Theorien zur Häufigkeitsverarbeitung wurden in unterschiedlichen Teilgebieten der Psychologie entwickelt und weisen erstaunliche Diskrepanzen auf. So werden Häufigkeitsschätzungen über seriell enkodierte Ereignisse in der Urteils- und Entscheidungsforschung zumeist auf die Verfügbarkeitsheuristik (Tversky & Kahneman, 1973) zurückgeführt. Evidenz für die Verwendung dieser Heuristik stammt aus einigen populären Demonstrationen fehlerhafter Häufigkeitsschätzungen. Diese Demonstrationen führten in der Entscheidungsforschung zu der Schlussfolgerung, dass Häufigkeitsurteile generell fehleranfällig seien. Demgegenüber wurden in der Gedächtnispsychologie detaillierte, computerimplementierte Gedächtnismodelle benutzt, um Häufigkeitsschätzungen zu erklären. Obwohl sich diese Modelle in ihren spezifischen Repräsentationsannahmen zum Teil deutlich unterscheiden, kommen sie alle zu der grundlegenden Vorhersage, dass Häufigkeitsschätzungen in der Regel recht genau, aber regrediert sein sollten. Diese Vorhersage wurde in zahlreichen Untersuchungen bestätigt. In der gedächtnispsychologischen Forschung hat es jedoch bisher kein systematisches Bemühen gegeben, Faktoren, die zu Verzerrungen in Häufigkeitsschätzungen führen, zu identifizieren und die Demonstrationen fehlerhafter Schätzungen aus der Entscheidungsforschung zu erklären.
Die zwei in der vorliegenden Arbeit präsentierten Studien verfolgen die Fragestellung, inwieweit Gedächtnismodelle in der Lage sind, Fehler in Häufigkeitsurteilen zu erklären und neue Vorhersagen über verzerrende Faktoren zu generieren. Im Mittelpunkt der ersten Serie von Experimenten steht dabei der "Famous-Names Effekt": Nach der Präsentation einer Liste mit Namen weiblicher und männlicher Personen wird die Häufigkeit desjenigen Geschlechts überschätzt, das mit berühmteren Namen auf der Liste vertreten war. Da berühmtere Namen zudem besser erinnert werden, wurde dieser Effekt gewöhnlich auf die Verfügbarkeitsheuristik zurückgeführt. Eine Alternativerklärung wurde sowohl im Rahmen des assoziationistischen PASS-Modells (Sedlmeier, 1999) als auch innerhalb des Exemplarmodells MINERVA-DM (Dougherty et al., 1999) vorgeschlagen. Demnach wird der Effekt primär durch die unterschiedliche prä-experimentelle Häufigkeit berühmter und nicht-berühmter Namen verursacht. Ist diese Annahme korrekt, so sollte der Famous-Names Effekt auch auf anderes Stimulusmaterial generalisieren. Diese Hypothese wurde in vier Experimenten überprüft. Dabei wurden die Vorhersagen der Gedächtnismodelle mit den Vorhersagen einer "Recall-Estimate" Version der Verfügbarkeitsheuristik (z. B. Watkins & LeCompte, 1991) verglichen. Entgegen den Vorhersagen aller getesteten Ansätze waren die Teilnehmer in der Regel in der Lage, die Häufigkeit der verwendeten Kategorien recht gut einzuschätzen. Die Ergebnisse sprechen zudem dafür, dass systematische Fehler in den Häufigkeitsurteilen nur dann auftraten, wenn sich die Teilnehmer bei der Generierung ihrer Schätzungen zumindest teilweise auf die Recall-Estimate Strategie stützten. Da die Teilnehmer dies jedoch nur in Ausnahmefällen taten, kann das gesamte Ergebnismuster am besten innerhalb einer "Multiple Strategy Perspective" (Brown, 2002) erklärt werden. Eine Reanalyse der Daten aus allen vier Experimenten legt dabei die Schlussfolgerung nahe, dass die Stichprobengröße erinnerter Exemplare ausschlaggebend für die (zusätzliche) Verwendung der Recall-Estimate Strategie ist.
In der zweiten Studie werden neuartige Vorhersagen über den Einfluss von Assoziationen auf Häufigkeitsschätzungen aus dem PASS-Modell abgeleitet und getestet. In zwei Experimenten wurden den Teilnehmern Wörter präsentiert, die untereinander entweder stark oder schwach assoziiert waren. Die Vorhersagen des PASS-Modells über die Häufigkeitsschätzungen zu diesem Stimulusmaterial wurden mit Hilfe von Simulationen gewonnen. In einem ersten Simulationsschritt erwarb PASS aus großen Textkorpora Assoziationen zwischen den Stimuluswörtern. Anschließend enkodierte das Modell die experimentellen Stimuluslisten. PASS erwartet, dass assoziierte Wörter höhere Schätzungen erhalten als nicht-assoziierte Wörter. Die Größe dieses Effekts sollte von der Präsentationshäufigkeit der Wörter unabhängig sein. Schließlich erwartet das Modell, dass die Häufigkeit assoziierter Wörter geringfügig schlechter diskriminiert wird als die Häufigkeit nicht-assoziierter Wörter. Diese Vorhersagen wurden in beiden Experimenten weitgehend bestätigt. Die Verwendung einer Recall-Estimate Strategie konnte dabei mit Hilfe von Reaktionszeitmessungen ausgeschlossen werden. Die Ergebnisse stützen damit die Annahme, dass die Enkodierung und Repräsentation von Häufigkeitsinformation auf assoziativem Lernen basiert.
|
330 |
UEFA Financial Fair Play : Regleringen av fotbolls-EuropaBindå, Tobias, Carlgren, Robin January 2015 (has links)
Since 2011 UEFA, the managing organisation of European football, demands that all clubs wanting to participate in the two major European club football tournaments, UEFA Champions League and UEFA Europa League, has to abide by the rules for UEFA Financial Fair Play. This regulation was developed by UEFA to protect the long-term financial stability of European club football. The thesis focuses on the largely debated break-even requirement, to determine whether UEFA Financial Fair Play will come to affect the competitive balance between clubs in Europe. The main purpose of the study is to conclude whether UEFA Financial Fair Play has affected the market for football clubs and their opportunity to compete sporting success. Further, the study tries to determine if the critics of the regulation are right in saying that the rules preserve the existing power balance on the market. An analysis of the annual reports from 24 European football clubs of the last nine years has been conducted. The 24 clubs were chosen, from four of the biggest football leagues in Europe, by a stratified sampling. The theoretical framework of this study is based on three main theories. Associative competition, Rat-race-theory and regulation theory and these are used to analyse the results. Through hypothesis testing the study shows that, even though the regulation has had a positive effect on the clubs economical results, there are clear signs that the rules has made it harder for smaller clubs to challenge the big clubs for sporting success through economical investments. These results also conclude that the regulation contributes to conserve the existing balance in the market. / Sedan 2011 kräver UEFA, europeisk fotbolls styrande organ, att klubbar som vill delta i europeisk klubbfotbolls två största turneringar, UEFA Champions League och UEFA Europa League, följer regelverket UEFA Financial Fair Play. Detta är ett regelverk framtaget med syfte att förbättra den ekonomiska situationen inom europeisk klubbfotboll. Studien har utgått från det omdebatterade noll-resultat-kravet (Break-even requirement), för att se om UEFA Financial Fair Play kan komma att påverka den konkurrensmässiga situationen inom europeisk klubbfotboll. Syftet är att undersöka om UEFA:s införande av Financial Fair Play har påverkat marknaden för fotbollsklubbar och deras möjlighet att konkurrera om sportsliga framgångar. Vidare undersöks om detta indikerar att den kritik som riktats mot regelverket, att det cementerar befintliga maktstrukturer mellan klubbar, är rättfärdigad. Studien har genomförts genom analys av de nio senaste årens ekonomiska rapporter från 24 klubbar i fotbolls-Europa. Ett stratifierat urval har använts för att välja ut sex representanter var från fyra av Europas största ligor. Den teoretiska referensramen har utgått från associativ konkurrens, hyperaktivitet (rat-raceteorin) samt reglering för att kunna besvara studiens frågeställning och analysera empirin. Med hjälp av hypotesprövning visar undersökningen att, även om regelverket har haft en positiv påverkan på klubbarnas redovisade ekonomiska resultat, så finns det tydliga tendenser till att reglerna har försvårat möjligheterna för mindre klubbar att utmana storklubbar om sportslig framgång genom ekonomiska satsningar och att maktstrukturer på marknaden på så sätt cementeras.
|
Page generated in 0.0911 seconds