Spelling suggestions: "subject:"empirique""
11 |
Simulation aveugle large bande du mouvement sismiqueCausse, Mathieu 30 January 2009 (has links) (PDF)
Prédire les mouvements du sol "en aveugle", c'est-à-dire générés par un séisme futur, est essentiel pour anticiper les dommages causés aux bâtiments. Cette thèse propose deux nouvelles approches, fondées sur la technique des fonctions de Green empiriques (FGE), pour calculer le mouvement sismique dans un milieu complexe, sur une large gamme de fréquences, et à partir d'un processus de rupture sur la faille réaliste. La première méthode utilise une représentation simple de la source (modèle de "crack"). Dans la seconde, la rupture est décrite par un modèle cinématique complexe en "k-2". De plus, afin de calculer le mouvement sismique basse fréquence, les FGE bruitées en dessous de 1 Hz sont remplacées par des simulations numériques par éléments spectraux 3D.<br />La difficulté principale pour simuler "en aveugle" est le choix des paramètres de la source (chute de contrainte, point de nucléation,...), mal contraints, et qu'il faudra pourtant estimer a priori. Ce choix contrôle le niveau médian et la variabilité du mouvement sismique. La première solution testée consiste à déterminer directement les lois de distribution de ces paramètres à partir des résultats issus de l'inversion cinématique. Afin de garantir que les niveaux simulés sont réalistes, nous proposons dans un second temps de calibrer les simulations par FGE en un site de référence au rocher en utilisant un modèle de prédiction empirique.<br />Les différentes méthodes sont appliquées pour simuler dans le bassin grenoblois un séisme de magnitude 5.5 à 15 km. La comparaison aux normes EC8 montre que les spectres réglementaires sont dépassés en certains points du bassin sédimentaire, à 0.3 Hz et autour de 0.2 Hz.
|
12 |
Morphologie et énérgetique des surfaces vicinales de métaux de transitionBarreteau, Cyrille 07 September 2004 (has links) (PDF)
Etude Theorique de la morphologie et energetique des surfaces vicinales de metaux de transition, a l'aide de methodes de structure<br />elecrtonique et de potentiels empiriques. Une attention particuliere<br />est dediee a l'etude de la stabilite des surfaces vicinales vis a vis du facettage.
|
13 |
CONTRIBUTION A L'ETUDE DES TRANSFERTS DE MASSE AU NIVEAU DES JOINTS DE GEOMEMBRANE ET A L'INTERFACE ENTRE GEOMEMBRANE ET GEOSYNTHETIQUE BENTONITIQUEBARROSO, Madalena 23 March 2005 (has links) (PDF)
Les étanchéités composites sont utilisées pour limiter la migration des lixiviats à travers les barrières d'installations de stockage de déchets. Leur efficacité est étroitement liée à la géomembrane car cette ci agit comme une barrière primaire contre le transport diffusif et advectif des contaminants. Un point essentiel pour une bonne performance des géomembranes est la bonne qualité des soudures entre les lés de géomembranes ainsi que l'absence de défauts. Dans les barrières d'installations de stockage de déchets, où des géomembranes en polyéthylène haute densité sont le plus couramment utilisées, les soudures sont souvent effectuées par la méthode du double cordon. Une synthèse de la littérature sur le contrôle de la qualité des soudures, a démontré que, sur site, l'étanchéité des soudures est évaluée en termes qualitatifs (critères d'admission/défaillance), malgré leur importance pour assurer la performance adéquate des géomembranes en tant que barrières. D'autre part, une synthèse des études sur les défauts dans les géomembranes a démontré que leur densité est comprise en moyenne entre 0,7 à 15,3 par hectare dans les barrières d'installations de stockage de déchets. Les défauts représentent des passages préférentiels d'écoulement pour les lixiviats. Plusieurs auteurs ont développé des solutions analytiques et des équations empiriques pour prévoir l'écoulement au travers des étanchéités composites dus à des défauts dans la géomembrane. La validité de ces équations pour les étanchéités composites comportant une géomembrane associée à un géosynthétique bentonitique (GSB) placé sur une couche d'argile compactée (CCL) n'a jamais été étudiée, du point de vue expérimental. Une méthode d'essai a été élaborée pour évaluer la qualité des soudures effectuées par la méthode du double cordon, ici désignée comme "essais de perméabilité au gaz sur poche". Cet méthode d'essai consiste à pressuriser le conduit d'air résultant de l'élaboration du double cordon avec un gaz jusqu'à une pression spécifique et mesurer la réduction de la pression au cours du temps. A partir de la réduction de la pression on peut estimer les coefficients de perméation au gaz, en régime permanent, ainsi que la constante de temps, en régime transitoire. Des essais ont été effectués à la fois au laboratoire, et en extérieur avec des soudures exposées, pour étudier l'adéquation de cet essai à l'évaluation de la qualité des soudures sur site. Les résultats obtenus suggèrent qu'il est possible d'évaluer la qualité des soudures de géomembrane à partir d'un essai non-destructif effectué sur site moyennant la détermination de la constante de temps. Des essais à trois échelles différentes ont été réalisés avec des étanchéités composites comportant une géomembrane avec un trou circulaire surmontant un GSB pour étudier le problème de la migration des liquides au travers des défauts dans la géomembrane. Les débits à l'interface entre la géomembrane et le GSB ont été mesurés et la transmissivité de l'interface correspondante a été estimée. Une étude paramétrique a été effectuée pour évaluer l'influence de la pré-hydratation du GSB, de la charge hydraulique et de la contrainte mécanique appliquées sur l'étanchéité composite, ainsi que pour évaluer la viabilité de l'extrapolation des résultats obtenus dans des essais à petite échelle aux conditions de terrain. On a observé que la transmissivité ne semble pas être affectée par la pré hydratation des GSB quand des contraintes de confinement réduites ont été utilisées. La transmissivité ne semble pas non plus être influencée par l'augmentation de la contrainte de confinement quand on utilise des GSB, qui n'ont pas été préalablement hydratés. Finalement, la transmissivité ne semble pas être significativement affectée par l'augmentation de la charge hydraulique. Les résultats suggèrent aussi que les prévisions relatives aux débits au travers des étanchéités composites liés à l'existence de défauts dans la géomembrane, et basées sur les valeurs de transmissivité obtenues dans des essais à petite échelle représentent la limite supérieure des débits pouvant être observés. Finalement, à partir des valeurs de transmissivité obtenues dans cette étude, on a développé des équations empiriques pour prévoir le débit au travers des étanchéités composites comportant une géomembrane, un GSB et une CCL. Les débits calculés en utilisant les nouvelles équations proposées sont plus proches des résultats de mesure que les équations empiriques existantes. Ces nouvelles équations empiriques représentent donc pour l'ingénieur un outil validé par l'expérimentation de prévision des débits à travers les étanchéités composites.
|
14 |
Etude de la stabilité des surfaces vicinales des métaux de transition à partir de leur structure électronique et vibrationnelle.Raouafi, Faical 11 October 2002 (has links) (PDF)
Etude de la stabilité des surfaces vicinales des métaux de transition à partir de leur structure électronique et vibrationnelle. Ce travail théorique concerne l' étude des surfaces vicinales de Rh, Pd et Cu et, en particulier, de leur stabilité par rapport à un facettage. L'étude comporte trois parties. Elle commence par le calcul de leurs énergies de surface, effectué sur réseau fixe à 0K, à l'aide de la méthode de liaisons fortes dans une base d'orbitales atomiques de valence s, p et d. Ces énergies permettent d'extraire les énergies de marches isol\ées, dont on déduit la forme des îlots en homoépitaxie sur les surfaces de bas indices, et lesi nteractions entre marches qui présentent un profil oscillant. Leur comportement est très différent selon les types de marches et de surfaces. Les énergies de cran sont déterminées par la même méthode. La structure électronique est brièvement décrite. Puis les propriétés vibrationnelles des surfaces vicinales de Cuivre sont étudiées en utilisant un potentiel semi-empirique qui donne de bons résultats pour la relaxation des surfaces et décrit correctement, dans l'approximation harmonique, leur structure de bande projetée de phonons. Il est ainsi possible de déterminer des quantités thermodynamiques vibrationnelles, telles que le déplacement carré moyen et l'énergie libre. Enfin, la stabilité des surfaces vicinales est discutée à l'aide de potentiels semi-empiriques et de calculs de structure électronique. Il est montré que la stabilité peut s'inverser en fonction de la portée du potentiel et que la relaxation atomique joue en faveur de la stabilisation des surfaces mais ne change pas qualitativement les résultats. Contrairement aux potentiels semi-empiriques, les calculs de structure électronique montrent une grande diversité de comportements incluant la possibilité de facettage des surfaces vicinales en d'autres surfaces vicinales. Ce phénomène est dû aux interactions électroniques oscillantes entre marches. Enfin, il est prouvé que, jusqu'à l'ambiante, la température a un effet mineur sur la stabilité des surfaces vicinales.
|
15 |
Contribution à la formation à l'écrit en milieu professionnel. Le cas des métiers de la propretéChinours-Lachaud, Marie-Hélène 16 December 2011 (has links) (PDF)
Cette étude s'intéresse à la formation linguistique des salariés de premier niveau de qualification. Des travaux de recherche montrent que la part langagière occupe une place importante dans l'activité professionnelle des employés, y compris des moins qualifiés. Des formations dites " de base " sont mises en place depuis ces dernières décennies afin de procurer aux personnels qui ne les maîtriseraient pas, les compétences langagières utiles à l'exercice de leur activité professionnelle. Nous nous sommes interrogée sur ces formations. Sont-elles adaptées aux besoins des employés ? Répondent-elles à leurs demandes et à leurs besoins réels ? L'étude entreprise a eu pour but de comprendre comment ces employés utilisent leurs compétences langagières sur leur lieu de travail. Elle repose sur l'hypothèse que dans la formation des adultes, la question du langage au travail doit être élargie à la littéracie et plus particulièrement, à la raison graphique. Les métiers, comme celui d'agent de nettoyage, où la gestion du temps et de l'espace sont des éléments essentiels, constituent un cas intéressant. Les horaires particuliers, la durée de l'intervention et la présence des usagers nécessitent une gestion efficace du temps et de l'espace. Des stratégies spontanées issues de l'expérience sont mises en œuvre par ces employés pour être plus efficaces dans leur activité professionnelle et rendre le travail moins pénible. Les observations de terrain menées dans cette recherche, inspirées de l'ethnologie, montrent que ces travailleurs utilisent effectivement des " tactiques " au sens de M. de Certeau (1990). Mais ces manières de faire sont des compétences ignorées et non valorisées, ni par les employeurs ni par les formateurs. Ainsi cette recherche contribue à une meilleure connaissance du milieu professionnel et permet de proposer des pistes pour des formations linguistiques qui prendraient en considération leurs acquis. En effet, les résultats informent sur la place du langage dans l'activité de nettoyage ainsi que sur ce que l'on peut qualifier de logique au travail : mise au jour de manières de faire, d'astuces et de compétences ignorées ou masquées, pourtant essentielles à l'organisation du travail, notamment dans la gestion de l'espace et du temps.
|
16 |
Modélisation à l'échelle atomique de matériaux nucléaires du cycle du combustibleBertolus, Marjorie 25 October 2011 (has links) (PDF)
Ce mémoire d'habilitation à diriger des recherches présente le travail de recherche que j'ai effectué depuis 1999 au CEA Cadarache sur la modélisation à l'échelle atomique de différents matériaux nucléaires non métalliques impliqués dans le cycle du combustible : matériaux hôtes pour radioéléments issus des déchets nucléaires (apatites), matériaux combustibles (en particulier dioxyde d'uranium) et matériaux céramiques de gainage (carbure de silicium). Il s'agit de matériaux complexes à la limite des possibilités de la modélisation parce qu'ils contiennent des atomes lourds (lanthanides ou actinides), qu'ils présentent des structures ou des compositions chimiques complexes et/ou qu'ils subissent les effets de l'irradiation : création de défauts ponctuels et de produits de fission, amorphisation... L'objectif de mes études est d'obtenir une meilleure compréhension de la physique et de la chimie des processus élémentaires impliqués grâce à la modélisation à l'échelle atomique et à son couplage avec la modélisation aux échelles supérieures et les études expérimentales. Ce travail s'organise autour de deux axes principaux : d'une part les développements méthodologiques, l'adaptation et l'implémentation de méthodes et la validation des approximations utilisées ; d'autre part l'application de ces méthodes de modélisation à l'étude des matériaux nucléaires sous irradiation. Ce document contient une synthèse des études réalisées, les perspectives de recherche, un CV détaillé, ainsi qu'une liste de publications et de communications.
|
17 |
Etude empirique, modélisation et applications des trades à limites multiples dans les carnets d'ordre / Empirical study, modelling and applications of multiple limits trades in limit order booksPomponio, Fabrizio 14 December 2012 (has links)
Cette thèse étudie certains évènements particuliers des carnets d’ordre - les ”trades traversants”. Dans le premier chapitre, on définit les trades traversants comme étant ceux qui consomment la liquidité présente dans le carnet d’ordres sur plusieurs limites, sans laisser le temps à la meilleure limite de se remplir par l’arrivée de nouveaux ordres limites. On étudie leurs propriétés empiriques en fournissant des statistiques de liquidité, de volume, de distribution de leurs temps d’arrivées, de clustering et de relaxation du spread. Leur impact de marché est supérieur à celui des trades classiques, et ce même à volume comparable : les trades traversants présentent donc un contenu informationnel plus grand. On propose deux applications au problème du lead-lag entre actifs/marchés, d’abord pour répondre à la question de savoir quel actif bouge en premier, et ensuite pour mesurer la force du signal des trades traversants dans le cadre d’une stratégie d’investissement basée sur le lead-lag entre actifs. Le chapitre suivant approfondit l’étude empirique du clustering de l’arrivée des trades traversants. On y modélise leur arrivée par des processus stochastiques auto-excités (les processus de Hawkes). Une étude statistique de la calibration obtenue avec des modèles à noyaux exponentiels pour la décroissance temporelle de l’impact est menée et assure une modélisation satisfaisante avec deux processus indépendants, un pour le bid et un pour l’ask. La classe de modèles proposée à la calibration est bien adaptée puisqu’il n’existe pas d’effet inhibiteur après l’arrivée d’un trade traversant. On utilise ces résultats pour calculer un indicateur d’intensité basé sur l’arrivée des trades traversants, et améliorer ainsi une stratégie d’investissement de type ”momentum”. Enfin, une calibration non-paramétrique du noyau de décroissance temporel d’impact fournit une décroissance empirique encore plus forte qu’une loi exponentielle, et davantage proche d’une loi-puissance. Le dernier chapitre rappelle une méthode générale de détection statistique de sauts dans des séries temporelles de prix/rendements qui soit robuste au bruit de microstructure. On généralise les résultats empiriques connus à de nouveaux indices financiers. On adapte cette méthode de détection statistique de sauts à des trajectoires intraday afin d’obtenir la distribution de la proportion de sauts détectés au cours de la journée. Les valeurs extrémales et les plus grandes variations de cette proportion se déroulent à des heures précises de la journée (14 :30, 15 :00 et 16 :30, heure de Paris), déjà rencontrées dans l’étude des trades traversants. Grâce à eux, on propose une explication des caractéristiques principales du profil intraday de la proportion de sauts détectés par le test, qui s’appuie sur une modification de la part relative de chacune des composantes de sauts dans la trajectoire des actifs considérés (la composante des mouvements continus et celle liée aux mouvements de sauts purs). / This thesis aims at studying particular events occurring in the limit order books - the ’tradesthrough’. In the first chapter, we define trades-through as those who consume the liquidity available on several limits of the limit order book, without waiting for the best limit to be filled with new incoming limit orders. We study their empirical properties and present statistics about their liquidity, their volume, their arrival time distribution, their clustering and the spread relaxation that follows their arrival. Their market-impact is higher than the one of the other trades, even with a comparable trading volume : trades-through have a higher informational content. We present two applications linked to the lead-lag between assets/markets : to find which asset moves first, and also to measure the trades-through intensity signal in a simple trading strategy based on lead-lag. The next chapter goes into more detail about the trades-through arrival time clustering. We model their arrival time with self-excited stochastic processes (Hawkes processes). A statistical study of the calibration obtained with models based on exponential-decay kernels for the temporal impact ensures a satisfactory modelling with two independent processes, one for the bid and one for the ask. The model class under scrutiny for the calibration is well-adapted as no inhibitory effects are measured after trades-through arrival. We use those results to compute an intensity indicator based on trades-through arrival, and thus we enhance a simple trading strategy that relies on them. Finally, a non-parametric calibration of the empirical decay kernel for the temporal impact of trades-through indicates a decrease faster than exponential, and closer to a power-law. The last chapter recalls a general statistical method robust to market microstructure noise to find jumps in prices/returns time series. We generalize the empirical results already known in the literature to new financial indices and we adapt this statistical jump detection method to intraday trajectories in order to obtain the intraday proportion of detected jumps. Extreme values and biggest intraday variations of this jump proportion occurs at very specific hours of the day (14:30, 15:00 and 16:30, Paris time reference), already linked with trades-through. Using trades-through, we explain the main characteristics of the intraday proportion of detected jumps with the test using a modification in the relative importance of each jump component in the assets trajectories (the continuous moves component and the pure-jumps component).
|
18 |
Définition des mouvements sismiques "au rocher"LAURENDEAU, Aurore 16 July 2013 (has links) (PDF)
L'objectif de cette thèse vise à améliorer la définition des vibrations (" mouvement sismique ") sur des sites " durs " (sédiments raides ou rochers) liés à des scénarios (séismes de magnitude entre 5 et 6.5, distances inférieures à 50 kilomètres) représentatifs du contexte métropolitain français. Afin de contraindre ces mouvements sismiques sur sites " durs ", une base de données accélérométriques a été construite, à partir des enregistrements accélérométriques japonais K-NET et KiK-net qui ont l'avantage d'être publiques, nombreux et de grande qualité. Un modèle de prédiction des mouvements sismiques (spectre de réponse en accélération) a été conçu à partir de cette nouvelle base. La comparaison entre modèles théoriques et observations montre la dépendance des vibrations sur sites rocheux à la fois aux caractéristiques de vitesse du site (paramètre classique décrivant la vitesse des ondes S dans les 30 derniers mètres) et aux mécanismes d'atténuation hautes fréquences (un phénomène très peu étudié jusque-là). Ces résultats confirment une corrélation entre ces deux mécanismes (les sites rocheux les plus mous atténuent plus le mouvement sismique à hautes fréquences) et nous proposons un modèle de prédiction du mouvement sismique prenant en compte l'ensemble des propriétés du site (atténuation et vitesse). Les méthodes nouvelles de dimensionnement dynamiques non linéaires (à la fois géotechniques et structurelles) ne se satisfont pas des spectres de réponse mais requièrent des traces temporelles. Dans le but de générer de telles traces temporelles, la méthode stochastique non stationnaire développée antérieurement par Pousse et al. 2006 a été revisitée. Cette méthode semi-empirique nécessite de définir au préalable les distributions des indicateurs clés du mouvement sismique. Nous avons ainsi développé des modèles de prédiction empiriques pour la durée de phase forte, l'intensité d'Arias et la fréquence centrale, paramètre décrivant la variation du contenu fréquentiel au cours du temps. Les nouveaux développements de la méthode stochastique permettent de reproduire des traces temporelles sur une large bande de fréquences (0.1-50 Hz), de reproduire la non stationnarité en temps et en fréquence et la variabilité naturelle des vibrations sismiques. Cette méthode présente l'avantage d'être simple, rapide d'exécution et de considérer les bases théoriques de la sismologie (source de Brune, une enveloppe temporelle réaliste, non stationnarité et variabilité du mouvement sismique). Dans les études de génie parasismique, un nombre réduit de traces temporelles est sélectionné, et nous analysons dans une dernière partie l'impact de cette sélection sur la conservation de la variabilité naturelle des mouvements sismiques.
|
19 |
Vers un nouvel outil d'étude de la reconnaissance hôte-ligand : conception de nouveaux inhibiteurs de PDE4 guidée par docking quantique, synthèse et évaluation biologique / Toward a new tool of host-ligand recognition : design of new PDE4 inhibitors guided by quantum docking, synthesis and biological evaluationBarberot, Chantal 06 December 2013 (has links)
Dans la recherche de nouveaux traitements des maladies broncho-pulmonaires comme l'asthme et la broncho-pneumopathie chronique obstructive, les inhibiteurs de PDE4 sont des cibles intéressantes. Dans cette voie, notre laboratoire s'intéresse à la synthèse d'une nouvelle famille d'inhibiteurs à base pyridazinone. Pour cela, cette thèse couple la modélisation moléculaire (docking : développement méthodologique et application), la synthèse organique ainsi que des tests biologiques.Dans un premier temps, le développement du logiciel d'amarrage moléculaire AlgoGen a été poursuivi. AlgoGen (créé initialement à l'université de Lorraine en 2009) est un logiciel qui couple un algorithme génétique pour la recherche conformationnelle à une évaluation de l'énergie protéine-ligand à un niveau quantique semi-empirique alors que les autres logiciels existant effectuent ce calcul à un niveau classique en général. Le calcul d'une énergie à un niveau quantique est très coûteux en temps. C'est pourquoi, nous avons apporté de nombreuses modifications à ce logiciel afin d'accroître son efficacité dans la recherche conformationnelle. Ce logiciel a ensuite été utilisé sur un jeu de 22 dimères (typiques des reconnaissances moléculaires biologiques) et à huit systèmes protéine-ligand.Dans un deuxième temps, huit inhibiteurs ont été synthétisés et testés in vitro sur la cible PDE4. Pour compléter ce volet expérimental, une étude de structure-activité a été effectuée grâce au docking moléculaire (AlgoGen, Autodock, Glide) pour rationaliser les activités mesurées (IC50). Pour terminer, des pharmaco-modulations guidées par docking ont été réalisées afin de proposer de nouveaux inhibiteurs de plus grandes affinités avec la protéine PDE4D. / For the research of new treatment of bronchopulmonary diseases such as asthma and chronic obstructive pulmonary disease (COPD), the PDE4 inhibitors are an attractive target. Our laboratory is interested in a new PDE4 inhibitors family based on the pyridazinone pattern. For this purpose, this thesis couples molecular modeling (docking: methodological development and application), organic synthesis and biological tests.First, the development of the molecular docking software AlgoGen was continued. AlgoGen (initially created at university of Lorraine in 2009) is a program which couples a genetic algorithm for the conformational research and a protein-ligand energy evaluation at the quantum semi-empirical level while other software do this evaluation at a classical level. Quantum energy calculations are very time consuming. That is the reason why some modifications have been made to improve its efficiency for the conformational search. This software was then used for calculations on a set of 22 dimers (typical in biological molecular recognition) as well on 8 ligand-protein complexes.Secondly, eight inhibitors were synthesized and tested in vitro on the PDE4 target. To complete the experimental part, a structure-activity relationship study was carried out through a molecular docking to rationalize the measured activity (IC50). Finally, pharmaco-modulations guided by docking were made to propose new inhibitors with more affinity with the protein.
|
20 |
Contribution à l'efficacité de la programmation par objets : evaluation des implémentations de l'héritage multiple en typage statique / Assesment of multiple inheritance implentation in static typingMorandat, Floréal 17 December 2010 (has links)
Cette thèse traite de la compilation efficace des langages à objets en héritage multiple. La programmation objet est caractérisée par un mécanisme fondamental, emph{la liaison tardive} --- la méthode appelée dépend du type dynamique d'un paramètre distingué, le emph{receveur}. L'efficacité de ce mécanisme nécessite une implémentation adéquate qui est conditionnée par le schéma de compilation utilisé --- compilation séparée avec chargement dynamique, compilation globale, etc. Cependant la programmation par objets présente une apparente incompatibilité entre trois termes : l'héritage multiple, l'efficacité et l'owa --- en particulier, le chargement dynamique. Nous avons étudié les techniques d'implémentation compatibles avec l'héritage multiple couramment utilisées ainsi qu'une alternative prometteuse, le ph. Nous nous plaçons dans le cadre du typage statique, donc nos conclusions peuvent valoir pour des langages comme cpp, eiffel, java, csharp, etc. Différents schémas de compilation sont considérés, de l'owa à l'cwa. Ces techniques et ces schémas ont été mis en uvre dans le compilateur auto-gène du langage prm. L'influence sur l'efficacité de tous ces éléments a été testée dans un protocole expérimental rigoureux de méta-compilation et les tests ont été réalisés sur une variété de processeurs différents. Les résultats des ces expérimentations sont discutés et comparés aux évaluations a priori effectuées sur les techniques d'implémentation. Ils confirment aussi que le ph est une technique d'implémentation intéressante pour le sous-typage multiple à la java. / His thesis is about efficient compilation of object oriented language with multiple inheritance.Object oriented programing is characterized by a main mechanism, emph{late binding} --- invoked method only depends on the dynamic type of one special parameter, the emph{receiver}.In order to be efficient this mechanism needs an implementation which depends on some compilation scheme --- separate compilation with dynamic loading, global compilation, etc.However object oriented programming present akin of incompatibility between three terms: multiple inheritance, efficiency and open world assumption --- especially with dynamic loading.In this thesis, we have studied common implementation techniques compatible with multiple inheritance and a promising alternative, perfect class hashing.The context of this study is static typing, our conclusion holds for languages like cpp, eiffel, java, csharp, etc.Different compilation schemes are considered, from open world assumption to closed world assumption.These techniques and schemes are implemented in the prm bootstraped compiler.Efficiency influence of all this artifacts has been tested with a rigorous meta-compilation experimental protocol and these tests have been performed on a variety of different processors.Results of these experiments are discuss and compared to an a priori evaluations of implementations techniquesThey mainly confirm perfect class hashing as an interesting implementation for multiple subtyping, a la java.
|
Page generated in 0.2522 seconds