• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 28
  • 15
  • 1
  • Tagged with
  • 42
  • 42
  • 29
  • 27
  • 11
  • 11
  • 9
  • 8
  • 8
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Strategy for Selecting Input Ground Motion for Structural Seismic Demand Analysis / Élaboration de Stratégies de Sélection de Signaux Accélérométriques pour le Calcul du Comportement des Structures

Isbiliroglu, Levent 01 March 2018 (has links)
Les signaux accélérométriques enregistrés lors de l’occurrence d’un événement sismique est très large présentent une forte variabilité, par conséquent ils ne sont pas utilisé dans les analyse dynamiques de tenue sismique des structures. En effet, l’utilisation des accélérogrammes réels, pour les analyses dynamiques non linéaires, s’avère couteuse en termes de temps de calcul. La pratique courante prévoit la minimisation (voir suppression) de telle variabilité, mais les conséquences d’une telle opération sur la réponse des structures ne sont pas clairement indiquées. L’étude ci-présente a pour scope la quantification de l’impact des méthodes de sélection qui gardent la variabilité du signal sur les résultats de l’analyse de la réponse des structures (exprimée en termes d’engineering demand parameters EDPs). En particulier les questions suivantes seront investiguées :Quel est le niveau de variabilité des accélérogrammes réels et comment ce niveau est modifié par les techniques couramment utilisées ?Quelle est l’impact de la variabilité sur la réponse de plusieurs types de structures ?Pour un scénario sismique donné, un spectre cible est défini à partir de plusieurs équation de prédiction du mouvement sismique, sélection parmi celles disponibles en littérature. Les accélérogrammes sont sélectionnés à partir de quatre familles d’accélérogrammes, chacune relative à une méthode de modification : réels (enregistrés); mise à l’échelle (multiplication, par un facteur) ; calés aux spectres cibles avec large tolérance ; calés aux spectres cibles dans une plage de tolérance étroite.Chaque jeu de signaux est composé de cinq accélérogrammes et la sélection des signaux est faite en tenant compte de deux sources de variabilité : la variabilité au sein de chaque jeu de données (intraset), et la variabilité entre les différents jeux de données (interset) tous compatibles avec le même spectre cible. Les tests sur les EDPs menés sur les signaux accélérométriques réels mènent à la quantification de la variabilité naturelle (pour le scénario considéré). Les analyses basées sur les signaux réels sont utilisés comme benchmark afin d’évaluer non seulement de combien la distribution des EDPs (en termes de valeur moyenne et variabilité) est réduite par les différentes méthodes testées, mais aussi d’évaluer l’impact des choix de l’équation de prédiction du mouvement, des plages de tolérance, du nombre d’accélérogrammes constituant chaque jeu, du nombre de jeux, de le scope de l’analyse structurale et le modèle de structure.Ce travaille nous conduit à conclure que un seul jeu d’accélérogramme, tel qu’utilisé dans la pratique courante, est insuffisant pour assurer le niveau d’EDPs indépendamment de la méthode de modification utilisés, cela est lié à la variabilité des signaux et entre les jeux d’accélérogrammes. Les signaux réels, compatibles avec le spectre définis pour le scénario sismique, are l’option plus réaliste pour l’analyse dynamique non-linéaire ; si une méthode de modification du signal est nécessaire, la plus adaptées dépend du scope de l’analyse spectrale et du modèle. Le choix de l’équation de prédiction du mouvement sismique utilisée pour définir le spectre cible impacte significativement les caractéristiques des mouvements sismiques et des EDPs. Cette observation ne dépend pas de la stratégie de de modification du signal. / The observed variability is very large among natural earthquake records, which are not consolidated in the engineering applications due to the cost and the duration. In the current practice with the nonlinear dynamic analysis, the input variability is minimized, yet without clear indications of its consequences on the output seismic behavior of structures. The study, herein, aims at quantifying the impact of ground motion selection with large variability on the distribution of engineering demand parameters (EDPs) by investigating the following questions:What is the level of variability in natural and modified ground motions?What is the impact of input variability on the EDPs of various structural types?For a given earthquake scenario, target spectra are defined by ground motion prediction equations (GMPEs). Four ground motion modification and selection methods such as (1) the unscaled earthquake records, (2) the linearly scaled real records, (3) the loosely matched spectrum waveforms, and (4) the tightly matched waveforms are utilized. The tests on the EDPs are performed on a record basis to quantify the natural variability in unscaled earthquake records and the relative changes triggered by the ground motion modifications.Each dataset is composed by five accelerograms; the response spectrum compatible selection is then performed by considering the impact of set variability. The intraset variability relates to the spectral amplitude dispersion in a given set, and the interset variability relates to the existence of multiple sets compatible with the target.The tests on the EDPs are performed on a record basis to quantify the natural variability in unscaled earthquake records and the relative changes triggered by the ground motion modifications. The distributions of EDPs obtained by the modified ground motions are compared to the observed distribution by the unscaled earthquake records as a function of ground motion prediction equations, objective of structural analysis, and structural models.This thesis demonstrates that a single ground motion set, commonly used in the practice, is not sufficient to obtain an assuring level of the EDPs regardless of the GMSM methods, which is due to the record and set variability. The unscaled real records compatible with the scenario are discussed to be the most realistic option to use in the nonlinear dynamic analyses, and the ‘best’ ground motion modification method is demonstrated to be based on the EDP, the objective of the seismic analysis, and the structural model. It is pointed out that the choice of a GMPE can provoke significant differences in the ground motion characteristics and the EDPs, and it can overshadow the differences in the EDPs obtained by the GMSM methods.
32

Énergie recyclée par conversion chimique pour application à la combustion dans le domaine aérospatial (ERC3) / Energy recovery by means of chemical conversion for use in aerospace combustion

Taddeo, Lucio 24 October 2017 (has links)
Le refroidissement actif par endocarburant permet d’assurer la tenue thermique d’un superstatoréacteur pour le vol hypersonique. Néanmoins, l’utilisation de cette technologie de refroidissement passe par la maitrise du couplage combustion – pyrolyse, qui fait de la définition d’une stratégie de contrôle du moteur un véritable défi. Une étude expérimentale a été réalisée afin d’analyser l’effet du paramètre de commande principal, le débit de combustible, sur des paramètres de sorties pertinents, à l’aide d’un dispositif de test spécifiquement conçu pour appréhender le couplage combustion – pyrolyse. Ceci a permis d’étudier la dynamique d’un circuit régénératif par rapport à ce paramètre de commande. Une étude cinétique paramétrique sur la pyrolyse du carburant a été conduite en parallèle de celle expérimentale afin d’affiner l’analyse et améliorer l’interprétation des expériences. La décomposition du carburant utilisé pour les tests (éthylène) a été prise en compte grâce à un mécanisme cinétique détaillé (153 espèces, 1185 réactions chimiques). / Regenerative cooling is a well-known cooling technique, suitable to ensure scramjets thermal protection. The development of regeneratively cooled engines using an endothermic propellant is a challenging task, especially because of the strong coupling between fuel decomposition and combustion, which makes the definition of an engine regulation strategy very hard. An experimental study, aiming at identifying the effect of fuel mass flow rate variations on a fuel cooled-combustor in terms of system dynamics has been carried out. A remotely controlled fuel-cooled combustor, designed by means of CDF calculations and suitable for the experimental analysis of combustion-pyrolysis coupling, has been used. In order to improve tests results analysis, a parametric study to characterize fuel decomposition has also been realized. The pyrolysis has been modeled by using a detailed kinetic mechanism (153 species, 1185 chemical reactions).
33

Identification of behavioral and creational design patterns through dynamic analysis

NG, Janice Ka-Yee January 2008 (has links)
No description available.
34

Caractérisation et détection de malware Android basées sur les flux d'information. / Characterization and detection of Android malware based on information flows

Andriatsimandefitra Ratsisahanana, Radoniaina 15 December 2014 (has links)
Les flux d’information sont des transferts d’information entre les objets d’un environnement donné. À l’échelle du système, pour toute information appartenant à une application donnée, les flux impliquant cette information décrivent comment l’application propage ses données dans le système et l’ensemble de ces flux peut ainsi être considéré comme un profil comportemental de l’application. À cause du nombre croissant d’applications malveillantes, il est devenu nécessaire d’explorer des nouvelles techniques permettant de faciliter voir automatiser l’analyse et la détection de malware. Dans cette thèse, nous proposons ainsi une méthode pour caractériser et détecter les malware Android en nous basant sur les flux d’information qu’ils causent dans le système. Cette méthode repose sur deux autres contributions de la thèse : AndroBlare, la version Android d’un moniteur de flux d’information du nom de Blare, et les graphes de flux système, une structure de donnée représentant de manière compacte et humainement compréhensible les flux d’information observés. Nous avons évalué avec succès notre approche en construisant le profil de 4 malware différents et avons montré que ces profils permettaient de détecter l’exécution d’applications infectées par les malware dont on a un profil. / : Information flows are information exchanges between objects in a given environment. At system level, information flows involving data belonging to a given application describe how this application disseminates its data in the system and can be considered as behaviour based profile of the application. Because of the increasing number of Android malware, there is an urgent need to explore new approaches to analyse and detect Android malware. In this thesis, we thus propose an approach to characterize and detect Android malware based on information flows they cause in the system. This approach leverages two other contributions of the thesis which are AndroBlare, the Android version of an information flow monitor named Blare, and the system flow graph, a data structure to represent in a compact and human readable way the information flows observed by AndroBlare. We successfully evaluated our approach by building the profile of 4 different malware and showed that these profiles permitted to detect the execution of applications infected by malware for which we have computed a profile.
35

Modelisation des maisons à ossature en bois et remplissage en terre / Modeling of timber frame structures with infilling subjected to earthquake excitation

Al-Gusab, Hussein Ali Hussein 20 April 2018 (has links)
Un modèle simplifié aux éléments finis a été proposé pour l'analyse des structures à ossature bois avec remplissage en pierres et mortier de terre en utilisant des modèles de comportement hystérétique pour les assemblages et certains éléments structuraux. Trois échelles différentes ont été définies pour l'identification et la validation des modèles hystérétiques: celle de l'assemblage, celle du mur de cisaillement et enfin celle de la structure complète en vraie grandeur. Le modèle calibré a été utilisé pour vérifier la correcte résistance aux séismes d'une maison traditionnelle Haïtienne à un étage ainsi que pour concevoir un exemple de bâtiment à deux étages utilisant les mêmes dispositifs constructifs. / A simplified finite element model was proposed for the analysis of timber-framed structures with infilling of rocks and clay morter by using hysteretic constitutive models for joints and structural elements. Three different scales were defined for the identification and validation of hysteretic models: connection, shear wall and full-scale building; comparisons of numerical and test results were performed at each scale. The calibrated model allowed assessing the earthquake-resistant performance of a traditional Haitian one-storey house and could be used for the design of a two-storey house.
36

Matériaux composites à renfort végétal pour l'amélioration des performances de systèmes robotiques / Vegetal fiber reinforced composites for improving performance of robotic systems

Nguyen, Anh vu 21 October 2015 (has links)
L’amélioration des performances des robots est un enjeu important dans le domaine industriel. Les objectifs visés sont l’augmentation de l’espace de travail, de la capacité de charge transportable, de la vitesse de travail et de la précision du robot. Pour atteindre ces objectifs, il faut en général augmenter la rigidité, diminuer la masse et augmenter la capacité d’amortissement du robot. Les robots actuels sont généralement fabriqués en métaux : aluminium ou acier, ce qui limite leurs performances en raison des faibles capacités d’amortissement des vibrations de ces matériaux. Les matériaux composites présentent l’avantage de combiner des matériaux différents, ce qui conduit à une variété de leurs performances. Parmi les types de renforts, les fibres de carbone présentent un module d’élasticité élevé permettant la conception de pièces de grandes rigidités statiques mais elles possèdent une faible capacité d’amortissement. Les fibres végétales, par contre, possèdent une faible densité, de bonnes propriétés spécifiques et des capacités d’amortissement élevées. Cette thèse porte sur l’amélioration des performances d’un robot parallèle 3CRS en utilisant des matériaux composites pour reconcevoir des pièces initialement fabriquées en aluminium. La thèse commence d’abord par une caractérisation des comportements statiques et dynamiques du robot initial constitué de bras en aluminium. Ensuite, la forme des segments des bras robotiques est optimisée par rapport aux sollicitations mécaniques sur le robot. Un nouveau composite stratifié hybride renforcé par des fibres de carbone et des fibres de lin est alors proposé. Cette combinaison permet d’allier les avantages des deux types de fibres dans un composite pour le dimensionnement des composants sous sollicitation élevée. La structure de ce nouveau composite a été optimisée puis un segment est fabriqué pour valider la conception. Finalement, l’étude du nouveau robot avec des bras en matériaux composites a été réalisée, les résultats montrent que la rigidité du robot augmente, sa masse diminue légèrement et sa capacité d’amortissement augmente considérablement par rapport au robot initial. Donc, l’application du composite stratifié hybride peut améliorer les performances statiques et dynamiques et augmenter significativement la précision en fonctionnement du robot 3CRS. / Improvement of the robot’s performances is a major challenge in the industrial field. In general, improvement objectives are increasing workspace, transportable capacity, speed and precision of the robot. To achieve these objectives, it must increase rigidity, reduce weight and increase damping capacity of the robot. Currently, the robots are generally made of metals: aluminum or steel, which limits their performances due to low damping capacity of these materials.Composite materials present an advantage to combine different materials, which leads to a variety of composite material properties. Among the types of reinforcements, carbon fibers show high modulus that enables robotic parts with high static rigidities to be designed. However, carbon fibers have generally a low damping capacity. Natural fibers have low density, good specific properties and high damping capacity.This thesis focuses on the improvement of the performances of the 3CRS parallel robot by using the composite material to redesign robot parts initially made of aluminum. The thesis begins with static and dynamic characterizations of the original robot. Then, the shape of segments of the robotic arms is optimized with respect to applying force on the robot. A hybrid laminated composite reinforced with carbon fibers and flax fibers is proposed for the use. This combination enables to combine the advantages of two fiber types in a composite for using in high loaded components. The structure of the new hybrid laminated composite is optimized and a composite segment is then fabricated in order to validate the design. Finally, the analysis of the new robot with composite arms is executed. The result shows that the new robot has a slightly higher rigidity, lighter mass and considerably greater damping capacity in comparison with the original robot. Therefore, the application of the hybrid composite could improve the static and dynamic performances and increases considerably the accuracy in operation of the robot 3CRS.
37

Méthodes avancées d'évaluation des charges de vent sur les structures de concentrateurs solaires

Kaabia, Bassem January 2017 (has links)
L’énergie solaire photovoltaïque concentré (CPV) est une solution de remplacement prometteuse aux structures solaires conventionnelles. Ce type de structure modulable doit être optimisé afin d’être compétitif par rapport aux autres types de production d’énergie. Les forces de vent demeurent la première préoccupation dans la conception de la structure porteuse en acier d’un tel système. L’objectif principal de cette recherche est d’assembler des outils numériques et analytiques afin de prédire les caractéristiques de sa réponse dynamique sous charges de vent turbulent. La maîtrise de cette étape est essentielle afin d’étudier d’une façon plus générique des solutions d’optimisation de la structure support par rapport à sa réponse dynamique sous charges de vent. Pour ce faire, la méthodologie principale de cette étude est composée en trois parties : (i) étude expérimentale à grandeur nature de la réponse globale sous les conditions réelles du vent ; (ii) développement des modèles d’analyse numérique dans lesquels les caractéristiques de structures réelles et des modèles de forces aérodynamiques adéquates sont prises en compte ; (iii) application des outils développés dans une étude paramétrique pour évaluer plusieurs solutions à partir de cas d’étude dans le contexte d’une conception préliminaire. Cette thèse est présentée sous forme de deux articles qui ont été soumis dans des revues évaluées par des comités de lecture ainsi que d’un article soumis et présenté dans un congrès international qui démontrent les contributions de cette recherche pour améliorer les pratiques de calcul des charges de vent sur des structures de concentration solaire non conventionnelles. Ces articles sont présentés comme suit (a) Étude expérimentale à échelle réelle de la réponse d’un prototype de concentrateur solaire sous charges de vent. Ce premier article a permis la validation de calcul des coefficients de forces aérodynamiques statiques et la révision des hypothèses de l’application du code ASCE 7-10 pour prédire les forces maximales agissant sur la structure dans la direction du vent ; (b) l’analyse temporelle de la réponse dynamique d’une structure de concentrateur solaire sous charges de vent. Cette étude a montré que le modèle et la méthode d’analyse développés selon des hypothèses simplifiées permettaient de prédire correctement les caractéristiques statistiques de la réponse dynamique mesurée en cohérence avec la méthode spectrale stochastique ; (c) Étude des effets des configurations structurales et des paramètres de vent sur l’optimisation de structure solaires sous charges de vent. Cette étude paramétrique a mis en évidence l’importance de l’effet des paramètres structuraux et ceux définissant le vent sur l’optimisation de la conception structural pour ce type de structure. Des recommandations pour optimiser l’action dynamique dans une phase de conception préliminaire ont été proposées. Ce projet de recherche a démontré finalement l’importance d’étudier d’une façon juste et pratique la réponse dynamique sous charges de vent qui mène à résoudre des préoccupations d’optimisation liées à différents types de structures d’énergie solaire en adoptant des hypothèses pratiques pour les ingénieurs. / Abstract : Concentrated Solar Photovoltaic (CPV) is a promising alternative to conventional solar structures. These solar traking structures need to be optimized to be competitive against other types of energy production. Wind action is the main concern in the design of the steel support structure of such movable system. The main purpose of this research is to assemble advanced numerical and analytical tools that allows realistic dynamic study of structures under wind loading. This help to study accurately optimized alternative in term of selecting structural and wind site conditions parameters. The methodology of the present study involves three main steps : (i) experimental full-scale study of the global response under real life wind conditions ; (ii) numerical modeling that captures the characteristics of the real structures and include the aerodynamic force models to conduct time-domain dynamic analyses ; (iii) preliminary design application that include the study of the effect of stuctural and wind parameters in optimizing the dynamic wind action and consequently the steel support structure. The thesis is presented as an ensemble of three articles written for refereed journals and a conference that showcase the contributions of the present study to thoroughly understand the wind load effect on these nonconventionnel structures. The articles presented are as follow (a) full-scale measurement of the response of a CPV tracker structure prototype under wind load. The results presented in this first article help design engineers to evaluate the use of the aerodynamic force coefficients for calculating wind load on similar structures and to apply properly the ASCE7-10 in evaluating the maximum design wind force using the equivalent static approach ; (b) time-domain analysis of solar concentrator structure under gust wind. This study showed that the developed time-domain model using simplified hypothesis could successfully predict the statistical parameters of the measured dynamic response in coherence with the stochastic spectral approach ; (c) effect of structure configurations and wind characteristics on the design of solar concentrator support structure under dynamic wind action. This parametric study highlighted the importance of selecting structural and wind parameters in order to minimize the dynamic action and the steel support structure. Recommendations for optimizing dynamic wind action in a preliminary design phase were proposed. The present research project has shown the need to study accurately wind response to solve optimization concerns related to different type of solar system structures. In addition, this study proposes simplified methods that are useful for practical engineers when there is the need to solve similar problems.
38

Généralisation de l’analyse de performance décrémentale vers l’analyse différentielle / Generalization of the decremental performance analysis to differential analysis

Bendifallah, Zakaria 17 September 2015 (has links)
Une des étapes les plus cruciales dans le processus d’analyse des performances d’une application est la détection des goulets d’étranglement. Un goulet étant tout évènement qui contribue à l’allongement temps d’exécution, la détection de ses causes est importante pour les développeurs d’applications afin de comprendre les défauts de conception et de génération de code. Cependant, la détection de goulets devient un art difficile. Dans le passé, des techniques qui reposaient sur le comptage du nombre d’évènements, arrivaient facilement à trouver les goulets. Maintenant, la complexité accrue des micro-architectures modernes et l’introduction de plusieurs niveaux de parallélisme ont rendu ces techniques beaucoup moins efficaces. Par conséquent, il y a un réel besoin de réflexion sur de nouvelles approches.Notre travail porte sur le développement d’outils d’évaluation de performance des boucles de calculs issues d’applications scientifiques. Nous travaillons sur Decan, un outil d’analyse de performance qui présente une approche intéressante et prometteuse appelée l’Analyse Décrémentale. Decan repose sur l’idée d’effectuer des changements contrôlés sur les boucles du programme et de comparer la version obtenue (appelée variante) avec la version originale, permettant ainsi de détecter la présence ou pas de goulets d’étranglement.Tout d’abord, nous avons enrichi Decan avec de nouvelles variantes, que nous avons conçues, testées et validées. Ces variantes sont, par la suite, intégrées dans une analyse de performance poussée appelée l’Analyse Différentielle. Nous avons intégré l’outil et l’analyse dans une méthodologie d’analyse de performance plus globale appelée Pamda.Nous décrirons aussi les différents apports à l’outil Decan. Sont particulièrement détaillées les techniques de préservation des structures de contrôle du programme,ainsi que l’ajout du support pour les programmes parallèles.Finalement, nous effectuons une étude statistique qui permet de vérifier la possibilité d’utiliser des compteurs d’évènements, autres que le temps d’exécution, comme métriques de comparaison entre les variantes Decan / A crucial step in the process of application performance analysis is the accurate detection of program bottlenecks. A bottleneck is any event which contributes to extend the execution time. Determining their cause is important for application developpers as it enable them to detect code design and generation flaws.Bottleneck detection is becoming a difficult art. Techniques such as event counts,which succeeded to find bottlenecks easily in the past, became less efficient because of the increasing complexity of modern micro-processors, and because of the introduction of parallelism at several levels. Consequently, a real need for new analysis approaches is present in order to face these challenges.Our work focuses on performance analysis and bottleneck detection of computeintensive loops in scientific applications. We work on Decan, a performance analysis and bottleneck detection tool, which offers an interesting and promising approach called Decremental Analysis. The tool, which operates at binary level, is based on the idea of performing controlled modifications on the instructions of a loop, and comparing the new version (called variant) to the original one. The goal is to assess the cost of specific events, and thus the existence or not of bottlenecks.Our first contribution, consists of extending Decan with new variants that we designed, tested and validated. Based on these variants, we developed analysis methods which we used to characterize hot loops and find their bottlenecks. Welater, integrated the tool into a performance analysis methodology (Pamda) which coordinates several analysis tools in order to achieve a more efficient application performance analysis.Second, we introduce several improvements on the Decan tool. Techniquesdeveloped to preserve the control flow of the modified programs, allowed to use thetool on real applications instead of extracted kernels. Support for parallel programs(thread and process based) was also added. Finally, our tool primarily relying on execution time as the main concern for its analysis process, we study the opportunity of also using other hardware generated events, through a study of their stability, precision and overhead
39

Combiner approches statique et dynamique pour modéliser la performance de boucles HPC / Combining static and dynamic approaches to model loop performance in HPC

Palomares, Vincent 21 September 2015 (has links)
La complexité des CPUs s’est accrue considérablement depuis leurs débuts, introduisant des mécanismes comme le renommage de registres, l’exécution dans le désordre, la vectorisation, les préfetchers et les environnements multi-coeurs pour améliorer les performances avec chaque nouvelle génération de processeurs. Cependant, la difficulté a suivi la même tendance pour ce qui est a) d’utiliser ces mêmes mécanismes à leur plein potentiel, b) d’évaluer si un programme utilise une machine correctement, ou c) de savoir si le design d’un processeur répond bien aux besoins des utilisateurs.Cette thèse porte sur l’amélioration de l’observabilité des facteurs limitants dans les boucles de calcul intensif, ainsi que leurs interactions au sein de microarchitectures modernes.Nous introduirons d’abord un framework combinant CQA et DECAN (des outils d’analyse respectivement statique et dynamique) pour obtenir des métriques détaillées de performance sur des petits codelets et dans divers scénarios d’exécution.Nous présenterons ensuite PAMDA, une méthodologie d’analyse de performance tirant partie de l’analyse de codelets pour détecter d’éventuels problèmes de performance dans des applications de calcul à haute performance et en guider la résolution.Un travail permettant au modèle linéaire Cape de couvrir la microarchitecture Sandy Bridge de façon détaillée sera décrit, lui donnant plus de flexibilité pour effectuer du codesign matériel / logiciel. Il sera mis en pratique dans VP3, un outil évaluant les gains de performance atteignables en vectorisant des boucles.Nous décrirons finalement UFS, une approche combinant analyse statique et simulation au cycle près pour permettre l’estimation rapide du temps d’exécution d’une boucle en prenant en compte certaines des limites de l’exécution en désordre dans des microarchitectures modernes / The complexity of CPUs has increased considerably since their beginnings, introducing mechanisms such as register renaming, out-of-order execution, vectorization,prefetchers and multi-core environments to keep performance rising with each product generation. However, so has the difficulty in making proper use of all these mechanisms, or even evaluating whether one’s program makes good use of a machine,whether users’ needs match a CPU’s design, or, for CPU architects, knowing how each feature really affects customers.This thesis focuses on increasing the observability of potential bottlenecks inHPC computational loops and how they relate to each other in modern microarchitectures.We will first introduce a framework combining CQA and DECAN (respectively static and dynamic analysis tools) to get detailed performance metrics on smallcodelets in various execution scenarios.We will then present PAMDA, a performance analysis methodology leveraging elements obtained from codelet analysis to detect potential performance problems in HPC applications and help resolve them. A work extending the Cape linear model to better cover Sandy Bridge and give it more flexibility for HW/SW codesign purposes will also be described. It will bedirectly used in VP3, a tool evaluating the performance gains vectorizing loops could provide.Finally, we will describe UFS, an approach combining static analysis and cycle accurate simulation to very quickly estimate a loop’s execution time while accounting for out-of-order limitations in modern CPUs
40

Probabilistic studies in number theory and word combinatorics : instances of dynamical analysis / Études probabilistes en théorie des nombres et combinatoire des mots : exemples d’analyse dynamique

Rotondo, Pablo 27 September 2018 (has links)
L'analyse dynamique intègre des outils propres aux systèmes dynamiques (comme l'opérateur de transfert) au cadre de la combinatoire analytique, et permet ainsi l'analyse d'un grand nombre d'algorithmes et objets qu'on peut associer naturellement à un système dynamique. Dans ce manuscrit de thèse, nous présentons, dans la perspective de l'analyse dynamique, l'étude probabiliste de plusieurs problèmes qui semblent à priori bien différents : l'analyse probabiliste de la fonction de récurrence des mots de Sturm, et l'étude probabiliste de l'algorithme du “logarithme continu”. Les mots de Sturm constituent une famille omniprésente en combinatoire des mots. Ce sont, dans un sens précis, les mots les plus simples qui ne sont pas ultimement périodiques. Les mots de Sturm ont déjà été beaucoup étudiés, notamment par Morse et Hedlund (1940) qui en ont exhibé une caractérisation fondamentale comme des codages discrets de droites à pente irrationnelle. Ce résultat relie ainsi les mots de Sturm au système dynamique d'Euclide. Les mots de Sturm n'avaient jamais été étudiés d'un point de vue probabiliste. Ici nous introduisons deux modèles probabilistes naturels (et bien complémentaires) et y analysons le comportement probabiliste (et asymptotique) de la “fonction de récurrence” ; nous quantifions sa valeur moyenne et décrivons sa distribution sous chacun de ces deux modèles : l'un est naturel du point de vue algorithmique (mais original du point de vue de l'analyse dynamique), et l'autre permet naturellement de quantifier des classes de plus mauvais cas. Nous discutons la relation entre ces deux modèles et leurs méthodes respectives, en exhibant un lien potentiel qui utilise la transformée de Mellin. Nous avons aussi considéré (et c'est un travail en cours qui vise à unifier les approches) les mots associés à deux familles particulières de pentes : les pentes irrationnelles quadratiques, et les pentes rationnelles (qui donnent lieu aux mots de Christoffel). L'algorithme du logarithme continu est introduit par Gosper dans Hakmem (1978) comme une mutation de l'algorithme classique des fractions continues. Il calcule le plus grand commun diviseur de deux nombres naturels en utilisant uniquement des shifts binaires et des soustractions. Le pire des cas a été étudié récemment par Shallit (2016), qui a donné des bornes précises pour le nombre d'étapes et a exhibé une famille d'entrées sur laquelle l'algorithme atteint cette borne. Dans cette thèse, nous étudions le nombre moyen d'étapes, tout comme d'autres paramètres importants de l'algorithme. Grâce à des méthodes d'analyse dynamique, nous exhibons des constantes mathématiques précises. Le système dynamique ressemble à première vue à celui d'Euclide, et a été étudié d'abord par Chan (2005) avec des méthodes ergodiques. Cependant, la présence des puissances de 2 dans les quotients change la nature de l'algorithme et donne une nature dyadique aux principaux paramètres de l'algorithme, qui ne peuvent donc pas être simplement caractérisés dans le monde réel.C'est pourquoi nous introduisons un nouveau système dynamique, avec une nouvelle composante dyadique, et travaillons dans ce système à deux composantes, l'une réelle, et l'autre dyadique. Grâce à ce nouveau système mixte, nous obtenons l'analyse en moyenne de l'algorithme. / Dynamical Analysis incorporates tools from dynamical systems, namely theTransfer Operator, into the framework of Analytic Combinatorics, permitting the analysis of numerous algorithms and objects naturally associated with an underlying dynamical system.This dissertation presents, in the integrated framework of Dynamical Analysis, the probabilistic analysis of seemingly distinct problems in a unified way: the probabilistic study of the recurrence function of Sturmian words, and the probabilistic study of the Continued Logarithm algorithm.Sturmian words are a fundamental family of words in Word Combinatorics. They are in a precise sense the simplest infinite words that are not eventually periodic. Sturmian words have been well studied over the years, notably by Morse and Hedlund (1940) who demonstrated that they present a notable number theoretical characterization as discrete codings of lines with irrationalslope, relating them naturally to dynamical systems, in particular the Euclidean dynamical system. These words have never been studied from a probabilistic perspective. Here, we quantify the recurrence properties of a ``random'' Sturmian word, which are dictated by the so-called ``recurrence function''; we perform a complete asymptotic probabilistic study of this function, quantifying its mean and describing its distribution under two different probabilistic models, which present different virtues: one is a naturaly choice from an algorithmic point of view (but is innovative from the point of view of dynamical analysis), while the other allows a natural quantification of the worst-case growth of the recurrence function. We discuss the relation between these two distinct models and their respective techniques, explaining also how the two seemingly different techniques employed could be linked through the use of the Mellin transform. In this dissertation we also discuss our ongoing work regarding two special families of Sturmian words: those associated with a quadratic irrational slope, and those with a rational slope (not properly Sturmian). Our work seems to show the possibility of a unified study.The Continued Logarithm Algorithm, introduced by Gosper in Hakmem (1978) as a mutation of classical continued fractions, computes the greatest common divisor of two natural numbers by performing division-like steps involving only binary shifts and substractions. Its worst-case performance was studied recently by Shallit (2016), who showed a precise upper-bound for the number of steps and gave a family of inputs attaining this bound. In this dissertation we employ dynamical analysis to study the average running time of the algorithm, giving precise mathematical constants for the asymptotics, as well as other parameters of interest. The underlying dynamical system is akin to the Euclidean one, and was first studied by Chan (around 2005) from an ergodic, but the presence of powers of 2 in the quotients ingrains into the central parameters a dyadic flavour that cannot be grasped solely by studying this system. We thus introduce a dyadic component and deal with a two-component system. With this new mixed system at hand, we then provide a complete average-case analysis of the algorithm by Dynamical Analysis.

Page generated in 0.0715 seconds