• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 239
  • 77
  • 22
  • 2
  • 1
  • Tagged with
  • 344
  • 139
  • 132
  • 97
  • 91
  • 87
  • 67
  • 63
  • 62
  • 49
  • 39
  • 38
  • 35
  • 29
  • 28
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Méthodes Statiques et Dynamiques de Compilation Polyédrique pour l'Exécution en Environnement Multi-Cœurs

Pradelle, Benoit 20 December 2011 (has links) (PDF)
Depuis plusieurs années, le nombre de cœurs de calcul dans les processeurs ne cesse d'augmenter à chaque nouvelle génération. Les processeurs multi-cœurs sont maintenant très fréquents mais le développement de logiciels séquentiels reste une pratique très courante. Pour palier à ce problème, des outils de parallélisation automatique ont été proposés mais ils ne sont pas encore prêts pour une utilisation à grande échelle. Nous proposons d'étendre les outils existants dans trois directions différentes. Premièrement, on peut remarquer que le code source de certains programmes n'est pas disponible. Nous proposons donc un système de parallélisation statique de code binaire qui permet de paralléliser un application séquentielle déjà compilée. Ensuite, on peut s'apercevoir que la performance d'un programme dépend du contexte d'exécution dans lequel il s'exécute. Nous présentons donc un système qui permet de sélectionner une version d'un programme parmi plusieurs afin d'exploiter au mieux les particularités du contexte d'exécution courant. Enfin, étant donné que certains programmes sont difficiles à analyser statiquement, nous proposons un système de parallélisation spéculative permettant d'appliquer dynamiquement des transformations de code complexes sur ces programmes. Ces trois systèmes utilisent le modèles polyédrique comme une boîte à outil permettant d'analyser, de transformer ou de paralléliser les programmes. En travaillant à différentes phases de la vie des programmes, ils forment une approche globale qui étend les techniques de parallélisation existantes.
152

Analyses dynamiques du réseau de distribution en présence des productions décentralisées

Luong, Le Thanh 22 January 2008 (has links) (PDF)
La dérégulation des marchés de l'énergie électrique a créé des changements profonds dans le secteur d'électricité, surtout avec la présence de plus en plus importante de production décentralisée dans le réseau de distribution. Les gestionnaires du réseau souhaitent, d'une part, avoir le plus d'énergie fournie par des Génération d'Energie Dispersée (GED), et veulent, d'autre part limiter, dans les situations critiques, leur influence négative sur le réseau. Ils ont donc besoin des méthodologies robustes ou de fonctions avancées afin de l'exploitation plus efficace des réseaux électriques dans l'avenir. Notre travail dans le cadre de cette thèse consiste alors en deux parties. La première partie a été consacrée à diminuer la taille du réseau contenant des GED à simuler. Le réseau de distribution sera divisé en sous réseaux, le réseau à étudier et le réseau extérieur qui sera remplacé par un équivalent externe. Plusieurs méthodes d'équivalent statiques et dynamiques ont été étudiées afin donner une meilleure l'agrégation technique du réseau extérieur qui contribue également une partie (TVPP) à la constitution des centrales virtuelles dans le cadre du projet Européen FENIX. La seconde partie a été effectuée afin de mettre au point des méthodologies qui permettent d'évaluer rapidement la stabilité angulaire des GEDs de type de machines synchrones dans le réseau. Les méthodes hybrides qui combinent la simulation temporelle avec les méthodes directes, Fonction d'énergie transitoire (FET) et Egalité des aires (SIME), permettent d'avoir les meilleurs avantages. Basées sur ces méthodes, les actions préventives et curatives permettant aux opérateurs de prendre des décisions pour s'éloigner des zones de contrainte ont été proposées. Les différents algorithmes ont été développés et les simulations dynamiques ont été effectuées sur plusieurs réseaux tests avec les résultats satisfaisants qui permettent de vérifier l'efficacité des méthodes proposées.
153

Réflexion sur les méthodes d'évaluation environnementale des mesures de gestion des déplacements et du trafic : analyse critique et proposition d'un nouveau cadre conceptuel

Brutti-Mairesse, Eugénie 12 March 2013 (has links) (PDF)
Dans un contexte d'émergence des enjeux environnementaux liés aux transports, une large palette de mesures de gestion des déplacements et du trafic (développement des transports en commun, mise en place de Zones à Actions Prioritaires pour l'Air, développement du concept de voiture partagée...) est mise en œuvre ou envisagée. Les effets réels de ces mesures sur les émissions de polluants, à court ou long terme sont difficilement évaluables selon des méthodes non rationalisées. Il s'agit ici de mener une réflexion scientifique sur l'évaluation environnementale à travers une importante analyse bibliographique. Le questionnement concerne les trafics, les émissions de polluants, la pertinence des outils de modélisation et la compréhension des mécanismes d'action. L'évaluation des mesures de gestion du trafic et des déplacements se heurte à leur diversité, la complexité et l'interaction des mécanismes d'effet, et à leur représentation dans les modèles. Dans une approche de caractérisation des effets et de représentation de l'impact des mesures, nous définissons des actionneurs (stimuli), composantes des entités trafic/déplacements ou émissions de polluants, déclinées suivant la localisation de leur action et par lesquels les différentes mesures peuvent être traduites. La demande en déplacements Véhicules Particuliers, la capacité de la voirie, y compris dans leur dimension spatiale, et la composition du parc automobile ont été identifiées et permettent de caractériser un grand nombre de mesures (demande, changement modal, gestion locale du trafic, politiques de parking, etc.). Leurs actions sont étudiées sous différents scénarios (variation de la demande, de sa localisation, de la capacité, etc.). On analyse ainsi la réponse à ces stimuli en termes de trafic et d'émissions. Ces travaux sont effectués sur la plate forme de calcul sur l'aire de Nantes Métropole (modèle Visem/Visum/modèle CopCETE) et permettent l'esquisse d'une approche d'évaluation de mesures individuelles. La méthode est démontrée sur le cas de la mise en place d'un Transport en Commun en Site Propre
154

Évaluation de la biomécanique cardiovasculaire par élastographie ultrasonore non-invasive

Porée, Jonathan 09 1900 (has links)
L’élastographie est une technique d’imagerie qui vise à cartographier in vivo les propriétés mécaniques des tissus biologiques dans le but de fournir des informations diagnostiques additionnelles. Depuis son introduction en imagerie ultrasonore dans les années 1990, l’élastographie a trouvé de nombreuses applications. Cette modalité a notamment été utilisée pour l’étude du sein, du foie, de la prostate et des artères par imagerie ultrasonore, par résonance magnétique ou en tomographie par cohérence optique. Dans le contexte des maladies cardiovasculaires, cette modalité a un fort potentiel diagnostique puisque l’athérosclérose modifie la structure des tissus biologiques et leurs propriétés mécaniques bien avant l’apparition de tout symptôme. Quelle que soit la modalité d’imagerie utilisée, l’élastographie repose sur : l’excitation mécanique du tissu (statique ou dynamique), la mesure de déplacements et de déformations induites, et l’inversion qui permet de recouvrir les propriétés mécaniques des tissus sous-jacents. Cette thèse présente un ensemble de travaux d’élastographie dédiés à l’évaluation des tissus de l’appareil cardiovasculaire. Elle est scindée en deux parties. La première partie intitulée « Élastographie vasculaire » s’intéresse aux pathologies affectant les artères périphériques. La seconde, intitulée « Élastographie cardiaque », s’adresse aux pathologies du muscle cardiaque. Dans le contexte vasculaire, l’athérosclérose modifie la physiologie de la paroi artérielle et, de ce fait, ses propriétés biomécaniques. La première partie de cette thèse a pour objectif principal le développement d’un outil de segmentation et de caractérisation mécanique des composantes tissulaires (coeur lipidique, tissus fibreux et inclusions calciques) de la paroi artérielle, en imagerie ultrasonore non invasive, afin de prédire la vulnérabilité des plaques. Dans une première étude (Chapitre 5), nous présentons un nouvel estimateur de déformations, associé à de l’imagerie ultrarapide par ondes planes. Cette nouvelle méthode d’imagerie permet d’augmenter les performances de l’élastographie non invasive. Dans la continuité de cette étude, on propose une nouvelle méthode d’inversion mécanique dédiée à l’identification et à la quantification des propriétés mécaniques des tissus de la paroi (Chapitre 6). Ces deux méthodes sont validées in silico et in vitro sur des fantômes d’artères en polymère. Dans le contexte cardiaque, les ischémies et les infarctus causés par l’athérosclérose altèrent la contractilité du myocarde et, de ce fait, sa capacité à pomper le sang dans le corps (fonction myocardique). En échocardiographie conventionnelle, on évalue généralement la fonction myocardique en analysant la dynamique des mouvements ventriculaires (vitesses et déformations du myocarde). L’abscence de contraintes physiologiques agissant sur le myocarde (contrairement à la pression sanguine qui contraint la paroi vasculaire) ne permet pas de résoudre le problème inverse et de retrouver les propriétés mécaniques du tissu. Le terme d’élastographie fait donc ici référence à l’évaluation de la dynamique des mouvements et des déformations et non à l’évaluation des propriétés mécanique du tissu. La seconde partie de cette thèse a pour principal objectif le développement de nouveaux outils d’imagerie ultrarapide permettant une meilleure évaluation de la dynamique du myocarde. Dans une première étude (Chapitre 7), nous proposons une nouvelle approche d’échocardiographie ultrarapide et de haute résolution, par ondes divergentes, couplée à de l'imagerie Doppler tissulaire. Cette combinaison, validée in vitro et in vivo, permet d’optimiser le contraste des images mode B ainsi que l’estimation des vitesses Doppler tissulaires. Dans la continuité de cette première étude, nous proposons une nouvelle méthode d’imagerie des vecteurs de vitesses tissulaires (Chapitre 8). Cette approche, validée in vitro et in vivo, associe les informations de vitesses Doppler tissulaires et le mode B ultrarapide de l’étude précédente pour estimer l’ensemble du champ des vitesses 2D à l’intérieur du myocarde. / Elastography is an imaging technique that aims to map the in vivo mechanical properties of biological tissues in order to provide additional diagnostic information. Since its introduction in ultrasound imaging in the 1990s, elastography has found many applications. This method has been used for the study of the breast, liver, prostate and arteries by ultrasound imaging, magnetic resonance imaging (MRI) or optical coherence tomography (OCT). In the context of cardiovascular diseases (CVD), this modality has a high diagnostic potential as atherosclerosis, a common pathology causing cardiovascular diseases, changes the structure of biological tissues and their mechanical properties well before any symptoms appear. Whatever the imaging modality, elastography is based on: the mechanical excitation of the tissue (static or dynamic), the measurement of induced displacements and strains, and the inverse problem allowing the quantification of the mechanical properties of underlying tissues. This thesis presents a series of works in elastography for the evaluation of cardiovascular tissues. It is divided into two parts. The first part, entitled « Vascular elastography » focuses on diseases affecting peripheral arteries. The second, entitled « Cardiac elastography » targets heart muscle pathologies. In the vascular context, atherosclerosis changes the physiology of the arterial wall and thereby its biomechanical properties. The main objective of the first part of this thesis is to develop a tool that enables the segmentation and the mechanical characterization of tissues (necrotic core, fibrous tissues and calcium inclusions) in the vascular wall of the peripheral arteries, to predict the vulnerability of plaques. In a first study (Chapter 5), we propose a new strain estimator, associated with ultrafast plane wave imaging. This new imaging technique can increase the performance of the noninvasive elastography. Building on this first study, we propose a new inverse problem method dedicated to the identification and quantification of the mechanical properties of the vascular wall tissues (Chapter 6). These two methods are validated in silico and in vitro on polymer phantom mimicking arteries. In the cardiac context, myocardial infarctions and ischemia caused by atherosclerosis alter myocardial contractility. In conventional echocardiography, the myocardial function is generally evaluated by analyzing the dynamics of ventricular motions (myocardial velocities and deformations). The abscence of physiological stress acting on the myocardium (as opposed to the blood pressure which acts the vascular wall) do not allow the solving the inverse problem and to find the mechanical properties of the fabric. Elastography thus here refers to the assessment of motion dynamics and deformations and not to the evaluation of mechanical properties of the tissue. The main objective of the second part of this thesis is to develop new ultrafast imaging tools for a better evaluation of the myocardial dynamics. In a first study (Chapter 7), we propose a new approach for ultrafast and high-resolution echocardiography using diverging waves and tissue Doppler. This combination, validated in vitro and in vivo, optimize the contrast in B-mode images and the estimation of myocardial velocities with tissue Doppler. Building on this study, we propose a new velocity vector imaging method (Chapter 8). This approach combines tissue Doppler and ultrafast B-mode of the previous study to estimate 2D velocity fields within the myocardium. This original method was validated in vitro and in vivo on six healthy volunteers.
155

Évaluation de la validité prédictive de la Statique-99R et de ses dimensions

Brouillette-Alarie, Sébastien 12 1900 (has links)
Les objectifs du présent mémoire étaient d’identifier les dimensions présentes dans la Statique-99R, l’échelle actuarielle de prédiction de la récidive sexuelle la plus utilisée, et de tester leur validité prédictive. Une analyse factorielle exploratoire des items de l’instrument en a extrait trois dimensions : la déviance sexuelle, l’orientation antisociale et le détachement émotionnel. Des analyses de régressions de Cox ont révélé que ces facteurs affichaient une validité prédictive différentielle; la déviance sexuelle ne prédisait que la récidive sexuelle, alors que l’orientation antisociale ne prédisait que la récidive violente non sexuelle et la récidive générale. Le détachement émotionnel affichait une validité prédictive incohérente. Des analyses de courbes ROC ont indiqué que la dernière révision de la Statique-99, la Statique-99R, surpassait pratiquement en tout point son prédécesseur. Ces mêmes analyses indiquaient que la validité prédictive de l’échelle était similaire pour les agresseurs sexuels de femmes et d’enfants. / The aims of the current paper were to identify dimensions of the Static-99R, the most commonly used sex-offender actuarial scale, and to test their predictive validity. Exploratory factor analysis extracted three dimensions from the scale: sexual deviance, antisocial orientation and detachment. Cox regression analyses revealed that different actuarial factors predicted different recidivism outcomes: sexual deviance only predicted sexual recidivism, while antisocial orientation only predicted non sexual violent recidivism and general recidivism. Detachment had an inconsistent predictive validity. ROC curve analyses indicated that the latest Static-99 revision, the Static-99R, outperformed its predecessor in virtually every way. These same analyses revealed that the scale was as effective with rapists as with child molesters.
156

Static analysis of numerical properties in the presence of pointers / Analyse statique de propriétés numériques en présence de pointeurs

Fu, Zhoulai 22 July 2013 (has links)
Si la production de logiciel fiable est depuis longtemps la préoccupation d'ingénieurs, elle devient à ce jour une branche de sujets de recherche riche en applications, dont l'analyse statique. Ce travail a porté sur l'analyse statique de programmes et, plus précisément, sur l'analyse des propriétés numériques. Ces analyses sont traditionnellement basées sur le concept de domaine abstrait. Le problème est que, ce n'est pas évident d'étendre ces domaines dans le contexte de programmes avec pointeurs. Nous avons proposé une approche qui sait systématiquement combiner ces domaines avec l'information de l'analyse de points-to (une sorte d'analyse de pointeurs). L'approche est formalisée en théorie de l'interprétation abstraite, prouvée correct et prototypée avec une modular implémentation qui sait inférer des propriétés numériques des programmes de millions de lignes de codes. La deuxième partie de la thèse vise à améliorer la précision de l'analyse points-to. Nous avons découvert que l'analyse de must-alias (qui analyse si deux variables sont nécessairement égaux) peut servir à raffiner l'analyse points-to. Nous avons formalisé cette combinaison en s'appuyant sur la notion de bisimulation, bien connue en vérification de modèle ou théorie de jeu... Un algorithme de complexité quadruple est proposé et prouvé correct. / The fast and furious pace of change in computing technology has become an article of faith for many. The reliability of computer-based systems cru- cially depends on the correctness of its computing. Can man, who created the computer, be capable of preventing machine-made misfortune? The theory of static analysis strives to achieve this ambition. The analysis of numerical properties of programs has been an essential research topic for static analysis. These kinds of properties are commonly modeled and handled by the concept of numerical abstract domains. Unfor- tunately, lifting these domains to heap-manipulating programs is not obvious. On the other hand, points-to analyses have been intensively studied to an- alyze pointer behaviors and some scale to very large programs but without inferring any numerical properties. We propose a framework based on the theory of abstract interpretation that is able to combine existing numerical domains and points-to analyses in a modular way. The static numerical anal- ysis is prototyped using the SOOT framework for pointer analyses and the PPL library for numerical domains. The implementation is able to analyze large Java program within several minutes. The second part of this thesis consists of a theoretical study of the com- bination of the points-to analysis with another pointer analysis providing information called must-alias. Two pointer variables must alias at some pro- gram control point if they hold equal reference whenever the control point is reached. We have developed an algorithm of quadruple complexity that sharpens points-to analysis using must-alias information. The algorithm is proved correct following a semantics-based formalization and the concept of bisimulation borrowed from the game theory, model checking etc.
157

Impacts des changements globaux sur la distribution des poissons migrateurs amphihalins : une approche par modélisation à l’échelle continentale

Lassalle, Géraldine 13 November 2008 (has links)
Les poissons migrateurs amphihalins évoluent dans un environnement qui est perturbé, à l’échelle globale, par le changement climatique et à l’échelle régionale, par les pressions anthropiques telles que les barrages et la pollution des cours d’eau. Cette étude, menée à l’échelle continentale, avait pour objectif d’évaluer, de comprendre et de prédire les impacts de changements globaux sur la distribution de ce groupe. Afin de répondre à cette problématique, des modèles empiriques de distribution ont été construits pour chacune des 28 espèces étudiées. Leurs distributions ont été décrites au début et à la fin du XXème siècle, en termes de présence-absence et de classes d’abondance. Les variables explicatives potentielles étaient de type physique, climatique, biotique et anthropique. Dans un premier temps, il a été mis en évidence que la répartition vers 1900 des poissons migrateurs amphihalins était fortement contrainte par leur histoire biogéographique et par les conditions thermiques et hydrauliques de l’habitat continental. La projection de ces distributions, à la fin du XXIème siècle, dans le contexte du changement climatique, a montré la forte sensibilité de ce groupe aux modifications du climat. Bien que spécifiques à chaque espèce, les réponses ont pu être classées en trois catégories : expansion de l’aire de répartition, contraction de l’aire de répartition et peu ou pas de changement. Dans un deuxième temps, pour la première fois à l’échelle continentale, l’importance des grands barrages et de la densité de populations humaines pour expliquer la distribution actuelle de ces espèces a été démontrée. Les relations sont apparues complexes et dépendantes des caractéristiques écologiques des espèces, notamment de la position de leurs habitats de croissance et de reproduction le long du réseau hydrographique et de leur place au sein du réseau trophique. / Diadromous fishes live in an environment disturbed, at global scale, by climate change and at regional scale, by anthropogenic pressures such as dams and river pollution. This study, performed at continental scale, aimed to assess, understand and predict the impacts of global changes on the distribution of this group. To address this issue, empirical distribution models were built for each of the 28 species studied. Their distributions were described at the beginning and the end of the twentieth century, in terms of presence-absence and abundance. Different types of explanatory variables were used, i.e. physical, climatic, biotic and anthropogenic. On the one hand, it was demonstrated that the distribution of diadromous fishes around 1900 was constrained by their biogeographical history and by the thermal and hydraulic characteristics of the continental habitat. Projection of these distributions, at the end of the twenty-first century, under climate change, highlighted the sensitivity of this group to climatic modifications. Responses were species-specific but could be classified into three categories: expansion of the distribution range, contraction of the distribution range and little or no change. On the other hand, for the first time at continental scale, the importance of large dams and human population density to explain the current diadromous fish distribution was demonstrated. The relationships seemed complex and to be dependent on the species’ ecological characteristics, particularly the position of their essential habitats along the river network and their place within the food web.
158

Reconfigurations discrètes de robots parallèles à câbles / Discrete Reconfigurations of Cable-Driven Parallel Robots

Gagliardini, Lorenzo 19 September 2016 (has links)
Les Robots Parallèles à Câbles (RPCs) sont des robots parallèles dont les jambes se composent de câbles. Les applications industrielles potentielles des RPCs sont nombreuses telles que le grenaillage et la peinture de structures massives et de grandes dimensions.La première partie de ce manuscrit est dédié à la modélisation des RPCs. Deux modèles élasto-statiques ont été introduits dans ce manuscrit, pour décrire le petit déplacement de la plate-forme mobile en raison de la nature non-rigide des câbles. Le modèle élasto-statique basé sur des câbles pesants a été exprimé en faisant la différence entre la matrice de raideur active et la matrice de raideur passive du RPC.La deuxième partie de ce manuscrit traite de l’analyse d’espaces de travail de RPCs vis-à-vis de leurs performances statiques et dynamiques. Deux nouveaux espaces de travail ont été définis : (i) l'Espace des Vitesses Générables (EVG);(ii) l’Espace de Travail Dynamique Amélioré (ETDA). La troisième partie de ce manuscrit décrit une stratégie de conception générique de RPCs et des Robots Parallèles à Câbles Reconfigurables (RPCRs). Les reconfigurations sont limitées uniquement aux points de sortie des câbles. Dans ce manuscrit, les points de sortie des câbles peuvent être placés dans une large mais limité ensemble de positions. La stratégie proposée envisage la possibilité de déplacer les points de sortie des câbles du RPCR sur une grille prédéfinie d'emplacements.La quatrième partie de ce manuscrit présente un algorithme pour calculer une stratégie de reconfiguration optimale pour les RPCRs. Cette stratégie peut être utilisée lorsque l'environnement de travail de RPCRs est extrêmement encombré et qu’il n'est pas possible de prévoir le nombre de configurations nécessaires pour compléter la tâche.L'efficacité de l'algorithme a été analysée en étudiant les reconfigurations d’un robot parallèle à câbles planaire et d’un robot parallèle à câbles spatial en lien avec des applications industrielles. / Cable-Driven Parallel Robots (CDPRs) are parallel robots whose legs consist of cables. CDPRs may be used successfully in several industrial applications such as sandblasting and painting of large and heavy structures.The first part of this manuscript is dedicated to the modelling of CDPRs. Two elasto-static models have been introduced in this manuscript, in order to describe the small displacement of the moving platform due to the non-rigid nature of the cables. These models can be used for the modal analysis of the CDPRs, as well. The elasto-static model based on linear cables has been computed including the effect of the pulleys orienting the cables into the CDPR workspace.The second part of this manuscript deals with the investigation of the workspace of CDPRs, in terms of their moving platform static and dynamic equilibria, and in terms of their moving platform kinematic constraints. Two novel workspaces have been defined: (i) the Twist Feasible Workspace (TFW); (ii) the Improved Dynamic Feasible Workspace (IDFW). The third part of this manuscript describes a generic design strategy for CDPRs and a novel design strategy for Reconfigurable Cable-Driven Parallel Robots (RCDPRs). In this manuscript, reconfigurations are limited to the thedisplacement of the cable exit points, assuming the cables exit points can be installed on a large but finite set of locations.The fourth part of this manuscript introduces an algorithm to compute an optimal reconfiguration strategy for RCDPRs. This strategy can be used when the working environment of the RCDPR is extremely cluttered and when it is not possible to predict how many configurations are necessary to complete the task. The effectiveness of the algorithm hasbeen analysed by means of a planar and a spatial casestudies reproducing some industrial tasks.
159

Contribution à l'étude du comportement mécanique de voies ferrées, composants à caractère dissipatif non-linéaire : semelle sous rail et sous-couche de grave bitumineuse. / Contribution to the study of the mechanical behavior of railway track., components with non-linear and dissipative behaviour : rail pad and bituminous mixture sub-ballast.

Zhuravlev, Roman 14 December 2017 (has links)
Les voies ferrées sont endommagées par les chargements dynamiques répétés issus du passage des trains, en particulier pour les trains à grandes vitesses. Structures multicouches complexes, ces voies sont constituées : de rails en acier, de semelles en élastomère, des traverses de béton, d’une couche de ballast et d’une sous-couche. L’étude du comportement mécanique d’une voie ferrée (de chaque composant à la structure entière) est donc étroitement liée à l’amélioration de la sécurité ferroviaire, ainsi qu’à l’efficacité de ce mode de transports.Ce travail de thèse se focalise sur l’étude des semelles sous rail et de la sous-couche en grave bitumineuse. Ces deux composants ont été choisis pour leurs similarités en termes de comportement mécanique non linéaire et capacité de dissipation d’énergie. Ce manuscrit est divisé en trois chapitres.Dans le cadre de ce premier chapitre le modèle d’intégrale par convolution (modèle-CI) est choisi pour modéliser le comportement mécanique du matériau élastomère de la semelle. Le modèle-CI est une extension naturelle de la théorie de la viscoélasticité linéaire, car basé sur l'extension du principe de superposition Boltzmann ; la séparation des contraintes proposée par ce modèle, a été observée expérimentalement par de nombreux auteurs.Le deuxième chapitre concerne l’étude du comportement mécanique du matériau élastomérique qui compose les semelles sous-rail et de modélisation pour prédire le comportement non-linéaire et la capacité d'absorption d'énergie d'une structure semelle.Le modèle de comportement (modèle-CI) permet de représenter de façon très fiable la partie chargement de la semelle (erreur de 1 % pour la rigidité). Pour la partie déchargement, la représentation est un peu moins bonne : la déformation résiduelle "numérique" est de 2,2 % alors qu'expérimentalement elle n'est que de 0,4 %, ce qui conduit à une erreur de prédiction sur l'énergie dissipée de 37.5 %. La comparaison entre les résultats numériques et expérimentaux in-situ montrent que le modèle utilisé permet de décrire assez correctement la réponse de la semelle au passage d'un train dans les limites d’erreur de prédiction de la déformation résiduelle.Ce modèle-CI doit être utilisé sur le modèle géométrique 3D complet de la semelle, les approches simplifiées (2D, semelle sans rainure) conduisent à des prédictions fortement erronées.Le troisième chapitre se focalise sur l’étude du matériau de type asphalte utilisé pour la couche sous-ballast des voies ferrées. Des cubes de “Matériaux Virtuels” ont été réalisés en disposant aléatoirement des inclusions sphériques monodisperses rigides dans un volume de matrice au comportement hyper-élastique. L’influence du diamètre et de la fraction volumique de ces inclusions sur le comportement mécanique d’une structure a été étudiée numériquement et expérimentalement en utilisant un plan d’expérience de type Doehlert. Cette approche de « Matériaux Virtuels » a permis d’avoir une correspondance exacte entre les géométries des spécimens numériques et expérimentaux sur les 7 échantillons testés.L’analyse des surfaces de réponses a montré que les deux paramètres observés F_max et E_% sont fortement corrélés aux valeurs de V_fr. L’influence du diamètre des inclusions, par contre, est très faible.Enfin, les simulations par éléments finis ont permis d’étudier la répartition interne des contraintes et déformations. Les résultats ont été présentés pour l’échantillon V0225-D08 : la chaine d’effort a été visualisée à l’intérieur de la matrice et présente des contraintes de Von Mises jusqu’à 8 fois celles obtenues dans la matrice.Dans l’étude proposée, le diamètre et la forme des inclusions ont été fixés. Il serait intéressant de faire varier ces paramètres en utilisant la même méthodologie. Par ailleurs, les récentes avancées en termes de fabrication additive permettent d’imaginer la construction d’échantillons hétérogènes complexes. / Repetitive dynamic loads caused by passing trains can damage a railway track, especially at high speeds. The complex multilayer structure of the modern track consists of: stainless steel rails, elastomeric rail pads, concrete sleepers, track ballast and sub-ballast layers. Investigation of the mechanical behaviour of the railway track structure (as the whole and by parts) can have a great importance for the improvement of safety and efficiency of railway transportation.In the present study rail pad and bituminous mixture (BM) sub-ballast layers of a standard ballasted railway track were considered for investigation. These parts of the track were chosen for their similarities in the mechanical behaviour (nonlinearity and energy dissipation) and function (reduction of the dynamic part of load, an influence on the load distribution).The first chapter reviews the main aspects of the mechanical behaviour of elastomeric materials and covers the common theoretical approaches, appropriate for the modelling of this behaviour. The Convolution Integral approach (CI-model) was chosen to represent the mechanical behaviour of a rail pad material as a natural extension of theory of linear viscoelasticity, based on extension of the well-established Boltzmann Superposition Principle.The second chapter is devoted to study of elastomeric material of a rail pad and to numerical modelling of a whole elastomeric rail pad structure subjected to common track loads. Special attention was given to possibility of the model to describe the nonlinearity of the mechanical behaviour and capability of energy dissipation.Sufficient conformity between experimental and numerical results was established on loading part of a Force vs Displacement curve (an error of 1 % was obtained for the stiffness value) for the quasi-static loading, while prediction of the residual compression displacement remains poor, especially in the first loading cycle (2.2% of the macroscopic strain against 0.4% in experiment). The observed discrepancy led to poor prediction of the dissipated energy (an error of 37.5 % was found). Comparison between results of the numerical simulation and in situ experimental measurements has shown that the FE model is capable to describe dynamic behaviour of a rail pad structure to within the error of prediction of the residual compression displacement.Possible ways to simplify the numerical model, discussed in the second chapter, generally lead to high overestimation (2D plain strain and 3D grooveless models) or underestimation (2D plain stress model) of the rail pad mechanical behaviour.The third chapter of the thesis is connected to the study of a BM material, used on a railway track as a sub-ballast layer. Influence of size and volume fraction of monodisperse spherical inclusions, randomly packed into a cubic matrix, on the mechanical behaviour of obtained composite structure were investigated using “Virtual Material” approach. This approach allows numerical study of a theoretical case without losing connection with a real experiment (by means of direct geometrical correspondence). Parameters of 7 specimens were chosen in accordance with Doehlert experimental design.Analysis of “response surfaces” has shown that both F_max and E_% have a strong dependence on the value of V_fr and almost no dependence on the value of D.Stress/strain concentrations were analyzed using FE method on example of V0225-D08 specimen. This allows to find and to visualize load-bearing chains going through the matrix. Von Mises stress in load-bearing chains is almost 8 times higher than the average in the matrix.More complex models (real and numerical) in terms of problem discretization (more than one inclusions’ fraction, different inclusions’ shapes, etc.) can be developed and studied in the similar way. Moreover, the recent progress in additive manufacturing technologies shows potential to create complex heterogeneous specimens with an increased precision.
160

Highlight and execute suspicious paths in Android malware / Mettre en avant et exécuter les chemins suspicieux dans les malwares Android

Leslous, Mourad 18 December 2018 (has links)
Les smartphones sont devenus omniprésents dans notre vie quotidienne à cause des options qu'ils proposent. Aujourd'hui, Android est installé sur plus de 80% des smartphones. Les applications mobiles recueillent une grande quantité d'informations sur l'utilisateur. Par conséquent, Android est devenu une cible préférée des cybercriminels. Comprendre le fonctionnement des malwares et comment les détecter est devenu un défi de recherche important. Les malwares Android tentent souvent d'échapper à l'analyse statique en utilisant des techniques telles que l'obfuscation et le chargement dynamique du code. Des approches d'analyse ont été proposées pour exécuter l'application et surveiller son comportement. Néanmoins, les développeurs des malwares utilisent des bombes temporelles et logiques pour empêcher le code malveillant d'être exécuté sauf dans certaines circonstances. Par conséquent, plus d'actions sont requises pour déclencher et surveiller leurs comportements. Des approches récentes tentent de caractériser automatiquement le comportement malveillant en identifiant les endroits du code les plus suspicieux et en forçant leur exécution. Elles se basent sur le calcul des graphes de flot de contrôle (CFG) qui sont incomplets, car ils ne prennent pas en considération tous les types de chemins d'exécution. Ces approches analysent seulement le code d'application et ratent les chemins d'exécution générés quand l'application appelle une méthode du framework, qui appelle à son tour une autre méthode applicative. Nous proposons GPFinder, un outil qui extrait automatiquement les chemins d'exécution qui mènent vers les endroits suspicieux du code, en calculant des CFG qui incluent les appels interprocéduraux explicites et implicites. Il fournit aussi des informations clés sur l'application analysée afin de comprendre comment le code suspicieux a été injecté dans l'application. Pour valider notre approche, nous utilisons GPFinder pour étudier une collection de 14224 malwares Android. Nous évaluons que 72,69% des échantillons ont au moins un endroit suspicieux du code qui n'est atteignable qu'à travers des appels implicites. Les approches de déclenchement actuelles utilisent principalement deux stratégies pour exécuter une partie du code applicatif. La première stratégie consiste à modifier l'application excessivement pour lancer le code ciblé sans faire attention à son contexte originel. La seconde stratégie consiste à générer des entrées pour forcer le flot de contrôle à prendre le chemin désiré sans modifier le code d'application. Cependant, il est parfois difficile de lancer un endroit spécifique du code seulement en manipulant les entrées. Par exemple, quand l'application fait un hachage des données fournies en entrée et compare le résultat avec une chaîne de caractères fixe pour décider quelle branche elle doit prendre. Clairement, le programme de manipulation d'entrée devrait inverser la fonction de hachage, ce qui est presque impossible. Nous proposons TriggerDroid, un outil qui a deux buts : forcer l'exécution du code suspicieux et garder le contexte originel de l'application. Il fournit les événements framework requis pour lancer le bon composant et satisfait les conditions nécessaires pour prendre le chemin d'exécution désiré. Pour valider notre approche, nous avons fait une expérience sur 135 malwares Android de 71 familles différentes. Les résultats montrent que notre approche nécessite plus de raffinement et d'adaptation pour traiter les cas spéciaux dus à la grande diversité des échantillons analysés. Finalement, nous fournissons un retour sur les expériences que nous avons conduites sur différentes collections, et nous expliquons notre processus expérimental. Nous présentons le dataset Kharon, une collection de malwares Android bien documentés qui peuvent être utilisés pour comprendre le panorama des malwares Android. / The last years have known an unprecedented growth in the use of mobile devices especially smartphones. They became omnipresent in our daily life because of the features they offer. They allow the user to install third-party apps to achieve numerous tasks. Smartphones are mostly governed by the Android operating system. It is today installed on more than 80% of the smartphones. Mobile apps collect a huge amount of data such as email addresses, contact list, geolocation, photos and bank account credentials. Consequently, Android has become a favorable target for cyber criminals. Thus, understanding the issue, i.e., how Android malware operates and how to detect it, became an important research challenge. Android malware frequently tries to bypass static analysis using multiple techniques such as code obfuscation and dynamic code loading. To overcome these limitations, many analysis techniques have been proposed to execute the app and monitor its behavior at runtime. Nevertheless, malware developers use time and logic bombs to prevent the malicious code from executing except under certain circumstances. Therefore, more actions are needed to trigger it and monitor its behavior. Recent approaches try to automatically characterize the malicious behavior by identifying the most suspicious locations in the code and forcing them to execute. They strongly rely on the computation of application global control flow graphs (CFGs). However, these CFGs are incomplete because they do not take into consideration all types of execution paths. These approaches solely analyze the application code and miss the execution paths that occur when the application calls a framework method that in turn calls another application method. We propose in this dissertation a tool, GPFinder, that automatically exhibits execution paths towards suspicious locations in the code by computing global CFGs that include edges representing explicit and implicit interprocedural calls. It also gives key information about the analyzed application in order to understand how the suspicious code was injected into the application. To validate our approach, we use GPFinder to study a collection of 14,224 malware samples, and we evaluate that 72.69% of the samples have at least one suspicious code location which is only reachable through implicit calls. Triggering approaches mainly use one of the following strategies to run a specific portion of the application's code: the first approach heavily modifies the app to launch the targeted code without keeping the original behavioral context. The second approach generates the input to force the execution flow to take the desired path without modifying the app's code. However, it is sometimes hard to launch a specific code location just by fuzzing the input. For instance, when the application performs a hash on the input data and compares the result to a fixed string to decide which branch of the condition to take, the fuzzing program should reverse the hashing function, which is obviously a hard problem. We propose in this dissertation a tool, TriggerDroid, that has a twofold goal: force the execution of the suspicious code and keep its context close to the original one. It crafts the required framework events to launch the right app component and satisfies the necessary triggering conditions to take the desired execution path. To validate our approach, we led an experiment on a dataset of 135 malware samples from 71 different families. Results show that our approach needs more refinement and adaptation to handle special cases due to the highly diverse malware dataset that we analyzed. Finally, we give a feedback on the experiments we led on different malware datasets, and we explain our experimental process. Finally, we present the Kharon dataset, a collection of well documented Android malware that can be used to understand the malware landscape.

Page generated in 0.0441 seconds