• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 99
  • 43
  • 11
  • 1
  • Tagged with
  • 153
  • 70
  • 34
  • 20
  • 20
  • 19
  • 19
  • 16
  • 14
  • 12
  • 12
  • 12
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Simulation 3D éléments finis des macroségrégations en peau induites par déformations thermomécaniques lors de la solidification d'alliages métalliques

Rivaux, Benjamin 07 July 2011 (has links) (PDF)
Les macroségrégations sont des hétérogénéités de répartition des espèces chimiques en peau ou à coeur des produits sidérurgiques. Ces macroségrégations peuvent engendrer de sévères problèmes dans la chaîne de transformation aval. Contrairement à la plupart des études qui s'intéressent aux macroségrégations centrales, nos travaux portent sur la simulation des macroségrégations en peau induites par déformations thermomécaniques. La simulation a été construite en trois étapes. La première étape consiste à simuler la macroségrégation en l'absence de toute déformation du solide, c'est-à-dire à solide fixe et rigide. La deuxième étape, indépendante de la première, revient à calculer uniquement la déformation du solide. Enfin, la dernière étape correspond à la réunion des deux premières. Les équations du problème sont résolues grâce à la méthode des éléments finis à laquelle sont adjointes des méthodes de stabilisation. Pour chacune des étapes, les simulations se basent sur des expériences. Pour la première étape, la validation s'appuie sur l'expérience de Hebditch & Hunt. Les résultats numériques et expérimentaux concordent. L'expérience qui sert de point de comparaison pour la deuxième étape est l'expérience de la déformation d'une goutte de métal liquide lors de son refroidissement par une plaque en cuivre. Cette expérience a été mise en place par un des partenaires du projet et s'est déroulée en microgravité. La déformation numérique obtenue suit la même tendance que celle de l'expérience mais avec une intensité inférieure. La dernière étape s'est appuyée sur l'expérience de refroidissement pulsé d'un lingot effectuée par El-Bealy. La simulation prévoit des variations de ségrégation mais n'arrive pas à capter toutes les variations expérimentales, conséquences de la déformation du solide. Des calculs sans thermomécanique montrent que notre simulation semble moins sensible à la déformation que l'expérience. L'ensemble des simulations a mis en jeu des alliages binaires. Un cas de solidification d'alliage ternaire sans déformation du solide a été simulé.
22

Augmentation des performances des systèmes DSL par allocation dynamique de spectre

Tlich, Mohamed 23 June 2006 (has links) (PDF)
Les systèmes DSL sont des technologies de transmission qui transportent des flux de données importants sur de simples lignes téléphoniques. Malheureusement, plusieurs phénomènes perturbateurs sont susceptibles de dégrader la qualité des liaisons. Les limitations sont principalement dues à l'affaiblissement ainsi qu'à des problèmes de compatibilité électromagnétique. Dans ce contexte, ce travail de thèse consiste à augmenter les performances marge de bruit/débit/portée des systèmes DSL par allocation dynamique de spectre (DSM: Dynamic Spectrum Management). Dans une première partie sont développées trois méthodes d'allocation discrète de bits entre les porteuses d'un système DSL à modulation DMT. La première est une simplification importante de l'algorithme de P.S. Chow à distribution plate d'énergie. La deuxième étant un processus de moindre complexité qui nous ramène à la distribution optimale d'énergie entre les porteuses, appelé "remplissage par Gammas croissants". Et la troisième est une méthode d'attribution de marges de bruit distinctes aux différents flux d'une même liaison DSL. Après cette amélioration de la technologie de transmission DSL qui constitue le niveau 0 de la DSM, l'atténuation de l'interférence entre les lignes d'un même câble DSL par allocation coordonnée de spectre (niveau 2 de la DSM) est abordée, et deux procédés sont proposés. Le premier est un procédé de réglage dynamique des DSP des porteuses les unes indépendamment des autres, de façon à réduire l'interférence provenant de certaines lignes dont le débit est supérieur au débit nécessaire aux services. Le deuxième procédé est une nouvelle architecture DSL, caractérisée par l'introduction d'éléments actifs dans la sous-répartition. Les performances des lignes, divisées en deux tronçons plus courts et séparés, sont ainsi améliorées. Dans une dernière partie est considérée la transmission vectorielle qui constitue le troisième niveau de la DSM. Des méthodes d'annulation d'interférence entre les lignes d'un même câble DSL sont présentées, et un modèle de détermination de la matrice de canal MIMO est développé.
23

Ordonnancements périodiques dans les réseaux de processus : Application à la conception insensible aux latences

Millo, Jean-Vivien 15 December 2008 (has links) (PDF)
Du fait de la miniaturisation grandissante des circuits électroniques, la conception de système sur puce actuelle, se heurte au problème des latences sur les fils d'interconnexions traversant tout le circuit. Un système sur puce est un ensemble de blocs de calculs (les composants IP) qui s'échangent des données. Alors que la communication à l'intérieur de ces blocs de calculs peut toujours se faire de manière synchrone, c'est à dire s'abstraire comme une action instantanée, la communication d'un bloc de calculs à un autre prend un temps qui n'est pas négligeable. Il s'écoule plusieurs cycles d'horloge entre l'émission d'une donnée sur un fil d'interconnexion et sa réception. La théorie du Latency Insensitive Design créée par Luca Carloni et Alberto Sangiovanni-Vincentelli permet entre autre de résoudre ce problème en implantant un protocole de communication basé sur la segmentation des fils d'interconnexions et sur le principe de rétroaction en cas d'embouteillage. Dans un premier temps, nous avons donné un fondement théorique à cette théorie en la rapprochant formellement d'une modélisation par Marked/Event graph (Sous ensemble sans conflit des Réseaux de Pétri) et avec des places de capacité ; ce qui génère naturellement le protocole de contrôle de flux. Cette modélisation nous amène à la problématique principale de cet ouvrage: comment, et sous quelles conditions, peut on minimiser la taille des ressources de mémorisation utilisées comme tampons intermédiaires au long de ces fils d'interconnexions? Car leur nombre et leur position peuvent se révéler critique à l'implantation matérielle. Nous allons ensuite étudier cette question sous une hypothèse naturelle de déterminisme, ce qui permet d'obtenir des régimes de fonctionnement périodiques et réguliers. Le but de cette thèse est de modifier le protocole mis en place dans la théorie du Latency Insensitive Design en prenant en compte cette hypothèse. L'étude des systèmes déterministes et des résultats existant nous a permis une première phase de modification appelée: égalisation. L'étape suivante consiste à ordonnancer statiquement ces systèmes. Pour cela, nous avons choisi de représenter explicitement l'ordonnancement de chacun des éléments du système comme un mot binaire périodique où les "1" représentent les instants d'activités et les "0" d'inactivités tel que M. Pouzet et al. l'ont introduit dans le "N-synchronous Kahn network". Une étude approfondie des différentes classes de mots binaires existants (mot de Sturm, de Christoffel, de Lyndon ou encore mécaniques) a précédé leur association à la théorie du Latency Insensitive Design et au processus d'égalisation pour obtenir des systèmes déterministes ordonnancés statiquement.
24

Étude des algorithmes arithmétiques et leur implémentation matérielle

Bernard, Florent Carlet, Claude. January 2009 (has links) (PDF)
Reproduction de : Thèse de doctorat : Informatique : Paris 8 : 2007. / Titre provenant de l'écran-titre. Bibliogr. p. 133-137.
25

Application de techniques parcimonieuses et hiérarchiques en reconnaissance de la parole

Brodeur, Simon January 2013 (has links)
Les systèmes de reconnaissance de la parole sont fondamentalement dérivés des domaines du traitement et de la modélisation statistique des signaux. Depuis quelques années, d'importantes innovations de domaines connexes comme le traitement d'image et les neurosciences computationnelles tardent toutefois à améliorer la performance des systèmes actuels de reconnaissance de parole. La revue de la littérature a suggéré qu'un système de reconnaissance vocale intégrant les aspects de hiérarchie, parcimonie et grandes dimensions joindrait les avantages de chacun. L'objectif général est de comprendre comment l'intégration de tous ces aspects permettrait d'améliorer la robustesse aux bruits additifs d'un système de reconnaissance de la parole. La base de données TI46 (mots isolés, faible-vocabulaire) est utilisée pour effectuer l'apprentissage non-supervisé et les tests de classification. Les différents bruits additifs proviennent de la base de données NOISEX-92, et permettent d'évaluer la robustesse en conditions de bruit réalistes. L'extraction de caractéristiques dans le système proposé est effectuée par des projections linéaires successives sur des bases, permettant de couvrir de plus en plus de contexte temporel et spectral. Diverses méthodes de seuillage permettent de produire une représentation multi-échelle, binaire et parcimonieuse de la parole. Au niveau du dictionnaire de bases, l'apprentissage non-supervisé permet sous certaines conditions l'obtention de bases qui reflètent des caractéristiques phonétiques et syllabiques de la parole, donc visant une représentation par objets d'un signal. L'algorithme d'analyse en composantes indépendantes (ICA) s'est démontré mieux adapté à extraire de telles bases, principalement à cause du critère de réduction de redondance. Les analyses théoriques et expérimentales ont montré comment la parcimonie peut contourner les problèmes de discrimination des distances et d'estimation des densités de probabilité dans des espaces à grandes dimensions. Il est observé qu'un espace de caractéristiques parcimonieux à grandes dimensions peut définir un espace de paramètres (p.ex. modèle statistique) de mêmes propriétés. Ceci réduit la disparité entre les représentations de l'étage d'extraction des caractéristiques et celles de l'étage de classification. De plus, l'étage d'extraction des caractéristiques peut favoriser une réduction de la complexité de l'étage de classification. Un simple classificateur linéaire peut venir compléter un modèle de Markov caché (HMM), joignant une capacité de discrimination accrue à la polyvalence d'une segmentation en états d'un signal. Les résultats montrent que l'architecture développée offr de meilleurs taux de reconnaissance en conditions propres et bruités comparativement à une architecture conventionnelle utilisant les coefficients cepstraux (MFCC) et une machine à vecteurs de support (SVM) comme classificateur discriminant. Contrairement aux techniques de codage de la parole où la transformation doit être inversible, la reconstruction n'est pas importante en reconnaissance de la parole. Cet aspect a justifié la possibilité de réduire considérablement la complexité des espaces de caractéristiques et de paramètres, sans toutefois diminuer le pouvoir de discrimination et la robustesse.
26

Finding the needle in the heap : combining binary analysis techniques to trigger use-after-free / Analyses de code binaire pour la détection et le déclenchement de use-after-free

Feist, Josselin 29 March 2017 (has links)
La sécurité des systèmes est devenue un élément majeur du développement logicielle, pour les éditeurs, les utilisateurs et les agences gouvernementales. Un problème récurrent est la détection de vulnérabilités, qui consiste à détecter les bugs qui pourraient permettre à un attaquant de gagner des privilèges non prévues, comme la lecture ou l’écriture de donnée sensible, voir même l’exécution de code non autorisé. Cette thèse propose une approche pratique pour la détection d’une vulnérabilité particulière : le use-after-free, qui apparaît quand un élément du tas est utilisé après avoir été libéré. Cette vulnérabilité a été utilisé dans de nombreux exploits, et est, de par sa nature, difficile à détecter. Les problèmes récurrents pour sa détection sont, par exemple, le fait que les éléments déclenchant la vulnérabilité peuvent être répartis à de grande distance dans le code, le besoin de raisonner sur l’allocateur mémoire, ou bien la manipulation de pointeurs. L’approche proposé consiste en deux étapes. Premièrement, une analyse statique, basée sur une analyse légère, mais non sûre, appelé GUEB, permet de traquer les accès mémoire ainsi que l’état des éléments du tas (alloué / libéré / utilisé) . Cette analyse mène à un slice de programme contenant de potentiel use-after-free. La seconde étape vient alors confirmer ou non la présence de vulnérabilité dans ces slices, et est basée sur un moteur d'exécution symbolique guidé, développé dans la plateforme Binsec. Ce moteur permet de générer des entrées du programme réel déclenchant un use-after-free. Cette combinaison s’est montré performante en pratique et a permis de détecter plusieurs use-after-free qui étaient précédemment inconnu dans plusieurs codes réels. L’implémentation des outils est disponible en open-source et fonctionne sur du code x86. / Security is becoming a major concern in software development, both for software editors, end-users, and government agencies. A typical problem is vulnerability detection, which consists in finding in a code bugs able to let an attacker gain some unforeseen privileges like reading or writing sensible data, or even hijacking the program execution.This thesis proposes a practical approach to detect a specific kind of vulnerability, called use-after-free, occurring when a heap memory block is accessed after being freed. Such vulnerabilities have lead to numerous exploits (in particular against web browsers), and they are difficult to detect since they may involve several distant events in the code (allocating, freeingand accessing a memory block).The approach proposed consists in two steps. First, a coarse-grain and unsound binary level static analysis, called GUEB, allows to track heap memory blocks operation (allocation, free, and use). This leads to a program slice containing potential use-after-free. Then, a dedicated guided dynamic symbolic execution, developed within the Binsec plateform, is used to retrieve concreteprogram inputs aiming to trigger these use-after-free. This combination happened to be be effective in practice and allowed to detect several unknown vulnerabilities in real-life code. The implementation is available as an open-source tool-chain operating on x86 binary code.
27

Rétro-ingénierie de programmes binaires en une exécution : une analyse dynamique légère basée au niveau des fonctions / Reverse-engineering of binaries in a single execution : a lightweight function-grained dynamic analysis

Goër de Herve, Franck de 20 October 2017 (has links)
Dans cette thèse, nous proposons une nouvelle approche d’analyse dynamique de programmes binaires. Ce travail se place dans un contexte de rétro-conception de binaires avec des motivations liées à la sécurité : compréhension de logiciels malveillants, détection de vulnérabilités, etc. Concrètement, nous nous intéressons à retrouver des informations de haut niveau à partir d’un binaire en une seule exécution : les prototypes de fonctions, une nouvelle notion que nous nommons « couplage », et les allocateurs mémoire. L’approche proposée est basée sur des heuristiques afin d’analyser rapidement de larges programmes, et les résultats expérimentaux montrent qu’une telle approche permet d’obtenir des résultats précis.Les trois objectifs principaux de notre approche sont : 1) l’universalité - les hypothèses sur le programme à analyser sont le plus faibles possibles (pas de recompilation nécessaire, pas de source, applicable à des programmes strippés), 2) le passage à l’échelle - l’analyse se veut suffisamment légère pour pouvoir analyser de gros programmes, 3) la correction - dans les résultats produits, on cherche à minimiser les faux- positifs (par exemple, détecter des paramètres de fonction qui n’existent pas).La thèse se découpe en trois parties : une première partie dans laquelle on présente le contexte de rétro-conception dans lequel ce travail se situe, une seconde partie dans laquelle nous présentons notre approche, et une troisième partie qui détaille notre implémentation et des résultats numériques. / In this thesis, we propose a new dynamic approach to analyze binary programs. The context of this work is reverse-engineering binaries with motivations related to security: understanding malwares, detecting vulnerabilities, etc. Concretely, we focus on retrieving high-level information from a binary in a single execution: function prototypes, a new notion we name coupling, and memory allocators. The proposed approach is based on heuristics to analyze efficiently large programs, and experimental results show that with an approach leads to accurate results.The three main objectives of the approach are: 1) universality - hypothesis on the program to analyze are as weak as possible (no recompilation, no source code, possibly stripped), 2) scalability - the analysis aims to be lightweight enough to handle large programs, 3) soundness - we aim to minimize false positives in the results (e.g., detecting parameters of functions that actually do not exist).The thesis is divided in three parts: a first part presenting the context of reverse-engineering we work in, a second part in which we present our approach, and a third part to describe our implementation and numeric results.
28

Multi-scale approach of the formation and evolution of star clusters / Approche multi-échelle de la formation et l'évolution des amas d'étoiles

Dorval, Julien 30 September 2016 (has links)
Les jeunes amas d'étoiles sont sous-structurés et évoluent dynamiquement pour former des amas sphériques à l'équilibre. Je présente une nouvelle méthode pour générer des conditions initiales réalistes pour simuler ce processus: la fragmentation de Hubble-Lemaitre. Je laisse le système développer spontanément des surdensités au cours d'une expansion du système. Le modèle résultant se compare bien aux simulations hydrodynamiques de formation stellaire et aux observations des jeunes amas. Le modèle fragmenté s'effondre de manière plus douce qu'un modèle uniforme. L'injection d'une population d'étoile binaire avant l'effondrement a montré qu'un système sous-structuré détruisait bien plus de binaires qu'un système à l'équilibre. Des binaires particulièrement larges ou serrées, jusqu’à 0.01 AU, ont également été détectées dans ces modèles. Cette méthode est très prometteuse, un exemple d'application est la génération d'observations synthétiques de régions de formation stellaire. / Young star clusters are substructured and undergo a dynamical evolution erasing this substructure to form relaxed spherical clusters. I present a new method to generate realistic initial conditions to perform N-body simulations of this process: the Hubble-Lemaitre fragmentation. By expanding an initially uniform sphere, I allow spontaneous overdensities to grow, creating a realistic model for young clumpy stellar systems. This method is validated by analysing the distribution and content of the clumps and comparing them to hydrodynamical simulations of star formation as well as observations of star forming regions. These systems undergo a softer collapse than uniform ones. I injected binary stars in the fragmented models and found they were heavily processed when substructure was present. I also found extreme short and tight binaries, down to 0.01 AU, to formin the models. The method has a lot of potential, such as the generation of mock observations of star-forming regions.
29

Contributions à la traduction binaire dynamique : support du parallélisme d'instructions et génération de traducteurs optimisés / Contributions to dynamic binary translation : instruction parallelism support and optimized translators generator

Michel, Luc 18 December 2014 (has links)
Les unités de calculs qui composent les systèmes intégrés numériques d'aujourd'hui sont complexes, hétérogènes, et en nombre toujours croissant.La simulation, largement utilisée tant dans les phases de conception logicielle que matérielle de ces systèmes devient donc un vrai défi.Lors de la simulation du système, la performance est en grande partie édictée par la stratégie de simulation des jeux d'instructions des processeurs.La traduction binaire dynamique (DBT) est une technique qui a fait ses preuves dans ce contexte.Le principe de cette solution est de traduire au fur et à mesure les instructions du programme simulé (la cible), en instructions compréhensibles par la machine exécutant la simulation (l'hôte).C'est une technique rapide, mais la réalisation de simulateurs fondée sur cette technologie reste complexe.Elle est d'une part limitée en terme d'architectures cibles supportées, et d'autre part compliquée dans sa mise en œuvre effective qui requiert de longs et délicats développements.Les travaux menés dans cette thèse s'articulent autour de deux contributions majeures.La première s'attaque au support des architectures cibles de type Very Long Instruction Word (VLIW), en étudiant leurs particularités vis-à-vis de la DBT.Certaines de ces spécificités, tel le parallélisme explicite entre instructions, rendent la traduction vers un processeur hôte scalaire non triviale.La solution que nous proposons apporte des gains en vitesse de simulation d'environ deux ordres de grandeur par rapport à des simulateurs basés sur des techniques d'interprétation.La seconde contribution s'intéresse à la génération automatique de simulateurs basés sur la DBT.À partir d'une description architecturale de la cible et de l'hôte, nous cherchons à produire un simulateur qui soit optimisé pour ce couple.L'optimisation est faite grâce au processus de mise en correspondance des instructions du couple afin de sélectionner la ou les meilleures instructions hôtes pour simuler une instruction cible.Bien qu'expérimental, le générateur réalisé donne des résultats très prometteurs puisqu'il est à même de produire un simulateur pour l'architecture MIPS aux performances comparables à celles d'une implémentation manuelle. / Computing units embedded into modern integrated systems are com-plex, heterogeneous and numerous. Simulation widely used during both software and hardware designof these systems is becoming a real challenge. The simulator performance ismainly driven by the processors instruction set simulation approach, among which Dynamic BinaryTranslation (DBT) is one of the most promising technique. DBT aims at transla-ting on the fly instructions of the simulated processor (the target) into instructions that canbe understood by the computer running the simulation (the host). This technique is fast,but designing a simulator based on it is complex. Indeed, the number of target architecturesis limited, and furthermore, implementing a simulator is a complicated process because oflong and error prone development.This PhD contributes to solve two major issues. The first contribution tackles the problem ofsupporting Very Long Instruction Word (VLIW) architectures as simulation targets,by studying their architecture peculiarities with regards to DBT. Some of these specificities,like explicit instruction parallelism make the translation to scalar hosts nontrivial. Thesolutions we propose bring simulation speed gains of two orders of magnitude compared tointerpreter based simulators. The second contribution addresses the problem of automaticgeneration of DBT based simulators. With both target and host architectural descriptions,we produce a simulator optimised for this pair. This optimisation is done with an instructionsmatching process that finds host instruction candidates to simulate a target instruction.Although being experimental, our generator gives very promising results. It is able toproduce a simulator for the MIPS architecture whose performances are close to a hand writtenimplementation.
30

Essai sur l'articulation des sources du droit dans l'approche du droit de propriété / Essay on the articulation of sources of law : in the approach of the comparison of the property law

Chen, Fei 16 December 2014 (has links)
Le droit de propriété est le fondement du système social occidental tant au niveau juridique qu'au niveau idéologique. Pourtant, la vénération de ce droit implique l'existence de la pensée binaire qui engendre une concurrence (pour ne pas dire confrontation) permanente : privé-public, individualisme-collectivisme, moi-autrui. C'est ainsi qu’il est difficile de comprendre l'existence d'une pensée sinisée dans laquelle la notion du droit de propriété fait défaut. Quand les règles du droit deviennent un support des règles du rite alors que le but du droit ne consiste plus en la recherche de la justice mais de l'harmonie, un autre mode de pensée est dès lors apparu. Ce mode de pensée, négligé pendant longtemps par les théoriciens attire néanmoins de plus en plus l’attention aujourd'hui. Mais en quoi consiste-t-il ? Quels effet pourrait-il donner au droit de propriété? Est-il possible de l'articuler avec la pensée binaire dans le domaine juridique ? Cette thèse essaye de traiter ces questions dans l’approche du droit comparé. / The property law is the foundation of Western social system both at the legal level and at the ideological level. However, the veneration of this category of law implies the existence of binary theories creating permanent competition (if not using the word "confrontation") : Private-public, individualism-collectivism, me-others... Thus, it is difficult to understand the existence of a Sinitic thought in which the concept of property is lacking. That is why when the regulation of law become a carrier of the rules of the rite, while the purpose of the law is no longer the pursuit of justice but of harmony, another way of thinking has therefore appeared. This way of thinking, long neglected by theorists, nevertheless attracts more and more attention today : But what does it consist of ? What effects it could give to the property rights ? Is it possible to articulate with binary thinking in the legal field ? This thesis attempts to address these issues in the approach of comparative law.

Page generated in 0.0418 seconds