• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 58
  • 31
  • 3
  • 1
  • 1
  • Tagged with
  • 93
  • 34
  • 31
  • 30
  • 22
  • 20
  • 17
  • 16
  • 13
  • 12
  • 11
  • 10
  • 10
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Comportements d'épargne des ménages français et européens / Savings behaviour of French and European households

Antonin, Céline 25 October 2017 (has links)
Cette thèse étudie les déterminants de l’épargne des ménages, à la fois dans leur dimension microéconomique et macroéconomique, en coupe et en panel. L’étude de ces déterminants ne se limite pas au cas français, mais est également étendue à la zone euro, au Royaume-Uni et aux États-Unis. Le premier chapitre introductif rappelle les principaux modèles et théories de l’épargne développés depuis les années 1930, et compare les approches macroéconomique et microéconomique de l’épargne des ménages. Les principales différences entre ces deux approches sont mises en exergue, ainsi que les hypothèses qui sous-tendent le passage du niveau micro au niveau agrégé. Dans un deuxième chapitre, on teste d'abord l’homogénéité des comportements d'épargne en étudiant les liens entre taux d’épargne et revenu (courant et permanent) des ménages français, à partir des données de l'enquête INSEE Budget de famille 2011. On met ensuite empiriquement en évidence et on quantifie une épargne de précaution liée au risque sur le revenu. Dans un troisième chapitre, on s’attache à décrire et à expliquer l’hétérogénéité des comportements d’épargne à l’intérieur et entre les pays européens, à partir des déterminants socio-économiques et des variables de protection sociale. On cherche ainsi à mettre en évidence un effet d'éviction entre épargne publique et épargne privée. Le dernier chapitre exploite la dimension macroéconomique de l'épargne et de la consommation : on passe en revue les principaux déterminants de la consommation (donc de l’épargne), avec une analyse particulière de l’effet de richesse, c’est à dire l’impact du patrimoine financier et immobilier sur le comportement d’épargne. / This PhD dissertation investigates the determinants of households’ savings, both in theirmicro- and macroeconomic dimensions, on cross section and panel data. This analysis is notrestricted to the French case, but also examines the euro area, the United Kingdom and theUnited States. The introduction recalls main models and theories of savings which were developed in the 1930s, and compares the macroeconomic and microeconomic approaches of households’ savings. The main discrepancies between these two approaches are highlighted, as well as the hypotheses which underpin the aggregation of data. In the second chapter, I investigate the relationship between savings rates and (current and permanent) income to test the homogeneity of French households’ behaviours. Then I highlight and measure precautionary savings related to the income risk. In the third chapter, I describe the heterogeneity of savings behaviours within and between European countries, by analyzing social and economic determinants and social protection variables. I try to highlight a crowding-out effect between public and private savings. The last chapter is on the macroeconomic side: the main determinants of consumption (and savings) are scanned, with an emphasis on wealth effect – i.e. the effect of financial wealth and real estate wealth on savings rate.
52

Enhancing information security and privacy by combining biometrics with cryptography / La crypto-biométrie, une solution pour une meilleure sécurité tout en protégeant notre vie privée

Kanade, Sanjay Ganesh 20 October 2010 (has links)
La sécurité est un enjeu majeur de notre société numérique. En règle générale, les techniques cryptographiques sont utilisées pour sécuriser l'information avec des clés cryptographiques. Un inconvénient majeur de ces systèmes est le faible lien entre les clés et l’utilisateur. Avec la biométrie on a une preuve plus forte de la présence physique d’un individu, mais ces systèmes possèdent aussi leurs inconvénients, tels que la non-révocabilité ainsi que le potentiel de compromettre notre vie privée. Un axe de recherche multidisciplinaire se profile depuis 1998, la crypto-biométrie. Dans cette thèse des solutions innovantes sont proposées pour améliorer la sécurité tout en protégeant notre vie privée. Plusieurs systèmes crypto-biométriques sont proposés, tels que la biométrie révocable, des systèmes de régénérations de clés crypto-biométriques, ainsi qu’une proposition pratique d’un protocole d'authentification. Ces systèmes sont évaluées sur des bases de données publiques d'images de visage et d'iris / Securing information during its storage and transmission is an important and widely addressed issue. Generally, cryptographic techniques are used for information security. Cryptography requires long keys which need to be kept secret in order to protect the information. The drawback of cryptography is that these keys are not strongly linked to the user identity. In order to strengthen the link between the user's identity and his cryptographic keys, biometrics is combined with cryptography. In this thesis, we present various methods to combine biometrics with cryptography. With this combination, we also address the privacy issue of biometric systems: revocability, template diversity, and privacy protection are added to the biometric verification systems. Finally, we also present a protocol for generating and sharing biometrics based crypto-biometric session keys. These systems are evaluated on publicly available iris and face databases
53

Mesures de sections efficaces d'actinides mineurs d'intérêts pour la transmutation

Kessedjian, Grégoire 19 November 2008 (has links) (PDF)
Les réacteurs actuels produisent deux types de déchets dont la gestion et le devenir soulèvent des problèmes. Il s'agit d'abord de certains produits de fission et de noyaux lourds (isotopes de l'Américium et du Curium) au-delà de l'uranium appelés actinides mineurs. Deux options sont envisagées : le stockage en site géologique profond et/ou l'incinération de ces déchets dans un flux de neutrons rapides, c'est-à-dire, la transmutation par fission. Ces études font appel à de nombreuses données neutroniques. Malheureusement, les bases de données présentent encore de nombreuses insuffisances pour parvenir à des résultats fiables. L'objectif de ce travail est ici d'actualiser des données nucléaires et de les compléter. Nous avons ainsi mesuré la section efficace de fission de l'243Am (7370 ans) en référence à la diffusion élastique (n,p) afin de fournir des données indépendantes des mesures existantes dans la gamme des neutrons rapides (1 - 8 MeV). La réaction 243Am(n,f) a été analysée en utilisant un modèle statistique décrivant les voies de désexcitation du noyau composé d'244Am. Ainsi les sections efficaces de capture radiative (n,) et de diffusion inélastique (n,n') ont pu être évaluées. La mesure directe des sections efficaces neutroniques d'actinides mineurs constitue très souvent un véritable défi compte tenu de la forte activité des actinides mineurs. Pour cela, une méthode indirecte a été développée utilisant les réactions de transfert dans le but d'étudier certains isotopes du curium. Les réactions 243Am(3He,d)244Cm, 243Am(3He,t)243Cm et 243Am(3He,alpha)242Am nous ont permis de mesurer les probabilités de fission des noyaux de 243,244Cm et de l'242Am. Les sections efficaces de fission des curiums 242,243Cm(162,9 j, 28,5 ans) et de l'américium 241Am sont obtenues en multipliant ces probabilités par les sections efficaces calculées de formation des noyaux composés. Pour chaque mesure, une évaluation précise des erreurs a été réalisée à travers une étude des variances-covariances des résultats présentés. Pour les mesures de la réaction 243Am(n,f), une analyse des corrélations d'erreurs a permis d'interpréter la portée de ces mesures au sein des mesures existantes.
54

Étude d'une stratégie d'autotest intégré pour le compilateur de silicium SYCO

Torki, Kholdoun 12 July 1990 (has links) (PDF)
Bien que les techniques d'autotest intégré soient en perpétuel développement sous forme de théories et de schémas de conception, leur réalisation concrète et leur implémentation posent des problèmes cruciaux. Une stratégie d'autotest intégré est proposée dans cette thèse pour des circuits générés par compilation de silicium. Le schéma UBIST d'unification du test en-ligne et hors-ligne assure la plupart des tests nécessaires durant la vie d'un circuit intégré (test de fin de fabrication, test de maintenance, test en-ligne,...). A la base du schéma ubist se trouve le schéma self-checking (test en-ligne, pour lequel le circuit est compose de blocs fonctionnels strongly fault secure (sfs) et de contrôleurs strongly code disjoint (scd). Le but a atteindre par de tels circuits est couramment appelé le totally self-checking goal, qui consiste a détecter la première erreur survenant aux sorties du bloc fonctionnel, sous forme d'indication d'erreur sur les sorties du contrôleur. Autour de ce schéma self-checking est implémentée une structure de test, du type bilbo, assurant des phases de test hors-ligne, qui a pour objectif d'augmenter le taux de couverture des pannes multiples et de renforcer les propriétés SFS et SCD pour certains blocs fonctionnels et contrôleurs. L'unification des tests en-ligne et hors-ligne permet de tirer les avantages de chacun de ces tests, permettant une implémentation efficace d'autotest intégré. Une méthodologie de conception pour implémenter ce schéma UBIST est proposée pour des parties contrôle hiérarchiques a base de plas et des parties operatives parallèles en structure bit-slice (du type de celle du mc 68000). Ce sont les architectures cibles utilisées par le compilateur de silicium SYCO (développé au sein de l'équipe d'architecture des ordinateurs du laboratoire TIM3/IMAG). Une solution topologique efficace est proposée pour ces schémas UBIST
55

Contribution à l'étude du traitement des erreurs au niveau lexico-syntaxique dans un texte écrit en français

Strube Den Lima, Vare Lucia 15 March 1990 (has links) (PDF)
Cette thèse aborde le thème du traitement des erreurs aux niveaux lexical et syntaxique dans un texte écrit en français. Nous présentons d'abord une approche générale des erreurs pouvant apparaitre dans un texte. Nous donnons les éléments de base d'un ensemble de méthodes utilisées actuellement dans le traitement d'erreurs aux niveaux lexical et syntaxique et décrivons des méthodes de correction proposées dans les principales études réalisées dans le domaine de la correction. Après une brève description de l'environnement pilaf de traitement de la langue naturelle, ou s'insère l'étude en question, nous proposons et décrivons la mise en œuvre d'un algorithme de correction d'erreurs lexicales par la phonétique applicable a un dictionnaire de grandeur réelle. Cet algorithme realise la transduction phonétique du mot a corriger, suivie de sa reconstitution graphique. Nous présentons ensuite la mise en œuvre d'un pré-prototype de vérification syntaxique et de correction des erreurs d'accord. La vérification syntaxique est réalisée par unifications de traits; la détection d'une faute d'accord est a l'origine d'une correction par génération morphologique. Une maquette de détection/correction d'erreurs au niveau lexico-syntaxique permet de démontrer la faisabilité d'un système multi-algorithmique de détection/correction d'erreurs au niveau lexico-syntaxique
56

Transmission robuste et fiable du multimédia sur Internet

Ramos Ramos, Víctor Manuel 07 December 2004 (has links) (PDF)
Dans cette thèse, nous proposons des modèles pour évaluer les performances des applications multimédias temps-réel. De plus, nous proposons un modèle pour les protocoles de type AIMD. Le premier sujet étudié est un mécanisme de correction d'erreurs (FEC). Premièrement, nous utilisons une file d attente M/M/1/K pour modéliser le réseau. Nous considérons que la qualité de la voix varie linéairement par rapport au taux de redondance de la FEC. La redondance du i-ème paquet est portée dans le paquet i+f. Notre analyse montre que, même pour le cas f->inf, ce mécanisme n'améliore pas la qualité de l'audio. Deuxièmement, nous modélisons notre système par une file M/G/1/K. Nous considérons deux aspects qui peuvent contribuer à améliorer la qualité de l'audio: (a) multiplexer l'audio avec un flux exogène, et (b) des fonctions d'utilité non-linéaires. Sous ces contraintes, on montre qu il est possible d'améliorer la qualité de l'audio avec la méthode FEC étudiée. Le deuxième sujet traité concerne les mécanismes de contrôle du délai de diffusion. Nous proposons un ensemble d'algorithmes de moyenne mobile permettant de contrôler le taux de pertes dans une session audio. Les performances de nos algorithmes ont été évaluées et comparées grâce à des traces réelles. Le troisième sujet abordé concerne les protocoles de type AIMD. Nous proposons un modèle analytique, prenant en compte la variabilité du délai. Notre modèle utilise des équations de différences stochastiques. Il fournit une expression close pour le débit et pour la taille de la fenêtre. Nous montrons, par analyse et par simulation, qu'une augmentation de la variabilité du délai améliore les performances d'un protocole AIMD.
57

Contrôle Quantique et Protection de la Cohérence par effet Zénon, Applications à l'Informatique Quantique

Brion, Etienne 26 November 2004 (has links) (PDF)
Le contrôle quantique constitue un enjeu majeur de la Physique contemporaine. Après un bref tour d'horizon du domaine, nous présentons une méthode, appelée contrôle non holonôme, qui permet d'imposer à système quantique quelconque une évolution unitaire arbitrairement choisie. Dans le contexte de l'Informatique Quantique, cette technique peut être utilisée pour réaliser n'importe quelle porte quantique : à titre d'exemple, nous montrons comment appliquer une porte CNOT à un système de deux atomes de Césium froids en interaction.<br />L'interaction de l'ordinateur avec son environnement risque de compromettre sa fiabilité. Le développement récent de la correction d'erreurs quantiques, inspirée des techniques classiques, suggère néanmoins que ce danger peut être évité. Après une présentation succincte du cadre général de la correction d'erreurs, nous proposons une méthode de protection de l'information fondée sur l'effet Zénon. Cette méthode est ensuite appliquée à un atome de Rubidium.
58

Large Scale Content Delivery applied to Files and Videos

Neumann, Christoph 14 December 2005 (has links) (PDF)
Le multicast fiable est certainement la solution la plus efficace pour la distribution de contenu via un<br />tres grand nombre (potentiellement des millions) de recepteurs. Dans cette perspective les protocoles<br />ALC et FLUTE, standardises via l'IETF (RMT WG), ont ete adoptes dans 3GPP/MBMS et dans le<br />DVB-H IP-Datacast dans les contextes des reseaux cellulaires 3G.<br />Ce travail se concentre sur le multicast fiable et a comme requis principal le passage l'echelle massif<br />en terme de nombre de clients. Cette these se base sur les solutions proposees via l'IETF RMT WG.<br />Ces protocoles de multicast fiable sont construit autour de plusieurs briques de base que nous avons<br />etudie en detail:<br />* La brique Forward Error Correction (FEC) :<br />Nous examinons la classe de codes grands blocs Low Density Parity Check (LDPC). Nous concevons<br />des derivees de ces codes, et les analysons en detail. Nous en concluons que les codes<br />LDPC et leur implementation ont des performances tres prometteuses, surtout si ils sont utilisees<br />avec des fichiers de taille importante.<br />* La brique controle de congestion :<br />Nous examinons le comportement dans la phase de demarrage de trois protocoles de controle de<br />congestion RLC, FLID-SL, WEBRC. Nous demontrons que la phase de demarrage a un grand<br />impact sur les performances de telechargement.<br />Cette these a aussi plusieurs contributions au niveau applicatif:<br />* Extensions de FLUTE :<br />Nous proposons un mecanisme permettant d'agreger plusieurs fichiers dans le protocole FLUTE.<br />Ceci ameliore les performance de transmission.<br />* Streaming video :<br />Nous proposons SVSoA, une solution de streaming base sur ALC. Cette approche beneficie de<br />tout les avantages de ALC en terme de passage a l'echelle, controle de congestion et corrections<br />d'erreurs.<br /><br />Mots cles : Multicast fiable, FLUTE, ALC, codes correcteur d'erreurs, Forward Error Correction<br />(FEC), Low Density Parity Check (LDPC) Codes, diffusion de contenu
59

Analyse et développement de méthodes de raffinement hp en espace pour l'équation de transport des neutrons

Fournier, Damien 10 October 2011 (has links) (PDF)
Pour la conception des cœurs de réacteurs de 4ème génération, une précision accrue est requise pour les calculs des différents paramètres neutroniques. Les ressources mémoire et le temps de calcul étant limités, une solution consiste à utiliser des méthodes de raffinement de maillage afin de résoudre l'équation de transport des neutrons. Le flux neutronique, solution de cette équation, dépend de l'énergie, l'angle et l'espace. Les différentes variables sont discrétisées de manière successive. L'énergie avec une approche multigroupe, considérant les différentes grandeurs constantes sur chaque groupe, l'angle par une méthode de collocation, dite approximation Sn. Après discrétisation énergétique et angulaire, un système d'équations hyperboliques couplées ne dépendant plus que de la variable d'espace doit être résolu. Des éléments finis discontinus sont alors utilisés afin de permettre la mise en place de méthodes de raffinement dite hp. La précision de la solution peut alors être améliorée via un raffinement en espace (h-raffinement), consistant à subdiviser une cellule en sous-cellules, ou en ordre (p-raffinement) en augmentant l'ordre de la base de polynômes utilisée.Dans cette thèse, les propriétés de ces méthodes sont analysées et montrent l'importance de la régularité de la solution dans le choix du type de raffinement. Ainsi deux estimateurs d'erreurs permettant de mener le raffinement ont été utilisés. Le premier, suppose des hypothèses de régularité très fortes (solution analytique) alors que le second utilise seulement le fait que la solution est à variations bornées. La comparaison de ces deux estimateurs est faite sur des benchmarks dont on connaît la solution exacte grâce à des méthodes de solutions manufacturées. On peut ainsi analyser le comportement des estimateurs au regard de la régularité de la solution. Grâce à cette étude, une stratégie de raffinement hp utilisant ces deux estimateurs est proposée et comparée à d'autres méthodes rencontrées dans la littérature. L'ensemble des comparaisons est réalisé tant sur des cas simplifiés où l'on connaît la solution exacte que sur des cas réalistes issus de la physique des réacteurs.Ces méthodes adaptatives permettent de réduire considérablement l'empreinte mémoire et le temps de calcul. Afin d'essayer d'améliorer encore ces deux aspects, on propose d'utiliser des maillages différents par groupe d'énergie. En effet, l'allure spatiale du flux étant très dépendante du domaine énergétique, il n'y a a priori aucune raison d'utiliser la même décomposition spatiale. Une telle approche nous oblige à modifier les estimateurs initiaux afin de prendre en compte le couplage entre les différentes énergies. L'étude de ce couplage est réalisé de manière théorique et des solutions numériques sont proposées puis testées.
60

Two Approaches for Achieving Efficient Code-Based Cryptosystems

Misoczki, Rafael 25 November 2013 (has links) (PDF)
La cryptographie basée sur les codes n'est pas largement déployée dans la pratique. Principalement à cause de son inconvénient majeur: des tailles de clés énormes. Dans cette thèse, nous proposons deux approches différentes pour résoudre ce problème. Le premier utilise des codes algébriques, présentant un moyen de construire des codes de Goppa qui admettent une représentation compacte. Ce sont les Codes de Goppa p-adiques. Nous montrons comment construire ces codes pour instancier des systèmes de chiffrement à clé publique, comment étendre cette approche pour instancier un schéma de signature et, enfin, comment généraliser cet approche pour définir des codes de caractéristique plus grande au égale à deux. En résumé, nous avons réussi à produire des clés très compact basé sur la renommée famille de codes de Goppa. Bien qu'efficace, codes de Goppa p-adiques ont une propriété non souhaitable: une forte structure algébrique. Cela nous amène à notre deuxième approche, en utilisant des codes LDPC avec densité augmentée, ou tout simplement des codes MDPC. Ce sont des codes basés sur des graphes, qui sont libres de structure algébrique. Il est très raisonnable de supposer que les codes MDPC sont distinguable seulement en trouvant des mots de code de poids faible dans son dual. Ceci constitue un avantage important non seulement par rapport à tous les autres variantes du système de McEliece à clés compactes, mais aussi en ce qui concerne la version classique basée sur les codes de Goppa binaires. Ici, les clés compactes sont obtenus en utilisant une structure quasi-cyclique.

Page generated in 0.0538 seconds