• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 66
  • 26
  • 7
  • 1
  • Tagged with
  • 112
  • 31
  • 20
  • 16
  • 16
  • 14
  • 11
  • 10
  • 10
  • 9
  • 9
  • 8
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Algorithmes de crible pour le logarithme discret dans les corps finis de moyenne caractéristique / Sieve algorithms for the discrete logarithm in medium characteristic finite fields

Grémy, Laurent 29 September 2017 (has links)
La sécurité des systèmes cryptographiques à clef publique repose sur la difficulté de résoudre certains problèmes mathématiques, parmi lesquels se trouve le problème du logarithme discret sur les corps finis GF(p^n). Dans cette thèse, nous étudions les variantes de l’algorithme de crible algébrique, number field sieve (NFS) en anglais, qui résolvent le plus rapidement ce problème, dans le cas où la caractéristique du corps est dite moyenne. NFS peut être divisé en quatre étapes principales : la sélection polynomiale, la recherche de relations, l’algèbre linéaire et le calcul d’un logarithme individuel. Nous décrivons ces étapes, en insistant sur la recherche de relations, une des étapes les plus coûteuses. Une des manières efficaces de réaliser cette étape est d’utiliser des algorithmes de crible. Contrairement au cas classique où la recherche de relations est réalisée dans un espace à deux dimensions, les corps finis que nous ciblons requièrent une énumération d’éléments dans un espace de plus grande dimension pour atteindre la meilleure complexité théorique. Il existe des algorithmes de crible efficaces en deux dimensions, mais peu pour de plus grandes dimensions. Nous proposons et analysons deux nouveaux algorithmes de crible permettant de traiter n’importe quelle dimension, en insistant particulièrement sur la dimension trois. Nous avons réalisé une implémentation complète de la recherche de relations pour plusieurs variantes de NFS en dimensions trois. Cette implémentation, qui s'appuie sur nos nouveaux algorithmes de crible, est diffusée au sein du logiciel CADO-NFS. Nous avons pu valider ses performances en nous comparant à des exemples de la littérature. Nous avons également été en mesure d’établir deux nouveaux records de calcul de logarithmes discrets, l'un dans un corps GF(p^5) de taille 324 bits et l'autre dans un corps GF(p^6) de taille 422 bits / The security of public-key cryptography relies mainly on the difficulty to solve some mathematical problems, among which the discrete logarithm problem on finite fields GF(p^n). In this thesis, we study the variants of the number field sieve (NFS) algorithm, which solve the most efficiently this problem, in the case where the characteristic of the field is medium. The NFS algorithm can be divided into four main steps: the polynomial selection, the relation collection, the linear algebra and the computation of an individual logarithm. We describe these steps and focus on the relation collection, one of the most costly steps. A way to perform it efficiently is to make use of sieve algorithms. Contrary to the classical case for which the relation collection takes place in a two-dimensional space, the finite fields we target require the enumeration of elements in a higher-dimensional space to reach the best theoretical complexity. There exist efficient sieve algorithms in two dimensions, but only a few in higher dimensions. We propose and study two new sieve algorithms allowing us to treat any dimensions, with an emphasis on the three-dimensional case. We have provided a complete implementation of the relation collection for some variants of the NFS in three dimensions. This implementation relies on our new sieve algorithms and is distributed in the CADO-NFS software. We validated its performances by comparing with examples from the literature. We also establish two new discrete logarithm record computations, one in a 324-bit GF(p^5) and one in a 422-bit GF(p^6)
52

Construction de lignes de produits logiciels par rétro-ingénierie de modèles de caractéristiques à partir de variantes de logiciels : l'approche REVPLINE / Reverse Engineering Feature Models From Software Variants to Build Software Product Lines : RIVEPLINE Approach

Al-Msie' Deen, Ra'Fat 24 June 2014 (has links)
Les lignes de produits logicielles constituent une approche permettant de construire et de maintenir une famille de produits logiciels similaires mettant en œuvre des principes de réutilisation. Ces principes favorisent la réduction de l'effort de développement et de maintenance, raccourcissent le temps de mise sur le marché et améliorent la qualité globale du logiciel. La migration de produits logiciels similaires vers une ligne de produits demande de comprendre leurs similitudes et leurs différences qui s'expriment sous forme de caractéristiques (features) offertes. Dans cette thèse, nous nous intéressons au problème de la construction d'une ligne de produits à partir du code source de ses produits et de certains artefacts complémentaires comme les diagrammes de cas d'utilisation, quand ils existent. Nous proposons des contributions sur l'une des étapes principales dans cette construction, qui consiste à extraire et à organiser un modèle de caractéristiques (feature model) dans un mode automatisé. La première contribution consiste à extraire des caractéristiques dans le code source de variantes de logiciels écrits dans le paradigme objet. Trois techniques sont mises en œuvre pour parvenir à cet objectif : l'Analyse Formelle de Concepts, l'Indexation Sémantique Latente et l'analyse des dépendances structurelles dans le code. Elles exploitent les parties communes et variables au niveau du code source. La seconde contribution s'attache à documenter une caractéristique extraite par un nom et une description. Elle exploite le code source mais également les diagrammes de cas d'utilisation, qui contiennent, en plus de l'organisation logique des fonctionnalités externes, des descriptions textuelles de ces mêmes fonctionnalités. En plus des techniques précédentes, elle s'appuie sur l'Analyse Relationnelle de Concepts afin de former des groupes d'entités d'après leurs relations. Dans la troisième contribution, nous proposons une approche visant à organiser les caractéristiques, une fois documentées, dans un modèle de caractéristiques. Ce modèle de caractéristiques est un arbre étiqueté par des opérations et muni d'expressions logiques qui met en valeur les caractéristiques obligatoires, les caractéristiques optionnelles, des groupes de caractéristiques (groupes ET, OU, OU exclusif), et des contraintes complémentaires textuelles sous forme d'implication ou d'exclusion mutuelle. Ce modèle est obtenu par analyse d'une structure obtenue par Analyse Formelle de Concepts appliquée à la description des variantes par les caractéristiques. L'approche est validée sur trois cas d'étude principaux : ArgoUML-SPL, Health complaint-SPL et Mobile media. Ces cas d'études sont déjà des lignes de produits constituées. Nous considérons plusieurs produits issus de ces lignes comme s'ils étaient des variantes de logiciels, nous appliquons notre approche, puis nous évaluons son efficacité par comparaison entre les modèles de caractéristiques extraits automatiquement et les modèles de caractéristiques initiaux (conçus par les développeurs des lignes de produits analysées). / The idea of Software Product Line (SPL) approach is to manage a family of similar software products in a reuse-based way. Reuse avoids repetitions, which helps reduce development/maintenance effort, shorten time-to-market and improve overall quality of software. To migrate from existing software product variants into SPL, one has to understand how they are similar and how they differ one from another. Companies often develop a set of software variants that share some features and differ in other ones to meet specific requirements. To exploit existing software variants and build a software product line, a feature model must be built as a first step. To do so, it is necessary to extract mandatory and optional features in addition to associate each feature with its name. Then, it is important to organize the mined and documented features into a feature model. In this context, our thesis proposes three contributions.Thus, we propose, in this dissertation as a first contribution a new approach to mine features from the object-oriented source code of a set of software variants based on Formal Concept Analysis, code dependency and Latent Semantic Indexing. The novelty of our approach is that it exploits commonality and variability across software variants, at source code level, to run Information Retrieval methods in an efficient way. The second contribution consists in documenting the mined feature implementations based on Formal Concept Analysis, Latent Semantic Indexing and Relational Concept Analysis. We propose a complementary approach, which aims to document the mined feature implementations by giving names and descriptions, based on the feature implementations and use-case diagrams of software variants. The novelty of our approach is that it exploits commonality and variability across software variants, at feature implementations and use-cases levels, to run Information Retrieval methods in an efficient way. In the third contribution, we propose an automatic approach to organize the mined documented features into a feature model. Features are organized in a tree which highlights mandatory features, optional features and feature groups (and, or, xor groups). The feature model is completed with requirement and mutual exclusion constraints. We rely on Formal Concept Analysis and software configurations to mine a unique and consistent feature model. To validate our approach, we applied it on three case studies: ArgoUML-SPL, Health complaint-SPL, Mobile media software product variants. The results of this evaluation validate the relevance and the performance of our proposal as most of the features and its constraints were correctly identified.
53

Comprendre les situations d’exposition aux nanoparticules par l’intégration de l’activité de travail à la mesure : vers une construction de la prévention / Understanding exposure situations to nanoparticles by integrating work activity with measurement : towards a construction of prevention

Galey, Louis 24 June 2019 (has links)
Le récent développement des nanotechnologies induit des expositions potentielles aux nanoparticules dans une diversité de milieux professionnels. Une meilleure appréhension des risques et des expositions professionnelles aux nanoparticules représente alors un enjeu essentiel pour les acteurs de la prévention, ce qui nécessite d’enrichir, voire de rompre, avec les approches classiques de métrologie et de prévention. Dans ce contexte, notre thèse se centre sur le développement d’une méthodologie transdisciplinaire intégrant l’analyse de l’activité à la mesure afin de produire des connaissances sur l’exposition aux nanoparticules et sa maîtrise. A partir de la construction et de la validation d’une méthodologie par des spécialistes de la mesure des nanoparticules, de l’épidémiologie et de l’ergonomie, nos résultats s’orientent autour de trois axes. 1) La revue systématique de la littérature des préconisations actuelles pour évaluer les expositions professionnelles aux nanoparticules met en avant l’existence de 23 documents centrés sur la mesure des nanoparticules manufacturées seulement sans s’intéresser aux nanoparticules émises non intentionnellement par certains procédés industriels. Par ailleurs, ces recommandations à destination des préventeurs doivent évoluer pour une meilleure prise en compte de l’activité de travail et devenir opérationnelles. 2) La méthode d’évaluation de l’exposition produite tenant compte de ces limites, est passée par une mobilisation des acteurs de l’entreprise pour collecter des informations sur les situations potentielles d’exposition. Ensuite, des mesurages en temps réel et intégrés des aérosols, accompagnés d’enregistrements de la fréquence cardiaque et respiratoire sont synchronisés à des vidéos de situations de travail. Un découpage à différentes échelles temporelles en phase de l’activité ou en action détaillée de l’opérateur, conduit à révéler des situations d’exposition réelles aux nanoparticules, et évaluer leurs niveaux d’exposition intégrant l’intensité physique. 3) Nous montrons que les échanges avec les opérateurs lors d’entretiens de confrontation aux vidéos et mesures synchronisées, permettent de rendre visibles ces situations d’exposition et leurs déterminants, sous forme de situations d’exposition caractéristiques. Cette présentation des résultats de l’analyse de l’activité, contribue à comprendre et mettre en perspective les pratiques de sécurité formelles pour les faire évoluer. C’est par ces échanges collectifs que les déterminants de l’exposition sont découverts, ce qui permet aux différents acteurs de renforcer la maîtrise de l’exposition. L’usage des situations d’exposition est aussi un moyen d’agir sur les projets de conception en transférant des repères pour la conception et la prévention. Il devient alors possible d’enrichir les évaluations de l’exposition aux nanoparticules et contribuer à la construction collective de la sécurité dans l’innovation. / The recent development of nanotechnologies has led to potential exposures to nanoparticles in a variety of workplaces. A better understanding of occupational exposures to nanoparticles represents a major stake for prevention stakeholders. These exposures require an overhaul of, and perhaps a break from traditional metrology and prevention approaches, as they are challenged by the particular characteristics of nanoparticles. In this context, this thesis focuses on the development of a transdisciplinary methodology integrating work activity analysis with measurement in order to produce knowledges on exposure to nanoparticles and its control.From the construction and the validation of a methodology between specialists in nanoparticle measurement, epidemiology and ergonomics, our results follow three axes. 1) The systematic review of the literature on current recommendations for assessing occupational exposures to nanoparticles highlights the existence of 23 documents focusing on the measurement of manufactured nanoparticles only, excluding nanoparticles emitted unintentionally by some industrial processes. In addition, these recommendations for preventionists must evolve to take better account of work activity and become operational. 2) The exposure assessment method developed in this thesis work is based on the mobilization of the company's stakeholders to gather information on potential exposure situations. Then, real-time as well as time averaged aerosol measurements, accompanied by heart rate recording, were synchronized with videos of work situations. A breakdown at different time scales, at the work activity stage or in more detailed action carried out by the operator, revealed real exposure situations to nanoparticles, and characterized the associated exposure levels, taking into account the physical intensity of the work. 3) We show that discussions with operators during confrontation interviews involving real-time measurement synchronized to videos of the work activity, made it possible to make these exposure situations and their determinants visible, in the form of “typical exposure situations”. Presenting the results in association with the work activity analysis in the companies contributes to understanding and questioning the regulated safety practices to make them change. It is through these collective exchanges that the determinants of exposure are discovered, allowing to the company’s stakeholders to improve exposure control. The use of exposure situations is also a means of influencing design projects by transferring requirements for conception or prevention. It therefore becomes possible to expand exposure assessment to nanoparticles and contribute to collectively build safety within innovation.
54

Tests d'indépendance en analyse multivariée et tests de normalité dans les modèles ARMA

Lafaye De Micheaux, Pierre 16 December 2002 (has links) (PDF)
On construit un test d'ajustement de la normalité pour les innovations d'un modèle ARMA( p,q ) de tendance et moyenne connues, basé sur l'approche du test lisse dépendant des données et simple à appliquer. Une vaste étude de simulation est menée pour étudier ce test pour des tailles échantillonnales modérées. Notre approche est en général plus puissante que les tests existants. Le niveau est tenu sur la majeure partie de l'espace paramétrique. Cela est en accord avec les résultats théoriques montrant la supériorité de l'approche du test lisse dépendant des données dans des contextes similaires. Un test d'indépendance (ou d'indépendance sérielle) semi-paramétrique entre des sous-vecteurs de loi normale est proposé, mais sans supposer la normalité jointe de ces marginales. La statistique de test est une fonctionnelle de type Cramér-von Mises d'un processus défini à partir de la fonction caractéristique empirique. Ce processus est défini de façon similaire à celui de Ghoudi et al. (2001) construit à partir de la fonction de répartition empirique et utilisé pour tester l'indépendance entre des marginales univariées. La statistique de test peut être représentée comme une V-statistique. Il est convergent pour détecter toute forme de dépendance. La convergence faible du processus est établie. La distribution asymptotique des fonctionnelles de Cramér-von Mises est approchée par la méthode de Cornish-Fisher au moyen d'une formule de récurrence pour les cumulants et par le calcul numérique des valeurs propres dans la formule d'inversion. La statistique de test est comparée avec celle de Wilks pour l'hypothèse paramétrique d'indépendance dans le modèle MANOVA à un facteur avec effets aléatoires.
55

Algèbre linéaire exacte efficace : le calcul du polynôme caractéristique

Pernet, Clément 27 September 2006 (has links) (PDF)
L'algèbre linéaire est une brique de base essentielle du calcul scientifique. Initialement dominée par le calcul numérique, elle connaît depuis les dix dernières années des progrès considérables en calcul exact. Ces avancées algorithmiques rendant l'approche exacte envisageable, il est devenu nécessaire de considérer leur mise en pratique. Nous présentons la mise en oeuvre de routines de base en algèbre linéaire exacte dont l'efficacité sur les corps finis est comparable celles des BLAS numériques. Au délà des applications propres au calcul exact, nous montrons qu'elles offrent une alternative au calcul numérique multiprécision pour la résolution de certains problèmes numériques mal conditionnés.<br /><br />Le calcul du polynôme caractéristique est l'un des problèmes classiques en algèbre linéaire. Son calcul exact permet par exemple de déterminer la similitude entre deux matrices, par le calcul de la forme normale de Frobenius, ou la cospectralité de deux graphes. Si l'amélioration de sa complexité théorique reste un problème ouvert, tant pour les méthodes denses que boîte noire, nous abordons la question du point de vue de la praticabilité : des algorithmes adaptatifs pour les matrices denses ou boîte noire sont dérivés des meilleurs algorithmes existants pour assurer l'efficacité en pratique. Cela permet de traiter de façon exacte des problèmes de dimensions jusqu'alors inaccessibles.
56

Formes normales de perturbations de matrices : étude et calcul exact

Jeannerod, Claude-Pierre 08 December 2000 (has links) (PDF)
Cette thèse étudie les formes normales rationnelles de perturbations de matrices en vue de la résolution du problème de perturbations pour les valeurs propres : le comportement asymptotique des valeurs propres d'une perturbation de matrice pouvant être entièrement décrit à partir de seulement quelques monômes du polynôme caractéristique, il s'agit essentiellement d'arriver à "lire" ces invariants matriciels directement sur la matrice de départ (perturbations quasi-génériques) ou, à défaut, sur une perturbation qui lui soit semblable (forme réduite). Partant des travaux de Moser et de Lidskii, on propose deux premières formes réduites, chacune étant associée à une famille de perturbations quasi-génériques. Des algorithmes de réduction par similitude polynomiale ainsi que les formes normales correspondantes sont également présentés. Enfin, une généralisation d'un théorème de Lidskii indique une troisième forme réduite, pour laquelle le problème de départ est complètement résolu. L'ensemble de ces résultats trouve une interprétation simple avec le polygone de Newton et l'implantation en Maple des algorithmes proposés a permis de développer une première "boîte à outils" pour les perturbations de matrices.
57

Caractérisation expérimentale du frottement effectif des zones de faille

Chambon, Guillaume 18 December 2003 (has links) (PDF)
Nous présentons une série de résultats expérimentaux visant à modéliser le comportement mécanique d'une zone de faille. Nous avons utilisé un appareil de cisaillement simple annulaire permettant d'appliquer des cisaillements plurimétriques à des échantillons épais de gouge granulaire (sable de quartz). Nos résultats mettent en évidence un nouveau processus spectaculaire d'adoucissement en glissement: le coefficient de frottement effectif de la gouge décroît de 70% sur des distances caractéristiques décimétriques. La diminution progressive du frottement avec le glissement est bien représentée par une loi puissance sans échelle caractéristique de longueur. On constate que ce nouveau processus d'adoucissement permet de rendre compte quantitativement des distances d'adoucissement apparentes et des énergies de fracture mises en jeu durant les grands séismes. Nous proposons de l'inclure dans une extension des lois de frottement classiques de type RSF (``rate- and state-dependent friction''). Outre ces résultats macroscopiques, nous avons aussi pu mesurer, par corrélations d'images, les déformations microscopiques à l'intérieur des échantillons. Dès le début du glissement, la déformation se localise dans une bande de cisaillement broyée d'épaisseur constante. Cette bande est séparée du reste du matériau par une fine zone de transition indurée. On remarque que le processus d'adoucissement macroscopique est systématiquement associé à un effet de relaxation lente des incréments de déformation hors de la bande de cisaillement. Nous interprétons ces deux processus concomitants comme résultant d'un découplage progressif entre la bande de cisaillement et le reste de l'échantillon. L'épaisseur mécanique effective de la gouge est donc significativement plus grande que l'épaisseur de la bande de cisaillement. Nous proposons d'extrapoler nos résultats aux zones de faille naturelles, dont la structure présente souvent de fortes analogies avec celle de nos échantillons cisaillés.
58

Recherche dans les bases de donnees satellitaires des paysages et application au milieu urbain: clustering, consensus et categorisation

Kyrgyzov, Ivan 30 May 2008 (has links) (PDF)
Les images satellitaires ont trouvées une large application pour l'analyse des ressources naturelles et des activités humaines. Les images à haute résolution, e.g., SPOT5, sont très nombreuses. Ceci donne un grand intérêt afin de développer de nouveaux aspects théoriques et des outils pour la fouille d'images. L'objectif de la thèse est la fouille non-supervisée d'images et inclut trois parties principales. Dans la première partie nous démontrons le contenu d'images à haute résolution. Nous décrivons les zones d'images par les caractéristiques texturelles et géométriques. Les algorithmes de clustering sont présentés dans la deuxième partie. Une étude de critères de validité et de mesures d'information est donnée pour estimer la qualité de clustering. Un nouveau critère basé sur la Longueur de Description Minimale (LDM) est proposé pour estimer le nombre optimal de clusters. Par ailleurs, nous proposons un nouveau algorithme hiérarchique basé sur le critère LDM à noyau. Une nouvelle méthode de ''combinaison de clustering'' est présentée dans la thèse pour profiter de différents algorithmes de clustering. Nous développons un algorithme hiérarchique pour optimiser la fonction objective basée sur une matrice de co-association. Une deuxième méthode est proposée qui converge à une solution globale. Nous prouvons que le minimum global peut être trouvé en utilisant l'algorithme de type ''mean shift''. Les avantages de cette méthode sont une convergence rapide et une complexité linéaire. Dans la troisième partie de la thèse un protocole complet de la fouille d'images est proposé. Différents clusterings sont représentés via les relations sémantiques entre les concepts.
59

Etude des phénomènes de Réflexions, de Diaphonie et de Stabilité des alimentations sur les cartes à haute densité d'interconnexions

Amédéo, Alexandre 14 January 2010 (has links) (PDF)
L'étude des différents phénomènes d'Intégrité de Signal (IS) a nécessité la mise en oeuvre d'un véhicule de test (VT) spécifique, conçu suivant des contraintes industrielles. La carte réalisée présente un environnement complexe avec des zones à haute densité d'interconnexions (HDI) et permet d'étudier l'ensemble des phénomènes IS. Une première partie a permis d'étudier les variations sur l'impédance caractéristique des pistes provoquées d'une part par le procédé de fabrication et d'autre part par les contraintes d'un routage HDI. L'impact de ces désadaptations a ensuite été quantifié. L'étude de la diaphonie a nécessité la mise en place d'un modèle de simulation simplifié pour valider la méthodologie utilisée par l'outil d'analyse de la suite Cadence. Les simulations ont ensuite été confrontées aux résultats de mesures pour étudier la validité de l'outil et pour définir la configuration à mettre en oeuvre, afin que les simulations soient représentatives des signaux réels. Une dernière partie est consacrée à l'étude de l'intégrité des alimentations. Les résultats de simulations issus de l'outil Power Integrity sont comparés aux résultats de mesures effectuées sur le VT en utilisant un VNA. Le réseau de découplage est caractérisé par son impédance dans une analyse fréquentielle. Nous avons étudié la caractérisation des plans d'alimentations, des modèles de condensateur ainsi que les inductances parasites introduites par le placement et le routage. Enfin, une étude a été effectuée pour optimiser le placement des condensateurs de découplage sur le circuit imprimé tout en limitant l'apparition d'inductances parasites.
60

Groupe fondamental premier à p, nombre de Milnor des singularités isolées, motifs de dimension inférieure ou égale à 1

Orgogozo, Fabrice 30 June 2003 (has links) (PDF)
Dans le premier chapitre, on démontre divers résultats sur le plus grand quotient du groupe fondamental étale premier aux caractéristiques, parmi lesquels la formule de Künneth et l'invariance par changement de corps séparablement clos pour les schémas de type fini sur un corps. Ces énoncés sont déduits de faits généraux sur les images directes de champs, une fois spécialisés au cas des torseurs sous un groupe constant fini d'ordre inversible sur la base. Des résultats analogues<br />pour le groupe fondamental modéré sont également discutés.<br /><br />Au deuxième chapitre, on déduit de la formule du conducteur, conjecturée par S. Bloch, celle de P. Deligne exprimant, dans le cas d'une singularité isolée, la dimension totale des cycles évanescents en fonction du nombre de Milnor.<br />En particulier, la formule de Deligne est établie en dimension relative un.<br /><br />Dans le troisième chapitre, on compare les 1-isomotifs de P. Deligne sur un corps avec la théorie de V. Voevodsky en dimension inférieure à 1.

Page generated in 0.0723 seconds