• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1009
  • 502
  • 139
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 1641
  • 459
  • 446
  • 336
  • 328
  • 290
  • 262
  • 250
  • 233
  • 217
  • 203
  • 188
  • 178
  • 165
  • 162
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Implémentation des filtres non-linéaires de rang sur des architectures universelles et reconfigurables

Milojevic, Dragomir 08 November 2004 (has links)
Les filtres non-linéaires de rang sont souvent utilisés dans le but de rehausser la qualité d'une image numérique. Leur application permet de faciliter l'interprétation visuelle et la compréhension du contenu des images que ce soit pour un opérateur humain ou pour un traitement automatique ultérieur. Dans le pipeline d'une chaîne habituelle de traitement des images, ces filtres sont appliqués généralement dans la phase de pré-traitement, juste après l'acquisition et avant le traitement et l'analyse d'image proprement dit. Les filtres de rang sont considérés comme un important goulot d'étranglement dans la chaîne de traitement, à cause du tri des pixels dans chaque voisinage, à effectuer pour tout pixel de l'image. Les temps de calcul augmentent de façon significative avec la taille de l'image à traiter, la taille du voisinage considéré et lorsque le rang approche la médiane. Cette thèse propose deux solutions à l'accélération du temps de traitement des filtres de rang. La première solution vise l'exploitation des différents niveaux de parallélisme des ordinateurs personnels d'aujourd'hui, notamment le parallélisme de données et le parallélisme inter-processeurs. Une telle approche présente un facteur d'accélération de l'ordre de 10 par rapport à une approche classique qui fait abstraction du matériel grâce aux compilateurs des langages évolués. Si le débit résultant des pixels traités, de l'ordre d'une dizaine de millions de pixels par seconde, permet de travailler en temps réel avec des applications vidéo, peu de temps reste pour d'autres traitements dans la chaîne. La deuxième solution proposée est basée sur le concept de calcul reconfigurable et réalisée à l'aide des circuits FPGA (Field Programmable Gate Array). Le système décrit combine les algorithmes de type bit-série et la haute densité des circuits FPGA actuels. Il en résulte un système de traitement hautement parallèle, impliquant des centaines d'unités de traitement par circuit FPGA et permet d'arriver à un facteur d'accélération supplémentaire de l'ordre de 10 par rapport à la première solution présentée. Un tel système, inséré entre une source d'image numérique et un système hôte, effectue le calcul des filtres de rang avec un débit de l'ordre de centaine de millions de pixels par seconde.
62

Modèles formels du calcul quantique : ressources, machines abstraites et calcul par mesure

Perdrix, Simon 11 December 2006 (has links) (PDF)
L'étude des structures fondamentales du traitement de l'information quantique est un défi majeur, dont l'un des objectifs est de mieux cerner les capacités et les limites de l'ordinateur quantique, tout en contribuant à sa réalisation physique notamment en s'intéressant aux ressources du calcul quantique. Les ressources d'un calcul quantique incluent le temps et l'espace mais également la taille des opérations utilisées et la quantité d'intrication. <br /> Cette thèse contribue de plusieurs manières à la recherche de ressources minimales dans le cadre de modèles de calcul quantique ouvrant de prometteuses perspectives de réalisations physiques. Ces modèles sont le calcul par consommation d'intrication et le calcul par mesures projectives. Cette thèse a également permis de réduire les ressources en temps et en espace nécessaires à la préparation de certains états quantiques, les états graphes. <br /> Etudier la réduction des ressources nécessite l'abstraction et la formalisation des modèles de calcul quantique mettant en évidence les structures même du traitement de l'information quantique. Le q-calcul et les machines de Turing contrôlées classiquement, introduits dans cette thèse, ont cet objectif. Des modèles plus spécifiques au calcul par consommation d'intrication, ou au calcul par mesures projectives sont également considérés.
63

Vers un calcul des constructions pédagogique / Towards a pedagogical calculus of constructions

Demange, Vincent 07 December 2012 (has links)
Les systèmes pédagogiques sont apparus récemment à propos des calculs propositionnels (jusqu'à l'ordre supérieur), et consistent à donner systématiquement des exemples des notions (hypothèses) introduites. Formellement, cela signifie que pour mettre un ensemble Delta de formules en hypothèse, il est requis de donner une substitution sigma telle que les instances de formules sigma(Delta) soient démontrables. Cette nécessité d'exemplification ayant été pointée du doigt par Poincaré (1913) comme relevant du bon sens: une définition d'un objet par postulat n'ayant d'intérêt que si un tel objet peut être construit. Cette restriction appliquée à des systèmes formels intuitionnistes rejoint l'idée des mathématiques sans négation défendues par Griss (1946) au milieu du siècle dernier, et présentées comme une version radicale de l'intuitionnisme. À travers l'isomorphisme de Curry-Howard (1980), la contrepartie calculatoire est l'utilité des programmes définis dans les systèmes fonctionnels correspondant: toute fonction peut être appliquée à un argument clos. Les premiers résultats concernant les calculs propositionnels jusqu'au second ordre ont été publiés récemment par Colson et Michel (2007, 2008, 2009). Nous exposons dans ce rapport une tentative d'uniformisation et d'extension au Calcul des Constructions (CC) des précédents résultats. Tout d'abord une définition formelle et précise de sous-système pédagogique du Calcul des Constructions est introduite, puis différents tels sous-systèmes sont déclinés en exemple / Pedagogical formal systems have appeared recently for propositional calculus (up to the higher order), and it consists of systematically give examples of introduced notions (hypotheses). Formally, it means that to use a set Delta of formulas as hypotheses, one must first give a substitution sigma such that all the instances of formulas sigma(Delta) can be proved. This neccesity of giving examples has been pointed out by Poincaré (1913) as a common-sense practice: a definition of an object by means of assumptions has interest only if such an object can be constructed. This restriction applied to intuitionistic formal systems is consistent with the idea of negationless mathematics advocated by Griss (1946) in the middle of the past century, and shown as a more radical view of intuitionism. Through the Curry-Howard isomorphism (1980), the computational counterpart is the utility of programs defined in the associated functional systems: every function can be applied to a closed value. First results concerning propositional calculi up to the second-order has recently been published by Colson and Michel (2007, 2008, 2009). In this thesis we present an attempt to standardize and to extend to the Calculus of Constructions (CC) those previous results. First a formal and precise definition of pedagogical sub-systems of the Calculus of Constructions is introduced, and different such sub-systems are exhibited as examples
64

Contributions à l'algèbre linéaire exacte sur corps finis et au chiffrement homomorphe / Contributions in sparse linear algebra on finite fields and homomorphic encryption

Vialla, Bastien 14 December 2015 (has links)
Cette thèse est composée de deux axes principaux, le premier portant sur le chiffrement homomorphe et le second sur l’algèbre linéaire creuse sur corps finis. Avec l’essor des technologies de communication et en particulier d’internet, de nouveaux protocoles de chiffrement sont développés. En particulier, le besoin de systèmes de chiffrement permettant de manipuler les données chiffrées tout en assurant leur sécurité. C’est dans ce contexte que des systèmes de chiffrement homomorphe sont développés, ces protocoles permettent d’effectuer des calculs avec des données chiffrées. La sécurité de ce type système repose sur l’ajout de bruit aux messages à chiffrer. Ce bruit augmente avec chaque opération effectuée, mais il ne doit pas dépasser un certain seuil. Pour contourner ce problème, une technique nommée bootstrapping est utilisée permettant de réduire le bruit d’un chiffré. Les bootstrappings sont le goulot d’étranglement lors des calculs sur des données chiffrées, il est important d’en faire le moins possible. Or la quantité de bootstrappings à faire est déterminée par la nature des calculs à effectuer ainsi que du protocole de chiffrement utilisé.C’est dans ce contexte que notre travail intervient, nous proposons une méthode effective pour réduire le nombre bootstrappings basé sur la programmation linéaire en nombre entier. Cette méthode s’adapte à un grand nombre de protocoles de chiffrement. De plus, nous effectuons une analyse de la complexité de ce problème en montrant qu’il est APX-complet et nous fournissons un algorithme d’approximation.La résolution de système linéaire sur corps finis est une brique de calcul essentielle dans de nombreux problèmes de calcul formel. En particulier, beaucoup de problèmes produisent des matrices comprenant un grand nombre de zéros, on dit qu’elles sont creuses. Les meilleurs algorithmes permettant de résoudre ce type de système linéaire creux sont des algorithmes dits itératifs. L’opération fondamentale de ces algorithmes itératifs est la multiplication de la matrice par un vecteur ou une matrice dense. Afin d’obtenir les meilleures performances, il est important de tenir compte des propriétés (SIMD, multicoeurs, hiérarchie des caches ....) des processus modernes .C’est dans ce contexte que notre travail intervient, nous étudions la meilleure façon d’implanter efficacement cette opération sur les processeurs récents.Nous proposons un nouveau format permettant de tenir compte du grand nombre de +- 1 présents dans une matrice.Nous proposons une implantation parallèle basée sur le paradigme du vol de tâche offrant un meilleur passage à l’échelle que le parallélisme par threads.Nous montrons comment exploiter au mieux les instructions SIMD des processeurs dans les différentes opérations.Finalement, nous proposons une méthode efficace permettant d’effectuer cette opération lorsque le corps finis est multiprécision (les éléments sont stockés sur plusieurs mots machine) en ayant recours au système de représentation RNS. / This thesis is composed of two independent parts.The first one is related to homomorphic encryption and the second part deal with sparse linear algebra on finite fields.Homomorphic encryption extends traditional encryption in the sense that it becomes feasible to perform operations on ciphertexts, without the knowledge of the secret decryption key. As such, it enables someone to delegate heavy computations on his sensitive data to an untrusted third party, in a secure way. More precisely, with such a system, one user can encrypt his sensitive data such that the third party can evaluate a function on the encrypted data, without learning any information on the underlying plain data. Getting back the encrypted result, the user can use his secret key to decrypt it and obtain, in clear, the result of the evaluation of the function on his sensitive plain data. For a cloud user, the applications are numerous, and reconcile both a rich user experience and a strong privacy protection.The first fully homomorphic encryption (FHE) scheme, able to handle an arbitrary number of additions and multiplications on ciphertexts, has been proposed by Gentry in 2009.In homomorphic encryption schemes, the executed function is typically represented as an arithmetic circuit. In practice, any circuit can be described as a set of successive operation gates, each one being either a sum or a product performed over some ring.In Gentry’s construction, based on lattices, each ciphertext is associated with some noise, which grows at each operation (addition or multiplication) done throughout the evaluation of the function. When this noise reaches a certain limit, decryption is not possible anymore.To overcome this limitation, closely related to the number of operations that the HE.Eval procedure can handle, Gentry proposed in a technique of noise refreshment called“bootstrapping”.The main idea behind this bootstrapping procedure is to homomorphically run the decryptionprocedure of the scheme on the ciphertext, using an encrypted version of the secret key. In this context, our contribution is twofold. We first prove that the lmax-minimizing bootstrapping problem is APX-complete and NP-complete for lmax ≥ 3. We then propose a new method to determine the minimal number of bootstrappings needed for a given FHE scheme and a given circuit.We use linear programming to find the best outcome for our problem. The main advantage of our method over the previous one is that it is highly flexible and can be adapted for numerous types of homomorphic encryption schemes and circuits.Computing a kernel element of a matrix is a fundamental kernel in many computer algebra and cryptography algorithms. Especially, many applications produces matrices with many matrix elements equals to 0.Those matrices are named sparse matrices. Sparse linear algebra is fundamentally relying on iterative approaches such as Wiedemann or Lanczos. The main idea is to replace the direct manipulation of a sparse matrix with its Krylov subspace. In such approach, the cost is therefore dominated by the computation of the Krylov subspace, which is done by successive product of a matrix by a vector or a dense matrix.Modern processor unit characteristics (SIMD, multicores, caches hierarchy, ...) greatly influence algorithm design.In this context our work deal with the best approach to design efficient implementation of sparse matrix vector product for modern processors.We propose a new sparse matrix format dealing with the many +-1 matrix elements to improve performance.We propose a parallel implementation based on the work stealing paradigm that provide a good scaling on multicores architectures.We study the impact of SIMD instructions on sparse matrix operations.Finally, we provide a modular arithmetic implementation based on residue number system to deal with sparse matrix vector product over multiprecision finite fields.
65

Comportement et durée de vie des pièces multiperforées : application aux aubes de turbine

Cardona, Jean-Marc 20 December 2000 (has links) (PDF)
Les aubes de turbine HP sont des pièces soumises à des contraintes thermiques et mécaniques très fortes mais également variables dans le temps, doù des phénomènes combinés de fatigue et de fluage. Lévolution technologique des matériaux, comme lutilisation de matériaux monocristallins revêtus, permet dacquérir une meilleure résistance au fluage et à la fatigue thermique mais nest plus suffisante. Il a fallu intégrer des technologies de refroidissement interne de plus en plus complexes. Les microcanalisations sont un moyen efficace pour diminuer la température globale de la pièce mais créent des gradients thermiques et des concentrations de contraintes qui peuvent être à lorigine de lamorçage de fissures. Par conséquent, afin détudier le comportement et la durée de vie des aubes de turbines HP, il est important de prendre en compte les singularités géométriques.<br />Un calcul daube multiperforée 3D a donc été réalisé en élasticité, en viscoplasticité isotrope et anisotrope dans des conditions isothermes et anisothermes. La réalisation de calcul de structure de cette taille nest possible que depuis quelques années grâce à laugmentation des puissances de calcul et à lutilisation de calculateurs parallèles. Mais cette approche est toujours trop longue et nest pas compatible avec les délais dun bureau détude. De ce fait, une méthode de dimensionnement daube de turbine pour une utilisation quotidienne basée sur des méthodes dhomogénéisation a été proposée. Elle permet de remplacer la zone hétérogène (les trous du bord dattaque) par un milieu homogène équivalent ayant des propriétés effectives. Ce dernier a été déterminé en élasticité en utilisant les méthodes dhomogénéisation classiques puis en viscosité isotrope et dans le cas du monocristal en utilisant une méthode pragmatique. Les méthodes dhomogénéisation préconisées ont lintérêt de comporter une étape de relocalisation permettant dutiliser les informations du calcul simplifié pour appliquer des conditions aux limites adaptées sur une cellule représentative comportant un trou de refroidissement. Etant donné que le calcul de référence donne létat de contraintes-déformations autour des trous, la prédiction donnée par la méthode de relocalisation pourra être évaluée sans ambiguité.<br />Nous avons également mis en évidence les limites dune telle approche dans le cas de forts gradients de sollicitations. Dans ces conditions de fonctionnement, les méthodes dhomogénéisation classiques sont mises en défaut et le milieu homogène équivalent peut être considéré comme un milieu continu généralisé. Une formulation en thermoélasticité du second gradient est proposée.<br />En parallèle, une étude expérimentale a également été réalisée à lONERA afin détudier linfluence de la perforation sur le comportement et la durée de vie. Des essais de fatigue thermomécaniques, prenant en compte les gradients thermiques observés sur une structure réelle, ont été réalisés jusquà rupture sur des éprouvettes monocristallines revêtues. Ces essais ont été simulés par éléments finis et un modèle de durée de vie en fatigue-fluage-oxydation a été appliqué en post-traitement du calcul de structure. De ce fait des comparaisons calcul-expérience au niveau du comportement et de la durée de vie ont pu être effectuées.
66

Calculs et visualisation en nombres complexes

Testard, Laurent 27 November 1997 (has links) (PDF)
Le but de cette thèse est de fournir des moyens de calcul et de visualisation d'objets mathématiques issus de l'analyse complexe. Dans ce cadre, de nombreux problèmes d'origine mathématique empêchent d'utiliser les nombres complexes aussi naturellement que les nombres réels : indéterminations dans les calculs, nombre élevé de dimensions empêchant les méthodes naïves de visualisation, phénomènes multiformes. Au niveau calcul, quelques méthodes ont été étudiées, menant à la définition d'un modèle de programmation permettant de gérer les indéterminations. Au niveau visualisation, des méthodes adaptées aux objets mathématiques complexes ont été mises au point, en particulier dans le cadre des solutions d'équations différentielles complexes. Toutes ces méthodes (calcul, visualisation) ont été implémentées sous forme de modules dans un environnement commun permettant le prototypage rapide d'expériences, axées notamment sur un couplage entre calcul et visualisation. Les différentes applications présentées dans le document (intégration numérique d'équations différentielles avec des fonctions multiformes, visualisation de solutions d'équations différentielles complexes, visualisation de l'erreur globale estimée pendant une intégration) y ont été intégrées.
67

Scheduling and Dynamic Management of Applications over Grids

Charrier, Ghislain 03 December 2010 (has links) (PDF)
Les travaux présentés dans cette thèse portent sur l'ordonnancement d'applications au sein d'un environnement de grille de calcul. Nous étudions comment mieux gérer les tâches au sein des intergiciels de grille, ceci dans l'objectif d'améliorer les performances globales de la plateforme. Les solutions que nous proposons se situent dans l'intergiciel, ce qui permet de conserver les architectures sous-jacentes sans les modifier. Dans un premier temps, nous proposons un mécanisme de réallocation permettant de prendre en compte dynamiquement les erreurs d'ordonnancement commises lors de la soumission de calculs. En effet, lors de la soumission sur une machine parallèle, il est souvent nécessaire de fournir une estimation du temps d'exécution afin que celle-ci puisse effectuer un ordonnancement. Cependant, les estimations ne sont pas précises et les décisions d'ordonnancement sont sans cesse remises en question. Le mécanisme de réallocation proposé permet de prendre en compte ces changements en déplaçant des calculs d'une machine parallèle à une autre. Le second point auquel nous nous intéressons dans cette thèse est l'ordonnancement d'une application de climatologie sur la grille. Afin de fournir les meilleures performances possibles nous avons modélisé l'application puis proposé des heuristiques spécifiques. Pour exécuter l'application sur une grille de calcul, l'intergiciel utilise ces connaissances sur l'application pour fournir le meilleur ordonnancement possible.
68

Tolérance aux fautes et reconfiguration dynamique pour les applications distribuées à grande échelle

Besseron, Xavier 28 April 2010 (has links) (PDF)
Ce travail se place dans le cadre du calcul haute performance sur des plateformes d'exécution de grande taille telles que les grilles de calcul. Les grilles de calcul sont notamment caractérisées par (1) des changements fréquents des conditions d'exécution et, en particulier, par (2) une probabilité importante de défaillance due au grand nombre de composants. Pour exécuter une application efficacement dans un tel environnement, il est nécessaire de prendre en compte ces paramètres. Nos travaux de recherche reposent sur la représentation abstraite de l'application sous forme d'un graphe de flot de données de l'environnement de programmation parallèle et distribuée Athapascan/Kaapi. Nous utilisons cette représentation abstraite pour apporter des solutions aux problèmes (1) de reconfiguration dynamique et (2) de tolérance aux fautes. - Tout d'abord, nous proposons un mécanisme de reconfiguration dynamique qui gère, de manière transparente pour le programmeur de la reconfiguration, les problèmes d'accès concurrents sur l'état de l'application et la cohérence mutuelle des états en cas de reconfiguration distribuée. - Ensuite, nous présentons un protocole de tolérance aux fautes original qui permet d'effectuer une reprise partielle de l'application en cas de panne. Pour cela, il détermine l'ensemble des tâches de calcul strictement nécessaires à la reprise de l'application. Ces contributions sont évaluées en utilisant les logiciels Kaapi et X-Kaapi sur la plateforme de calcul Grid'5000.
69

The graph rewriting calculus: properties and expressive capabilities

Bertolissi, Clara 28 October 2005 (has links) (PDF)
Ces dernières années, on a assisté au développement du<br />calcul de réécriture, encore appelé rho-calcul, qui intègre de<br />façon uniforme la réécriture de premier ordre et le lambda-calcul.<br />Cette thèse est dédiée à l'étude des capacités d'expression du calcul de réécriture, avec un intérêt particulier pour la réécriture d'ordre supérieur et la possibilité de manipuler des graphes.<br /><br />Dans la première partie de cette thèse, la relation entre le calcul de réécriture et la réécriture d'ordre supérieur, en particulier les Combinatory Reduction Systems (CRSs), est étudiée.<br />Nous présentons d'abord un algorithme de filtrage original<br />pour les CRSs qui utilise une traduction des termes CRS en<br />lambda-termes et le filtrage d'ordre supérieur classique du lambda-calcul. Nous proposons ensuite un encodage des CRSs dans le rho-calcul<br />basé sur la traduction de chaque réduction CRS<br />en une réduction correspondante dans le rho-calcul.<br />Dans la deuxième partie, nous présentons une extension du rho-calcul,<br />appelé calcul de réécriture de graphes (ou Rg-calcul),<br />qui gère des termes avec partage et cycles.<br />Le calcul sur les termes est généralisé de manière naturelle en utilisant des contraintes d'unification en plus des contraintes de filtrage standard du rho-calcul.<br /><br />Le Rg-calcul est alors montré confluent sur des classes<br />d'équivalence de termes, sous certaines restrictions de linéarité sur les motifs, et assez<br />expressif pour simuler la réécriture de termes graphes et le<br />lambda-calcul cyclique.
70

Quelques méthodes de résolution d'équations aux dérivées partielles elliptiques avec contrainte sur les espaces $W^{1, p}$ et $BV$.

Kraiem, Mouna 12 December 2006 (has links) (PDF)
Cette thèse a pour sujet l'étude de quelques équations aux dérivées partielles singulières ou dégénérées, sous contraintes. Sont aussi traitées des équations dites pénalisées qui remplacent la contrainte par un terme qui asymptotiquement tend vers la contrainte, ceci permettant une approximation numériquement plus souple de l'équation aux dérivées partielles avec contrainte. <br />La première partie de cette thèse a fait l'objet d'un article accepté pour publication aux Annales de la Faculté des Sciences de Toulouse. <br />Elle traite de l'approximation de la première valeur propre du 1-Laplacien. <br /> Dans la deuxième partie, les résultats obtenus pour un problème d'obstacle sur $W_p^{0, 1}$, $p> 1$ généralisent le cas $p=2$, traité par Adams et Lenhart. On obtient donc l'existence et l'unicité d'une solution au problème posé. <br />La dernière partie qui fait l'objet d'un article en préparation, traite un problème d'obstacle sur $W_1^{0, 1}$, ce qui nécessite l'introduction de l'espace $BV$. <br /> Les méthodes employées sont celles du calcul des variations, la théorie des fonctions à dérivées mesurées, la topologie vague, la topologie étroite des mesures, la convexité, la théorie de la dualité, l'approximation....

Page generated in 0.0296 seconds