• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 106
  • 40
  • 6
  • Tagged with
  • 153
  • 46
  • 46
  • 35
  • 35
  • 34
  • 34
  • 34
  • 33
  • 33
  • 32
  • 26
  • 25
  • 24
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Schémas Volumes Finis en mécanique des fluides complexes

Krell, Stella 08 September 2010 (has links) (PDF)
Le travail de thèse exposé dans ce manuscrit porte sur le développement et l'analyse numérique de schémas volumes finis de type dualité discrète (DDFV) pour la discrétisation des équations de Darcy et des équations de Stokes. Un point commun à ces problèmes, qui motive l'emploi des schémas DDFV, est que leur résolution par volumes finis nécessite d'approcher toutes les composantes du gradient de la solution. On étudie tout d'abord la discrétisation du problème de diffusion scalaire anisotrope pour des conditions aux bords mixtes de type Dirichlet/Fourier. Le schéma que nous proposons permet de construire un algorithme de Schwarz discret associé à une décomposition de domaine sans recouvrement qui converge vers la solution obtenue sans décomposition. Des expériences numériques illustrent les résultats théoriques d'estimation d'erreur et de convergence des algorithmes de Schwarz DDFV. On se propose ensuite de discrétiser des problèmes de Stokes avec une viscosité variable. Les schémas DDFV correspondant sont en général mal posés. Pour y remédier, on stabilise le bilan de masse par différents termes en pression. Dans un second temps, on considère le cas où la viscosité est discontinue. Ces discontinuités doivent être prise en compte par le schéma pour surmonter la perte de consistance des contraintes à l'interface. Ensuite une première étude de l'extension des schémas DDFV aux équations de Navier-Stokes est présentée aussi qu'une généralisation des résultats pour le problème de Stokes avec une viscosité régulière dans le cas tridimensionnel.
52

Vérification de descriptions VHDL par interprétation abstraite.

Hymans, Charles 04 September 2004 (has links) (PDF)
Cette thèse traite de la vérification automatique de composants matériels décrits en VHDL. C'est une étude de faisabilité d'un outil de vérification automatique qui réunit: exhaustivité, efficacité de calcul et simplicité d'utilisation. La méthodologie de l'interprétation abstraite a été adoptée: l'algorithme de simulation de VHDL est d'abord formalisé par une sémantique opérationnelle, de laquelle une analyse statique est dérivée de façon systématique par abstraction. L'analyse calcule un sur-ensemble des états accessibles. Le domaine numérique utilisé pour représenter les valeurs possibles des signaux de la description peut être choisi librement. Une instance possible de l'analyse a été implémenté en OCaml. Le domaine numérique choisi ici est celui des égalités linéaires entre variables booléennes. L'outil a permi de valider un code correcteur d'erreur de type Reed Solomon. Les performances sont excellentes, en particulier meilleures que celles du model checker à base de BDDs VIS.
53

Estimations a posteriori pour l'équation de convection-diffusion-réaction instationnaire et applications aux volumes finis

Chalhoub, Nancy 17 December 2012 (has links) (PDF)
On considère l'équation de convection-diffusion-réaction instationnaire. On s'intéresse à la dérivation d'estimations d'erreur a posteriori pour la discrétisation de cette équation par la méthode des volumes finis centrés par mailles en espace et un schéma d'Euler implicite en temps. Les estimations, qui sont établies dans la norme d'énergie, bornent l'erreur entre la solution exacte et une solution post-traitée à l'aide de reconstructions H(div, Ω)-conformes du flux diffusif et du flux convectif, et d'une reconstruction H_0^1(Ω)-conforme du potentiel. On propose un algorithme adaptatif qui permet d'atteindre une précision relative fixée par l'utilisateur en raffinant les maillages adaptativement et en équilibrant les contributions en espace et en temps de l'erreur. On présente également des essais numériques. Enfin, on dérive une estimation d'erreur a posteriori dans la norme d'énergie augmentée d'une norme duale de la dérivée en temps et de la partie antisymétrique de l'opérateur différentiel. Cette nouvelle estimation est robuste dans des régimes dominés par la convection et des bornes inférieures locales en temps et globales en espace sont également obtenues.
54

Méthodes d'éléments finis et estimations d'erreur a posteriori

Dhondt-Cochez, Sarah 30 November 2007 (has links) (PDF)
Dans cette thèse, on développe des estimateurs d'erreur a posteriori, pour l'approximation par éléments finis des équations de Maxwell en régime harmonique et des équations de réaction-diffusion. Introduisant d'abord, pour le système de Maxwell, des estimateurs de type résiduel, on étudie la dépendance des constantes intervenant dans les bornes inférieures et supérieures en fonction de la variation des coefficients de l'équation, en les considérant d'abord constants puis constants par morceaux. On construit ensuite un autre type d'estimateur, basé sur des flux équilibrés et la résolution de problèmes locaux, que l'on étudie dans le cadre des équations de réaction-diffusion et du système de Maxwell. Ayant introduit plusieurs estimateurs pour l'équation de Maxwell, on en propose une étude comparative, au travers de tests numériques présentant le comportement de ces estimateurs pour des solutions particulières sur des maillages uniformes ainsi que les maillages obtenus par des procédures de raffinement de maillages adaptatifs. Enfin, dans le cadre des équations de diffusion, on étend la construction des estimateurs équilibrés aux méthodes éléments finis de type Galerkin discontinues.
55

Modélisation des comportements erronés du logiciel et application à la validation des tests par injection de fautes

Daran, Muriel 28 October 1996 (has links) (PDF)
Les travaux présentés dans ce mémoire concernent la modélisation des comportements erronés du logiciel et la validation des tests. L'absence d'un modèle des fautes logicielles pose le problème de la confiance que l'on peut accorder aux tests par rapport à l'élimination des fautes dans un programme. Cette confiance serait accrue si on pouvait mesurer la capacité de jeux de tests à révéler des fautes injectées dans un programme. Cependant, les méthodes d'injection de fautes, telles que l'analyse de mutation, suscitent des critiques liées à la représentativité des fautes injectées vis-à-vis de fautes réelles (c'est-à-dire effectivement introduites au cours du développement du logiciel). S'il paraît illusoire de démontrer la représentativité des fautes artificielles, étant donné l'absence d'un modèle de fautes complet et parfait, il nous paraît intéressant d'évaluer la représentativité des erreurs générées par des fautes artificielles vis-à-vis des erreurs dues à des fautes réelles. Les études expérimentales que nous avons menées, portent sur deux programmes séquentiels (appelés ETUD et LOCALES), issus d'applications critiques du nucléaire. Elles ont eu pour objet d'analyser les erreurs générées au cours de l'exécution du logiciel. Nous avons ainsi pu comparer, pour chacun de ces deux programmes, les erreurs et les comportements erronés générés, d'une part par des fautes réelles et, d'autre part par des fautes artificielles (de type mutations). Nos résultats expérimentaux permettent de montrer que les erreurs et les comportements erronés produits par des mutations peuvent être représentatifs de ceux générés par de fautes réelles. La première série d'expériences, sur le programme ETUD, a permis de définir un modèle des comportements erronés, à partir d'une représentation de l'état interne d'un programme en cours d'exécution. Ce modèle permet d'expliquer, par l'analyse des dépendances du programme, les mécanismes de création, d'annulation et de masquage d'erreurs. La deuxième série d'expériences, sur le programme LOCALES, permet d'expliquer les similitudes observées entre divers comportements erronés en appliquant le modèle proposé. En conclusion, la bonne représentativité des erreurs générées par les mutations nous permet de réhabiliter l'analyse de mutation en tant que technique de validation des tests du logiciel et d'en proposer des applications à des fins industrielles.
56

Réseaux de cliques neurales

Gripon, Vincent 20 July 2011 (has links) (PDF)
Nous proposons et développons un modèle original de mémoires associatives s'appuyant sur des réseaux de neurones codés. Les mémoires associatives sont des dispositifs capables d'apprendre des messages binaires puis de les reproduire à partir de fractions de leurs contenus. L'état de l'art est le réseau proposé par Hopfield, dont la diversité de mémorisation - le nombre de messages qu'il peut n mémoriser - est inférieure à 2 log(n) où n est le nombre de neurones dans le réseau. Notre travail a consisté à tirer parti des techniques de codage et de déco- dage correcteur d'erreur, plus précisément celle des codes distribués, afin d'ac- croître considérablement les performances des mémoires associatives. Pour ce faire, nous avons introduit des codes originaux dont les mots de code sont portés par des cliques neurales. Nous montrons que, combinées à des codes locaux par- cimonieux, ces cliques neurales offrent une diversité d'apprentissage qui évolue comme le carré du nombre de neurones. Les gains observés viennent de l'utilisation de la parcimonie à plusieurs é- chelles : d'une part les messages appris sont de longueur bien inférieure à n, d'autre part ils n'utilisent qu'une partie du matériel disponible, que ce soit au niveau des neurones ou de leurs connexions. L'apprentissage est donc localisé, au contraire des réseaux de Hopfield. De plus, ces mémoires bénéficient d'une efficacité - rapport du nombre de bits appris au nombre de bits utilisés - presque maximale. Elles se présentent donc comme une alternative intéressante aux mé- moires indexées classiques. Au delà de l'aspect quantitatif, le modèle que nous proposons offre une plau- sibilité biologique fortement accrue par rapport au modèle de Hopfield. Les con- cepts de cliques neurales, de winner take all, ou encore de synchronisation tem- porelle que ce modèle exploite rejoignent les observations récentes rapportées par la littérature neurobiologique. Par ailleurs, elles pourraient ouvrir la voie à la conception de machines cognitives capables de croiser des informations pour en produire de nouvelles car les cliques neurales sont recouvrantes, par leurs som- mets ou par leurs arêtes.
57

Résistance des circuits cryptographiques aux attaques en faute

Bousselam, Kaouthar 25 September 2012 (has links) (PDF)
Les blocs cryptographiques utilisés dans les circuits intégrés implémentent des algorithmes prouvés robustes contre la cryptanalyse. Toutefois des manipulations malveillantes contre le circuit lui-même peuvent permettre de retrouver les données secrètes. Entre autres, les attaques dites " en fautes " se sont révélés particulièrement efficaces. Leur principe consiste à injecter une faute dans le circuit (à l'aide d'un faisceau laser par exemple), ce qui produira un résultat erroné et à le comparer à un résultat correct. Il est donc essentiel de pouvoir détecter ces erreurs lors du fonctionnement du circuit. Les travaux de thèse présentées dans ce mémoire ont pour objet la détection concurrente d'erreurs dans les circuits cryptographique, en prenant comme support l'implantation du standard d'encryption symétrique l'Advanced Encryption standard " AES ". Nous analysons donc plusieurs schémas de détection d'erreur basés sur de la redondance d'information (code détecteur), certains issus de la littérature, d'autres originaux utilisant un double code de parité entrée-sortie permettant l'amélioration du taux de détection d'erreur dans ces circuits. Nous présentons aussi une étude montrant que le choix du type du code détecteur le plus approprié dépend, d'une part du type d'erreur exploitable pouvant être produite par un attaquant, et d'autre part du type d'implémentation du circuit à protéger. Les circuits cryptographiques sont également la cible d'autres attaques, et en particulier les attaques par analyse de consommation. Les contre mesures proposés jusqu'à lors pour un type d'attaques, se révèlent la plupart du temps néfastes sur la résistance du circuit face à d'autres types d'attaque. Nous proposons dans cette thèse une contre mesure conjointe qui protège le circuit à la fois contre les attaques en fautes et les attaques par analyse de consommation.
58

Sécurité et disponibilité des données stockées dans les nuages / Data availability and sécurity in cloud storage

Relaza, Théodore Jean Richard 12 February 2016 (has links)
Avec le développement de l'Internet, l'informatique s'est basée essentiellement sur les communications entre serveurs, postes utilisateurs, réseaux et data centers. Au début des années 2000, les deux tendances à savoir la mise à disposition d'applications et la virtualisation de l'infrastructure ont vu le jour. La convergence de ces deux tendances a donné naissance à un concept fédérateur qu'est le Cloud Computing (informatique en nuage). Le stockage des données apparaît alors comme un élément central de la problématique liée à la mise dans le nuage des processus et des ressources. Qu'il s'agisse d'une simple externalisation du stockage à des fins de sauvegarde, de l'utilisation de services logiciels hébergés ou de la virtualisation chez un fournisseur tiers de l'infrastructure informatique de l'entreprise, la sécurité des données est cruciale. Cette sécurité se décline selon trois axes : la disponibilité, l'intégrité et la confidentialité des données. Le contexte de nos travaux concerne la virtualisation du stockage dédiée à l'informatique en nuage (Cloud Computing). Ces travaux se font dans le cadre du projet SVC (Secured Virtual Cloud) financé par le Fond National pour la Société Numérique " Investissement d'avenir ". Ils ont conduit au développement d'un intergiciel de virtualisation du stockage, nommé CloViS (Cloud Virtualized Storage), qui entre dans une phase de valorisation portée par la SATT Toulouse-Tech-Transfer. CloViS est un intergiciel de gestion de données développé au sein du laboratoire IRIT, qui permet la virtualisation de ressources de stockage hétérogènes et distribuées, accessibles d'une manière uniforme et transparente. CloViS possède la particularité de mettre en adéquation les besoins des utilisateurs et les disponibilités du système par le biais de qualités de service définies sur des volumes virtuels. Notre contribution à ce domaine concerne les techniques de distribution des données afin d'améliorer leur disponibilité et la fiabilité des opérations d'entrées/sorties dans CloViS. En effet, face à l'explosion du volume des données, l'utilisation de la réplication ne peut constituer une solution pérenne. L'utilisation de codes correcteurs ou de schémas de seuil apparaît alors comme une alternative valable pour maîtriser les volumes de stockage. Néanmoins aucun protocole de maintien de la cohérence des données n'est, à ce jour, adapté à ces nouvelles méthodes de distribution. Nous proposons pour cela des protocoles de cohérence des données adaptés à ces différentes techniques de distribution des données. Nous analysons ensuite ces protocoles pour mettre en exergue leurs avantages et inconvénients respectifs. En effet, le choix d'une technique de distribution de données et d'un protocole de cohérence des données associé se base sur des critères de performance notamment la disponibilité en écriture et lecture, l'utilisation des ressources système (comme l'espace de stockage utilisé) ou le nombre moyen de messages échangés durant les opérations de lecture et écriture. / With the development of Internet, Information Technology was essentially based on communications between servers, user stations, networks and data centers. Both trends "making application available" and "infrastructure virtualization" have emerged in the early 2000s. The convergence of these two trends has resulted in a federator concept, which is the Cloud Computing. Data storage appears as a central component of the problematic associated with the move of processes and resources in the cloud. Whether it is a simple storage externalization for backup purposes, use of hosted software services or virtualization in a third-party provider of the company computing infrastructure, data security is crucial. This security declines according to three axes: data availability, integrity and confidentiality. The context of our work concerns the storage virtualization dedicated to Cloud Computing. This work is carried out under the aegis of SVC (Secured Virtual Cloud) project, financed by the National Found for Digital Society "Investment for the future". This led to the development of a storage virtualization middleware, named CloViS (Cloud Virtualized Storage), which is entering a valorization phase driven by SATT Toulouse-Tech-Transfer. CloViS is a data management middleware developped within the IRIT laboratory. It allows virtualizing of distributed and heterogeneous storage resources, with uniform and seamless access. CloViS aligns user needs and system availabilities through qualities of service defined on virtual volumes. Our contribution in this field concerns data distribution techniques to improve their availability and the reliability of I/O operations in CloViS. Indeed, faced with the explosion in the amount of data, the use of replication can not be a permanent solution. The use of "Erasure Resilient Code" or "Threshold Schemes" appears as a valid alternative to control storage volumes. However, no data consistency protocol is, to date, adapted to these new data distribution methods. For this reason, we propose to adapt these different data distribution techniques. We then analyse these new protocols, highlighting their respective advantages and disadvantages. Indeed, the choice of a data distribution technique and the associated data consistency protocol is based on performance criteria, especially the availability and the number of messages exchanged during the read and write operations or the use of system resources (such as storage space used).
59

Utilisation du taux d'erreur binaire pour améliorer la qualité de service dans les réseaux ad hoc / Using bit error rate to improve quality of service in ad hoc networks

Yélémou, Tiguiane 18 December 2012 (has links)
Dans les réseaux sans fil ad hoc, les liens de communication sont sujets à un taux d'erreurimportant. Dans ce contexte, le routage joue un rôle stratégique pour augmenter les performancesdans les transmissions. Dans nos études, par une approche cross-layer, nous prenons en compte lafiabilité des liens dans le choix des routes. Pour cela, dans un premier temps, nous construisonsdeux nouvelles métriques, l'une basée sur le taux d'erreur binaire (au niveau couche physique) etl'autre, plus adaptée à la mesure, sur le nombre de retransmissions (au niveau couche MAC).Ensuite, pour exploiter ces métriques lors du calcul de routes, nous adaptons les algorithmes à labase des protocoles de routage.Les trois familles de protocoles de routage ont été traitées : les protocoles pro-actifs où chaquenoeud a une vision globale du réseau grâce aux échanges périodiques de messages de contrôle detopologie ; les protocoles réactifs où, avant de commencer ses transmissions de données, chaquenoeud doit initier un processus de recherche de route ; les protocoles hybrides qui mixent les deuxapproches.Pour tester l'effectivité de nos améliorations, nous utilisons le simulateur NS2 enrichi par unmodèle de propagation et un modèle de mobilité réalistes. Les paramètres de performance tels quele délai, le taux de livraison de paquets et la charge de routage sont mesurés dans plusieursscénarios représentatifs des conditions d'utilisation. Les résultats obtenus montrent une améliorationsignificative des protocoles standards dans un contexte de qualité de service. / In ad hoc wireless networks, links are error-prone. In this context, routing plays a decisive role inimproving transmission performances. In our studies, by a cross-layer approach, we take intoaccount the reliability of links in route choice. For this, first, we concept two new metrics, onebased on bit error rate (at physical layer) and the other, more suitable for the measurement, onnumber of retransmissions (at MAC layer). Then, to exploit these metrics when determining routes,we adapt the algorithms based routing protocols.The three families of routing protocols have been addressed: proactive protocols where eachnode has a global view of the network through periodic exchanges of topology control messages;reactive protocols where, before starting data transmission, each node must initiate a routediscovery process; hybrid protocols which mix the two approaches.To test the effectiveness of our enhancements, we use the simulator NS.2 enhanced by arealistic propagation model and a realistic mobility model. Performance parameters such as delay,packets delivery ratio and routing load are measured in several scenarios including mobility andmulti-communication. The results show a significant improvement of standard protocols in thequality of service context.
60

Discrétisation spectrale des équations de Navier-Stokes couplées avec l'équation de la chaleur / Spectral discretization of the Navier-Stokes problem coupled with the heat equation

Agroum, Rahma 19 September 2014 (has links)
Nous considérons dans cette thèse la discrétisation par la méthode spectrale et la simulation numérique de l'écoulement d'un fluide visqueux incompressible occupant le domaine ? modélisé par les équations de Navier-Stokes. Nous avons choisi de les coupler avec l'équation de la chaleur dans le cas ou la viscosité dépend de la température avec des conditions aux limites portant sur la vitesse et la température.La méthode s'avère optimale en ce sens que l'erreur obtenue n'est limitée que par la régularité de la solution. Elle est de type spectrale. Nous donnons des estimations d'erreur a priori optimales et nous confirmons l'étude théorique par des résultats numériques. Nous considérons aussi les équations de Navier-Stokes/chaleur instationnaires dont nous proposons une discrétisation en temps et en espace en utilisant le schéma d'Euler implicite et les méthodes spectrale. Quelques expériences numériques confirment l'intérêt de la discrétisation. / In this thesis we consider the discretization by spectral method and the numerical simulation of a viscous incompressible fluid in the domain ?, the model being the Navier-Stokes equations. We have chosen to couple them with the heat equation where the viscosity of the fluid depends on the temperature, with boundary conditions which involve the velocity and the temperature. The method is proved to be optimal in the sense that the order of convergence is only limited by the regularity of the solution. The numerical analysis of the discrete problem is performed and numerical experiments are presented, they turn out to be in good coherence with the theoretical results. Finally, we consider the unsteady Navier-Stokes/heat equations which models the time-dependent flow. We propose a discretization of this problem that relies on a backward Euler's scheme in time and spectral methods in space and present some numerical experiments which confirm the interest of the discretization.

Page generated in 0.0635 seconds