• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 405
  • 150
  • 76
  • 2
  • 1
  • 1
  • Tagged with
  • 631
  • 323
  • 177
  • 174
  • 90
  • 77
  • 76
  • 75
  • 73
  • 72
  • 65
  • 58
  • 53
  • 53
  • 52
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Prise en compte de la fiabilité en conception

Ouakki, Walid 18 April 2018 (has links)
Le développement d'un produit procède à partir d'une idée, d'un besoin identifié ou tout simplement d'une opportunité d'affaires. Les caractéristiques fonctionnelles sont généralement consignées dans un cahier des charges. Le concepteur fait ensuite appelle à son savoir-faire pour générer des solutions qui répondent aux spécifications de cahier des charges. La validation de certaines caractéristiques passe par le développement d'un prototype physique et par une batterie de tests. Pour certaines caractéristiques, telle que la fiabilité, qui s'exprime par la probabilité que le produit réalise la fonction pour laquelle il a été conçu dans des conditions données et dans un intervalle de temps donné, le processus de validation peut nécessiter un nombre important de prototypes physiques pour affirmer que la caractéristique est satisfaite avec un niveau de confiance donné. Le processus de validation peut se révéler coûteux et matériellement non réalisable pour un programme de mise en marché du produit. Ce mémoire propose une démarche et des outils qui permettent au concepteur de comprendre les mécanismes de défaillance des composants du produit, afin de réduire leur impact sur la tenue de ce dernier et enfin d'évaluer la probabilité de défaillance ou du bon fonctionnement.
32

Amélioration de la sécurité et de la fiabilité des systèmes de communication sans fil

Amirzadeh, Ahmadreza 24 April 2018 (has links)
Dans ce mémoire, de nouvelles approches ont été introduites pour concevoir les systèmes de communication fiables, Section 1, et sécurisées, Section 2, où les codes LDPC ont été choisis comme schéma de codage principal. Ce mémoire comprend deux sections : Section 1 : Les codes LDPC réguliers et irréguliers sont définis et différents décodeurs basés sur l’échange de message de décisions fermes et souples sont introduits. Par la suite, quelques définitions, comme le seuil des codes LDPC utilisant l’évolution de la densité de probabilité (ou la propagation de croyance), l’écart multiplicatif et les distributions de degrés de noeuds de parité et de noeuds de variable, sont énoncées. Par après, ces concepts préliminaires sont utilisés pour concevoir des ensembles de code LDPC irréguliers approchant la capacité du canal à l’aide de programmation linéaire et d’un algorithme génétique. Section 2 : Une méthode est introduite pour l’amélioration du secret dans ce genre de système. Cette méthode fonctionne sur la base de demande de retransmission de paquets d’information. Selon cette approche, lorsque le récepteur ne peut pas converger vers le bon message, une demande de retransmission est envoyée. Au lieu d’envoyer le paquet entier dans le cas d’une défaillance à la sortie du décodeur du destinataire, la retransmission des sous-paquets est explorée. Le système proposé dans cette phase est appelé protocole HARQ-Granulaire Adaptatif (AG-HARQ). Il essaie de réduire au minimum le taux requis pour un décodage réussi par les parties légitimes tout en augmentant la sécurité en minimisant les fuites d’information vers un espion éventuel. En outre, pour améliorer encore le niveau de sécurité dans la méthode AG-HARQ proposée, le schéma de contamination d’erreur intra-trame (IntraEC) et le schéma de contamination d’erreur inter-trame (InterEC) sont utilisés en conjonction avec cette méthode. Cette combinaison permet un haut niveau de sécurité dans le système de communication sans fil. / In this memoir, new approaches have been introduced for designing reliable, Section 1, and secure, Section 2, communication systems where the LDPC codes have been chosen as the principal coding scheme. This memoir comprises two sections: Section 1: Regular and irregular LDPC codes are defined and different message passing decoders based on hard and soft decisions are introduced. Afterward, some definitions like the threshold of LDPC codes using Density Evolution (or Belief Propagation), the Multiplicative Gap, and the check node and variable node degree distributions are explained in detail. Later, these preliminary concepts are used to design the channel capacity approaching Irregular LDPC codes combining Genetic Algorithm and Linear Programming. Section 2: A new scheme is introduced for secrecy enhancement for these systems. This method is based on feedback retransmission requests. With this approach, when the intended recipient cannot converge to the right message, a retransmission request is sent back to the transmitter. The retransmission of the sub-packets, instead of sending the whole packet in the case of failure at the intended recipient’s decoder output, is explored in detail. Our proposed scheme is called Adaptive Granular Hybrid Automatic Repeat reQuest (AG-HARQ) protocol, which tries to minimize the required rate for successful decoding of the legitimate parties while amplifying the privacy by minimizing the information leakage to a wiretapper. In addition, to further improve the security level of the proposed AG-HARQ method, Intra-frame error contamination (IntraEC) and Inter-frame error contamination (InterEC) schemes are used in conjunction with this method. This combination can provide a high level of security in wireless communication systems.
33

Cadre algébrique pour le renforcement de politique de sécurité sur des systèmes concurrents par réécriture automatique de programmes

Langar, Mohamed Mahjoub. 16 April 2018 (has links)
La société moderne est de plus en plus dépendante de l'informatique dont le rôle est devenu tellement vital au point que tout dysfonctionnement peut engendrer des pertes considérables voire des conséquences irréversibles telles que la perte de vies humaines. Pour minimiser les dégâts, plusieurs techniques et outils ont été mis en place au cours des dernières années. Leur objectif est de faire en sorte que nos systèmes informatiques fonctionnent < < ~tout le temps~> > , et ce, tout en produisant les résultats escomptés. La duplication du matériel et les tests de logiciels sont parmi les techniques les plus utilisées. Cependant, sans méthodes formelles, rien n'est garanti et des problèmes peuvent surgir à tout moment. En contrepartie, l'utilisation de méthodes formelles n'est pas à la portée de tout le monde y compris les programmeurs chevronnés et la tâche reste subtile et complexe même pour les spécialistes. Quelques lignes de code nécessitent parfois des centaines de lignes de preuve difficiles à lire et à comprendre. Malgré tout, leur utilisation n'est plus un luxe, mais plutôt nécessaire afin d'éviter les dégâts engendrés par les mauvais fonctionnements de nos systèmes critiques. Le principal objectif de notre recherche est de développer un cadre formel et automatique pour le renforcement de politique de sécurité sur des systèmes concurrents. Plus précisément, l'idée consiste à ajouter dans un programme des tests à des endroits soigneusement calculés pour qu'une politique de sécurité soit respectée. La nouvelle version du programme préserve toutes les traces de la version originale respectant la politique de sécurité et bloque les traces qui ne peuvent plus respecter la politique de sécurité même si elles sont complétées par certains suffixes. Les principaux résultats ayant contribué à l'atteinte de cet objectif sont : 1. La définition d'une algèbre de processus [symbol] offrant un cadre purement algébrique pour le renforcement de politique de sécurité sur des systèmes concurrents. Plus précisément, nous avons défini un nouvel opérateur qui permet de renforcer, d'une manière intuitive, une politique de sécurité sur un système concurrent. 2. La définition d'une logique, dénotée par [symbol], inspirée des expressions régulières étendues. En effet, [symbol] est une logique linéaire qui exprime la classe de langage régulier, mais avec la possibilité d'exprimer des propriétés infinies. 3. La définition d'une algèbre [symbol] basée sur l'algèbre [symbol]. [symbol] définit un nouvel opérateur de renforcement qui tient compte de l'introduction de la logique. 4. Le développement d'une technique d'optimisation qui, pour une certaine classe de propriétés de sécurité, permet de réduire le nombre de tests insérés dans le programme renforcé. / One of the important goals of the software development process is proving that the produced systems always meet their requirements. However, establishing this goal is not only subtle and complex, but also requires high qualified persons. In addition, this operation is mostly omitted due to its high cost and the system is tested while trying to reduce the risk of errors as much as possible. The cost is, nevertheless, paid when this operation is required in order to avoid catastrophic consequences and major errors. In these cases, tools like theorem prover and those used for automatic generation of software are helpful to significantly reduce the cost of proof. Our aim is that this tool proves to be powerful and simple enough to generate benefits even to small companies and individuals with scarce budgets and limited theoretical skills . Many promising formal frameworks for automatic enforcement of security policies in programs have been proposed during the last years. Their goal is to ensure that a program respects a given security policy which generally specifies acceptable executions of the program and can be expressed in terms of access control problems, information flow, availability of resources, confidentiality, etc. The literature records various techniques for enforcing security policies belonging to mainly two principal classes: static approaches including typing theory, Proof Carrying Code, and dynamic approaches including reference monitors, Java stack inspection. Static analysis aims at enforcing properties before program execution. In dynamic analysis, however, the enforcement takes place at runtime by intercepting critical events during the program execution and halting the latter whenever an action is attempting to violate the property being enforced. Recently, several researchers have explored rewriting techniques in order to gather advantages of both static and dynamic methods. The idea consists in modifying a program statically, so that the produced version respects the requested requirements. The rewritten program is generated from the original one by adding, when necessary, some tests at some critical points to obtain the desired behaviors. This thesis aims to propose an algebraic and automatic approach that could generate from a given program, and a security policy, a new version of this program that respects the requested security policy. More precisely, we define an operator [symbol] that takes as input a process [symbol] and a security policy [symbol] and generates [symbol], a new process that respects the following conditions: [symbol] "satisfies" the security policy [symbol]. [symbol], behaviours of [symbol] are also behaviours of [symbol]. [symbol], all good behaviours of [symbol] are also behaviours [symbol]. The main results of our research are the following~: 1. The definition of a process algebra [symbol] offering an algebraic framework for the enforcement of security policies on concurrent systems. 2. The definition of a logic, denoted by [symbol], inspired from Kleene algebras and regular expressions. Basically, it allows to specify properties that can be checked on a trace-based model and properties related to infinite behavior (e.g. a server should not send the password of users). The choice of this logic is motivated by its syntax that is close to the one chosen for processes. In fact, this similarity is helpful to simplify the definition of our formal monitor. 3. The development of an optimization technique which, for a certain class of security properties, reduces the number of tests added in the target.
34

Approche mécano-probabiliste système en conception pour la fiabilité. Application au développement de systèmes mécaniques de l'automobile

Hähnel, Anthony 18 January 2007 (has links) (PDF)
Une démarche globale pour l'estimation et l'élaboration de la fiabilité de systèmes mécaniques aux différentes étapes de leur processus de conception est proposée. Elle repose sur une approche multidisciplinaire exploitant une représentation système, physique et probabiliste des scénarios de défaillance. Combinant leurs interprétations système sans physique et physique sans système, elle assure la construction de modèles de fiabilité à la fois physiques et systèmes. Plusieurs stratégies d'évaluation sont alors déployées. Utilisant les outils du couplage mécano-fiabiliste (e.g. chaos polynomial, FORM/SORM), elles fournissent des mesures de fiabilité traditionnelles et permettent également la définition de chaînes de mesures d'importance originales. Celles-ci détaillent le poids et l'influence de chaque scénario et de chacun de leurs paramètres sur la réalisation des défaillances. L'optimisation de la conception est alors en partie assurée par l'analyse de fiabilité elle-même
35

ESTIMATION DES LOIS DE FIABILITE EN MECANIQUE PAR LES ESSAIS ACCELERES

TEBBI, Ouahiba 09 March 2005 (has links) (PDF)
Le premier objectif fixé en début de ma thèse est de bien comprendre le contexte industriel et théorique de la fiabilité mécanique ainsi que les méthodes employées, afin de prouver l'efficacité de la méthodologie adoptée. Nous présentons en détails les caractéristiques des systèmes mécaniques ayant un effet direct sur l'évaluation de leur fiabilité. Après, nous passons en revue les principales méthodes d'évaluation de la fiabilité mécanique. Deux types de méthodes d'évaluation de la fiabilité sont présentés, la démarche traditionnelle et la méthode probabiliste, avec quelques commentaires sur leurs limites d'utilisation.<br />Ensuite, nous présentons essentiellement les méthodes d'estimation de la fiabilité par les essais dans le cycle de développement d'un produit. Différentes catégories d'essais interviennent dans les études conceptuelles, les programmes de développement et les processus de fabrication. Nous montrons que les essais accélérés sont les plus courts avec un avantage certain économiquement.<br />La dernière partie, est consacrée à l'étude des méthodes d'essais accélérés et leurs applications en mécanique. En particulier, nous considérons l'application des modèles standards de vie accélérée (SVA) à des composants soumis au dommage par fatigue, en menant des analyses théoriques, par simulation et expérimentales. Pour cela, nous avons développé un modèle d'essai de fatigue à partir des modèles d'endommagement par fatigue, ce modèle a été validé par des outils de simulation. Ensuite nous avons appliqué les modèles SVA selon deux types de plans d'expériences, un plan d'essai par régression et un deuxième avec endommagement préalable accéléré. Des approches paramétrique, semi-paramétrique et non paramétrique sont utilisées pour estimer les paramètres des modèles en question.<br />Cette étude a permis d'estimer la fiabilité des systèmes soumis à des dégradations mécaniques, dans les conditions normales d'utilisation et pour la première fois de démontrer l'applicabilité des modèles SVA avec des données réelles des plans d'expériences dans le domaine de la mécanique.
36

Modèles stochastiques et méthodes numériques pour la fiabilité

Mercier, Sophie 21 November 2008 (has links) (PDF)
En premier lieu, nous proposons, étudions et optimisons différentes politiques de maintenance pour des systèmes réparables à dégradation markovienne ou semi-markovienne, dont les durées de réparation suivent des lois générales. <br /> Nous nous intéressons ensuite au remplacement préventif de composants devenus obsolescents, du fait de l'apparition de nouveaux composants plus performants. Le problème est ici de déterminer la stratégie optimale de remplacement des anciens composants par les nouveaux. Les résultats obtenus conduisent à des stratégies très différentes selon que les composants ont des taux de panne constants ou non.<br /> Les travaux suivants sont consacrés à l'évaluation numérique de différentes quantités fiabilistes, les unes liées à des sommes de variables aléatoires indépendantes, du type fonction de renouvellement par exemple, les autres liées à des systèmes markoviens ou semi-markoviens. Pour chacune de ces quantités, nous proposons des bornes simples et aisément calculables, dont la précision peut être ajustée en fonction d'un pas de temps. La convergence des bornes est par ailleurs démontrée, et des algorithmes de calcul proposés.<br /> Nous nous intéressons ensuite à des systèmes hybrides, issus de la fiabilité dynamique, dont l'évolution est modélisée à l'aide d'un processus de Markov déterministe par morceaux (PDMP). Pour de tels systèmes, les quantités fiabilistes usuelles ne sont généralement pas atteignables analytiquement et doivent être calculées numériquement. Ces quantités s'exprimant à l'aide des lois marginales du PDMP (les lois à t fixé), nous nous attachons plus spécifiquement à leur évaluation. Pour ce faire, nous commençons par les caractériser comme unique solution d'un système d'équations intégro-différentielles. Puis, partant de ces équations, nous proposons deux schémas de type volumes finis pour les évaluer, l'un explicite, l'autre implicite, dont nous démontrons la convergence. Nous étudions ensuite un cas-test issu de l'industrie gazière, que nous modélisons à l'aide d'un PDMP, et pour lequel nous calculons différentes quantités fiabilistes, d'une part par méthodes de volumes finis, d'autre part par simulations de Monte-Carlo. Nous nous intéressons aussi à des études de sensibilité : les caractéristiques d'un PDMP sont supposées dépendre d'une famille de paramètres et le problème est de comparer l'influence qu'ont ces différents paramètres sur un critère donné, à horizon fini ou infini. Cette étude est faite au travers des dérivées du critère d'étude par rapport aux paramètres, dont nous démontrons l'existence et que nous calculons.<br /> Enfin, nous présentons rapidement les travaux effectués par Margot Desgrouas lors de sa thèse consacrée au comportement asymptotique des PDMP, et nous donnons un aperçu de quelques travaux en cours et autres projets.
37

Design pour la fiabilité applique aux composants et circuits RF-MEMS dans différents environnements TRL

Torres-Matabosch, Nuria 14 January 2013 (has links) (PDF)
Ces travaux de thèse visent à aborder la fiabilité des composants RF-MEMS (commutateurs en particulier) pendant la phase de conception en utilisant différents approches de procédés de fabrication. Ça veut dire que l'intérêt est focalisé en comment éliminer ou diminuer pendant la conception les effets des mécanismes de défaillance plus importants au lieu d'étudier la physique des mécanismes. La détection des différents mécanismes de défaillance est analysée en utilisant les performances RF du dispositif et le développement d'un circuit équivalent. Cette nouvelle approche permet à l'utilisateur final savoir comment les performances vont évoluer pendant le cycle de vie. La classification des procédés de fabrication a été faite en utilisant le Technology Readiness Level du procédé qui évalue le niveau de maturité de la technologie. L'analyse de différentes approches de R&D est décrite en mettant l'accent sur les différences entre les niveaux dans la classification TRL. Cette thèse montre quelle est la stratégie optimale pour aborder la fiabilité en démarrant avec un procédé très flexible (LAAS-CNRS comme exemple de baisse TRL), en continuant avec une approche composant (CEA-Leti comme moyenne TRL) et en finissant avec un procédé standard co-intégré CMOS-MEMS (IHP comme haute TRL) dont les modifications sont impossibles.
38

Fiabilité des assemblages sans plomb en environnement sévère

Berthou, Matthieu 21 September 2012 (has links) (PDF)
Le mémoire porte sur l'étude de la fiabilité des assemblages utilisant des alliages de brasure sans-plomb en environnement sévère pour des applications électroniques. Une méthode de préparation métallographique fiable et reproductible en vue de l'analyse microstructurale est présentée. L'effet du vieillissement thermique statique sur l'évolution microstructurale de billes de brasure en SAC, la tenue à la fatigue mécanique des assemblages brasés et l'étude de l'endommagement thermomécanique sont développés. Le seul effet notable constaté après vieillissement thermique est l'augmentation des épaisseurs des intermétalliques de contact. A la suite de sollicitations mécaniques, les ruptures sont plus souvent observées dans les pistes que dans les brasures, et ne permettent pas d'incriminer des éléments de la microstructure brasée comme facteurs déterminant de propagation des fissures. Les sollicitations thermomécaniques conduisent à une recristallisation, et les fissures se propagent alors le long des joints de grains recristallisés.
39

Techniques de tolérance aux fautes : conception des circuits fiables dans les technologies avancées / Fault tolerant techniques for the design of reliable circuits in advanved process nodes

Fall, Diarga 25 October 2013 (has links)
En approchant leurs limites ultimes, les technologies de silicium sont affectées par divers problèmes qui rendent de plus en plus difficile la poursuite de la miniaturisation technologique. Ces problèmes concernent en particulier la dissipation de puissance, le rendement paramétrique (affecté par la variation des paramètres du processus de fabrication, des tension d'alimentation et de la température), et la fiabilité (affectée par ces mêmes variations ainsi que par l'accélération du vieillissement, les interférences et les soft-errors) Cette thèse concerne le développement et la mise en œuvre des architectures de tolérance aux fautes et d'auto-calibration dédiées, ainsi que la validation de leurs capacités d'atténuer les problèmes mentionnés ci-dessus. / Approaching their ultimate limits, silicon technologies are affected by various problems that make more difficult further miniaturization technology. These problems relate particularly to power dissipation, parametric yield (affected by the variation of process parameters of manufacturing, supply voltage and temperature), and reliability (affected by these changes as well as the accelerated aging, interference and soft-errors). This thesis deals with the development and implementation of fault tolerant architectures and dedicated self-calibration and validation of their ability to mitigate the problems mentioned above.
40

Modélisation thermo-mécanique et fiabilité des échangeurs réacteurs en carbure de silicium / Thermo-mechanical modeling and reliability of silicon carbide based heat exchanger reactor

Boniface, Benjamin 09 December 2010 (has links)
Les échangeurs réacteurs intensifiés (ERI) sont des échangeurs de chaleur utilisés comme réacteurs chimiques afin d'intensifier les procédés de synthèse. L'ERI étudié dans ce travail est composé de plaques en carbure de silicium, lui conférant ainsi des propriétés thermiques et chimiques importantes. En contrepartie, l'utilisation du SiC accentue les risques de rupture fragile, à ajouter aux risques principaux associés aux ERI qui sont les fuites de fluide et l'emballement thermique de la réaction. L'intensification des procédés représente un gain important en terme de productivité, de sécurité et d'impact environnemental, à condition de maîtriser la conception et la mise en œuvre de l'ERI. L'objectif de ce travail est de proposer une démarche d'étude adaptée à ce type de produit en général, et d'optimiser la conception de cet ERI en particulier. Pour cela, les modèles thermo-chimique et thermo-mécanique de l'ERI sont développés puis utilisés dans une étude mécano-fiabiliste, notamment au moyen à la méthode AK-MCS basée sur l'interpolation par krigeage de la fonction de performance. / Intensified heat exchanger reactors (ERI) are heat exchangers used as chemical reactors for process intensification. The ERI studied in this work is composed of silicon carbide (SiC) based plates, giving it interesting thermal and chemical properties. In return, the use of SiC increases the brittle fracture risk, in addition of the main risks that are leaking fluid and thermal runaway reaction. The process intensification represents a significant gain in productivity, safety and environmental impact, provided that the design and the implementation procedure of the ERI are optimized. The objective of this work is to propose a process of study suited to this type of product in general, and to optimize the design of this ERI in particular. For this, the thermo-chemical and thermo-mechanical models are developed and used in a mechano-reliability study, notably using the AK-MCS method based on kriging interpolation of the performance function.

Page generated in 0.0582 seconds