• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 20
  • 7
  • 1
  • Tagged with
  • 28
  • 12
  • 9
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Réseaux embarqués sur puce reconfigurable dynamiquement et sûrs de fonctionnement / Reliable and dynamically reconfigurable network-on-chip

Killian, Cédric 05 December 2012 (has links)
Les besoins de performance des systèmes sur puce embarqués augmentant sans cesse pour satisfaire des applications de plus en plus complexes, de nouvelles architectures de traitement et de nouveaux paradigmes de calcul sont apparus. L'intégration au sein d'une même puce électronique de plusieurs dizaines, voire centaines d'éléments de calcul a donné naissance aux systèmes sur puce multiprocesseur (MultiProcessor Systems on Chip - MPSoC). Cette évolution permet d'obtenir une puissance de traitement parallèle considérable. Actuellement, les performances de tels systèmes reposent sur le support de communication et d'échange des données entre les blocs de calcul intégrés. La problématique du support de communication est de fournir une bande passante et une adaptabilité élevées, afin de pouvoir bénéficier efficacement du parallélisme potentiel de la puissance de calcul disponible des MPSoC. C'est dans ce contexte du besoin primordial de flexibilité et de bande passante que sont apparus les réseaux embarqués sur puce (Network-on-Chip - NoC) dont l'objectif est de permettre l'interconnexion optimisée d'un grand nombre d'éléments de calcul au sein d'une même puce électronique, tout en assurant l'exigence d'un compromis entre les performances de communication et les ressources d'interconnexion. De plus, l'apparition de la technologie FPGA reconfigurable dynamiquement a ouvert de nouvelles approches permettant aux MPSoC d'adapter leurs constituants en cours de fonctionnement et de répondre aux besoins croissant d'adaptabilité, de flexibilité et de la diversité des ressources des systèmes embarqués. Étant donnée cette évolution de complexité des systèmes électroniques et la diminution de la finesse de gravure, et donc du nombre croissant de transistors au sein d'une même puce, la sensibilité des circuits face aux phénomènes générant des fautes n'a de cesse d'augmenter. Ainsi, dans le but d'obtenir des systèmes sur puces performants et fiables, des techniques de détection, de localisation et de correction d'erreurs doivent être proposées au sein des NoC reconfigurables ou adaptatifs, où la principale difficulté réside dans l'identification et la distinction entre des erreurs réelles et des fonctionnements variables ou adaptatifs des éléments constituants ces types de NoC C'est dans ce contexte que nous proposons de nouveaux mécanismes et solutions architecturales permettant de contrôler le fonctionnement d'un NoC adaptatif supportant les communications d'une structure MPSOC, et afin de d'identifier et localiser avec précision les éléments défaillants d'une telle structure dans le but de les corriger ou de les isoler pour prévenir toutes défaillances du système / The need of performance of embedded Syxtena-on-Chlps (Socs) are increasing constantly to meet the requirements of applications becoming more and more complexes, and new processing architectures and new computing paradigms have emerged. The integration within a single chip of dozens, or hundreds of computing and processing elements has given birth to Mukt1 Pmcesmr Systena-on-Chp (MPSoC) allowing to feature a high level of parallel processing. Nowaday s, the performance of these systems rely on the communication medium between the interconnected processing elements. The problematic of the communication medium to feature a high bandwidth and flexibility is primordial in order to efficiently use the parallel processing capacity of the MPSoC In this context, Network-on-Chlps (NoCs) are developed where the aim is to allow the interconnection of a large number of elements in the same device while maintaining a tradeoff between performance and logical resources. Moreover, the emergence of the partial reconfigurable FPGA technology allows to the MPSoC to adapt their elements during its operation in order to meet the system requirements. Given this increasing complexity of the electronic systems and the shrinking size of the devices, the sensibility of the chip against phenomena generating fault has increased. Thereby, to design efficient and reliable Socs, new error detection and localization techniques must be proposed for the dynamic NoCs where the main difficulty is the identification and the distinction between real errors and adaptive behavior of the NoCs. In this context, we present new mechanisms and architectural solutions allowing to check during the system operation the correctness of dynamic NoCs in order to locate and isolate efficiently the faulty components avoiding a failure of the system
2

Maîtrise des risques dans les systèmes de transport : proposition d'une nouvelle approche de modélisation dynamique

Legros, Dominique 29 December 2009 (has links) (PDF)
A partir de la définition d'un paradigme espaces - processus énonçant que tout système peut se définir comme une combinaison espaces - processus, les espaces contenant toutes les conditions et moyens nécessaires à l'achèvement du processus, le travail proposé définit une approche modélisatrice permettant de conserver une démarche purement systémique depuis l'identification des concepts du système jusqu'au modèle de représentation. Ce paradigme exprimant simplement qu'un système peut être vu à travers le comportement des différentes propriétés des entités intervenantes, le mémoire va proposer une représentation unifiée de la propriété permettant la manipulation conceptuelle et sémantique. Une forme de représentation des comportements des propriétés sera ensuite proposée. Cette représentation sera définie à partir de l'expression d'un comportement sous forme d'expressions rationnelles; ces expressions étant elles-mêmes des suites de symboles représentatives des propriétés du système observé. Le mémoire montrera comment la forme de représentation proposée permet de retranscrire et d'exploiter simplement les comportements observés ou observables. Le mémoire montrera comment manipuler ces éléments et quelles propriétés s'en dégagent. En particulier, le premier objectif de ce travail est une application à la maîtrise des risques systèmes, on exploitera donc le modèle dans la recherche et l'identification de situations dangereuses mais aussi pour la capacité d'évaluation des critères d'occurrence par un transfert de l'espace de propriétés vers un espace de probabilités.
3

L'économie de l'énergie nucléaire : quatre essais sur le rôle de l'innovation et de l'organisation industrielle / The economics of nuclear power : four essays on the role of innovation and industrial organization

Berthélemy, Michel 20 September 2013 (has links)
Cette thèse étudie le rôle de l'innovation et des structures industrielles dans l'industrie nucléaire. L'analyse de l'innovation est basée sur l'utilisation de données de brevets comme mesure de l'effort d'innovation. Nous étudions d'une part les déterminants de l'innovation et, d'autre part, son impact sur la performance économique et de sureté des réacteurs nucléaires existants et sur les coûts de construction. Nous montrons que la régulation de sureté nucléaire peut promouvoir l'innovation et permet d'améliorer la performance de sureté, mais dans le même temps contribue à l'augmentation des coûts de construction. L'analyse du rôle des structures industrielles permet d'étudier l'effet des opportunités d'effets d'apprentissage, à la fois pour la construction et l'exploitation des réacteurs, ainsi que l'effet de la libéralisation des marchés de l'électricité sur la performance d'exploitation. En particulier, nous montrons que la séparation entre les activités de production et de distribution d'électricité induit une importante amélioration de la disponibilité des réacteurs nucléaires. / This thesis studies the role of innovation and industrial structures in the nuclear power sector. The analysis of innovation is based on the use of patent data as a measure of innovation effort. On the one hand, we study the determinants of innovation and, on the other hand, its impact on operating and safety performance of existing nuclear reactors and on construction costs. We show that nuclear safety regulation can induce innovation and improve safety performance, but at the same time contributes to increases in construction costs. The analysis of the role of industrial structures allows us to study the impact of learning by doing opportunities both for construction and operation of reactors, as well as the effect of electricity market liberalization on operating performance. In particular, we show that the divestiture of electricity production and distribution activities induces a substantial improvement in the availability of nuclear reactors.
4

Analyse probabiliste du risque du stockage de déchets radioactifs par la méthode des arbres d'événements continus

Smidts, Olivier 23 October 1997 (has links)
Les études du risque du stockage de déchets radioactifs comprennent, comme toute étude du risque, un traitement de l'incertitude. L'outil de calcul du risque, appelé outil PRA (Probabilistic Risk Assessment), est formé d'un code de calcul d'écoulement des eaux souterraines et de transport de chaînes de radionucléides. Ce type d'outil est essentiel pour l'évaluation de performance de la barrière géologique. Le manque de connaissances au sujet de la variabilité (dans l'espace et le temps) des propriétés hydrogéologiques de cette barrière est la raison primaire de l'incertitude et des méthodes stochastiques ont été développées en hydrogéologie pour le traiter. Dans cette thèse, l'analyse d'incertitude liée à la composition du milieu géologique est partagée entre l'écoulement et le transport de la manière suivante: a) une solution moyenne de l'écoulement est tout d'abord déterminée à l'aide d'un code basé sur la méthode des différences finies. Cette solution est ensuite soumise à une analyse de sensibilité. Cette analyse débouche sur la résolution d'un problème inverse afin d'améliorer l'estimation initiale des paramètres moyens d'écoulement; b) l'effet de la variation aléatoire de la vitesse d'écoulement est envisagé lors du transport des radionucléides. Le transport est résolu à l'aide d'une méthode Monte Carlo non analogue. L'analyse de sensibilité du problème d'écoulement est réalisée à l'aide d'une méthode variationnelle. La méthode proposée a comme avantage celui de pouvoir quantifier l'incertitude de structure; c'est-à-dire l'incertitude liée à la géométrie du milieu géologique. Une méthodologie Monte Carlo non analogue est utilisée pour le transport de chaînes de radionucléides en milieu stochastique. Les apports de cette méthodologie pour le calcul du risque reposent sur trois points: 1) L'utilisation d'une solution de transport simple (sous la forme d'une solution adjointe) dans les mécanismes de la simulation Monte Carlo. Cette solution de transport permet de résumer, entre deux positions successives du marcheur aléatoire, les processus chimicophysiques (advection, diffusion-dispersion, adsorption, désorption,...) apparaissant à l'échelle microscopique. Elle rend possible des simulations efficaces de transport en accélérant les mécanismes de transition des marcheurs aléatoires dans le domaine géologique et dans le temps. 2) L'application de la méthode des arbres d'événements continus au transport de chaînes de radionucléides. Cette méthode permet d'envisager les transitions radioactives entre éléments d'une chaîne selon un même formalisme que celui qui prévaut pour les simulations de transport d'un radionucléide unique. Elle permet donc de passer du transport d'un radionucléide au transport d'une chaîne de radionucléides sans coûts supplémentaires en temps de calcul et avec un coût supplémentaire en mémoire limité. 3) L'application de techniques dites de "double randomization" au problème de transport de radionucléides dans un milieu géologique stochastique. Ces techniques permettent de combiner efficacement une simulation Monte Carlo de paramètres avec une simulation Monte Carlo de transport et ainsi d'inclure l'incertitude associée à la composition du milieu géologique explicitement dans le calcul du risque. Il ressort de ce travail des perspectives prometteuses de développements ultérieurs de la méthodologie Monte Carlo non analogue pour le calcul du risque.
5

Méthodologie de conception d'architectures de processeur sûres de fonctionnement pour les applications mécatroniques / Design methology for dependable processor architectures in mechatronic applications

Jallouli, Mehdi 04 June 2009 (has links)
L'importance croissante des systèmes électroniques embarqués implique de les rendre de plus en plus sûrs. En effet, certains systèmes tels que les systèmes mécatroniques fonctionnent dans des conditions environnementales sévères les exposants à des erreurs dues aux perturbations. Ainsi, les concepteurs doivent considérer ces erreurs avec attention pour élaborer des remèdes adaptés. Dans ce travail, un intérêt particulier est porté sur la sûreté de fonctionnement des architectures de processeur. Le paradigme du processeur à pile a été choisi puisqu'il présente un bon compromis entre simplicité et efficacité. L'approche que nous avons proposée, évaluée et validée, est basée sur le développement et l'exploitation d'un émulateur logiciel du processeur. La sûreté de fonctionnement est assurée par une exploitation mixte de techniques de protection : une détection matérielle d'erreurs et une correction logicielle. La technique de correction est implantée dans des benchmarks et est validée dans l'émulateur à travers une simulation de différents scenarii d’apparition d’erreurs. Divers paramètres sont évalués tels que la capacité de correction et le surcoût temporel. Cette technique de correction est indépendante de l'application et des moyens de détection, ce qui confirme l'aspect méthodologique de la démarche. Par ailleurs, dans le cadre de la collaboration sollicitée par le projet CIM'Tronic, nous avons fait converger nos travaux avec ceux de l'équipe du CRAN de Nancy/A3SI de Metz en appliquant l'approche du flux informationnel sur le jeu d’instructions du processeur. Nous avons montré la capacité de cette approche d'évaluer la fiabilité de l'ensemble processeur/application / Nowadays, embedded systems are becoming increasingly attractive for many applications. Furthermore, these systems should be more and more dependable. Indeed, systems such as mechatronic or automatically controlled ones often work in harsh environmental conditions making them more prone to errors due to disturbances. Thus, designers should consider ways to protect them against such errors. In this work, a special interest is dedicated to processor architecture dependability as we consider processor-based systems. The stack computer philosophy has been chosen for the processor architecture in order to achieve a good trade-off between simplicity and effectiveness. Our approach to introduce and evaluate the dependability is based on the development and the use of a software emulator of the processor to be designed. Dependability of the processor is ensured through the collaborative use of hardware and software protection techniques: hardware error detection means and software error correction means. The correction technique is implemented in benchmarks and is validated on the emulator through a simulation of various scenarios of errors appearance. Different parameters are evaluated such as correction capability and time overhead. This correction technique is independent from the target application and from the detection means, what confirms the methodological aspect of our approach. Otherwise, as requested by the CIM’tronic project, we integrated our work with the CRAN Nancy/A3SI Metz one by applying the information flow approach on the processor instruction set. We showed the ability of this approach to evaluate the whole processor/application dependability
6

L'économie de l'énergie nucléaire : quatre essais sur le rôle de l'innovation et de l'organisation industrielle

Berthélemy, Michel 20 September 2013 (has links) (PDF)
Cette thèse étudie le rôle de l'innovation et des structures industrielles dans l'industrie nucléaire. L'analyse de l'innovation est basée sur l'utilisation de données de brevets comme mesure de l'effort d'innovation. Nous étudions d'une part les déterminants de l'innovation et, d'autre part, son impact sur la performance économique et de sureté des réacteurs nucléaires existants et sur les coûts de construction. Nous montrons que la régulation de sureté nucléaire peut promouvoir l'innovation et permet d'améliorer la performance de sureté, mais dans le même temps contribue à l'augmentation des coûts de construction. L'analyse du rôle des structures industrielles permet d'étudier l'effet des opportunités d'effets d'apprentissage, à la fois pour la construction et l'exploitation des réacteurs, ainsi que l'effet de la libéralisation des marchés de l'électricité sur la performance d'exploitation. En particulier, nous montrons que la séparation entre les activités de production et de distribution d'électricité induit une importante amélioration de la disponibilité des réacteurs nucléaires.
7

Etude et développement d’une chaine de traitement analogique du signal dédiée à la détection de particules en environnement sévère / Development of an analog processing chain dedicated to particles detection in harsh environment

Ben Krit, Sabrine 17 December 2015 (has links)
Le travail présenté dans ce mémoire est basé sur l’étude et le développement d’une chaine analogique de traitement du signal destinée à la détection de particules issues d’un réacteur nucléaire. Le détecteur de radiations relatif à cette chaine, étant placé au cœur du réacteur (hautes températures et radiations), deux scénarii d’intégration de la chaine analogique en environnement sévère ont été étudiés. Tandis que le premier scénario consiste à placer le préamplificateur et l’amplificateur de mise en forme loin du détecteur, le deuxième est basé sur l’intégration de ces blocs analogiques en environnement contraint. Bien que le premier scénario ait démontré de bonnes performances en termes de linéarité et sensibilité, l’amélioration de la résolution digitale fournie par le système nous a mené à investiguer le placement de la chaine tout près du détecteur. Plusieurs études, basées sur l’évaluation de la fiabilité de la structure vis-à-vis des contraintes de l’environnement sévère ont été donc élaborées. De plus une solution innovante permettant une meilleure caractérisation de la particule incidente a été présentée et détaillée. / The work presented in this thesis is based on the study and development of an analog processing chain dedicated to the detection of particles delivred from a nuclear reactor. The radiation detector related to this chain, being placed at the heart of the reactor (high temperatures and radiation flux), two scenraii related to the integration of the analog chain in harsh environment were studied. While the first scenario consists on placing the preamplifier and the shaping amplifier away from the detector, the second is based on the integration of these analog blocks in harsh environment. Although the first scenario has proven good performances in terms of linearity and sensitivity, the improvement of the digital resolution provided by the system leaded us to investigate the placement of the chain close to the detector. Several studies based on the evaluation of the structure reliability under harsh environment constraints were thus elaborated. In addition, an innovative solution providing better characterization of the incident particle was presented and detailed.
8

Modélisation et protection contre les pannes dans les bases de données

Abdel Hay Abdel Hamid, Soheir 24 January 1979 (has links) (PDF)
On s'intéresse aux procédures garantissant les récupérations de l'information contre tout type d'avarie pour aboutir à une base de donnée fiable et à l'outillage nécessaire pour l'évaluation et l'amélioration des performances du système.
9

Modélisation des stratégies de remplacement de composant et de systèmes soumis à obsolescence technologique

Clavareau, Julien 12 September 2008 (has links)
Ce travail s’inscrit dans le cadre d’étude de la sûreté de fonctionnement. La sûreté de fonctionnement est progressivement devenue partie intégrante de l’évaluation des performances des systèmes industriels. En effet, les pannes d’équipements, les pertes de production consécutives, et la maintenance des installations ont un impact économique majeur dans les entreprises. Il est donc essentiel pour un manager de pouvoir estimer de manière cohérente et réaliste les coûts de fonctionnement de l’entreprise, en tenant notamment compte des caractéristiques fiabilistes des équipements utilisés, ainsi que des coûts induits entre autres par le non-fonctionnement du système et la restauration des performances de ses composants après défaillance. Le travail que nous avons réalisé dans le cadre de ce doctorat se concentre sur un aspect particulier de la sûreté de fonctionnement, à savoir les politiques de remplacement d’équipements basées sur la fiabilité des systèmes qu’ils constituent. La recherche menée part de l’observation suivante : si la littérature consacrée aux politiques de remplacement est abondante, elle repose généralement sur l’hypothèse implicite que les nouveaux équipements envisagés présentent les mêmes caractéristiques et performances que celles que possédaient initialement les composants objets du remplacement. La réalité technologique est souvent bien différente de cette approche, quelle que soit la discipline industrielle envisagée. En effet, de nouveaux équipements sont régulièrement disponibles sur le marché ; ils assurent les mêmes fonctions que des composants plus anciens utilisés par une entreprise, mais présentent de meilleures performances, par exemple en termes de taux de défaillance, consommation d’énergie, " intelligence " (aptitude à transmettre des informations sur leur état de détérioration)... De plus, il peut devenir de plus en plus difficile de se procurer des composants de l’ancienne génération pour remplacer ceux qui ont été déclassés. Cette situation est généralement appelée obsolescence technologique. Le but de ce travail est de prolonger et d’approfondir, dans le cadre de la sûreté de fonctionnement, les réflexions engagées par les différents articles présentés dans la section état de l’art afin de définir et de modéliser des stratégies de remplacements d’équipements soumis à obsolescence technologique. Il s’agira de proposer un modèle, faisant le lien entre les approches plus économiques et celles plus fiabilistes, permettant de définir et d’évaluer l’efficacité, au sens large, des différentes stratégies de remplacement des unités obsolètes. L’efficacité d’une stratégie peut se mesurer par rapport à plusieurs critères parfois contradictoires. Parmi ceux-ci citons, évidemment, le coût total moyen engendré par la stratégie de remplacement, seul critère considéré dans les articles cités au chapitre 2, mais aussi la façon dont ces coûts sont répartis au cours du temps tout au long de la stratégie, la variabilité de ces coûts autour de leur moyenne, le fait de remplir certaines conditions comme par exemple d’avoir remplacé toutes les unités d’une génération par des unités d’une autre génération avant une date donnée ou de respecter certaines contraintes sur les temps de remplacement. Pour arriver à évaluer les différentes stratégies, la première étape sera de définir un modèle réaliste des performances des unités considérées, et en particulier de leur loi de probabilité de défaillance. Etant donné le lien direct entre la probabilité de défaillance d’un équipement et la politique de maintenance qui lui est appliquée, notamment la fréquence des maintenances préventives, leur effet, l’effet des réparations après défaillance ou les critères de remplacement de l’équipement, un modèle complet devra considérer la description mathématique des effets des interventions effectuées sur les équipements. On verra que la volonté de décrire correctement les effets des interventions nous a amené à proposer une extension des modèles d’âge effectif habituellement utilisés dans la littérature. Une fois le modèle interne des unités défini, nous développerons le modèle de remplacement des équipements obsolètes proprement dit. Nous appuyant sur la notion de stratégie K proposée dans de précédents travaux, nous verrons comment adapter cette stratégie K à un modèle pour lequel les temps d’intervention ne sont pas négligeables et le nombre d’équipes limité. Nous verrons aussi comment tenir compte dans le cadre de cette stratégie K d’une part des contraintes de gestion d’un budget demandant en général de répartir les coûts au cours du temps et d’autre part de la volonté de passer d’une génération d’unités à l’autre en un temps limité, ces deux conditions pouvant être contradictoires. Un autre problème auquel on est confronté quand on parle de l’obsolescence technologique est le modèle d’obsolescence à adopter. La manière dont on va gérer le risque d’obsolescence dépendra fortement de la manière dont on pense que les technologies vont évoluer et en particulier du rythme de cette évolution. Selon que l’on considère que le temps probable d’apparition d’une nouvelle génération est inférieur au temps de vie des composants ou supérieur à son temps de vie les solutions envisagées vont être différentes. Lors de deux applications numériques spécifiques. Nous verrons au chapitre 12 comment envisager le problème lorsque l’intervalle de temps entre les différentes générations successives est largement inférieur à la durée de vie des équipements et au chapitre 13 comment traiter le problème lorsque le délai entre deux générations est de l’ordre de grandeur de la durée de vie des équipements considérés. Le texte est structuré de la manière suivante : Après une première partie permettant de situer le contexte dans lequel s’inscrit ce travail, la deuxième partie décrit le modèle interne des unités tel que nous l’avons utilisé dans les différentes applications. La troisième partie reprend la description des stratégies de remplacement et des différentes applications traitées. La dernière partie permet de conclure par quelques commentaires sur les résultats obtenus et de discuter des perspectives de recherche dans le domaine.
10

Proposition d'une architecture de contrôle adaptative pour la tolérance aux fautes

Durand, Bastien 15 June 2011 (has links) (PDF)
Les architectures logicielles de contrôles sont le centre névralgique des robots. Malheureusement les robots et leurs architectures souffrent de nombreuses imperfections qui perturbent et/ou compromettent la réalisation des missions qui leurs sont affectés. Nous proposons donc une méthodologie de conception d'architecture de contrôle adaptative pour la mise en oeuvre de la tolérance aux fautes. La première partie de ce manuscrit propose un état de l'art de la sureté de fonctionnement, d'abord générique avant d'être spécifié au contexte des architectures de contrôle. La seconde partie nous permet de détailler la méthodologie proposée permettant d'identifier les fautes potentielles d'un robot et d'y répondre à l'aide des moyens de tolérance aux fautes. La troisième partie présente le contexte expérimental et applicatif dans lequel la méthodologie proposée sera mise en oeuvre et qui constitue la quatrième partie de ce manuscrit. Une expérimentation spécifique mettant en lumière les aspects de la méthodologie est détaillée dans la dernière partie.

Page generated in 0.0213 seconds