• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 1
  • 1
  • Tagged with
  • 5
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Méthodes probabilistes d'analyse de fiabilité dans la logique combinatoire

Torras Flaquer, Josep 12 December 2011 (has links) (PDF)
Les circuits numériques utilisés dans des domaines aussi variés que le médical, spatial, automobile ou nucléaire ont besoin d'une très forte fiabilité. La réduction progressive de la tension d'alimentation et l'intégration croissante des produits électroniques affecte la sensibilité du système à l'apparition de fautes (permanentes ou transitoires). Les fautes transitoires ont été largement dominants dans le taux total de SER (Soft Error Rate) des mémoires et éléments de séquentiels. Ainsi, les techniques de correction et prévention pour ces éléments sont bien connues. Par contre, la contribution au SER due aux éléments de logique combinatoire est en croissance, et il est prévue qu'elle devient dominante avec la réduction progressive de la taille de la technologie CMOS. Ainsi, il y a un réel besoin de pallier le manque de modèles et méthodologies qui prennent en compte l'effet de la logique combinatoire dans la perte de fiabilité. Deux approches existe pour cette problématique : 1- Techniques d'injection de fautes 2 - Modèles analytiques Le travail présenté dans cette thèse pour sur l'approche analytique, ou approche probabiliste. D'abord, une analyse en profondeur de l'état de l'art est proposé, mettant en évidence les limitations principales de ce type d'approche. Deuxièmement, des nouvelles approches sont proposées, améliorant la performance des approches existants. Des nouvelles métriques concernant l'analyse FMDEA et durcissement séléctif sont aussi proposées. Finalement, les approches sont validées en comparant leur performance avec les principales techniques déjà existantes.
2

Algorithmes de résolution de la dynamique du contact avec impact et frottement / Algorithms of resolution of contact dynamics with impact and friction

Haddouni, Mounia 27 May 2015 (has links)
La simulation des systèmes multicorps avec une dynamique non régulière trouve ses applications dans différents domaines comme l'aéronautique, l'automobile, le ferroviaire, la robotique, la réalité virtuelle et même l'industrie horlogère. Ces industries ont de plus en plus d'exigences sur la rapidité ainsi que la précision des méthodes utilisées pour calculer la dynamique. Par conséquent, la recherche dans le domaine de la mécanique non régulière est très active et a pour objectif constant de proposer des algorithmes plus robustes et plus rapides pour calculer la dynamique ainsi que de développer de meilleurs modèles pour le contact avec ou sans frottement. Les méthodes proposées doivent en plus bien gérer les sauts dans la vitesse et l'accélération des systèmes, ces sauts résultent de phénomènes tels que l'impact et le frottement. Dans ce manuscrit, quelques méthodes d'intégration d'équations différentielles algébriques d'index 3, 2 et 1 sont testées sur plusieurs mécanismes industriels avec contraintes unilatérales et bilatérales. Ces méthodes sont ensuite comparées sur la base de la satisfaction des contraintes bilatérales, de l'efficacité numérique et de leur capacité à gérer une dynamique raide. Cette étude a aussi permis d'apporter une réponse claire sur le choix de la méthode d'intégration pour un système mécanique connaissant ses caractéristiques (nombre de contacts, présence de contraintes bilatérales, dynamique raide...). La deuxième partie de ce travail traite certains problèmes qui sont fréquemment rencontrés dans la simulation des systèmes multicorps, notamment: le phénomène d'accumulation des impacts, la résolution du frottement, ainsi que la gestion des sauts qui peuvent être provoqués par la présence de singularités géométriques. Calculer la dynamique dans ces cas est particulièrement difficile dans le cadre des schémas event-driven. La solution proposée est un schéma d'intégration mixte "event-driven/time-stepping" dont le but est d'utiliser les avantages de chacune des familles d'intégration (event-driven et time-stepping). Notre algorithme est ensuite testé sur de nombreux exemples. / The applications of the nonsmooth multibody systems field cover several fields including aeronautics, automotive, robotics, railway, virtual reality and watch industry to cite a few. These industrial applications have ever more stringent requirements on both accuracy and speed of the numerical methods used for the computation of the dynamics. As a consequence, the research in the nonsmooth mechanics domain is very active, to provide better integration methods for the resolution of the equations of motions and to develop better models for the contact problems with and without friction. Since the nonsmooth mechanics framework allows for jumps in the velocity and in the acceleration of the mechanical systems, the resulting algorithms have to handle such non-smoothness. In this PhD, several numerical schemes for the resolution of index-3, index-2 and index-1 DAEs are compared on industrial benchmarks with bilateral and unilateral constraints. The aim is to improve the efficiency of the Ansys Rigid Body solver which is based on an event-driven integration strategy. Points of comparison include the enforcement of the bilateral constraints, time efficiency and handling the stiff dynamics. This study also aimed at having a clear idea on the choice of the most suitable integration method for a given mechanical system knowing its characteristics (number of contacts, presence of bilateral constraints, stiff dynamics...). The second part discusses several issues that frequently occur in the simulation of multibody systems, namely, the problem of accumulation of impacts, the resolution of friction and handling the jumps resulting from the presence of some geometrical singularities. Dealing with such issues is very difficult, especially in the framework of event-driven schemes. In order to handle these problems, a mixed event-driven/time-stepping scheme is developed which takes advantage of both integration families (event-driven and time-stepping). Several examples are used to validate our methodology.
3

Algorithmes de résolution rapide de problèmes mécaniques sur GPU / Fast algorithms solving mechanical problems on GPU

Ballage, Marion 04 July 2017 (has links)
Dans le contexte de l'analyse numérique en calcul de structures, la génération de maillages conformes sur des modèles à géométrie complexe conduit à des tailles de modèles importantes, et amène à imaginer de nouvelles approches éléments finis. Le temps de génération d'un maillage est directement lié à la complexité de la géométrie, augmentant ainsi considérablement le temps de calcul global. Les processeurs graphiques (GPU) offrent de nouvelles opportunités pour le calcul en temps réel. L'architecture grille des GPU a été utilisée afin d'implémenter une méthode éléments finis sur maillage cartésien. Ce maillage est particulièrement adapté à la parallélisation souhaitée par les processeurs graphiques et permet un gain de temps important par rapport à un maillage conforme à la géométrie. Les formulations de la méthode des éléments finis ainsi que de la méthode des éléments finis étendue ont été reprises afin d'être adaptées à notre méthode. La méthode des éléments finis étendus permet de prendre en compte la géométrie et les interfaces à travers un choix adéquat de fonctions d'enrichissement. Cette méthode discrétise par exemple sans mailler explicitement les fissures, et évite surtout de remailler au cours de leur propagation. Des adaptations de cette méthode sont faites afin de ne pas avoir besoin d'un maillage conforme à la géométrie. La géométrie est définie implicitement par une fonction surfaces de niveau, ce qui permet une bonne approximation de la géométrie et des conditions aux limites sans pour autant s'appuyer sur un maillage conforme. La géométrie est représentée par une fonction surfaces de niveau que nous appelons la densité. La densité est supérieure à 0.5 à l'intérieur du domaine de calcul et inférieure à 0.5 à l'extérieur. Cette fonction densité, définie par ses valeurs aux points noeuds du maillage, est interpolée à l'intérieur de chaque élément. Une méthode d'intégration adaptée à cette représentation géométrique est proposée. En effet, certains éléments sont coupés par la fonction surfaces de niveau et l'intégration de la matrice de raideur ne doit se faire que sur la partie pleine de l'élément. La méthode de quadrature de Gauss qui permet d'intégrer des polynômes de manière exacte n'est plus adaptée. Nous proposons d'utiliser une méthode de quadrature avec des points d'intégration répartis sur une grille régulière et dense. L'intégration peut s'avérer coûteuse en temps de calcul, c'est pour cette raison que nous proposons une technique d'apprentissage donnant la matrice élémentaire de rigidité en fonction des valeurs de la fonction surfaces de niveau aux sommets de l'élément considéré. Cette méthode d'apprentissage permet de grandes améliorations du temps de calcul des matrices élémentaires. Les résultats obtenus après analyse par la méthode des éléments finis standard ou par la méthode des éléments finis sur maillage cartésien ont une taille qui peut croître énormément selon la complexité des modèles, ainsi que la précision des schémas de résolution. Dans un contexte de programmation sur processeurs graphiques, où la mémoire est limitée, il est intéressant d'arriver à compresser ces données. Nous nous sommes intéressés à la compression des modèles et des résultats éléments finis par la transformée en ondelettes. La compression mise en place aidera aussi pour les problèmes de stockage en réduisant la taille des fichiers générés, et pour la visualisation des données. / Generating a conformal mesh on complex geometries leads to important model size of structural finite element simulations. The meshing time is directly linked to the geometry complexity and can contribute significantly to the total turnaround time. Graphics processing units (GPUs) are highly parallel programmable processors, delivering real performance gains on computationally complex, large problems. GPUs are used to implement a new finite element method on a Cartesian mesh. A Cartesian mesh is well adapted to the parallelism needed by GPUs and reduces the meshing time to almost zero. The novel method relies on the finite element method and the extended finite element formulation. The extended finite element method was introduced in the field of fracture mechanics. It consists in enriching the basis functions to take care of the geometry and the interface. This method doesn't need a conformal mesh to represent cracks and avoids refining during their propagation. Our method is based on the extended finite element method, with a geometry implicitly defined, wich allows for a good approximation of the geometry and boundary conditions without a conformal mesh.To represent the model on a Cartesian grid, we use a level set representing a density. This density is greater than 0.5 inside the domain and less than 0.5 outside. It takes 0.5 on the boundary. A new integration technique is proposed, adapted to the geometrical representation. For the element cut by the levet set, only the part full of material has to be integrated. The Gauss quadrature is no longer adapted. We introduce a quadrature method with integration points on a cartesian dense grid.In order to reduce the computational effort, a learning approach is then considered to form the elementary stiffness matrices as function of density values on the vertices of the elements. This learning method reduces the stiffness matrices time computation. Results obtained after analysis by finite element method or the novel finite element method can have important storage size, dependant of the model complexity and the resolution scheme exactitude. Due to the limited direct memory of graphics processing units, the data results are compressed. We compress the model and the element finite results with a wavelet transform. The compression will help for storage issue and also for data visualization.
4

Optimisation de la segmentation automatique de matériaux granulaires fragmentés / optimisation of automatic segmentation of granular fragmented materials

Chabardes, Théodore-Flavien 16 May 2018 (has links)
Les propriétés physiques macroscopiques des matériaux granulaires découlent directement de leurs micro-structures. L'étude de tels matériaux nécessite la segmentation de leur structures 3D à partir d'images acquises par CT-scans. Cependant, ces images sont parfois difficiles à analyser, car de nombreux défauts et artefactes de reconstruction peuvent apparaître. Obtenir des structures 3D proches des données réelles nécessite un filtrage adapté, qui ne peut être obtenu que par une analyse approfondie du matériaux.Un filtrage adapté améliore la perception de chacun des grains et la structure 3D peut être alors obtenue par segmentation. La complexité de ces structures rend la tâche difficile : les grains qui la représentent prennent des formes irrégulières, allongées et pas nécessairement convexes. Ces grains sont généralement fortement agglomérés et difficiles à séparer. De plus, des phénomènes de fracturation sont fréquemment observés. Les grains sont éclatés en petits fragments pouvant s'éloigner de la position d'origine du grain.Dans le cadre de cette thèse, une chaîne complète de segmentation est présentée. Les données brutes d'acquisition sont tout d'abord filtrés et pré-traités pour en extraire un certain nombre de mesures statistiques , telles que le nombre de phase, le nombre de grains de chaque phase, la distribution des tailles de grains et l'identification spectral de chaque phase. Une première segmentation grossière est effectuée en utilisant la transformation de ligne de partage des eaux. Une hiérarchie des contours obtenus permet d'éliminer la sur-segmentation. Enfin, une méthode permettant d'évaluer la similitude entre deux bords adjacents est présenté, et nous permettera de réassembler les grains fragmentés, dont les fragments ont été dispersés.Les acquitions par CT-scan sont conséquentes et leur étude nécessite une utilisation efficace des architectures récentes de calcul. Le choix de la chaîne de traitement est basé sur l'étude de l'état de l'art et son application aux données 3D, avec comme objectif d'équilibrer les coûts de traitement et la qualité de la segmentation. Une nouvelle méthode de segmentation nous permet d'atteindre de meilleurs performances en améliorant également la qualité des résultats. Enfin, deux nouveaux algorithmes sont proposés pour la détection de composantes connexes et la transformation de ligne de partage des eaux. / The physical properties of granular materials on a macroscopic scale derive from their microstructures. The segmentation of CT-images of this type of material is the first step towards simulation and modeling but it is not a trivial task. However, the quality of those images is often affected by the presence of noise and reconstruction artefacts. Obtaining 3D structures that fit the reality requires an adapted filter, which can only be obtained by a complete analysis of the material.This adapted filter enhances each grain and the full structure of the material is obtained by segmentation. However, non-spherical, elongated or non-convex objects fail to be separated with classical methods. Moreover, grains are commonly fragmented due to external conditions. Grains are ground into multiple fragments of different shape and volume; those fragments drift from one another in the binder phase.In this thesis, a complete process chain is proposed to segment complex structures that can be acquired by CT-scan. The raw data is first filtered and processed, and statistical features are extracted such as the number of phases, the number of grains of each phase, the size distribution and spectral identification of the phases. A primary segmentation is performed to identify every connection between touching grains and is based on the watershed transform. A hierarchy is built on the obtained contours to eliminate over-segmentation. Reconstruction of grains from fragments is achieved using affinities that match the local thickness and the regularity of the interface.Typical CT-images are voluminous, and the study of granular materials requires efficient use of modern computing architectures. Studying the state-of-the-art and its application to 3D data has oriented our choice has allowed us to balance the quality of segmentation and the computing cost. A novel segmentation method allows for higher performances while improving the quality of the result. Finally, two new algorithms are proposed for the labeling of connected components and for the watershed transformation.
5

Accès au Médium et exploitation efficace des Réseaux Radio Multisaut

Theoleyre, Fabrice 25 June 2014 (has links) (PDF)
Les réseaux sans-fil multisaut représentent une partie essentielle du futur Internet. Depuis quelques années, nous observons une convergence vers des réseaux tout IP. En particulier, l'Internet des Choses a pour but d'interconnecter des objets intelligents (capteurs, actionneurs, tags RFID) directement à Internet. De même, les réseaux maillés peuvent servir de dorsale sans-fil collectant tout ce trafic. Ce type de réseau est essentiel pour disséminer l'intelligence et décentraliser les décision par exemple dans les villes intelligentes. Le fil conducteur de tous mes travaux explore l'algorithmie distribuée et les protocoles pour les réseaux radio multisaut. Je me suis principalement focalisé sur l'accès au médium : que ce soit dans les réseaux de capteurs ou dans les réseaux maillés, les défis se ressemblent. Les solutions suivent des démarches similaires, même si naturellement les réseaux de capteurs intègrent une contrainte énergétique supplémentaire. Parce que l'accès au médium n'est pas suffisant en tant que tel, j'ai également étudié l'exploitation efficace de ce partage d'accès, en regardant notamment comment construire des routes efficaces au dessus de ces solutions. Les travaux que j'ai développés avec tous les chercheurs ayant accepté de travailler avec moi s'articulent autour de 3 grands axes : - l'organisation des transmissions au sein de la couche MAC pour une meilleure efficacité, - l'exploitation de plusieurs canaux en parallèle pour solutionner plusieurs problèmes dus aux topologies multisaut - l'optimisation conjointe MAC / routage.

Page generated in 0.0466 seconds