• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 136
  • 37
  • 17
  • 1
  • Tagged with
  • 194
  • 74
  • 46
  • 27
  • 21
  • 21
  • 21
  • 19
  • 17
  • 17
  • 14
  • 13
  • 13
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Étude expérimentale et simulation numérique de l’usinage des matériaux en nids d’abeilles : application au fraisage des structures Nomex® et Aluminium / Experimental study and numerical simulation of the machining of honeycomb structures : Milling application for Nomex® and Aluminium structures

Jaafar, Mohamed 20 December 2018 (has links)
L'utilisation des structures sandwichs composées d’âme en nid d'abeilles et de peaux a considérablement augmenté ces dernières années dans plusieurs secteurs industriels tels que l’aéronautique, l’aérospatiale, le navale et l’automobile. Cet intérêt croissant pour ces matériaux alvéolaires est principalement lié à leur faible densité et meilleur rapport masse/rigidité/résistance en comparaison avec les alliages métalliques ou les matériaux composites classiques. Cependant, leur constitution rend souvent les opérations de mise en forme par usinage compliquées et difficile à mener à cause de l’usure prématurée des outils coupants et l’endommagement important induit en subsurface des pièces. En effet, les vibrations importantes des parois minces du nid d’abeilles sont une source de plusieurs problèmes comme la mauvaise qualité des surfaces usinées, les fibres non coupées, délaminage, défauts, etc. Les travaux de cette thèse s’intéressent à la compréhension du comportement des structures nids d’abeilles composite (Nomex®) et métallique (aluminium) en usinage. L’enlèvement de matière par fraisage présente pour ces matériaux plusieurs verrous scientifiques et technologiques. Une analyse expérimentale a permis d’identifier dans un premier temps les phénomènes physiques mis en jeu lors de la formation des copeaux et les interactions entre les arêtes de coupe et les parois minces des cellules de la structure alvéolaire. Un intérêt particulier a été porté sur la caractérisation des défauts induits dans le matériau par les différentes parties composant la fraise, le déchiqueteur et le coteau. Deux protocoles expérimentaux ont été mis en place afin de qualifier la qualité et l’intégrité des surfaces usinées. Ils tiennent compte de la particularité des âmes en nid d'abeilles : composite ou métallique, leur géométrie alvéolaire, leur densité et l’épaisseur fine des parois. Un nouveau critère de qualité a été établi et proposé en tant qu’indicateur d’endommagement pour le suivi de l’état des surfaces alvéolaires fraichement usinées. Basée sur l’analyse statistique de Taguchi, une hiérarchisation des paramètres d’usinage et leur influence sur le comportement de ces matériaux ont été ensuite réalisées. Par ailleurs, l’usure des outils de coupe a été étudiée selon le couple outil-matériau usiné et les conditions de fraisage choisies. Comme l’a montré l’étude expérimentale, l’optimisation des paramètres d’usinage via une approche expérimentale seule est souvent longue et coûteuse. La simulation numérique peut apporter une aide complémentaire et constituer un outil intéressant pour l’analyse de la physique de la coupe des nids d’abeilles. Dans cette optique et en deuxième partie de la thèse, un modèle numérique par éléments finis a été spécifiquement développé pour la simulation du fraisage 3D des matériaux nids d’abeilles. Pour le Nomex®, deux lois de comportement mécanique couplées avec l’endommagement ont été identifiées et implémentées via la subroutine VUMAT dans Abaqus explicit. Pour simuler la formation des copeaux, deux critères de rupture (Hashin et Tsai-Wu) avec chute de rigidité ont été exploités. Les résultats du calcul numérique et ceux des essais expérimentaux ont montré une bonne concordance en termes de mécanismes de formation des copeaux, d’efforts de coupe et de modes d’endommagement / The use of sandwich structures made with honeycomb core and skins has considerably increased these last years in several industrial sectors such as aeronautics, aerospace, naval and automotive. This growing interest for the alveolar materials is mainly related to their low density and better mass/stiffness/strength ratio compared to metal alloys or conventional composites. However, their constitution makes machining operations complicated and difficult to control because of the premature cutting tool wear and the significant damage induced in the workpiece. In fact, the important vibrations of the thin honeycomb walls are a source of several problems such as the poor surface quality, uncut fibers, delamination, defects, etc. This work deals with the understanding of the honeycomb composites behavior and metallic during machining. The material removal process by milling of these materials presents several scientific and technological challenges. Firstly, an experimental analysis has been used to identify the physical phenomena involved during the chip formation process and generated by the interactions between the cutting edge and the honeycomb cell walls. A particular interest was focused on the characterization of defects induced in the material by different parts of the cutter, the shredder and the saw blade. Two experimental protocols have been set up to qualify the quality and integrity of the machined surface. They consider the particularity of the honeycomb cores: composite or metallic, their geometry, and the thin wall thickness. A new quality criterion has been established and proposed as a damage indicator to monitoring the machining process and choice optimal cutting conditions. Based on Taguchi's statistical analysis, a hierarchy of the machining parameters and their influence on the behavior of these materials have then realized. In addition, the wear of cutting tools has been studied according to the selected tool-material couple and milling conditions. The optimization of machining parameters is often long and expensive only via experimental approach. Modelling and numerical simulation can provide complementary support with an interesting numerical tool to analyze the physics of cutting honeycombs. In this perspective and in the second part of the PhD thesis, a finite element numerical model has been especially developed for the 3D milling operation. For Nomex®, two coupled mechanical-damage behavior laws have been identified and implemented in Abaqus explicit subroutine VUMAT. To simulate the chip formation process and induced subsurface damage, two fracture criteria (Hashin and Tsai-Wu) with stiffness degradation concept have been operated. The comparison between the numerical simulation results and experimental data shows a good agreement in terms of the chip formation mechanisms, cutting forces and damage modes
92

Les scarabées inscrits et autres amulettes de cœur de l’Égypte ancienne (présentation, corpus, critères de datation, caractéristiques, collections) / Inscribed Scarabs and other Heart Amulets in Ancient Egypt (Presentation, Corpus, Dating criteria, Characteristics, Collections)

Laroche, Claude 06 December 2014 (has links)
Le seul ouvrage dédié exclusivement à ce qu’il est convenu d’appeler « les scarabées de cœur » est signé du Professeur Michel Malaise et date de 1978. Ce livre est depuis cette date la référence en la matière mais, en l’absence d’un corpus, les critères de datation proposés n’y peuvent être ni exhaustifs ni très précis. L’objectif de cette étude était de remédier à ces lacunes.Les scarabées de cœur étaient des amulettes disposées dans la région du cœur de la momie d’un individu, juste après son décès, afin de le protéger contre la trahison possible de son propre cœur. En effet, le défunt devait subir l’épreuve de la pesée du cœur devant un tribunal de dieux présidé par Osiris, mais c’est son cœur qui était interrogé pour savoir quelle avait été la conduite de son propriétaire lors de son passage sur la terre. Les réponses à ces questions conditionnaient l’avenir du défunt dans l’au-delà : la vie éternelle ou l’anéantissement. Pour se concilier les bonnes grâces du cœur, d’autant plus que celui-ci pouvait mentir, les amulettes étaient inscrites d’une prière choisie dans un des chapitres 26 à 30 B du Livre des Morts, suppliant le cœur d’avoir des réponses favorables devant le tribunal.La présente étude a pris huit années pour rassembler un corpus de 1400 scarabées de cœur et autres amulettes ayant la même fonction rituelle, soit probablement plus de 85% de ceux qui sont conservés dans les musées, qui sont désignés ici sous le nom générique d’« amulettes de cœur ». Ce corpus a donné lieu à l’établissement d’une typologie permettant de déterminer des séries d’amulettes présentant des caractèristiques plastiques et épigraphiques semblables qui, croisées avec celles des amulettes de date connue, qui sont soit celles dont les propriétaires sont des personnages historiques soit celles provenant de fouilles bien datées, ont conduit à la détermination de critères de datation objectifs. L’étude présente aussi les clichés de plus de 1200 amulettes avec description, une traduction des textes inscrits et une proposition de datation. / The only book dealing specifically with the so-called “ Heart Scarabs” was written by Professor Michel Malaise and published in 1978. It has remained since the reference on the subject but, due to the unavailibility of a corpus, the datation criteria could not be exhaustive nor accurate. The target of this dissertation was to fill these gaps. The heart scarabs were amulets to be laid on (or in) the mummy of a person just after his death in the heart area, in order to protect him from the possible treachery of his own heart. In effect, the Dead was to be put to the test of the weighing of his heart, in front of a court of gods presided by Osiris, but it was his hesart which was interrrogated in order to know whether its owner had behaved well during his life. The answers to these questions would determine whether he would be granted an eternal life or the nothingness. In order fo gain the heart’s goodwill, especially when it might lie, the amulets were inscribed with a prayer chosen in one of the chapters 26 to 30B of The Book of the Dead. This prayer was begging his heart to make favorable answers to the court.It took eight years to gather a corpus of 1400 heart amulets and others amulets with the same ritual function, called “heart amulets” in this dissertation, a number representing likely more than 85% of the total in existence. The gathering of these amulets made possible an adapted typology to be built, which lead to the determination of series of amulets with similar shape or epigraphic characteristics to be compared with the characteristics of amulets with a known date, which are the ones the owners of which are historical persons or those originating from well dated excavations. This comparison allowed for the determination of objective datation criteria. This memoire finally presents photos of more than 1200 amulets with a description, a translation of the texts and an estimated datation.
93

Test automatique de programmes Lustre/SCADE

Papailiopoulou, Virginia 04 February 2010 (has links) (PDF)
Ce travail porte sur l'amélioration du processus de test, en offrant des moyens d'automatiser la génération des tests ainsi que l'évaluation de leur qualité, dans le cadre des systèmes embarqués spécifiés en Lustre/SCADE. D'une part, nous présentons une méthodologie de test basée sur l'outil Lutess qui génère automatiquement des données de test exclusivement à partir de la description de l'environnement du système. D'autre part, on se base sur le modèle SCADE du programme sous test et nous définissons des critères de couverture structurelle qui prennent en compte deux nouveaux aspects: l'utilisation des plusieurs horloges et le test d'intégration, permettant la mesure de couverture de systèmes de grande taille. Ces deux stratégies pourraient avoir un impact positif sur le test efficace des applications réelles. Des études de cas extraites du domaine de l'avionique sont employées pour démontrer l'applicabilité de ces méthodes et pour évaluer leur complexité.
94

Mécanismes cinétiques pour l'amélioration de la sécurité des procédés d'oxydation des hydrocarbures

Buda, Frédéric 29 March 2006 (has links) (PDF)
La méconnaissance des propriétés explosives des hydrocarbures à haute pression et haute température, conditions opératoires fréquemment rencontrées dans l'industrie, et l'influence peu étudiée sur ces paramètres de phénomènes tels que les flammes froides nous ont conduit à effectuer ce travail ayant pour but l'application de mécanismes cinétiques complexes à la prédiction de critères de sécurité. Le chapitre I de ce mémoire reprend des généralités concernant les procédés d'oxydation des hydrocarbures, les explosions de gaz et l'influence des flammes froides sur les limites d'explosivité d'un système. Le chapitre II regroupe les bases des mécanismes d'oxydation des hydrocarbures et les différents types de modèles présents dans la littérature. Cette partie s'achève sur la présentation du logiciel EXGAS que nous avons utilisé pour générer automatiquement la plupart des mécanismes cinétiques utilisés. Le chapitre III présente le montage expérimental du tube à onde de choc dans lequel ont été menées des mesures de délais d'auto-inflammation utiles à la validation de nos mécanismes. Le chapitre IV regroupe les modifications apportées aux modèles pour décrire correctement l'auto-inflammation d'une large gamme d'alcanes dans des conditions variées, ainsi que les validations pour les alcanes et un alcène. Les améliorations du modèle nécessaires à la bonne description de l'auto-inflammation des cyclanes et les validations correspondantes forment le chapitre V. Enfin, le chapitre VI a pour objet les applications de nos modèles à la prédiction de paramètres d'explosivité. Il permet de démontrer l'importance d'une bonne description des phénomènes physiques, outre les phénomènes chimiques pris en compte dans nos mécanismes, pour une modélisation correcte des mesures expérimentales de critères de sécurité.
95

Hiérarchisation et visualisation multirésolution de résultats issus de codes de simulation

Vivodtzev, Fabien 05 December 2005 (has links) (PDF)
Les simulations numériques génèrent une quantité de résultats disproportionnée par rapport aux moyens d'exploitation, sans espoir d'atténuation à terme. Les maillages supportant ces simulations, sont composés de plusieurs dizaines de millions de cellules volumiques avec, plus spécifiquement, des sous-structures imbriquées de différentes dimensions (surfaciques et linéiques) et des couches minces de matériaux. En phase de post-traitement, un utilisateur devrait être capable de visualiser et de manipuler ces données, à temps interactif, sur sa propre machine d'exploitation. Cependant, les outils existants en visualisation scientifique ne permettent pas ou que partiellement d'atteindre les objectifs souhaités avec ce type de données (grand nombre de mailles, sous-structures, couches minces, . . .).<br /><br />Dans cette thèse, une approche par hiérarchisation des données est proposée afin de construire une représentation multirésolution autorisant la visualisation interactive d'une grande quantité d'information. L'étape de hiérarchisation est basée sur un algorithme de simplification de maillages, par contractions itératives d'arêtes, préservant à la fois la topologie du maillage et celle de toutes les sous-structures imbriquées. Les critères topologiques robustes introduits dans ces travaux, s'appuient sur des notions théoriques en topologie algébrique. L'étape de visualisation utilise la représentation multirésolution pour accélérer l'affichage des résultats. De façon progressive, inversible et locale, l'utilisateur modifie dynamiquement la résolution selon ses besoins et les ressources matérielles dont il dispose.<br /><br />Cette thèse illustre la mise en oeuvre de ces techniques de hiérarchisation et de visualisation dans de nombreux domaines d'applications notamment dans le cadre d'exploitation de résultats issus de simulations en électromagnétisme<br />du CEA/CESTA.
96

Sélection de modèle pour la classification non supervisée. Choix du nombre de classes.

Baudry, Jean-Patrick 03 December 2009 (has links) (PDF)
Le cadre principal de cette thèse est la classification non supervisée, traitée par une approche statistique dans le cadre des modèles de mélange. Plus particulièrement, nous nous intéressons au choix du nombre de classes et au critère de sélection de modèle ICL. Une approche fructueuse de son étude théorique consiste à considérer un contraste adapté à la classification non supervisée : ce faisant, un nouvel estimateur ainsi que de nouveaux critères de sélection de modèle sont proposés et étudiés. Des solutions pratiques pour leur calcul s'accompagnent de retombées positives pour le calcul du maximum de vraisemblance dans les modèles de mélange. La méthode de l'heuristique de pente est appliquée pour la calibration des critères pénalisés considérés. Aussi les bases théoriques en sont-elles rappelées en détails, et deux approches pour son application sont étudiées. Une autre approche de la classification non supervisée est considérée : chaque classe peut être modélisée elle-même par un mélange. Une méthode est proposée pour répondre notamment à la question du choix des composantes à regrouper. Enfin, un critère est proposé pour permettre de lier le choix du nombre de composantes, lorsqu'il est identifié au nombre de classes, à une éventuelle classification externe connue a priori.
97

Schémas de lifting vectoriels adaptatifs et applications à la compression d'images stéréoscopiques

Kaaniche, Mounir 02 December 2010 (has links) (PDF)
Dans une première partie, je me suis intéressé au développement et à l'analyse de nouveaux schémas de codage conjoint d'images stéréoscopiques reposant sur le concept du lifting vectoriel. En ce sens, contrairement aux méthodes classiques, les méthodes proposées ne génèrent aucune image résiduelle mais deux représentations multirésolution compactes de l'image gauche et l'image droite. De plus, elles sont adaptées au contenu intra et inter de la paire stéréo. Une analyse théorique en termes de performances statistiques a été menée pour mettre en évidence l'intérêt des structures proposées. Comme les méthodes de codage conjoint de ces vues reposent principalement sur l'étape de l'estimation et la compensation de la disparité afin d'exploiter les redondances inter-images, j'ai proposé par la suite d'intégrer une méthode récente d'estimation de disparité dans des applications de codage d'images stéréoscopiques. Cette technique d'estimation, qui se base sur une formulation ensembliste du problème de mise en correspondance, utilise différentes contraintes convexes caractérisant toute propriété a priori sur le champ de disparité à estimer. Ainsi, les contraintes utilisées permettent de produire un champ lisse tout en respectant les discontinuités (objets) présentes dans la scène. D'autre part, je me suis intéressé aux schémas 2D non séparables, afin de mieux exploiter le caractère bi-dimensionnel des images, tout en me focalisant sur les aspects d'optimisation des différents filtres mis en jeu. Dans ce contexte, j'ai d'eveloppé également une analyse théorique pour le cas d'un signal autorégressif d'ordre 2 afin de donner des formes explicites des coefficients de tous les filtres. Les expressions théoriques obtenues sont intéressantes en pratique puisqu'elles permettent de simplifier l'implémentation de la méthode d'optimisation proposée.
98

Techniques d'optimisation pour la fouille de données

Francisci, Dominique 11 March 2004 (has links) (PDF)
Les technologies numériques ont engendré depuis peu, des volumes de données importants, qui peuvent receler des informations utiles. Ceci a donné naissance à l'extraction de connaissances à partir des données qui désigne le processus d'extraction d'informations implicites, précédemment inconnues et potentiellement utiles enfouies dans les données. La fouille de données comprend cinq phases dont la principale est l'extraction de modèles. Nous nous intéressons aux connaisances exprimées sous la forme de règles de dépendance et à la qualité de ces règles. Une règle de dépendance est une implication conditionnelle entre ensembles d'attributs. Les algorithmes standard ont pour but de rechercher les meilleurs modèles. Derrière ces processus se cache en fait une véritable problématique d'optimisation. Nous considérons la recherche des règles de dépendance les plus intéressantes comme étant un problème d'optimisation dans lequel la qualité d'une règle est quantifiée par des mesures. Ainsi, il convient d'étudier les espaces de recherche induits par les mesures ainsi que les algorithmes de recherche dans ces espaces. Il ressort que la plupart des mesures observées présentent des propriétés différentes suivant le jeu de données. Une approche analytique n'est donc pas envisageable dans fixer certains paramères. Nous observons les variations relatives de mesures évaluées simultanément ; certaines d'entre elles sont antagonistes ce qui ne permet pas d'obtenir "la" meilleure règle ; il faut alors considérer un ensemble de compromis satisfaisants. Nous apportons des solutions par le biais des algorithmes génétiques.
99

Conception d'un système d'aide à l'ordonnancement tenant<br />compte des impératifs économiques

Ihsen, Saad 12 July 2007 (has links) (PDF)
Nos travaux concernent la mise en œuvre de méthodologies pour la résolution et l'optimisation de la production en tenant compte des impératifs économiques, jouant aujourd'hui un rôle déterminant dans la conduite de la production industrielle. Pour le problème du job-shop flexible dans lequel les interactions entre les critères sont supposées disponibles, cinq critères ont été retenus : le Makespan, la charge critique, la charge totale, la pénalité de retards/avance et le coût de la production. Dans ce sens, nous avons, d'abord, traité le problème de décision et d'évaluation d'une solution et introduit ensuite trois approches intégrées, basées sur les algorithmes génétiques, améliorant les approches évolutionnistes existant dans la littérature : la méthode statique basée sur l'intégrale de Choquet, la méthode approchée basée sur le concept Paréto-optimalité ainsi que la méthode basée sur le concept de ε-dominance Paréto-optimalité. Les approches adoptées consistent à générer une variété de solutions optimales diversifiées dans l'espace de recherche de solutions, et d'aider le décideur, quand il ne peut pas donner une préférence particulière à l'une des fonctions objectif. Les résultats proposés, obtenus globalement pour l'ensemble des critères, ont été comparés, avec succès, avec ceux obtenus par d'autres approches existantes sur plusieurs benchmarks de complexités distinctes.
100

L'application de la stratégie de Lisbonne dans une Europe hétérogène. Le cas de l'éducation et de la formation dans les pays du Sud

Chatziangelidou, Kalliopi 01 October 2013 (has links) (PDF)
L'objet de la présente thèse est d'analyser l'incidence des politiques menées dans le cadre des systèmes d'éducation et de formation grec et italien afin de se conformer aux exigences de la stratégie de Lisbonne 2000. Le niveau d'influence de la politique de l'UE sur les structures des deux pays et ses effets sur les réformes nationales sont liés à la relation, entre structures nationales et internationales en ce qui concerne les politiques d'éducation et de formation. Les réformes ne sont pas nécessairement le résultat de la politique de l'Union européenne ; elles peuvent également être le résultat de la voie nationale suivie et intervenir indépendamment des politiques européennes. Cela permet de se demander si le changement de la politique nationale est lié aux directives internationales ou s'il est le résultat indépendant de l'évolution de l'État.

Page generated in 0.0318 seconds