Spelling suggestions: "subject:"[SPI:OTHER] engineering ciences/other"" "subject:"[SPI:OTHER] engineering ciences/ether""
501 |
Contribution à l'étude du comportement des pieux sous chargements cycliques axiauxBenzaria, Omar 14 December 2012 (has links) (PDF)
Dans le cadre du Projet National SOLCYP, le présent travail avait pour but d'étudier la réponse des pieux sous chargements axiaux pour les phases avant, pendant et après cycles. Pour atteindre cet objectif, une étude expérimentale étendue a donc été réalisée par le moyen de deux compagnes d'essais de chargements cycliques sur différents types de pieux instrumentées (battus, forés, vissés) dans deux sites expérimentaux : le site de Merville dans l'argile surconsolidée des Flandres et le site de Loon-Plage près de Dunkerque dans les sables denses des Flandres. Les essais cycliques comportaient des essais en compression, en traction et alternés avec des séries de cycles à forte amplitude conduisant à la rupture cyclique et des séries d'amplitude modérée à très grands nombres de cycles (N>5 000 cycles).L'interprétation de ces essais a englobé, d'une part, une analyse globale du comportement des pieux sous chargements cycliques notamment (i) la réduction de la capacité du pieu; (ii) le nombre de cycles que le pieu peut support avant la rupture (iii) l'évolution du déplacement en tête des pieux (rigidité cyclique). D'autre part, elle a intégré une étude locale en particulier sur la dégradation du frottement latéral et l'évolution de la résistance de pointe du pieu. Cette thèse, basée sur l'étude expérimentale, a permis la formulation des conclusions pratiques sur le comportement des pieux sous chargements cycliques axiaux et a proposé des perspectives pour bien cerner cette problématique
|
502 |
Algorithme à gradients multiples pour l'optimisation multiobjectif en simulation de haute fidélité : application à l'aérodynamique compressibleZerbinati, Adrien 24 May 2013 (has links) (PDF)
En optimisation multiobjectif, les connaissances du front et de l'ensemble de Pareto sont primordiales pour résoudre un problème. Un grand nombre de stratégies évolutionnaires sont proposées dans la littérature classique. Ces dernières ont prouvé leur efficacité pour identifier le front de Pareto. Pour atteindre un tel résultat, ces algorithmes nécessitent un grand nombre d'évaluations. En ingénierie, les simulations numériques sont généralement réalisées par des modèles de haute-fidélité. Aussi, chaque évaluation demande un temps de calcul élevé. A l'instar des algorithmes mono-objectif, les gradients des critères, ainsi que les dérivées successives, apportent des informations utiles sur la décroissance des fonctions. De plus, de nombreuses méthodes numériques permettent d'obtenir ces valeurs pour un coût modéré. En s'appuyant sur les résultats théoriques obtenus par Inria, nous proposons un algorithme basé sur l'utilisation des gradients de descente. Ces travaux résument la caractérisation théorique de cette méthode et la validation sur des cas tests analytiques. Dans le cas où les gradients ne sont pas accessibles, nous proposons une stratégie basée sur la construction des métamodèles de Krigeage. Ainsi, au cours de l'optimisation, les critères sont évalués sur une surface de réponse et non par simulation. Le temps de calcul est considérablement réduit, au détriment de la précision. La méthode est alors couplée à une stratégie de progression du métamodèle.
|
503 |
Elaboration et optimisation de verres tellurites pour des applications de gain RamanGuéry, Guillaume 28 June 2013 (has links) (PDF)
L'expansion de nouvelles technologies et la demande incessante d'une transmission d'informations plus rapide font que les systèmes de télécommunications nécessitent plus de débit sur de plus longues distances. L'amplification optique et notamment l'amplification optique par effet Raman représente une intéressante possibilité à repousser les limites de distance et de debit.Les verres à base d'oxyde de tellure sont des matériaux prometteurs pour les applications d'amplification optique par effet Raman; en particulier grâce à leurs fortes propriétés optiques linéaires et non linéaires, leurs fenêtres de transparence allant dans le proche et milieu infra-rouge du spectre de transmission. De plus, leurs propriétés thermiques et en particulier leurs faibles temperatures de transition vitreuse permettent une facilité de fibrage. L'estimation de l'intensité du gain Raman et sa zone spectrale mise en jeu sont généralement approchées à partir du spectre de diffusion Raman spontanée du matériaux. La compréhension des relations existantes entre la structure vitreuse, la réponse vibrationnelle et les propriétés d'optique non linéaire, représente un point clé au développement et à l'optimisation des verres de tellure pour l'amplification Raman. Cette dissertation apporte une réponse détaillée à la question fondamentale de l'étude doctorale: "Quel est l'impact de la structure vitreuse sur les propriétés d'amplification Raman dans les verres d'oxyde de tellure?"
|
504 |
PrivaCIAS - Privacité selon l'intégrité contextuelle dans les systèmes agents décentralisésKrupa, Yann 10 September 2012 (has links) (PDF)
Les approches habituelles pour la protection de la privacité s'attachent à définir un niveau de sensibilité pour chaque information. Cette information est soit publique, soit privée et sa circulation est restreinte à un groupe d'agents prédéfini. Dans cette thèse, nous nous appuyons sur la théorie de l'intégrité contextuelle, qui propose de redéfinir la notion de violation de privacité. Selon cette théorie, toute transmission peut déclencher une violation de privacité suivant le contexte dans lequel elle a lieu. Cette thèse utilise la théorie de l'intégrité contextuelle afin de proposer un modèle de protection de la privacité pour les systèmes multi-agents décentralisés: le modèle PrivaCIAS. Afin de contrôler les agents dans le système, le modèle PrivaCIAS fournit un ensemble de normes qui permet la mise en place d'un contrôle social basé sur la confiance. Le modèle donne le contrôle aux agents pour constater les violations (selon l'intégrité contextuelle), puis punir les contrevenants en les excluant du système sans avoir besoin de recourir à une autorité centrale. Ce modèle vise les réseaux sociaux décentralisés comme champ d'application.
|
505 |
Étude de la compaction isostatique à chaud de l'acier inox 316L : Modélisation numérique à l'échelle mésoscopique et caractérisation expérimentaleZouaghi, Ala 28 January 2013 (has links) (PDF)
On s'est intéressé dans ce travail à la modélisation 2D et 3D du procédé CIC (Compaction Isostatique à Chaud) à l'échelle mésoscopique, en vue d'une compréhension approfondie des différents mécanismes physiques impliqués dans la densification de poudre. Le modèle est formulé dans un cadre eulérien, et est basé sur l'utilisation de la méthode level-set couplée avec une technique de génération et d'adaptation de maillages éléments finis afin de modéliser la déformation des particules de poudre sur un Volume Élémentaire Représentatif (VER). La génération des particules a été effectuée avec un générateur statistique de microstructures en tenant compte d'une distribution réelle de la taille des particules. Les conditions aux limites mécaniques ont été appliquées sur le VER, entraînant la déformation des particules et la densification du VER. Dans ce travail, la déformation viscoplastique des particules a été considérée comme le seul mécanisme de densification (mécanisme prépondérant pour une grande partie du temps du procédé). A partir de données issues de simulations macroscopiques du mécanisme CIC pour le cas de particule de poudre 316L, des simulations mésoscopiques ont été réalisées (approche macro-méso). Les résultats de ces simulations sont présentés et discutés à la lumière d'une étude expérimentale (microscopie optique, MEB, EBSD et EPMA) de la structure et microstructure des particules, obtenues à partir d'essais de compactions interrompus. De plus, des essais mécaniques ont été réalisés à température ambiante sur des lopins totalement denses issus du procédé CIC.Mots clés : CIC, 316L, compaction de poudre, fonction level-set, génération et adaptation de maillages, échelle mésoscopique, étude expérimentale, microstructure, EBSD, essais mécaniques.
|
506 |
Holographie électronique en champ sombre : une technique fiable pour mesurer des déformations dans les dispositifs de la microélectroniqueDenneulin, Thibaud 15 November 2012 (has links) (PDF)
Les contraintes font maintenant partie des " boosters " de la microélectronique au même titre que le SOI (silicium sur isolant) ou le couple grille métallique / diélectrique haute permittivité. Appliquer une contrainte au niveau du canal des transistors MOSFETs (transistors à effet de champ à structure métal-oxyde-semiconducteur) permet d'augmenter de façon significative la mobilité des porteurs de charge. Il y a par conséquent un besoin de caractériser les déformations induites par ces contraintes à l'échelle nanométrique. L'holographie électronique en champ sombre est une technique de MET (Microscopie Électronique en Transmission) inventée en 2008 qui permet d'effectuer des cartographies quantitatives de déformation avec une résolution spatiale nanométrique et un champ de vue micrométrique. Dans cette thèse, la technique a été développée sur le microscope Titan du CEA. Différentes expériences ont été réalisées afin d'optimiser la préparation d'échantillon, les conditions d'illumination, d'acquisition et de reconstruction des hologrammes. La sensibilité et la justesse de mesure de la technique ont été évaluées en caractérisant des couches minces épitaxiées de Si_{1-x}Ge_{x}/Si et en effectuant des comparaisons avec des simulations mécaniques par éléments finis. Par la suite, la technique a été appliquée à la caractérisation de réseaux recuits de SiGe(C)/Si utilisés dans la conception de nouveaux transistors multi-canaux ou multi-fils. L'influence des phénomènes de relaxation, tels que l'interdiffusion du Ge et la formation des clusters de β-SiC a été étudiée. Enfin, l'holographie en champ sombre a été appliquée sur des transistors pMOS placés en déformation uniaxiale par des films stresseurs de SiN et des sources/drains de SiGe. Les mesures ont notamment permis de vérifier l'additivité des deux procédés de déformation.
|
507 |
Innovation et design : contribution de la conception à l'expansion de l'identité des matériauxBergeret, Lorraine 13 July 2011 (has links) (PDF)
Par sa spécificité à observer et questionner le monde dans ses aspects à la fois physique, esthétique, symbolique et culturel, le design retient aujourd'hui l'intérêt du génie industriel pour sa contribution indispensable aux nouvelles innovations. La présente recherche établit un lien entre le design et l'innovation dans le domaine des matériaux. Elle a été conduite dans le cadre du projet de développement industriel d'une gamme d'objets réalisés à partir d'un béton aux performances innovantes, l'Ultrabéton®. Le projet a initié le constat d'un manque d'identité inhérent aux matériaux émergents issus des dernières avancées technologiques. Comment pallier ce manque ? Quel peut être le rôle et l'impact de la conception et du design sur l'identité d'un matériau ? Nous définissons l'identité d'un matériau comme l'ensemble de ce qui le caractérise, à la fois sur le plan matériel et immatériel, à la fois sa 'plastique', son apparence, et son 'récit', ses significations symboliques et culturelles. Les phases d'élaboration du matériau et surtout de sa mise en forme en objet sont identifiées comme autant d'actions de conception motrices d'une expansion possible de l'identité d'un matériau. L'analyse a posteriori de plusieurs cas de conception sélectionnés parmi les différents projets de design réalisés au cours de notre recherche et complémentaires au cas de l'Ultrabéton®, nous permet de valider un modèle d'expansion de l'identité d'un matériau par la conception d'objets. Cette proposition théorique doit aider à de possibles expansions d'identités de matériaux et à avancer ainsi vers une 'humanisation' des innovations dans le domaine des matériaux.
|
508 |
Contribution à la modélisation et la commande robuste de robots manipulateurs à articulations flexibles. Applications à la robotique interactive.Makarov, Maria 21 May 2013 (has links) (PDF)
La problématique traitée dans cette thèse concerne la commande de robots manipulateurs à articulations flexibles. Les méthodes développées visent à satisfaire les spécifications de performance et de robustesse en suivi de trajectoire, ainsi qu'à assurer un niveau de sécurité compatible avec un scénario de fonctionnement interactif dans lequel l'homme et le robot partagent un même espace de travail. Seules les mesures moteur sont utilisées dans un contexte d'instrumentation réduite. Le premier objectif de performance de la commande de mouvement est atteint grâce à l'identification expérimentale d'un modèle flexible représentatif du système, et l'usage de ce modèle pour la synthèse de lois de commande avancées intégrées au sein d'une structure cascade. Deux approches complémentaires fondées d'une part sur la commande prédictive de type GPC (Generalized Predictive Control), et d'autre part sur la commande Hinfini, sont considérées pour la synthèse de lois de commande à deux degrés de liberté, prédictives et robustes. Les performances de ces deux approches sont analysées et évaluées expérimentalement. Le deuxième objectif de sécurité est abordé à travers un algorithme de détection de collisions du robot avec son environnement, sans capteur d'effort et en présence d'incertitudes de modélisation. Afin de séparer efficacement les effets dynamiques des collisions de ceux des erreurs de modélisation, une stratégie adaptative de filtrage et de décision tenant compte de l'état du système est proposée. La validation expérimentale montre une très bonne sensibilité de détection, compatible avec les normes et les recommandations de sécurité relatives à la robotique collaborative.
|
509 |
Étude de classes de noyaux adaptées à la simplification et à l'interprétation des modèles d'approximation. Une approche fonctionnelle et probabiliste.Durrande, Nicolas 09 November 2011 (has links) (PDF)
Le thème général de cette thèse est celui de la construction de modèles permettantd'approximer une fonction f lorsque la valeur de f(x) est connue pour un certainnombre de points x. Les modèles considérés ici, souvent appelés modèles de krigeage,peuvent être abordés suivant deux points de vue : celui de l'approximation dans les espacesde Hilbert à noyaux reproduisants ou celui du conditionnement de processus gaussiens.Lorsque l'on souhaite modéliser une fonction dépendant d'une dizaine de variables, lenombre de points nécessaires pour la construction du modèle devient très important etles modèles obtenus sont difficilement interprétables. A partir de ce constat, nous avonscherché à construire des modèles simplifié en travaillant sur un objet clef des modèles dekrigeage : le noyau. Plus précisement, les approches suivantes sont étudiées : l'utilisation denoyaux additifs pour la construction de modèles additifs et la décomposition des noyauxusuels en sous-noyaux pour la construction de modèles parcimonieux. Pour finir, nousproposons une classe de noyaux qui est naturellement adaptée à la représentation ANOVAdes modèles associés et à l'analyse de sensibilité globale.
|
510 |
Passage d'un modèle d'endommagement continu régularisé à un modèle de fissuration cohésive dans le cadre de la rupture quasi-fragileCuvilliez, Sam 01 February 2012 (has links) (PDF)
Les travaux présentés dans ce mémoire s'inscrivent dans l'étude et l'amélioration des modèles d'endommagement continus régularisés (non locaux), l'objectif étant d'étudier la transition entre un champ d'endommagement continu défini sur l'ensemble d'une structure et un modèle discontinu de fissuration macroscopique.La première étape consiste en l'étude semi-analytique d'un problème unidimensionnel (barre en traction) visant à identifier une famille de lois d'interface permettant de basculer d'une solution non homogène obtenue avec un modèle continu à gradient d'endommagement vers un modèle discontinu de fissuration cohésive. Ce passage continu / discontinu est construit de telle sorte que l'équivalence énergétique entre les deux modèles soit assurée, et reste exacte quelque soit le niveau de dégradation atteint par le matériau au moment où cette transition est déclenchée.Cette stratégie est ensuite étendue au cadre 2D (et 3D) éléments finis dans le cas de la propagation de fissures rectilignes (et planes) en mode I. Une approche explicite basée sur un critère de dépassement d'une valeur " critique " de l'endommagement est proposée afin de coupler les modèles continus et discontinus au sein d'un même calcul quasi-statique par éléments finis. Enfin, plusieurs résultats de simulations menées avec cette approche couplée sont présentés.
|
Page generated in 0.1134 seconds