381 |
Méthodologie de simulation d'assemblage/ désassemblage de composants flexibles : Application à la simulation de pièces de type « poutres flexibles » dans un environnement de réalité virtuelleMikchevitch, Alexei 17 December 2004 (has links) (PDF)
Il est important, pour la développement rapide et à moindre coût d'un produit, de considérer différentes contraintes liées à la conception, l'assemblage/ désassemblage (A/D), l'usinage, l'ergonomie, etc. L'utilisation des outils comme les systèmes de réalité virtuelle (RV) donne une nouvelle dimension en terme de développement efficace du produit. Cette thèse propose d'appliquer les technologies de RV à l'étude/ optimisation des systèmes mécaniques complexes et, en particulier, à la simulation d'A/D de composants flexibles. Afin de tenir compte d'un comportement complexe de ces pièces, une telle simulation est basée sur leur modélisation mécanique. Le modèle non-linéaire de poutres flexibles est utilisé, adapté à des spécificités de la RV, étudié et intégré dans un démonstrateur de simulation. Une telle modélisation permet de générer des informations réalistes (efforts, déformations, trajectoires d'A/D,...) et de les utiliser dans l'étude/ évaluation adéquate et rapide des opérations d'A/D en se basant sur la méthodologie proposée. Cette méthodologie tient compte des spécificités dues à la simulation mécanique temps réel, à la caractérisation des propriétés du matériau, aux interfaces de RV, aux problèmes des modèles CAO. Ainsi, les problèmes de stabilité numérique et de recherche rapide de solutions adéquates, la validation expérimentale, les contraintes d'interfaçage en RV, la caractérisation d'A/D à travers des expérimentations physiques et numériques, etc. sont considérés dans ce mémoire. De nombreux tests et exemples montrent l'intérêt de la démarche proposée vis-à-vis des besoins industriels.
|
382 |
Proposition d'un modèle organisationnel générique de systèmes multi-agents et examen de ses conséquences formelles, implémentatoires et méthologiquesGutknecht, Olivier 14 September 2001 (has links) (PDF)
Cette thèse présente le résultat de notre travail sur l'étude des structures organisationnelles dans les systèmes multi-agents. L'approche proposée met l'accent sur la primauté de l'organisation multi-agents sur les architectures individuelles pour répondre aux besoins d'hétérogénéité,d'adaptation et de contrôle dans les systèmes de taille importante. Le coeur de ce travail est donc un modèle générique de description d'organisation, basé sur les notions de groupe, agent et rôle. Il est montré comment cette description structurelle et fonctionnelle permet de fédérer des systèmes multi-agents ayant des architectures de contrôle, des buts ou des modèles d'interactions différents. Nous dégageons alors plusieurs conséquences de ce modèle, selon les points de vue de la formalisation, de l'implémentation, de la conception ou des applications. Nous présentons en particulier une expression dans une variante du pi-calcul, que nous illustrons par l'étude du meta-niveau dans cette formalisation. L'aspect opératoire a été abordé par la réalisation une plate-forme générique de développement et exécution de systèmes multi-agents, basée sur le modèle d'organisation proposé et conçue pour permettre l'accueil de systèmes ayant des architectures fortement hétérogènes. Nous montrons alors comment un lien peut être fait avec d'autres approches en conception multi-agent, et proposons quelques pistes pour l'utilisation dans le cadre des langages de modélisation. La validation expérimentale de ce travail est finalement abordée par des expérimentations ciblées sur le modèle et la plate-forme proposée ainsi que par des applications à visée plus générique.
|
383 |
Stratégies d'optimisation par la méthode des Plans d'Expériences, et Application aux dispositifs électrotechniques modélisés par Eléments FinisVIVIER, Stéphane 11 July 2002 (has links) (PDF)
Les travaux présentés dans ce mémoire portent sur l'application de la Méthode des Plans d'Expériences (MPE) à l'étude et à l'optimisation de dispositifs électrotechniques. La modélisation éléments finis est l'outil d'analyse privilégié, fournissant les prototypes virtuels des dispositifs étudiés. La MPE, introduite dans le premier chapitre, est un ensemble homogène d'outils et de méthodes algébro-statistiques visant à établir et à analyser les relations existant entre les grandeurs étudiées (réponses) et leurs sources de variations supposées (facteurs). Cette analyse peut être qualitative afin de déterminer des facteurs influents, ou bien quantitative pour établir les variations des réponses en fonction des facteurs significatifs. L'opération de modélisation est toujours fondamentale. Elle est opérée à l'issue de séries de simulations définies par les plans d'expériences (PE). Le deuxième chapitre présente plusieurs algorithmes utilisant les PE de façon exclusive, pour la modélisation des réponses ainsi que pour la recherche des conditions optimales. Des particularités apparaissent alors, telle que la possibilité de partager certaines expériences par plusieurs plans. Le caractère virtuel des expériences justifie la création et la mise au point d'un superviseur d'optimisation, afin d'automatiser et de faciliter l'application de la MPE et celle des stratégies d'optimisation par PE à partir de simulations informatiques. Le troisième chapitre présente les principales caractéristiques de ce nouvel outil : Sophemis. Enfin, le quatrième chapitre met en œuvre l'ensemble de ces développements, en appliquant les algorithmes d'optimisation présentés, à l'étude de trois systèmes électrotechniques. Le premier est un moteur brushless à aimants permanents, le second correspond au cas test n°22 du T.E.A.M. Workshop, et le dernier se rapporte à un frein linéaire à courants de Foucault pour usage ferroviaire.
|
384 |
Développement d'un outil d'aide à la décision environnementale basé sur l'analyse de cycle de vie intégré au processus de conceptionPrinçaud, Marion 11 April 2011 (has links) (PDF)
L'éco-conception est aujourd'hui une démarche qui interpelle de plus en plus le monde industriel. C'est l'un des meilleurs moyens pour prendre en compte les impacts d'un produit sur l'environnement, i.e. les évaluer et les améliorer. Or intégrer l'éco-conception dans un processus de conception et pouvoir en faire dès l'avant-projet, s'avère extrêmement difficile lorsque les produits sont très complexes car soumis à de nombreuses contraintes (réglementaires, techniques, technologiques,...). C'est à cette problématique qu'ont été confrontés les concepteurs de DCNS, constructeur naval, et à laquelle, par le biais de cette thèse, nous avons essayé de répondre. En créant des briques de données, basées sur le modèle de briques technologiques auxquelles sont ajoutées les informations nécessaires à une évaluation environnementale, il devient possible d'intégrer le paramètre environnemental dans le processus de conception, en tant qu'outil d'aide à la décision. La méthodologie proposée permet alors s'affranchir des habituels points faibles d'une démarche d'évaluation environnementale (l'accès aux bases de données) et d'amélioration environnementale (le manque de connaissances métiers spécifiques aux produits). Ainsi, un outil d'éco-conception " complet ", l'OCEAN, basé sur l'ACV et dédié aux navires a été développé sur ce principe.
|
385 |
Etude "in situ" des transferts d'eau dans la zone non saturée : application à une méthode d'estimation du bilan hydriqueDaian, Jean-Francois 25 June 1971 (has links) (PDF)
L'étude sur le terrain de l'infiltration des eaux de pluie, de leur cheminement à travers le sol, ou, à l'inverse, de l'assèchement du sol par évaporation constitue un point de rencontre de diverses branches du vaste domaine des sciences des eaux. Le point commun de tous ces domaines de recherche est de faire appel à la connaissance du comportement d'un fluide mis en présence d'un milieu solide poreux, et ne remplissant pas totalement ses interstices, qui restent en partie occupés par une phase gazeuse. Il s'agit là d'une branche très particulière de l'hydraulique, la dynamique des écoulements en milieux poreux non saturés, qui constitue le support théorique sur lequel s'appuient les études en question. Ce champ d'étude a fait, et fait toujours l'objet de travaux de laboratoire, qui aboutissent à des résultats fort complexes, comme nous aurons l'occasion de le noter. Le passage du laboratoire au terrain entraine cependant de nouvelles complications. Parmi les techniques utilisées sur le terrain, la tensiométrie est déjà ancienne, et sa pratique bien connue. Mais elle n'apporte pas la totalité des renseignements nécessaires, et doit être complétée par la mesure des teneurs en eau. A cet égard, les procédés gravimétriques exigent un lourd travail matériel et sont notoirement imprécises. La découverte des méthodes radioactives et de leur utilisation dans les conditions du chantier, par la commodité des mesures qu'elles permettent et surtout par leur caractère non destructif, a fait franchir aux études d'infiltration "in situ" une étape capitale, leur donnant un développement qu'elles n'auraient sans doute pas connu sans la mise en oeuvre de ce nouveau moyen de mesure. Mais il convient de souligner qu'il s'agit d'un domaine d'étude relativement récent qui en est encore à rechercher ses méthodes d'approche, et qui n'a pas définitivement réussi à assimiler et adapter les concepts et connaissances théoriques. En effet, l'hétérogénéité du sol en place, et le caractère aléatoire des conditions initiales et aux limites représente une difficulté considérable. Pour notre part, nous avons conduit cette étude avec le souci de ne rien modifier aux conditions naturelles, en excluant toute intervention artificielle, telle que l'arrosage, la submersion du terrain, ou le rabattement forcé de la nappe par pompage. Ces méthodes d'étude n'en présentent pas moins l'intérêt de rendre le chercheur maître, dans une certaine mesure, des conditions aux limites, et par là de simplifier les phénomènes, qui peuvent ainsi se prêter à une interprétation plus aisée. Le point de vue que nous avons adopté contraint à aborder les processus naturels dans toute leur complexité, et limite par conséquent les possibilités d'interprétation et de confrontation des résultats avec les données théoriques. Nous pensons cependant avoir tiré bon parti des mesures effectuées, compte tenu des moyens mis en oeuvre et de la complexité du site choisi. On notera cependant que le but recherché a été davantage de mettre au point une méthode d'interprétation des phénomènes naturels, et de vérifier son adéquation d'après les résultats de nos mesures, que d'obtenir des renseignements exploitables sur le site expérimental.
|
386 |
Thermoluminescence et orogenèse. Les Alpes occidentales au Paléogène.Ivaldi, Jean-Pierre 14 April 1989 (has links) (PDF)
Le sujet de ce travail est l'étude du Paléogène marin de la zone alpine externe. Son objet : rechercher par l'analyse détaillée des unités lithostratigraphiques externe. Son objet : rechercher par l'analyse détaillée des unités lithostratigraphiques formelles, des données et des schémas paléogéographiques cohérents qui permettent de préciser l'évolution tectono-sédimentaire de la marge interne de la plaque européenne au cours de la période paléogène. La principale méthode d'investigation utilisée est la thermoluminescence (TL), en association avec des méthodes d'étude plus classiques empruntant à la biostratigraphie, à la pétrographie et à l'analyse structurale. Quatre parties constituent le présent mémoire. La première partie est d'ordre méthodologique. Successivement , sont précisés: la phénoménologie de la thermoluminescence, les modalités d application de la méthode d'analyse dans le domaine des Sciences de la Terre, les différentes techniques expérimentales utilisées, le choix des paramètres TL et leur traitement statistique. La seconde partie traite des relations entre la thermoluminescence et le métamorphisme mésoalpin. Ce métamorphisme, qui affecte irrégulièrement les matériaux paléogènes et leur substratum, est générateur d'une thermoluminescence de néogenèse dont les caractères spécifiques sont appréhendés grâce à l'analyse des filons de quartz syn- à tardimétamorphes post-priaboniens. Les effets de ce métamorphIsme sont variables et sélectifs à l'échelle des Alpes occidentales,limités dans la zone alpine externe, plus importants dans le domaine interne - notamment dans le Briançonnais - où ils peuvent entraîner l'effacement partiel ou total des caractères thermoluminescents originels du quartz et introduire une part d'incertitude non négligeable dans le raisonnement et les conclusions d'ordre paléogéographique. La troisième partie est consacrée à l'étude régionale des formations détritiques paléogènes de la zone alpine externe affleurant dans les Alpes maritimes s .l., dans le Champsaur et dans le Dévoluy, dans le Pays des Arves et en Haute-Savoie. L'emploi de diagrammes bidimensionnels et de cartes isofactes prenant en compte les paramètres de thermoluminescence les plus performants permet de défInir les principales provinces distributives de matériaux terrigènes, de faire la part des apports d'origine externe et interne lors des différents stades de remplissage des bassins et sous-bassins paléogènes dont l'évolution paléogéographique et structurale est également précisée par l'établissement de cartes de paléofaciès et par l'analyse de la déformation des matériaux à toutes les échelles. Le modèle géodynamique proposé en conclusion, dans la dernière partie du mémoire, lie intimement la sédimentation et la déformation progressive des flyschs crétacés allochtones et des flyschs paléogènes d'avant-pays dans les Alpes occidentales. Il considère l'ensemble de ces flyschs comme un continuum de formations synorogéniques déposées dans des bassins convergents installés par subsidence "forcée' à l'avant de chevauchements crustaux actifs engendrés par la collision Europe-Afrique à partir de l'Albien terminal, le remplissage des bassins sédimentaires étant d'abord assuré par des reliefs bordiers externes rajeunis par le développement de bombements lithosphériques, puis par les parties internes de l'orogène intégrant progressivement ces mêmes flyschs dans leurs superstructures.
|
387 |
Éléments d'une anthropologie de l'acteur et de l'observateur : Sarrola-Carcopino, village corse (1845-1939)Galibert, Charlie 01 September 2000 (has links) (PDF)
Le continuum épistémique de l'anthropologie s'étire depuis la distanciation maximale par rapport à l'objet jusqu'au desir d'implication du sujet dans celui-ci. Ces deux attitudes extrêmes constituent tendanciellement une anthropologie de "l'observateur" versus une "anthropologie" de l'acteur. Un examen de ces deux approches est mené à travers la littérature sociologique et ethnologique. Le repérage de ces deux approches dans l'épistémé ethno-anthropologique corse, puis leur conjonction et leur dynamisation sur le terrain d'un village de Corse du Sud (Sarrola-Carcopino) à partir des données suscitées et non-suscitées, constituent l'ébauche d'une anthropologie de l'acteur et de l'observateur. Crisant la problématique de l'insularité, cette anthropologie de la rencontre permet d'appréhender historiquement le village aussi bien depuis lui-même (socialité quotidienne, économie, politique, symbolique) que depuis son extériorité (le continent, les colonies autour de 1900) à travers les relations épistolaires entre une famille du village et l'un des siens, militaire engagé dans les campagnes coloniales (Tonkin, Madagascar, Soudan). Contribution à une anthropologie historique de la Corse, la recherche présentée prend la forme d'une ethnologie-au -quotidien du quotidien local.
|
388 |
Déploiement d'applications multimédia sur architecture reconfigurable à gros grain : modélisation avec la programmation par contraintesRaffin, Erwan 13 July 2011 (has links) (PDF)
Les systèmes embarqués sont des dispositifs électroniques et informatiques autonomes, dédiés à une tâche bien précise. Leur utilisation s'est désormais démocratisée à de nombreux domaines d'applications et en particulier au multimédia. Ce type d'application est caractérisé par un besoin important en puissance de calcul et en échange de données. Les architectures matérielles au cœur de ces systèmes sont généralement dotées d'accélérateurs chargés de l'exécution des noyaux de calcul intensif. Les architectures reconfigurables à gros grain (CGRA) sont particulièrement adaptées à l'accélération d'applications multimédia car elles répondent au mieux aux contraintes de performance, d'efficacité énergétique, de flexibilité et de coût de conception. En effet, ce type d'architecture est un compromis entre les processeurs à usage général, les architectures dédiées et celles reconfigurables à grain fin. Cette thèse traite de certains aspects liés aux problématiques de conception et de compilation d'applications pour CGRA. Nos travaux s'inscrivent dans une démarche d'adéquation applications multimédia / CGRA / conception et compilation basées sur la programmation par contraintes (CP). Notre méthodologie nous a permis, grâce à la CP, de modéliser et de résoudre un ensemble de problèmes combinatoires complexes. Le premier modèle présenté a trait à la fusion d'unités fonctionnelles reconfigurables sous contraintes architecturales et technologiques. Les deux autres modèles abordent les problèmes de : placement, ordonnancement et routage des données pour le déploiement d'une application sur CGRA. Notre approche permet, dans la majorité des cas, de prouver l'optimalité de la solution obtenue.
|
389 |
Modes de défaillance induits par l'environnement radiatif naturel dans les mémoires DRAMs : étude, méthodologie de test et protectionBougerol, A. 16 May 2011 (has links) (PDF)
L'augmentation des performances requises pour les systèmes aéronautiques et spatiaux nécessite l'utilisation de composants électroniques de complexité croissante, dont la fiabilité, incluant la tenue aux radiations cosmiques, doit être évaluée au sol. Les mémoires DRAMs sont largement utilisées, mais leurs modes de défaillance sont de plus en plus variés, aussi les essais traditionnels en accélérateur de particules ne sont plus suffisants pour les caractériser parfaitement. Le laser impulsionnel peut déclencher des effets similaires aux particules ionisantes, aussi cet outil a été utilisé en complément d'accélérateurs de particules pour étudier, d'une part, les événements parasites SEUs (Single Event Upset) dans les plans mémoire et, d'autre part, les SEFIs (Single Event Functional Interrupt) dans les circuits périphériques. Ces études ont notamment permis d'expliquer l'influence des motifs de test sur les sensibilités mesurées, de découvrir l'origine des SEFIs les plus importants ainsi que de valider des techniques pour quantifier leurs surfaces sensibles. Une méthodologie de test destinée aux industriels a été établie, basée sur l'utilisation du moyen laser en complément des essais en accélérateur de particules dans le but d'optimiser les coûts et l'efficacité des caractérisations. En outre, une nouvelle solution de tolérance aux fautes est proposée, utilisant la propriété des cellules DRAMs d'être immune aux radiations pour un de leurs états de charge.
|
390 |
Génération automatique d'extensions de jeux d'instructions de processeursMartin, Kevin 07 September 2010 (has links) (PDF)
Les processeurs à jeux d'instructions spécifiques (ASIP) sont des processeurs spécialisés qui combinent la flexibilité d'un processeur programmable avec la performance d'un processeur dédié. L'une des approches de conception de tels processeurs consiste à spécialiser un cœur de processeur existant en y ajoutant des instructions spécialisées, mises en œuvre dans un module matériel fortement couplé au chemin de données du processeur. C'est l'extension de jeu d'instructions. La conception d'un ASIP nécessite des méthodologies et des outils logiciels appropriés garantissant une maîtrise des contraintes de conception et de la complexité grandissante des applications. Dans ce contexte, cette thèse vise à proposer une méthodologie de génération automatique d'extensions de jeux d'instructions. Celle-ci consiste à tout d'abord identifier l'ensemble des instructions candidates qui satisfont les contraintes architecturales et technologiques, afin de garantir leurs mises en œuvre. Ensuite, les instructions candidates qui minimisent le temps d'exécution séquentielle de l'application sont sélectionnées. Les ressources matérielles de l'extension, telles que les registres et les multiplexeurs, sont optimisées. Enfin, la dernière étape génère la description matérielle et le modèle de simulation de l'extension. Le code applicatif est adapté pour tenir compte des nouvelles instructions. Cette thèse propose des techniques basées sur la programmation par contraintes pour résoudre les problèmes difficiles (voir intraitables) que sont l'identification d'instructions, la sélection d'instructions et l'allocation de registres.
|
Page generated in 0.0566 seconds