11 |
Contribution à la modélisation expérimentale du comportement transitoire des pneumatiques / Transient tire behavior experimental modelling contributionAlarcon, Laura 02 July 2015 (has links)
La voiture de demain semble prendre forme. Elle sera connectée et autonome, c'est à dire qu'elle se substituera complètement à l'être humain. Quelques milliers de véhicules communicants devraient être mis en circulation dès 2016. Par le biais du développement de multiples fonctions avancées d'aide à la conduite et de sécurité active, il est déjà possible de parler d'autonomie partielle de conduite. En effet, ces dernières années, un grand nombre de systèmes sont apparus dans les véhicules, comme par exemple le contrôle adaptatif de vitesse, l'alerte de franchissement de ligne, l'aide au stationnement ... Ils utilisent des technologies de plus en plus perfectionnées qui induisent ainsi des coûts de développement important. Les constructeurs automobiles sont actuellement très nombreux sur le marché. Ils doivent faire face à une concurrence accrue, ce qui influe fortement sur la phase de conception. Ainsi, les délais entre la phase de conception des véhicules et celle de fabrication sont de plus en plus restreints afin d'accroître la compétitivité. A cet effet, la simulation numérique se développe afin de diminuer les coûts liés au prototypage et le temps de mise au point des véhicules . Elle fait appel à des modèles génériques et fins permettant de simuler le comportement du véhicule ou des systèmes présents dans le véhicule. La modélisation de la dynamique des véhicules en régime statique est aujourd'hui chose acquise. En ce qui concerne le régime transitoire, la caractérisation dynamique du comportement du véhicule ou des phénomènes physiques ressentis par les occupants du véhicule a fait depuis longtemps l'objet d'études, mais possède encore des lacunes. Tel est précisément le cas des modèles de pneumatiques actuels qui ne retranscrivent pas correctement le comportement transitoire de cet organe, notamment lors de manœuvres d'urgence.Ces travaux s'inscrivent ainsi dans cette problématique d'amélioration de la représentativité des modèles de pneumatiques en régime transitoire. / The car of tomorrow is taking form. It will be connected and autonomous, i.e. it will substitute for human being. A few thousand of communicating vehicles should be put in circulation by 2016. Through the development of multiple advanced functions of driver assistance and active safety, it is already possible to speak of partial autonomy of conduct. Indeed, these last years, a large number of systems have appeared in vehicles such as adaptive speed control, lane departure warning, parking assistance ... They use technologies more and more sophisticated that lead to significant development costs. Actually, car manufacturers are very numerous on the market. They face increased competition, which strongly influences the design phase. Thus, the time limit between the phase of vehicle design and manufacturing are becoming smaller in order to increase competitiveness. For that purpose, the numerical simulation is developed to reduce prototyping costs and development time of vehicles. It uses generic and accurate models allowing the simulation of the vehicle behavior or the behavior of the other systems in the vehicle. Dynamic modeling of vehicle static behavior is now an acquired thing. As regards the transient behavior, the dynamic characterization of the vehicle behavior or the physical phenomena experienced by the vehicle occupants has long been studied, but still has gaps. This is precisely the case of current tire models that do not correctly transcribe the transient behavior of this body, in particular during emergency maneuvers. This work is inscribed in this problem of transient tire models representativeness improvement.
|
12 |
SIMULATION DYNAMIQUE DE LA NAVIGATION DE DEUX VOILIERS EN INTERACTIONRoncin, Kostia 01 July 2002 (has links) (PDF)
Cette thèse est une contribution à un projet dont l'objet est de construire un outil d'analyse fiable de la conduite en compétition de match-racing. Le comportement dynamique du voilier résulte de l'équilibre entre de nombreuses actions qu'il faut prendre en compte dans leur ensemble pour ne pas arriver à des conclusions erronées sur la performance et le comportement. Nous avons construit un simulateur dont la structure modulaire permettra d'intégrer les modèles de toutes les actions en présence au fur et à mesure que la connaissance progresse dans les différents domaines concernés. Des modèles empiriques éprouvés sont utilisés pour la partie aérodynamique. L'interaction aérodynamique est représentée par l'addition de deux modèles simples, une singularité de type tourbillon et un sillage plan auto préservé. Ces modèles sont globaux et relativement rudimentaire mais des investigations plus poussées semblent aujourd'hui aventureuses tant les paramètres de réglage des voiles sont nombreux et complexes. Nous avons privilégié l'étude des efforts hydrodynamiques stationnaires. Des campagnes d'essais ont été menées en adaptant des techniques expérimentales existantes. L'objectif était de quantifier l'influence des paramètres d'attitude, de vitesse et de position. La méthode des plans d'expériences a été mise en oeuvre pour structurer la démarche et pour construire des modèles simples et rapides compatibles avec la simulation en temps réel. La rigueur de cette méthode permet en outre de réaliser une analyse de l'erreur de mesure et de comparer différentes modélisations. Des exemples de simulation illustrent en fin de document les possibilités offertes par la version actuelle du simulateur
|
13 |
Comment améliorer la dérive des résonateurs à quartz pour applications spatiales ?Bruno, Delmas 09 November 2009 (has links) (PDF)
Depuis près d'un siècle, les résonateurs à quartz à ondes de volume sont utilisés pour stabiliser les oscillateurs électriques. Cette longévité est due aux propriétés exceptionnelles du quartz et aux progrès constants de la technique. Pour les applications spatiales, il n'est généralement pas possible d'intervenir sur le composant. La dérive en fréquence doit alors être réduite et contrôlée sur des dizaines d'années. Cette variation systématique de la fréquence de résonance au cours du temps est due à l'évolution de plusieurs phénomènes physiques dont nous avons fait la synthèse et une analyse quantitative. Le premier de nos deux axes d'études porte sur l'étude des contraintes mécaniques dans la lame de quartz. Un travail bibliographique nous a permis d'étudier les spécificités de différentes formes de résonateur pour comprendre l'effet des contraintes mécaniques et les moyens de limiter la variation de fréquence induite. Les outils de modélisation actuels nous ont aidés à mettre au point une géométrie apportant une nette réduction de l'effet force-fréquence, confirmée par les mesures des premiers prototypes. L'autre axe d'étude est expérimental et porte sur un procédé essentiel communément appelé ''pré-vieillissement''. Les nombreuses contraintes de cette étude, telles que le temps, nous ont imposé une organisation méthodique de l'expérimentation. Ainsi, les plans factoriels fractionnaires nous ont permis de limiter les moyens techniques tout en obtenant les effets de chaque paramètre définissant le pré-vieillissement. Les résultats convergent vers la même conclusion que celle faite lors de l'étude quantitative des phénomènes physiques produisant le vieillissement.
|
14 |
Optimisation des procédés d'emboutissage par caractérisation géométrique et essais numériquesLedoux, Yann 12 December 2005 (has links) (PDF)
L'emboutissage est un procédé de mise en forme des matériaux métalliques en feuille. En général, plusieurs étapes d'emboutissage sont nécessaires et les phénomènes mis en jeux lors de la déformation plastique du matériau sont complexes. Ainsi, la conception d'un nouvel outillage est une opération longue et délicate. La technique d'«essai - erreur» est habituellement employée par les industriels. Cette méthode est sans garantie de succès, coûteuse et mobilise une machine de production ( presse ). Cette thèse propose une méthode d'optimisation qui est basée sur des simulations numériques. Le po%int% de départ est la définition d'un outillage initial dont la simulation est réalisée. Selon la géométrie numérique obtenue, nous paramétrons les défauts à corriger. Les paramètres du procédé qui modifient sensiblement la géométrie de la \pièce sont choisis ainsi que leur plage de variation respective. Un plan d'%exp%ériences est construit pour tester différentes configurations des paramètres du procédé. L'ensemble des %exp%ériences est simulé, puis, les paramètres géométriques sont mesurés sur chacune d'elles. Ces résultats permettent de calculer des relations polynomiales liant les paramètres du procédé aux paramètres géométriques de la \pièce. A%vec% ces relations, nous cherchons, par la technique d'optimisation de Newton, la configuration optimale du procédé donnant la géométrie désirée. La simulation correspondante est effectuée et valide l'optimum trouvé. Trois cas d'application sont présentés. Deux concernent des \pièces embouties en une étape, et enfin, nous présentons l'étude d'une \pièce réalisée en plusieurs étapes.
|
15 |
Recherche et développement dans le domaine des substances chimiques : préparation aux réponses du sytème REACHBaugros, Jean-Baptiste 18 December 2008 (has links) (PDF)
L'environnement et la santé des populations sont devenus des préoccupations majeures aussi bien au niveau national qu'au niveau européen. REACH (Registration, Evaluation and Authorization of CHemicals) est un système adopté par l'Union Européenne qui regroupe plus de quarante directives afin d'éliminer et de remplacer les substances chimiques les plus toxiques. Dans ce contexte, la mise en place d'un tel système requiert des méthodes d'analyse robuste, fiables et reproductibles dans le but d'évaluer et de détecter à l'état d'ultra-traces les molécules prioritaires persistantes dans les eaux et les sols.<br />Après avoir ciblé plusieurs substances listées sur l'annexe XVII de REACH, nous avons complété cette sélection par des polluants prioritaires de l'environnement Rhône Alpin tels les pesticides. Ainsi, la méthode d'analyse proposée permet de détecter et de quantifier par CPG-SM et CPL-SM/SM 33 substances (10 alkylphénols, 5 fongicides triazole, 1 fongicide morpholine, <br />1 acaricide pyridazinone, 2 phtalates, bisphénol A, 2 insecticides carbamates, un résidu des pesticides dithiocarbamates, 2 pesticides organophosphorés et 8 organochlorés) dans des matrices environnementales aussi complexes que des effluents et des boues de station épuration. <br />L'extraction des analytes est menée par Extraction sur Phase Solide (SPE) pour les échantillons aqueux et par Extraction par Solvant Accélérée (ASE) qui a été entièrement optimisée par étude statistique des paramètres. Les extraits sont ensuite purifiés de la même manière par SPE. La préparation à la validation de ma méthode nous a permis de confirmer des limites de détection basses comprises entre 7,2 ppt et 1,27 ppb dans les eaux et entre 5 ppb et 1,7 ppm dans les boues/sols
|
16 |
Optimisation des procédés de mise en forme par approche couplée plans d'expériences, éléments finis et surface de réponseLepadatu, Daniel 21 December 2006 (has links) (PDF)
Dans ce travail nous proposons des stratégies d'optimisation par plans d'expériences numériques pour palier les difficultés rencontrées dans le processus d'optimisation de procédés de mise en forme. Parmi ces difficultés on peut rappeler : le retour élastique durant le pliage, l'usure de la matrice pendant l'extrusion ou la fatigue des outils, la recherche d'une solution globale ou l'échange des données entre l'outil de simulation et l'outil d'optimisation. Compte tenu de la forte non linéarité des phénomènes étudiés, nous avons développé une approche basée sur l'utilisation conjointe de la méthode des plans d'expériences, de la méthodologie de surface de réponse et la méthode des éléments finis, pour optimiser les performances du produit ou du procédé de fabrication. Le caractère numérique des expériences justifie la création et la mise au point d'un outil d'optimisation, afin d'automatiser et de faciliter l'application de la méthodologie de plans d'expériences et celle des stratégies d'optimisation par plans d'expériences à partir de simulations numériques. Il s'agit d'un outil informatique qui permet de déterminer de manière automatique et rapide, l'optimum d'un certain processus, permettant d'obtenir des produits respectant un certain nombre des critères de qualité. Afin de trouver les caractéristiques des processus de fabrication en accord avec la meilleure qualité possible des produits une des stratégies d'optimisation proposée dans ce rapport est basée sur une approche hybride qui utilise la puissance des trois méthodes : surface de réponse, calcul par intervalle et tolérencement mécanique. La validation de cette nouvelle méthode apportera une solution robuste à l'optimisation du procédé d'emboutissage.
|
17 |
Influence des dispersions de structure sur la perception sonoreKoehl, Vincent 06 December 2005 (has links) (PDF)
Les dispersions affectant les structures fabriquées en série génèrent d'importants écarts de comportement entre des objets nominalement identiques. D'un point de vue vibro-acoustique, cette variabilité a été observée, quantifiée et ses origines ont même pu être identifiées et localisées sur certaines structures simples. Mais les effets de cette variabilité sur la perception du son émis par l'objet sont encore peu connus. Ce travail porte sur l'évaluation des effets des dispersions de structure sur l'identité sonore. Le son est aujourd'hui, à l'instar de n'importe quel composant du produit, conçu pour répondre aux attentes du client. Il se peut ainsi que l'identité sonore, résultat de cette phase de design sonore, soit elle aussi sujette à d'importantes variabilités. Dans un premier temps, la stabilité de descripteurs perceptifs utilisés classiquement pour décrire la perception de bruit intérieur d'automobiles a été évaluée sur un panel de véhicules dont les dispersions n'ont pas été contrôlées. L'évolution de l'identité sonore a ainsi été observée sur une population de produits. Puis l'étude s'est concentrée sur un système simple dont plusieurs caractéristiques physiques peuvent être finement contrôlées. Nous avons montré que la démarche par plan d'expérience fractionnaire peut être utilisée pour mesurer la contribution des facteurs et de leurs éventuelles interactions à la perception du bruit de ce système. Cette démarche a ensuite été utilisée pour un second cas, pour lequel les sons étaient synthétisés. Différentes analyses perceptives ont été menées (mesure de la similarité des objets dispersés par rapport à l'objet de référence et catégorisation libre des sons de synthèse), dont les résultats concordants ont permis de mettre en évidence les facteurs les plus influents. Cependant, une dernière expérience a montré que, malgré les dispersions pouvant affecter ces facteurs, des différences d'identité sonore peuvent être perçues sur un panel d'objets identiques mais ne conduisent pas à des confusions avec des objets nominalement différents.
|
18 |
Planification d'expériences numériques en phase exploratoire pour la simulation des phénomènes complexesFranco, Jessica 10 September 2008 (has links) (PDF)
La simulation numérique modélise des phénomènes toujours plus complexes. De tels problèmes, souvent de grande dimension, exigent des codes sophistiqués et coûteux en temps de calcul. Le recours systématique au simulateur devient alors illusoire. L'approche privilégiée consiste à définir un nombre réduit de simulations organisées selon un plan d'expériences numériques à partir duquel une surface de réponse est ajustée pour approcher le simulateur. Nous considérons ici les plans générés par des simulateurs déterministes en phase exploratoire i.e. lorsqu'il n'y a aucune connaissance a priori. Les plans requièrent donc certaines propriétés comme le remplissage de l'espace et la bonne répartition des points en projection. Deux indicateurs quantifiant la qualité intrinsèque des plans ont été développés. Le point essentiel de ce travail concerne un procédé de planification basée sur la simulation d'échantillons selon une loi de probabilité par une méthode de Monte Carlo par chaînes de Markov.
|
19 |
Supervision, économie et impact sur l'environnement d'un système d'énergie électrique associé à une centrale photovoltaïque.Alkhalil, Firas 24 November 2011 (has links) (PDF)
La libéralisation des marchés de l'électricité associée à l'intégration des énergies renouvelables a conduit à introduire la notion d'utilisation locale de ces nouvelles sources de production. L'objectif de ce travail est de proposer une méthodologie de supervision multi-niveaux et d'optimiser la supervision des ces unités de production. Le système hybride pris en compte dans cette thèse est une combinaison de trois microturbines à gaz, une centrale photovoltaïque, et un système de stockage à court terme (supercapacités), connecté à un réseau électrique. La supervision à moyen terme est un traitement du problème d'engagement unité (Unite Commitment Problem), qui consiste à coordonner la production d'unités génératrices, de façon à satisfaire une demande globale d'électricité prévisionnelle sur 24h tout en minimisant le coût du carburant et les émissions toxiques (CO et NOx) et en respectant les contraintes physiques et opérationnelles de chaque unité. Nous n'avons pas traité les rejets de CO2. Dans cette thèse, une supervision temps réel à base de logique floue a été proposée. Une méthodologie des plans d'expériences (Experimental Design Method EDM) a été suggérée afin d'améliorer la méthodologie graphique en minimisant certaines fonctions objectifs et optimisant les paramètres du superviseur flou. Cette stratégie de supervision a été finalement validée sur une centrale multisource combinant dispositifs réels et simulation temps réel.
|
20 |
Optimisation bâtiment/système pour minimiser les consommations dues à la climatisationFilfli, Sila 12 1900 (has links) (PDF)
La consommation annuelle totale moyenne en France dans le secteur tertiaire varie entre 300 et 380 kWh/m². Cette consommation se rapporte à l'ensemble des usages énergétiques du bâtiment: chauffage, climatisation, ventilation, éclairage, bureautique, auxiliaires et ECS. Ce travail a donné une méthode pour déterminer les meilleures combinaisons de solutions techniques existantes ou émergentes permettant de réduire les consommations énergétiques dans les bâtiments climatisés du secteur tertiaire. La réduction obtenue est d'un facteur 4 à 5. Une typologie représentative a été mise en place pour chaque secteur et les scénarios nécessaires pour effectuer les simulations définis. Une matrice de sélection du type de système par type de bâtiment a été fixée. Un niveau simplifié de modélisation des systèmes compatible avec les outils de prévision d'énergie a été employé. Vu le très grand nombre de variables à étudier, le nombre de simulations à effectuer et le traitement des résultats nécessite un temps énorme. Ce problème a été résolu par l'emploi de plans d'expériences fractionnaires. Cette méthode est nouvelle dans le domaine du bâtiment et répond à la question fréquente de réduction du nombre de simulation. Un modèle paramétrique de consommation a ainsi été élaboré. Il permet d'évaluer l'effet de chaque paramètre étudié sur les différentes postes consommateurs et la consommation annuelle totale. Ce modèle pourra servir à déduire la rentabilité des solutions et contribuer à une optimisation économique. La thèse traite la question d'un effet contradictoire possible de l'isolation sur la minimisation des consommations de refroidissement et de chauffage. Deux secteurs principaux du tertiaire sont étudiés: bâtiments de bureaux et bâtiments de santé. Le premier secteur est présenté dans l'intégralité de ses aspects tandis que le deuxième est traité brièvement. Le travail a permis d'élaborer une méthodologie complète pour minimiser les consommations énergétiques annuelles et pour étudier l'effet de chaque paramètre sur cette consommation.
|
Page generated in 0.4636 seconds